Está en la página 1de 360

Machine Translated by Google

Mejorar Petróleo y Gas


Exploración con
Basado en datos
Geofísica y
Petrofísica
Modelos
Machine Translated by Google

Negocios de Wiley & SAS


Serie
La serie de negocios de Wiley & SAS presenta libros que ayudan a los gerentes de alto nivel con
sus decisiones de gestión críticas.
Los títulos de Wiley & SAS Business Series incluyen:

Analítica: la forma ágil de Phil Simon

Análisis en un mundo de Big Data: la guía esencial para la ciencia de datos y sus
Aplicaciones de Bart Baesens

Una guía práctica de análisis para gobiernos: uso de Big Data para el bien por Marie Lowman

Fraude bancario: uso de la tecnología para combatir las pérdidas por Revathi
subramaniano

Análisis de Big Data: convertir Big Data en mucho dinero por Frank Ohlhorst

Big Data, Big Innovation: permitir la diferenciación competitiva a través de


Analítica empresarial de Evan Stubbs

Business Analytics para Customer Intelligence por Gert Laursen

Inteligencia de Negocios Aplicada: Implementando una Información Efectiva y


Infraestructura de tecnología de comunicaciones por Michael Gendron

Business Intelligence y la nube: Guía de implementación estratégica por Michael S. Gendron

Transformación empresarial: una hoja de ruta para maximizar la organización


Perspectivas de Aiman Zeid

Conexión de silos organizativos: llevar la gestión del flujo de conocimientos al siguiente


nivel con las redes sociales por Frank Leistner

Atención médica basada en datos: cómo Analytics y BI están transformando el


Industria de Laura Madsen

Entrega de Business Analytics: Directrices prácticas para las mejores prácticas por
Evan Stubbs

Pronóstico impulsado por la demanda: un enfoque estructurado para el pronóstico, segundo


Edición de Charles Chase

Optimización y reabastecimiento de inventario impulsado por la demanda: creación de una


cadena de suministro más eficiente por Robert A. Davis
Machine Translated by Google

Desarrollo del capital humano: uso de análisis para planificar y optimizar su


Inversiones en aprendizaje y desarrollo por Gene Pease, Barbara
Beresford y Lew Walker

La guía del ejecutivo para la estrategia empresarial de redes sociales: cómo social
Las redes están transformando radicalmente su negocio por David Thomas y Mike
Barlow

Pronósticos Económicos y Empresariales: Análisis e Interpretación


Resultados econométricos por John Silvia, Azhar Iqbal, Kaylyn Swankoski,
Sarah Watt y Sam Bullard

Modelado económico en la era posterior a la gran recesión: datos incompletos,


Mercados imperfectos de John Silvia, Azhar Iqbal y Sarah Watt
Casa

Mejore la exploración de petróleo y gas con modelos geofísicos y petrofísicos basados


en datos de Keith Holdaway y Duncan Irving

Informes financieros en moneda extranjera de euros a yenes a yuanes: una guía de


conceptos fundamentales y aplicaciones prácticas por Robert Rowan

Aproveche Big Data de petróleo y gas con análisis: optimice la exploración y


Producción con modelos basados en datos por Keith Holdaway

Análisis de salud: Obtener información para transformar la atención médica por Jason
Burke

Heurística en análisis: una perspectiva práctica de lo que influye en nuestro


Mundo analítico de Carlos Andre Reis Pinheiro y Fiona McNeill

Análisis de capital humano: cómo aprovechar el potencial de su


El mayor activo de la organización por Gene Pease, Boyce Byerly y Jac
fitz-enz

Implemente, mejore y amplíe sus datos longitudinales estatales


Sistema: Creación de una cultura de datos en la educación por Jamie McQuiggan y
Armistead Sapp

Calificación crediticia inteligente: construcción e implementación de un mejor riesgo crediticio


Cuadros de mando, segunda edición por Naeem Siddiqi

Killer Analytics: las 20 métricas principales que faltan en su balance general por Mark
Marrón

Aprendizaje automático para especialistas en marketing: mantenga las matemáticas por Jim Sterne

Entrenador en cámara: herramientas y técnicas para profesionales de negocios en un


Video-Driven World por Karin Reed
Machine Translated by Google

Análisis predictivo para recursos humanos por Jac Fitz-enz y John


mattox II

Análisis empresarial predictivo: Capacidades prospectivas para mejorar


Rendimiento empresarial por Lawrence Maisel y Gary Cokins

Analítica empresarial impulsada por las ganancias: una guía profesional para la transformación

Big Data en Valor Agregado por Wouter Verbeke, Cristian Bravo, y


bart baesen

Retail Analytics: El arma secreta por Emmett Cox

Análisis de Redes Sociales en Telecomunicaciones por Carlos Andre Reis


Pinheiro

Pensamiento estadístico: mejora del rendimiento empresarial, segunda edición por


Roger W. Hoerl y Ronald D. Snee

Estrategias en la ciencia de datos biomédicos: fuerza impulsora de la innovación por Jay


Grabados

Estilo y estadísticas: el arte de la analítica minorista por Brittany Bullard

Domar el maremoto de big data: encontrar oportunidades en enormes datos


Transmisiones con análisis avanzado por Bill Franks

Demasiado grande para ignorar: el caso comercial de Big Data por Phil Simon

El ejecutivo hotelero analítico por Kelly A. McGuire

El valor de Business Analytics: identificar el camino hacia la rentabilidad mediante


Evan Stubbs

La organización visual: visualización de datos, Big Data y la búsqueda de


Mejores decisiones de Phil Simon

Uso de Big Data Analytics: convertir Big Data en mucho dinero por
jared decano

Gane con Advanced Business Analytics: Creación de valor empresarial a partir de su


Datos de Jean Paul Isson y Jesse Harriott

Para obtener más información sobre cualquiera de los títulos anteriores, visite
www.wiley.com.
Machine Translated by Google

Mejorar el aceite y
Exploración de
gas con datos
Geofísica y
petrofísica
Modelos

Keith R. Holdaway
Duncan HB Irving
Machine Translated by Google

Copyright © 2018 por SAS Institute Inc. Todos los derechos reservados.

Publicado por John Wiley & Sons, Inc., Hoboken, Nueva Jersey.

Publicado simultáneamente en Canadá.

Ninguna parte de esta publicación puede reproducirse, almacenarse en un sistema de recuperación o


transmitirse de ninguna forma ni por ningún medio, ya sea electrónico, mecánico, fotocopiado, grabado,
escaneado o cualquier otro, excepto según lo permita la Sección 107 o 108 de la Ley de Estados Unidos de 1976.
Ley de derechos de autor de los Estados Unidos, sin el permiso previo por escrito del editor o la autorización
mediante el pago de la tarifa correspondiente por copia a Copyright Clearance Center, Inc., 222 Rosewood Drive,
Danvers, MA 01923, (978) 750-8400, fax (978) 646-8600, o en la Web en www.copyright.com. Las solicitudes de
autorización al editor deben dirigirse al Departamento de permisos, John Wiley & Sons, Inc., 111 River Street,
Hoboken, NJ 07030, (201) 748-6011, fax (201) 748-6008, o en línea en www . .wiley.com/go/permissions.

Límite de responsabilidad/Descargo de responsabilidad de la garantía: Si bien el editor y el autor han realizado


sus mejores esfuerzos para preparar este libro, no hacen declaraciones ni garantías con respecto a la precisión
o integridad del contenido de este libro y específicamente renuncian a cualquier garantía implícita de
comerciabilidad. o aptitud para un propósito particular. Los representantes de ventas o los materiales de ventas
por escrito no pueden crear ni extender ninguna garantía. Los consejos y estrategias contenidos en este documento
pueden no ser adecuados para su situación. Deberías consultar con un profesional apropiado. Ni el editor ni el
autor serán responsables de ninguna pérdida de ganancias ni de ningún otro daño comercial, incluidos, entre
otros, daños especiales, incidentales, consecuentes o de otro tipo.

Para obtener información general sobre nuestros otros productos y servicios o para obtener asistencia técnica,
comuníquese con nuestro Departamento de atención al cliente dentro de los Estados Unidos al (800)
762-2974, fuera de los Estados Unidos al (317) 572-3993 o fax (317) 572 -4002.

Wiley publica en una variedad de formatos impresos y electrónicos y por impresión bajo demanda.
Es posible que parte del material incluido con las versiones impresas estándar de este libro no se incluya en los
libros electrónicos o en la impresión bajo demanda. Si este libro hace referencia a medios como un CD o DVD
que no está incluido en la versión que compró, puede descargar este material en http://booksupport.wiley.com.
Para obtener más información sobre los productos Wiley, visite www.wiley.com.

Los datos de catalogación en publicación de la Biblioteca del Congreso están disponibles:

Nombres: Holdaway, Keith R., autor. | Irving, Duncan HB, 1971– autor.
Título: Mejore la exploración de petróleo y gas con modelos geofísicos y petrofísicos basados en datos / por
Keith R. Holdaway, Duncan HB Irving.
Otros títulos: Mejore la exploración de petróleo y gas con geofísica basada en datos
y modelos petrofísicos
Descripción: Hoboken, Nueva Jersey: Wiley, 2018. | Incluye referencias bibliográficas e indice. |

Identificadores: LCCN 2017027921 (imprimir) | LCCN 2017040698 (libro electrónico) |


ISBN 9781119302599 (pdf) | ISBN 9781119302582 (epub) | ISBN 9781119215103
(tapa dura)
Materias: LCSH: Petróleo—Prospección—Matemáticas. | Prospección—Métodos geofísicos—Matemáticas. |
Petróleo—Geología—Modelos matemáticos. | BISAC: NEGOCIOS Y ECONOMÍA / Industrias / Industrias
Energéticas.
Clasificación: LCC TN271.P4 (ebook) | LCC TN271.P4 H653 2018 (imprimir) |
DDC 622/.1828: registro dc23
LC disponible en https://lccn.loc.gov/2017027921

Diseño de portada: Wiley


Imagen de portada: © naqiewei/Getty Images

Impreso en los Estados Unidos de América.

10 9 8 7 6 5 4 3 2 1
Machine Translated by Google

Keith Holdaway: A mi paciente y amorosa familia, Patricia,


mi esposa y mis hijos, Elyse e Ian.

Duncan Irving: A Sarah, mi esposa y mis hijos, Alfred, Edwin


e Ingrid, quienes han tenido que soportar menos tiempo de papá
de lo normal durante esta creación. ¡Lo siento y gracias!
Machine Translated by Google

Contenido

Prólogo XV

Prefacio XXI

Agradecimientos xxiii

Capítulo 1 Introducción a los conceptos basados en datos 1


Introducción 2
Enfoques actuales 2 ¿Existe
una crisis en el análisis geofísico y petrofísico? 3 Aplicación de
un enfoque analítico 4 ¿Qué son los análisis y la ciencia de
datos? 5 Mientras tanto, de vuelta en la industria petrolera 8
¿Cómo hago análisis y ciencia de datos? 10 ¿Cuáles son las
partes constituyentes de un upstream?

¿Equipo de ciencia de datos? 13


Cronología de un estudio basado en datos 15
¿Qué es la ingeniería de datos? 18 Un
flujo de trabajo para comenzar 19
¿Es inducción o deducción? 30 Referencias
32

Capítulo 2 Métodos analíticos basados en datos utilizados en E&P 34


Introducción 35
Conjuntos de datos espaciales 36

Conjuntos de datos temporales 37


Técnicas de computación suave 39
Nomenclatura de minería de datos 40
Árboles de decisión 43
Métodos basados en reglas 44
regresión 45
Tareas de clasificación 45
Metodología de conjunto 48
Mínimos cuadrados parciales 50
Redes neuronales tradicionales: los detalles 51
Redes neuronales simples 54

ix
Machine Translated by Google

x CONTENIDO

Bosques aleatorios 59
Aumento de gradiente 60
Descenso de gradiente 60
Aprendizaje automático factorizado 62
Computación evolutiva y algoritmos genéticos 62
Inteligencia artificial: máquina y aprendizaje profundo 64
Referencias 65

Capítulo 3 Geofísica y petrofísica avanzada


Metodologías 68
Introducción 69
Metodologías geofísicas avanzadas 69 ¿Cuántos
clústeres? 70 Estudio de caso: Sinopsis del
yacimiento maduro del Mar del Norte 72 Estudio de caso: Trabajo
con datos sísmicos pasivos 74
Metodologías petrofísicas avanzadas 78
Tipos de datos petrofísicos y de registro de pozos 78
Recopilación y calidad de datos 82 ¿Qué nos dicen los
datos de registro de pozos? 84 Información estratigráfica
86 Integración con datos estratigráficos 87 Extracción de
información útil de informes de pozo 89 Integración con
otra información de pozo 90 Integración con otros dominios
técnicos en el pozo

Nivel 90
Ideas fundamentales 92
Ingeniería de funciones en registros de pozos 95
Hacia el aprendizaje automático 98
Casos de uso 98
Observaciones finales 99
Referencias 99

Capítulo 4 Monitoreo continuo 102


Introducción 103
Monitoreo Continuo en el Yacimiento 104
Técnicas de aprendizaje automático para datos temporales 105
Perspectivas espaciotemporales 106
Análisis de series de tiempo 107
Predicción avanzada de series temporales 108
Análisis de la brecha de producción 112
Teoría del procesamiento de señales digitales 117
Monitoreo y mapeo de fracturas hidráulicas 117
Evaluación de Terminaciones 118
Machine Translated by Google

CONTENIDO xi

Monitoreo de yacimientos: calidad de datos en tiempo real 119


Detección acústica distribuida 122
Detección de temperatura distribuida 123
Estudio de caso: Serie temporal para optimizar la fractura hidráulica
Estrategia 129
Caracterización de yacimientos y diagramas de Tukey 131
Referencias 138

Capítulo 5 Caracterización sísmica de yacimientos 140


Introducción 141
Caracterización sísmica de yacimientos: parámetros clave 141
Análisis de componentes principales 146
Mapas autoorganizados 146
Redes Neuronales Artificiales Modulares 147
Análisis Wavelet 148
Escalogramas Wavelet 157
Descomposición espectral 159
Primeras llegadas 160
Supresión de ruido 161
Referencias 171

Capítulo 6 Análisis de atributos sísmicos 174


Introducción 175
Tipos de atributos sísmicos 176
Flujos de trabajo de atributos sísmicos 180
Proceso SEMMA 181
Clasificación de facies sísmicas 183
Conjunto de datos de facies sísmicas 188

Estudio de Facies Sísmicas: Preprocesamiento 189


Agrupamiento jerárquico 190
Agrupamiento k-medias 193
Mapas autoorganizados (SOM) 194
Mezclas Normales 195
Análisis de clases latentes 196
Análisis de componentes principales (PCA) 198
Evaluación estadística 200
Referencias 204

Capítulo 7 Geoestadística: integración de datos sísmicos


y petrofísicos 206
Introducción 207
Descripción de datos 208
Interpretación 210
Estimación 210
Machine Translated by Google

xii CONTENIDOS

La covarianza y el variograma 211 Estudio de


caso: Modelo de permeabilidad anisotrópica pronosticado
espacialmente 214 ¿Qué es la anisotropía? 214 Análisis
con eliminación de tendencias de superficie 215

Kriging y Co-kriging 224


Inversión Geoestadística 229
Atributo geofísico: Impedancia acústica 230
Propiedades petrofísicas: densidad y litología 230
Síntesis de conocimiento: máxima entropía bayesiana
(BME) 231
Referencias 237

Capítulo 8 Inteligencia artificial: mecánica y profunda


Aprendizaje 240
Introducción 241
Gestión de datos 243
Metodologías de aprendizaje automático 243
Aprendizaje supervisado 244
Aprendizaje no supervisado 245
Aprendizaje semisupervisado 245
Técnicas de aprendizaje profundo 247
Aprendizaje semisupervisado 249
Aprendizaje supervisado 250
Aprendizaje no supervisado 250
Arquitecturas de redes neuronales profundas 251
Red neuronal delantera profunda 251
Red neuronal profunda convolucional 253
Red neuronal profunda recurrente 260
Codificador automático de eliminación de ruido apilado 262
Flujo de trabajo de identificación de elementos sísmicos 268
Enfoque de reconocimiento de patrones eficiente 268
Métodos y tecnologías: descomposición de imágenes en
parches 270
Representación de parches con un diccionario 271
Codificador automático apilado 272
Referencias 274

Capítulo 9 Estudios de casos: aprendizaje profundo en E&P 276


Introducción 277
Caracterización de yacimientos 277
Estudio de caso: análisis de perfil sísmico 280
Experimentos supervisados y no supervisados 280
Resultados no supervisados 282
Machine Translated by Google

CONTENIDO xiii

Estudio de caso: Recuperación final estimada 288


Aprendizaje profundo para el modelado de series temporales 289
Problemas de escalado con grandes conjuntos de datos 292
Conclusiones 292
Estudio de caso: aprendizaje profundo aplicado a datos de pozos 293
Introducción 293
Máquinas de Boltzmann restringidas 294
Matemáticas 297
Estudio de caso: Extracción de características geofísicas: Profundo
Redes neuronales 298
Desarrollo de capas CDNN 299
Estudio de caso: Evaluación impulsada por datos de registros
de pozos para perspectivas petrofísicas 302
Estudio de caso: análisis de datos funcionales en un yacimiento
Gestión 306
Referencias 312

Glosario 314

Sobre los autores 320

Índice 323
Machine Translated by Google

Prefacio

Recuerdo vívidamente la primera vez que conocí a Keith Holdaway. Fue


hace 14 años y estaba parado en la primera fila de una conferencia de
análisis. Obtuvo un perfil distintivo cuando desafió al orador en el podio,
afirmando con bastante terquedad que la industria del petróleo y el gas
podría obtener grandes ganancias al utilizar un enfoque más basado en
datos que explotara todo el potencial de la analítica. Cuando era joven (o
eso pensaba de mí mismo en ese momento), se me encomendó la tarea
de vender software analítico a compañías de petróleo y gas upstream.
Con antecedentes en tecnología, me di cuenta de que este caballero era
el guía que estaba buscando e hice una nota mental para buscarlo a la
hora del cóctel.
En aquel entonces, en 1989, el campo petrolero digital era el tema
del día, prometiendo rendimientos impresionantes. A medida que la
industria adoptó el concepto de manera más completa durante la próxima
década, observé que las empresas realizaban importantes inversiones en
soluciones de datos específicas para automatizar y resolver una amplia
gama de problemas. Los líderes de opinión aceptaron con entusiasmo la
aplicación de análisis basados en datos, pero la adopción no fue
necesariamente tan generalizada como se hubiera pensado. La adopción
dispersa creó sus problemas, ya que las empresas a veces ejecutaban
cientos de aplicaciones dispares y terminaban con silos de datos en sus
organizaciones. La promesa permaneció.
Un avance rápido hasta 2014 y el primer libro de Keith, Harness Oil
and Gas Big Data with Analytics, que llegó justo antes de que el crudo
cayera a mínimos históricos. En retrospectiva, su libro parece casi
profético, ya que el entusiasmo de la industria por el análisis basado en
datos ha sido impulsado en parte por el potencial de generar un mayor
valor de sus activos frente a un precio por barril mucho más bajo. Muchos
de los principales actores, y varios líderes de pensamiento influyentes
entre las compañías petroleras más pequeñas, han realizado inversiones
sustanciales en esta área, y hay más por venir.

XV
Machine Translated by Google

PRÓLOGO _

Cada vez más, me contactan clientes que buscan científicos de datos, solicitan
capacitación y buscan orientación sobre la mejor manera de implementar programas
de análisis avanzados. A menudo les indicamos el libro de Keith, entre otros
recursos en SAS y en otros lugares, para ayudarlos a validar el mejor camino a
seguir.
De ahí la génesis de este nuevo libro. El interés en su primer libro ha sido tan
constante que sus colegas le rogaron a Keith que escribiera un segundo volumen:
un texto más particular que profundice en la aplicación de enfoques basados en
datos en el sector de la exploración. Keith y su colega, el Dr. Duncan Irving, han
escrito un libro invaluable que explora las metodologías basadas en datos en las
disciplinas de geofísica y petrofísica.

Y el momento es el adecuado. Estamos siendo testigos de una convergencia sin


precedentes de big data y tecnología en la nube con aumentos masivos en el poder
de cómputo en un momento en que un clima de precios bajos ha hecho que impulsar
la eficiencia sea un requisito absoluto.
Agregue a eso la afluencia de Millennials sintonizados con la tecnología en la fuerza
laboral, y los profesionales del petróleo y el gas están al borde de una nueva era de
oportunidades para transformar su negocio.
No tengo ninguna duda de que este volumen será una valiosa adición

al creciente cuerpo de recursos enfocados en esta apasionante área.


Durante años de trabajo en el nexo de la energía y la tecnología, Keith se ha
convertido en mentor y amigo. Su colega es un geofísico reconocido a nivel mundial
que trabaja en el campo del análisis de datos y aporta ideas innovadoras a la
ciencia en evolución de las tecnologías informáticas y basadas en datos. Este nuevo
e importante libro es el resultado de años de profundo trabajo en esta área y una
verdadera pasión por el tema, abordado con la misma determinación que vi al frente
de esa sala de conferencias hace muchos años. Me siento honrado de presentar
este libro: Mejore la exploración de petróleo y gas con modelos geofísicos y
petrofísicos basados en datos.

ros graham,
Director, Petróleo y Gas Américas

Calgary, junio de 2017


Machine Translated by Google

Prefacio

El campo petrolero es una de las industrias más ricas en datos del


mundo, y la información real (a diferencia de los datos virtuales
generados por la web y otros entornos virtuales) puede reclamar la
industria con mayor uso intensivo de datos. La mayoría de las
organizaciones, si son honestas consigo mismas, rara vez capitalizan
el potencial de la analítica y el 'big data'. Los autores de este libro
abordan las trampas más comunes que acechan a la analítica y
brindan un marco integral y una hoja de ruta, desde la perspectiva
de la exploración y la producción, para lograr el objetivo real de la
analítica: simplificar, acelerar o hacer posible la traducción de datos
en datos rentables y rentables. resultados sostenibles.
Para liberar el poder de la analítica, primero se debe comprender
lo que son y lo que no son. Los análisis son procesos centrados en
datos que, si se diseñan y ejecutan correctamente, generarán
conocimientos y resultados. Cada aspecto del proceso debe recibir
la debida diligencia, y el enfoque del esfuerzo siempre debe ser
agregar valor a la organización.

LO QUE NO ES ANALÍTICA

El error más común al comprender la analítica es confundir el


chisporroteo con el bistec, es decir, combinar la percepción de una
cosa con la sustancia de la cosa. Muchos gerentes e incluso
profesionales técnicos aceptan la idea errónea de que el análisis es
la recopilación y visualización de datos mediante tablas y gráficos
coloridos. Esto no solo es incorrecto, sino que existe un peligro tácito
en esta suposición porque puede limitar significativamente los
esfuerzos analíticos futuros que, per se, no producen una imagen
atractiva. Debe entenderse, por tanto, que los cuadros de mando y

xvii
Machine Translated by Google

xviii PRÓLOGO

Los informes son uno de los muchos resultados de los análisis y, si bien son
los más visibles, es posible que no sean los más valiosos.

QUÉ SON LOS ANALÍTICOS

Los análisis son procesos de varios pasos que transforman datos de una o
más fuentes en información que conduce a cambios en acciones y
comportamientos; y, si una organización no está dispuesta a hacer ninguna
de las dos, se debe reconsiderar la inversión en análisis. Este libro, más que
cualquier otro anterior, detalla un enfoque simple, pero sólido, para
desarrollar un plan analítico que conduzca al éxito. Aunque las metodologías
de análisis varían según la consulta, la mayoría de los procesos deben
contener al menos lo siguiente:

ÿ Modelado de datos. La planificación analítica debe garantizar, dentro


de los límites prácticos, que se identifiquen de antemano los datos
necesarios y suficientes.

ÿ Recopilación de datos con enfoque de calidad. La identificación y la


gestión de datos adversos a menudo requieren muchos más recursos
y son más problemáticas que los datos que faltan.
La adquisición de datos reales a menudo implica especificaciones
técnicas y contractuales rigurosas que incluyen definiciones
detalladas de las propiedades de los datos. ÿ Gestión de datos:
cómo se transferirán, almacenarán y
asegurada, transformada y distribuida.
fi Análisis—Comprender qué métodos analíticos son los más apropiados
según los tipos de datos y las preguntas formuladas, así como la
velocidad y precisión de los resultados deseados.

fi Comunicación—Determinar los modos más eficientes e influyentes en


los cuales comunicar datos a aquellos
quién debería o podría consumirlo, ya sean informes formales,
presentaciones, correo electrónico, redes sociales, audiovisuales o
una combinación de estas y otras formas.
Machine Translated by Google

PRÓLOGO xix

ÿ Gestión del Cambio. Quizás la parte más importante, aunque


tristemente pasada por alto, de un proyecto de análisis implica:
identificar, antes de que comience el trabajo, quiénes son todas
las partes interesadas (o clientes) relevantes, documentar
claramente sus necesidades y acordar de antemano si cambiará
o cómo cambiará. proceso podría ocurrir en base a los resultados de los análisis.

Nathan Zenero
Presidente,
Verion Tecnologías Aplicadas
Machine Translated by Google

Prefacio

Nuestra motivación para escribir este libro proviene de la curiosidad profesional


y la experiencia que hemos acumulado durante los últimos años en la industria
del petróleo y el gas. Hemos notado y seguimos siendo testigos de las luchas
entre los geocientíficos y sus múltiples conjuntos de datos espaciales y
temporales. La interpretación tradicional puede proporcionar ciertas respuestas
basadas en la física newtoniana y las leyes fundamentales de la naturaleza,
pero con tantos datos acumulados con sensores en esta era digital, es
necesario casar la interpretación determinista con flujos de trabajo basados en
datos y modelos de computación blanda.

Debido a la naturaleza cíclica de la industria del petróleo y el gas, hemos


visto precios del crudo históricamente bajos desde 2015.
Esta última recesión, como las recesiones históricas anteriores, sacudió la
industria hasta el punto de una reacción exagerada: personas que perdieron
sus medios de subsistencia, reducción de OPEX y cancelación de proyectos,
particularmente en exploración. Es en estos puntos de transición donde las
empresas de petróleo y gas buscan mejores prácticas y procesos de trabajo
más eficientes. Esto invariablemente resulta en la adopción de tecnologías no
necesariamente nuevas en otras industrias. Hoy vemos una mayor adopción
de la computación suave y el análisis basado en datos para complementar la
interpretación tradicional.
Dados estos escenarios de recesión cíclica, nos preguntamos, estando
en el punto más bajo de una recesión actual: ¿Qué está pasando en la industria
del petróleo y el gas hoy?
Somos conscientes de la drástica caída de los precios del petróleo crudo
que impulsa la marcha de la industria hacia la adopción de nuevas tecnologías,
como los flujos de trabajo analíticos y de computación blanda.
Las compañías de petróleo y gas se dan cuenta de que el ascenso desde el
fondo del ciclo es un proceso lento y tiene muchas influencias globales y locales.
Demasiada oferta y débil demanda global juegan en un escenario dinámico.

xxx
Machine Translated by Google

XXII PREFACIO

Las compañías de petróleo y gas actualmente contemplan inversiones


serias a corto plazo para desarrollar activos globales, pero le corresponde a
la industria actuar con cautela. Seremos testigos de un aumento
inexorablemente lento de los precios del petróleo, con la oferta mundial
limitada por la reducción de los proyectos de desarrollo de reservas en los últimos años.
Muchos ingenieros talentosos han dejado la industria, y los caprichos
de la organización interna, junto con sistemas, procesos y actitudes
inflexibles y complejos, podrían frenar cualquier metodología y mejores
prácticas innovadoras y en evolución. Los COI y los CON están considerando
seriamente un entorno de digitalización que utilice análisis avanzados para
los nuevos flujos de trabajo diarios. Las empresas de servicios, los
proveedores de análisis y las capacidades internas están surgiendo para
abordar estas necesidades. Esto permitirá a las compañías de petróleo y
gas hacer frente a las recesiones actuales y futuras de la industria.

Vemos este libro como una contribución para capacitar a los


geocientíficos upstream en el análisis basado en datos en geofísica y
petrofísica. Esperamos que sirva para reunir a los profesionales de los flujos
de trabajo informáticos upstream convencionales con la nueva generación
de analistas y científicos de datos y generar coincidencias y puntos en
común para que puedan comprender las perspectivas, los enfoques y el
papel de los demás en este nuevo panorama informático.
Machine Translated by Google

Expresiones de gratitud

Nos gustaría reconocer y agradecer a todos los colaboradores y


revisores del manuscrito, especialmente a Dan Whealing de PGS
por recorrer con su ojo experto las porciones de datos sísmicos
del libro. Stacey Hamilton del Instituto SAS ha sido una editora
alentadora y paciente sin la cual este libro nunca se habría
completado. Nos gustaría agradecer a nuestros colegas de la
industria que han brindado comentarios constructivos,
especialmente Kathy Ball de Devon Energy y Steve Purves de
Euclidity, por garantizar la relevancia y aplicabilidad de los
contenidos. Deseamos reconocer la investigación del Dr. Alexander
Kolovos para una sección del Capítulo 7 ("Síntesis del
conocimiento") y de Vipin P. Gupta, Dr. E. Masoudi (Petronas) y
Satyajit Dwivedi (Instituto SAS) para una sección de Capítulo 4
(“Análisis de brechas de producción”).

XXIII
Machine Translated by Google

Mejorar Petróleo y Gas


Exploración con
Basado en datos
Geofísica y
Petrofísica
Modelos
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

CAPÍTULO 1
Introducción
basado en datos
Conceptos

1
Machine Translated by Google

“El hábito es el hábito y ningún hombre debe arrojarlo por la


ventana, sino convencerlo para que baje un paso a la vez”.
Mark Twain

INTRODUCCIÓN

Enfoques actuales

Deseamos ventilar algunas de las consideraciones prácticas más importantes


acerca de hacer que los datos estén disponibles para su uso basado en datos. Esto
podría ser para estudios estáticos fuera de línea o para revisiones en línea
operativas. Presentamos el concepto de ingeniería de datos, cómo diseñar datos
para un uso adecuado fuera de las aplicaciones de dominio, y llevamos al lector
desde los primeros pasos para comenzar hasta pensamientos sobre análisis de
datos altamente operacionalizados.

Un equipo de geociencia utilizará una amplia colección de métodos,


herramientas y conjuntos de datos para lograr la comprensión científica. La
diversidad de datos abarca mediciones sísmicas previas al apilamiento voluminosas
hasta mediciones de un solo punto de una litología de roca en un afloramiento. Los
enfoques de modelado están limitados por:

fi Tamaño y escasez de datos fi

Complejidad computacional fi Tiempo

disponible para lograr una solución “suficientemente buena” fi

Computación en la nube fi Presupuesto

ÿ Lubricación de flujo de trabajo

Es esta última restricción la que ha demostrado ser el mayor inhibidor del


surgimiento de un enfoque basado en datos en exploración y producción (E&P). Es
un motivo de la facilidad con la que los datos y la información se mueven de una
pieza de software a otra.
Estas limitaciones han llevado a una infraestructura digital frágil.
Esto es problemático no solo en los silos geocientíficos individuales

2
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 3

sino también a través del dominio más amplio de E&P. potencialmente podemos
excluir una gran variedad de tipos de datos y restringir la innovación
metodologías debido a las pilas de hardware/software actuales
que han evolucionado simbióticamente. El panorama centrado en la aplicación socava
las soluciones de E&P que se esfuerzan por integrar conjuntos de datos
multidimensionales y multivariantes.

No estaba destinado a ser de esta manera. Cuando todo comenzó, se


estaba bien que las decisiones se tomaran en la cabeza de un experto. Las
computadoras de alto rendimiento (HPC) fueron herramientas poderosas que dieron a la
expertos mejores imágenes o simulaciones más robustas, pero al final
del flujo de trabajo, todo ese cálculo numérico condujo a una decisión humana basada
en la experiencia de ese ser humano y su equipo
de compañeros Actualmente, hay demasiado en juego en este enfoque.
Entonces, ¿cómo nos volvemos impulsados por los datos si es difícil llegar a ellos?
¿los datos?

¿Hay una crisis en la geofísica?


y análisis petrofísico?
Existe un movimiento para adoptar flujos de trabajo analíticos basados en datos
en toda la industria, particularmente en E&P. Sin embargo, hay un
grupo existente de luditas que no proporciona una crítica constructiva sino una retórica
deliberada y subversiva para socavar la

implementación inevitable de análisis basados en datos en la industria. Es cierto que


los científicos de datos a veces carecen de datos experimentales.
de naturaleza robusta. ¿Qué tan seguros estamos de que podemos cuantificar
incertidumbres? ¿Cómo podemos entender las cosas que se manifiestan
en el mundo real, en los yacimientos de hidrocarburos?
Argumentan que sin pruebas experimentales concretas, la teoría alberga el riesgo de
retraerse en la metafísica. Profético
y los modelos prescriptivos son sólo la fuente de los principios filosóficos.
discurso. Es equivalente a resolver el problema de cuántos
los duendes viven al final de nuestro jardín. La ciencia no es filosofía. Así, sin recurrir
a la experimentación, los geocientíficos juegan
en el terreno de la pura especulación y marcha hacia lo metafísico
tamborileo de los filósofos antiguos. El deslizamiento hacia la metafísica es
Machine Translated by Google

4 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

no siempre claro. El lenguaje de los desconcertantes algoritmos matemáticos puede


enmascararlo. La física teórica, especialmente la física cuántica, y las teorías que
sustentan las geociencias y las disciplinas de ingeniería de E&P pueden estar repletas
de estructuras matemáticas opacas, impermeables y espinosas. Los luditas, que
examinan las técnicas informáticas blandas y los flujos de trabajo basados en datos,
son traicionados al creer que solo las altas matemáticas y las leyes físicas clásicas
deben brindar rigor, una sabiduría de lo absoluto, la lucidez de la variación entre el
bien y el mal.

Sin duda hay rigor. Pero las respuestas que obtenemos dependen mucho de las
preguntas que hacemos y de la forma en que las hacemos. Además, los primeros
principios se pueden aplicar incorrectamente y el problema comercial no se resuelve
para los ingenieros que hacen las preguntas.
Entonces, no hay crisis a menos que deseemos crear una. El matrimonio entre
la interpretación determinista tradicional y el aprendizaje profundo basado en datos
y la extracción de datos es una unión que, cuando se establece sobre la base del
reconocimiento mutuo, aborda una sobreabundancia de problemas comerciales.

Aplicar un enfoque analítico


La premisa de este libro es demostrar el valor de adoptar un enfoque basado en
datos. En pocas palabras, si los datos pudieran hablar por sí mismos, ¿qué aprendería
más allá de lo que pueden decirle sus aplicaciones actuales?

En primer lugar, es la experiencia de muchas otras industrias que se puede


establecer un contexto estadístico. Esto podría ser

en torno a probar la validez de una suposición científica asumida (por ejemplo,


inundación de agua versus compactación de sobrecarga que es la causa de un
cambio de velocidad 4D) o podría estar demostrando si un conjunto de observaciones
son convencionales o atípicos cuando

visto en la formación, cuenca o escala análoga.


La cosecha actual de aplicaciones:

fi Carecen de la plataforma computacional para el análisis de escalamiento

horizontal fi Solo pueden consumir y analizar datos para los que tienen
un filtro de entrada
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 5

ÿ Solo pueden usar algoritmos que están disponibles en el código base o a


través de sus interfaces de programación de aplicaciones
(API)

Discutimos con mayor detalle más adelante cómo obtener datos G&G
(geológicos y geofísicos) en un formato utilizable, pero primero establezcamos la
visión de lo que podría ser plausible, y esto nos lleva al mundo de la analítica.

¿Qué son los análisis y la ciencia de datos?

Analytics es un término que ha sufrido un uso excesivo. Significa muchas cosas en


muchas industrias y disciplinas, pero casi universalmente se acepta que significa
análisis matemático y estadístico de datos para patrones o relaciones.

Usamos este término en industrias ricas en clientes y transacciones.

intentos, así como dominios donde las empresas operan con márgenes mínimos.
En el Reino Unido, en la década de 1950, Lyons Tea Company implementó lo que
ahora reconocemos como inteligencia comercial centralizada. Era una computadora
digital que realizaba análisis en toda la cadena de suministro de todo el imperio:
miles de salones de té y cientos de panaderías. Su análisis comercial creció a partir
de su capacidad para comprender y articular sus procesos comerciales con respecto
a un modelo de datos: una descripción de las relaciones entre entidades como el
cliente y los artículos de inventario. El equipo que construyó este sistema (llamado
Leo) pasó a crear plataformas similares para otras organizaciones e incluso vendió
espacio informático.

Esto presagiaba los mainframes centrales de IBM por una década, las cadenas de
suministro de Starbucks por cuatro décadas y la cooperación/competencia de
recursos informáticos iniciada por Amazon.
Esta historia está bien documentada (Ferry, G., 2010, “A Computer called LEO”) y
vale la pena tenerla en cuenta, a medida que entendemos cómo se aplica el
paradigma al dominio geocientífico.
Adelantémonos a finales de la década de 1990 y la evolución

de Internet más allá de sus patrias académicas y militares.


Los datos se pueden recopilar de toda una organización y transmitirse dentro,
alrededor y más allá de sus límites convencionales.
Machine Translated by Google

6 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Esto no dio a las empresas ninguna razón técnica para evitar emular el ejemplo de
Lyons de 40 años antes, y aquellos que pudieron explotar la capacidad de procesar y
asimilar sus datos para lograr un impacto comercial se adelantaron a aquellos que
demostraron no estar dispuestos o no pudieron adoptar este potencial técnico.
"Competir en análisis" de Davenport es una descripción fascinante de este período
dinámico en la historia de los negocios (Davenport, Harris, 2007).

Además de la capacidad de mover datos utilizando protocolos bien diseñados e


implementados (es decir, a través de Internet), los datos fueron generados por:

fi Interacciones entre personas y organizaciones a través de interfaces como


terminales de punto de venta o cajeros automáticos fi Comunicaciones entre

individuos y agencias a través de


servicios basados en web

fi La captura de datos a lo largo de una cadena de suministro a medida que los


bienes y materiales, o personas en el caso de las industrias de viajes y
hotelería, se mueven en un sistema complejo

Los datos que surgen de una transacción podrían capturarse trivialmente con
suficiente calidad y riqueza para permitir obtener información estadística, a menudo
en tiempo real, en el caso de evaluar la probabilidad de que alguien que no sea el
propietario de una tarjeta bancaria la esté utilizando en un lugar determinado. y tiempo.

El análisis se proporciona mediante la integración y contextualización de diversos


tipos de datos. Además, se predice mediante el acceso oportuno a datos granulares
confiables. Si observamos los dominios posteriores de nuestra industria, esto sería el
acceso en tiempo real a los datos en tiempo real sobre las operaciones y la
productividad de la refinería y pasarlos a las mesas de negociación para permitir que
se aprovisione la capacidad contra las opciones de precios al contado.

El lujo económico del petróleo de $100 aisló gran parte del dominio upstream de
adoptar este tipo de integración. Con el crecimiento de la perforación estilo fábrica
para áreas productivas no convencionales, los costos de desarrollo y levantamiento
se convirtieron en un componente importante de la
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 7

ciencias económicas. Desde 2014, se ha vuelto menos inusual (pero aún no


generalizado) que los ingenieros de perforación sean guiados en su búsqueda
de las mejores prácticas. Dichas guías incluyen tableros analíticos que son el
resultado de combinar datos petrofísicos, técnicos y operativos en modelos
estadísticos. Los ingenieros pueden utilizar dicha orientación para caracterizar
las probabilidades de falla de la barrena o tubería atascada bajo parámetros
geológicos y operativos dados.
La gran sorpresa de trabajar en este tipo de proyectos no es la voluntad
de los perforadores experimentados de cuello duro para adoptar este enfoque
(el dinero, especialmente los costos ahorrados, siempre habla), sino más bien
que los tipos de datos en cuestión podrían reunirse y usarse en tal una
manera. Esto combinó un enfoque que solía llamarse minería de datos (todavía
es un término apropiado pero ahora está profundamente pasado de moda) y
técnicas de computación blanda, que actualmente se incluyen en la definición
de ciencia de datos.
Para un minero de datos empedernido (y probablemente un ingeniero de
perforación sénior), la ciencia de datos es una de esas necesidades
desagradables de la vida moderna (así que probablemente sea algo
relacionado con la edad). La ciencia de datos es un término general que
abarca las matemáticas, especialmente la experiencia estadística, la
comprensión del dominio y un conocimiento íntimo de los datos del dominio y
los diferentes estándares de formato. Claramente, esto está más allá de las
capacidades de una sola persona, de ahí el concepto ampliamente difundido del unicornio de la
Sin embargo, nuestras experiencias sugieren que dicho equipo debería:

ÿ Estar configurado lo más pequeño posible


ÿ Contener un componente matemático que pueda hacer frente a
las ciencias fisicas
ÿ Lidiar con los peores formatos y los datos más pobres
calidad

La ciencia de datos, bien hecha, ha sido la diferencia entre la liquidez (y


al menos la próxima ronda de capital de riesgo) y la historia para las nuevas
empresas y los titulares de megaescala en muchas industrias en el siglo XXI.
Puede parecer, en el primer encuentro,
Machine Translated by Google

8 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

puede ser un enfoque ad-hoc, no gobernado para trabajar con datos y


trabajar en general, pero ha producido dividendos cuando se aplica
formalmente en una organización.
Si existe la voluntad política en una organización para aceptar y actuar
sobre los hallazgos de las actividades de ciencia de datos, entonces tendrá
un impacto comercial cuantificable. Por lo tanto, es razonable suponer que
la ciencia de datos se convierte en una capacidad medible y valorada en
esa organización. Se requiere un cambio cultural para proporcionar un
impacto generalizado, pero todos debemos comenzar en algún lugar, y los
proyectos pequeños ejecutados con un alcance bien limitado de manera
ágil pueden generar resultados impactantes. El punto final es un
transportador continuo de generación de conocimientos, a través de la
validación comercial y el uso operativo, la mentalidad de DevOps.
Como industria, estamos muy lejos de las pruebas AB de nuestros
procesos en la forma en que los minoristas en línea probarán diferentes
vistas de su sitio web en grupos subseleccionados estadísticamente de su
tele cliente para evaluar la rentabilidad de la sesión (sí, lo hacen). Se puede
aprender mucho sobre el comportamiento de muchas cosas en las que no
pensamos en términos de población (p. ej., pozos, formaciones,
acumulaciones compensadas de trazas), y las relaciones que pueden
existir dentro y entre tales lógicas o agrupaciones estadísticas.

Mientras tanto, de vuelta en la industria petrolera

Con este panorama a la vista, dirijamos ahora la mirada a nuestra industria.


Los flujos de trabajo de E&P están diseñados con el objetivo de brindar
información valiosa sobre el mundo del subsuelo. Los datos se adquieren
a menudo a un alto costo y contienen información de un valor económico
potencialmente enorme. Si bien los tipos generales de datos no han
cambiado mucho desde que se realizaron los primeros estudios sísmicos
y se perforaron los primeros pozos, la escala de adquisición ha aumentado
en órdenes de magnitud.
Todavía estamos tratando de medir las propiedades y comportamientos
del subsuelo y los desarrollos de ingeniería, intervenciones,
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 9

y operaciones que aplicamos al subsuelo. Pero, por el contrario, el


tiempo disponible para brindar información se ha reducido de años a
meses, o incluso a semanas y días. Los flujos de trabajo se comprimen
en respuesta para adaptarse a una toma de decisiones de cartera más
ágil y entornos de producción y desarrollo operacionalizados.
Sin embargo, las unidades de negocios involucradas en el dominio
upstream se han convertido en silos frágiles con sus disciplinas,
procesos y predilecciones tecnológicas con la compartimentación de
datos. Existe un enfoque antiguo para la curación de datos, en el que a
menudo faltan el linaje y la procedencia, y esto conduce a una falta
fundamental de confianza en los datos en las raras ocasiones en que hay
es la voluntad política y física para moverlo de un silo empresarial a otro.

Dado que cada silo está impulsado por sus indicadores clave de
rendimiento (KPI), a menudo pueden estar trabajando en desacuerdo
entre sí. Las capacidades de tecnología de la información (TI) y
tecnología operativa (OT) en cada dominio han impedido que los datos,
utilizados a niveles operativos y tácticos, reciban visibilidad y valor
empresarial. Por lo tanto, no existe una cultura analítica en el dominio
upstream de nuestra industria. (A menudo recurrimos a los dominios de
refinación y comercialización como faros ocasionales de buenas prácticas).
Sin una cultura basada en datos, hay una débil alineación de los
desafíos comerciales entre silos y procesos, y no ha surgido ninguna
capacidad analítica a escala empresarial. La agitación económica de la
caída de precios de 2014/15 sorprendió a la industria y puso al
descubierto su incapacidad para responder a los desafíos a esta escala,
ya que los procesos subyacentes eran muy frágiles. Sin embargo, está
surgiendo un enfoque sobre cómo el costo y el valor pueden vincularse
a procesos y actividades en escalas cada vez más granulares. Esto es
más predominante en los dominios de operaciones y producción, pero
el impacto es tangible.
El riesgo es que se repitan los mismos errores. Existe una
desconfianza cultural entre las unidades operativas de negocio y los
equipos corporativos de TI que deberían o podrían apoyarlos. Esto llevó
Machine Translated by Google

10 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

a la subcontratación del desarrollo de software y procesamiento de datos


a sistemas propietarios desde historiadores de datos hasta adquisición y
procesamiento sísmico. Esta eliminación del control sobre los algoritmos,
las plataformas de datos y las arquitecturas completas en el caso de los
datos de los sensores brindó control sobre cómo los datos pueden
respaldar un negocio a las empresas de servicios y consultorías y es una
de las diferencias más notables entre la industria del petróleo y el gas y
las industrias. mencionado anteriormente.
Corremos el peligro de repetir los mismos errores al posicionar el
análisis como soluciones puntuales que no logran escalar o unirse a otros
esfuerzos analíticos. Sin una cultura basada en datos, no hay propiedad
estratégica de una capacidad de análisis, y es común ver la duplicación
de esfuerzos en los aspectos operativos y de TI del negocio con
competencia por los recursos humanos y de plataforma. Las mismas
empresas de servicios están intentando llenar el vacío ampliando sus
conjuntos de herramientas con soluciones puntuales, lo que exacerba el
problema subyacente de que no existe un enfoque acoplado a una cultura
analítica, las herramientas utilizadas para el análisis o los datos que
proporcionan la visión empresarial. .
Esperamos que este libro muestre cómo se pueden utilizar los datos
sísmicos, del subsuelo y de yacimientos para impulsar el impacto
comercial. Las técnicas que presentamos cubren una amplia gama de
problemas geocientíficos y, si bien pueden ser útiles en sí mismas, son
los enfoques y la mentalidad subyacente los mensajes clave que
deseamos transmitir.
Los precios del petróleo deprimidos se han centrado principalmente en los controles de costos

y en extraer más valor de los flujos de trabajo existentes.

¿Cómo hago análisis y ciencia de datos?


La diferencia fundamental entre la generación de información basada en
datos y las técnicas convencionales es que la primera requiere mucha
mano de obra, mientras que la segunda generalmente solo requiere una
suscripción de software. Si bien la gama y la sofisticación de las
aplicaciones tienen mucho valor, están limitadas en
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 11

el rango de datos que pueden asimilar y la escala a la que pueden


realizar esta adaptación.
Realicemos un experimento mental interesante para ver cómo se
puede lograr una visión multifuncional utilizando un equipo de ciencia
de datos. Existe la necesidad obvia de patrocinio comercial a través
del impacto comercial esperado. Ofrecer una nueva perspectiva del
comportamiento de la propiedad X en el contexto de la propiedad del
escenario Y es un buen punto de partida. Volviendo a nuestro
perforador, sería interesante comprender los modos de operación
que se deben evitar en cada contexto petrofísico y geomecánico, y
basar esto en las experiencias obtenidas durante varios cientos (o
miles) de campañas de perforación.
¿Cómo se puede lograr este objetivo? Primero, consideraremos
qué recursos se necesitan en un esfuerzo típico y cuándo se
implementan a lo largo de un flujo de trabajo. En esta etapa, nos
preocupamos por extraer información basada en datos para aprender algo nuevo.
Más adelante discutiremos qué hacemos con esta información y qué
impacto podría tener. ¿Afectará los procesos operativos?
¿Impulsará nuevos enfoques técnicos? ¿Es algo que se puede usar
para generar una regla o parametrizar un modelo? En una
implementación en constante evolución, ¿cómo se pone en práctica
la información?
Para permitir que los datos se conviertan en información, se requiere una variedad
de conjuntos de habilidades, que se dividen en tres dominios amplios:

fi El dominio de datos: qué describen los datos, cómo se


almacenan, cómo se puede acceder a ellos, cómo se
formatean, cómo se ven (datos demográficos y textura, más
sobre esto más adelante). Hemos hecho que esto sea
extremadamente difícil para nosotros en la industria del
petróleo y el gas manteniendo todo en silos de aplicaciones e
insistiendo en mover las cosas usando formatos torpes
especificados hace décadas (hay buenas razones para esto, pero aun así).
fi El dominio del problema: esto es lo que dificulta la industria del
petróleo y el gas. Los problemas son algunos de los
Machine Translated by Google

12 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

más difícil, allá arriba con los alunizajes, y requiere una gran
capacidad intelectual, así como algoritmos matemáticos muy
sofisticados para simular los procesos y la dinámica de nuestro
espacio. Los algoritmos se han vuelto tan eruditos que ahora
impulsan flujos de trabajo de estufa y es muy difícil poner en
juego el contexto y los conocimientos de otros dominios.

fi El dominio analítico está pobremente restringido. No estaríamos


escribiendo un libro sobre enfoques basados en datos en esta
industria si fuera una disciplina bien establecida. Una comprensión
de los métodos estadísticos es un requisito previo. Sin embargo,
los métodos que se han vuelto convencionales en otros
las industrias a veces se sientan incómodas y requieren una
implementación práctica frente a datos feos, procesos físicos
sutiles e idiosincrasias operativas que desafían la caracterización.

Cada dominio contiene desafíos específicos del negocio, así como


requisitos técnicos. Se necesitan aportes de la empresa para garantizar
que el esfuerzo tenga validez e impacto, además de brindar experiencia
en la materia.

fi Los datos son escasos en algunas dimensiones y finamente


muestreados en otras (p. ej., pozos o volúmenes sísmicos). A
menudo es costoso de adquirir, pero rara vez se lo considera un
activo, o se lo trata como un subproducto de una actividad
costosa, pero se descarta como un escape digital. Requiere una
considerable experiencia en la materia junto con habilidades de
ingeniería de datos que van desde scripts de shell convencionales
hasta XML, JSON y análisis binario.
fi El espacio del problema exige una sólida comprensión de las
ciencias físicas y las matemáticas para acompañarlo si se va a
generar el valor. El nivel de matemáticas generalmente implica
cierto nivel de habilidad informática en la mayoría de los
protagonistas, pero esto rara vez se aprende formalmente o es
escalable, y rara vez tiene algún componente estadístico.
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 13

fi La analítica en petróleo y gas ha visto una tasa de adopción lenta a medida que
el software analítico y estadístico ha encontrado mercados más propicios.
Muchas verticales comerciales adoptan estándares de datos más consistentes
y los problemas comerciales parecen más fáciles de resolver con resultados
más tangibles y cuantificables. Los obstáculos clave que encontraron los
autores en su implementación de análisis han sido aplicar análisis a series de
tiempo y desarrollar estrategias para superar la escasez de datos en una
dimensión u otra. También existen importantes desafíos computacionales en
la conducción de análisis con datos ascendentes.

¿Cuáles son las partes constituyentes de un equipo


de ciencia de datos upstream?

Por lo tanto, un equipo que trabajará en proyectos basados en datos necesita una
combinación de geociencias, ciencias físicas, matemáticas, estadísticas e informática
respaldada por una arquitectura de datos. A través de la experiencia, ha quedado
claro que una formación en ciencias físicas y un promedio de varios años de
experiencia en la industria es un requisito previo para la entrega, a menos que un
equipo esté feliz de que las personas aprendan en el trabajo. Esta combinación de
habilidades y experiencia es el ingrediente clave necesario para realizar la ciencia de
datos, y es muy probable que un científico de datos aguas arriba posea la mayoría de
estas habilidades.

Advertimos enfáticamente contra tomar un grupo de recursos generales de ciencia


de datos y aplicarlos en el dominio ascendente.
Existe una necesidad definitiva de desarrollar una fuerte superposición de habilidades
en un equipo de este tipo para un trabajo productivo para hacer frente a las personas
que entran y salen de un proyecto. Más específicamente, un equipo de ciencia de
datos que no tenga una experiencia significativa en el dominio upstream o un conjunto
de habilidades matemáticas que abarque tanto las ciencias físicas como las estadísticas
avanzadas fracasará, lo que generará consecuencias presupuestarias y de reputación.
En consecuencia, hay mucho que decir sobre traer métodos de otras industrias y
espacios problemáticos, pero debe ser
Machine Translated by Google

14 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

anclado con una fuerte superposición en las dimensiones de datos,


problemas y análisis para un alto impacto.
La otra cara de esto también es problemática. Definimos un estudio
basado en datos como la colocación de los datos y las ideas de un dominio
en el contexto de los de otro dominio. Si un estudio es demasiado estrecho
en su alcance, corre el riesgo de ser comparado desfavorablemente con
aplicaciones, algoritmos o flujos de trabajo bien establecidos. Es probable
que cualquier conocimiento nuevo sea incremental y se debe aplicar mucho
trabajo preliminar a los datos para establecer un valor único del esfuerzo
derivado. Además, solo tendrá un impacto empresarial en el nivel en el que
los datos se utilicen de forma aislada. Cuantos más datos
tipos, mayor será el impacto potencial, ya que el espacio del problema
aborda más de un sistema o cadena de valor. Otro problema encontrado
son las nociones preconcebidas derivadas de la formación profesional de la
industria que, en ocasiones, conducen a la aceptación de un proceso,
relaciones o correlaciones que no son estadísticamente ciertas.
Existe una tensión o un compromiso que debe abordarse en actividades
repetidas basadas en datos. Siempre se realiza una inversión en tiempo y
recursos en el primer encuentro con un nuevo tipo de datos y un problema,
ya que un equipo se familiariza con los datos, comprende su comportamiento
y aplica técnicas analíticas y visualizaciones adecuadas. Debería haber un
retorno de esta inversión, pero al mismo tiempo un equipo de ciencia de
datos debe mantener su objetividad y mantenerse al tanto de los nuevos
enfoques y técnicas que podrían implementarse. Es un riesgo organizacional
incorporar un equipo de ciencia de datos durante un período prolongado
(más de 3 a 6 meses) en cualquier proyecto o dominio, y esto se ha
reconocido durante mucho tiempo en otras industrias donde los KPI
estratégicos imponen la "rotación de cultivos". El espacio upstream es lo
suficientemente diverso como para promover una buena evolución de la
ciencia de datos y trayectorias profesionales; las disciplinas individuales,
como la perforación o el monitoreo de yacimientos, son demasiado limitadas
para sostener un equipo de ciencia de datos intelectualmente capacitado,
sin importar cuán larga sea la lista de proyectos deseados.
Los equipos sólidos de ciencia de datos son interdisciplinarios, rápidos
para colaborar, enfocados en el negocio, efectivos y eficientes con el
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 15

uso de la tecnología y cómodo con el fracaso (ocurrirá de vez en cuando). Vale la


pena reflexionar sobre si el dominio upstream actualmente es capaz de crear o
atraer personal que pueda prosperar en tales equipos.

UNA CRONOGRAMA DE ESTUDIO BASADO EN DATOS

Si se está embarcando en un estudio basado en datos por primera vez, es una


curva de aprendizaje empinada pero estimulante. Uno de los mayores desafíos
será mostrar valor en un marco de tiempo específico. Ya sea que el proyecto esté
en el entorno comercial o académico, los recursos se comprometen como parte de
una consideración económica y es posible que solo tenga estos recursos (personas
y plataforma informática) disponibles durante un período finito.

Cuantas más personas participen en el estudio, más dependencias deberá


enfrentar en su compromiso. Además, a menudo existe la necesidad de garantizar
que todos los miembros del equipo estén alineados en el progreso y la visión, por
lo que se debe realizar una revisión, un reenfoque y una planificación regulares.
Una metodología ágil funciona bien en este contexto como un buen compromiso
entre experimentación y productividad. Las tres actividades principales son:

1. Aprenda algo nuevo de sus activos de datos: ¿Hay algún patrón, tendencia
o relación en sus datos que le indique algo que nadie haya visto antes?

2. Coloque ese conocimiento en un contexto de negocios: ¿Agrega valor,


ahorrar costos, cambiar el proceso operativo?

3. Documente todo: lo más probable es que esta no sea la última vez que
haga esto. Registre código, métodos, problemas, cifras e informes.

Las tres áreas deben ser vistas como áreas de resultados y

debe ser explícito en la planificación, financiación, ejecución y presentación de


informes de un proyecto. A escala de una organización grande, si se implementan
métodos basados en datos para complementar y mejorar los enfoques existentes,
entonces una visión a más largo plazo de
Machine Translated by Google

16 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

se debe desarrollar una implementación sostenible y escalable.


Los estudios más pequeños son la vanguardia de este movimiento y son una forma
de aprender cómo realizar técnicas basadas en datos, de ahí la necesidad de
comprender los desafíos y beneficios comerciales, técnicos y de procesos.

Siendo realistas, un pequeño estudio basado en datos es de una a ocho semanas.


Un estudio de una semana tiene la misma escala que un “hackatón” de codificación.
Este es un evento que se ha hecho popular en muchas organizaciones donde el uso
de la tecnología es un diferenciador competitivo. Permite la experimentación de bajo
riesgo con software (ya menudo hardware) por parte de equipos de profesionales (p.
ej., modeladores matemáticos) y partes interesadas del negocio (p. ej., ingenieros de
perforación) para probar ideas. Esta premisa general se extiende a marcos de tiempo
más largos en función de las consideraciones sobre la ingeniería de datos, el tiempo
proyectado para generar valor comercial y la complejidad de las tareas analíticas. En
nuestra experiencia, de seis a ocho semanas es un cronograma típico para un proyecto
de descubrimiento exitoso.

Para un estudio de estilo de descubrimiento puro, se debe construir un conjunto


simple de puertas de enlace de flujo de trabajo, que normalmente son las siguientes:

fi Trabajo de anteproyecto:

fi Identificar el caso de uso.


fi Definir datos.

fi Acordar los criterios de éxito. ÿ

Preparación de datos: ÿ Adquirir datos. ÿ

Cargar datos en un área de

preparación. ÿ Preparación del trabajo:

fi Comprender los conjuntos de herramientas.

fi Identificar paquetes analíticos. ÿ

Paquetes de trabajo: ÿ Ejecutar paquetes

analíticos.
ÿ Documentación continua.

fi Revisar, obtener comentarios y planificar el próximo paquete.


Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 17

ÿ Revisión:

fi Presente a las partes interesadas.

fi Revisar y obtener retroalimentación.

El trabajo previo al proyecto podría tomar varias semanas de reuniones y


solicitudes de datos hasta que haya un acuerdo entre todas las partes involucradas de
que hay suficientes datos disponibles para permitir los resultados.

que justifiquen el esfuerzo y la dotación de recursos. La preparación de datos y la


ingeniería de datos son a menudo los aspectos de los proyectos con el alcance más
pobre. Si un equipo se encuentra con un tipo de datos por primera vez, no es raro que
se dediquen unos cientos de horas-persona a desbloquear la estructura y el
comportamiento de los datos; la sísmica previa al apilamiento entraría en esta
categoría. Por el contrario, analizar unos pocos miles de archivos Log ASCII Standard
(LAS) en un formato utilizable suele ser cuestión de horas, ya que el formato se
entiende bien y

herramientas disponibles gratuitamente.

Una vez que se ha definido el estudio y se han cargado y entendido los datos,
puede comenzar el trabajo analítico. Una comprensión compartida de las posibles
preguntas comerciales en todo el equipo que realiza el análisis y cualquier parte
interesada es vital, incluso si es simplemente "¿Qué hay en mis datos petrofísicos que
no he detectado cuando se ven a escala de cuenca?" Es probable que las herramientas
analíticas se acuerden en esta etapa, y se debe desarrollar una comprensión de la
forma y el tamaño de cada uno de los pasos.

Se podría aplicar una metodología ágil de planificación, dimensionamiento y ejecución


si el estudio va a durar más de unos pocos días.
El reagrupamiento regular para garantizar la alineación del esfuerzo es vital, y si
se lleva a cabo durante varias semanas, se necesitan revisiones periódicas con las
partes interesadas para garantizar que se gestionen las expectativas, se comunique el
valor y se puedan extraer nuevas ideas si el progreso lo permite. Todo el tiempo, la

documentación debe ser una actividad de fondo. Hay varias herramientas disponibles
que permiten almacenar y compartir código en repositorios en línea (públicos o
privados, por ejemplo, Github). Hay plataformas simples y un servicio que los equipos
pueden usar para documentar su trabajo (p. ej., Júpiter,
Machine Translated by Google

18 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Apache Zeppelin) con código de trabajo y algoritmos estadísticos.


Es necesario proporcionar visualizaciones interactivas para ayudar a
comunicar los resultados de su análisis. Esto garantiza que los
conocimientos puedan vivir mucho más allá de la finalización del proyecto
en lugar de fosilizarlos en PDF y PowerPoint.

¿Qué es la ingeniería de datos?

Para este libro, consideramos la ingeniería de datos como el diseño y la


implementación de un marco de acceso a datos. Cubre la extracción
de datos, metadatos e información de los archivos de origen y
transformarlos en un formulario, vista o conjunto de datos analíticos para
permitir el análisis basado en datos. Debe considerar la gobernanza en
torno a la seguridad, la calidad y el linaje y la ingeniería, la reutilización de
datos, la extensibilidad y la escalabilidad en tamaño, complejidad y
velocidad de ejecución también pueden ser consideraciones.
Fundamentalmente, es el puente cultural entre el mundo curacional de la
gestión de datos del subsuelo y el dominio de análisis y ciencia de datos que produce inf
Al igual que en un proyecto de construcción, donde un arquitecto debe
escuchar al cliente y crear un edificio que al mismo tiempo esté alineado
con una visión compartida y satisfaga las necesidades del cliente, el
ingeniero debe ejecutar estos requisitos utilizando su comprensión y
experiencia. con los aspectos prácticos de los materiales a utilizar.

Por lo tanto, en un entorno de análisis basado en datos, las cosas


podrían ser tan simples como alinear una colección de muestras de series
temporales de dominios de datos dispares a lo largo de una línea de
tiempo probada constantemente, o podrían ser un desafío como ingerir
datos sísmicos pasivos de cientos de sensores y extraer patrones y
características para análisis operacionalizados.
Si el estudio basado en datos es una actividad única, entonces
avergüénzate por la falta de visión. Exploremos este camino
momentáneamente y luego sigamos adelante. Los datos deben extraerse de un archivo
formato, una base de datos de aplicación o alguna otra forma de
mecanismo de transferencia (Excel, texto sin formato) y luego limpiado, validado y
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 19

colocados en alguna estructura que permita el análisis. Esto podría ser una
tabla en una base de datos, un marco de datos en R o Python, o alguna
estructura personalizada en cualquiera de las muchas plataformas de
procesamiento de números de big data. El esfuerzo se ha gastado sin ningún valor que mostrar.
Antes de gastar energía, piense en el futuro y considere lo que podría
suceder si los conocimientos de su análisis basado en datos se consideran
valiosos. Se le pedirá que lo repita con un conjunto de datos más grande,
algoritmos más sofisticados, combinado con otros tipos de datos y más. ¿Tendrá
que repetir todos los pasos y hacer el mismo esfuerzo, o puede repetir, reutilizar,
escalar y ampliar? sus esfuerzos con facilidad? Si respondemos negativamente,
entonces debe considerar su enfoque de la ingeniería de datos.

Un flujo de trabajo para empezar


Ofrecemos un conjunto de principios rectores en lugar de una metodología
rígida. La cantidad de tiempo dedicado a preparar los datos para su uso y
diseñar una funcionalidad más robusta en torno a su trabajo se rige por la
calidad de los datos, el volumen y la estructura de los datos, cuánta integración
se requiere y qué tan rápido debe funcionar todo el flujo de trabajo. realizarse,
desde datos puntuales hasta datos transmitidos de forma continua.

Nos mantendremos alejados de las arquitecturas de procesamiento de flujo


y permaneceremos en la parte menos profunda del conjunto de análisis para
tratar de exponer los datos en su nivel más granular, llevarlos a un nivel de
calidad adecuado para el análisis y aplicar el contexto utilizando cualquier
metadato y mediante integración con otros datos. Lo que sigue es un flujo de
trabajo más o menos lineal con la advertencia de que debe esperar iteraciones
a través de él hasta que llegue a un conjunto de datos y a los conocimientos
resultantes que sean lo suficientemente sólidos como para impulsar una decisión comercial.

Abriendo los datos

El primer paso práctico es hacerse con los datos. A menudo, este es un desafío
tanto político como práctico. Se debe ganar la confianza, generalmente con la
promesa de una participación en el proyecto.
Machine Translated by Google

20 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

y un intercambio de resultados. A la hora de solicitar datos, pide la mayor


cantidad posible. Eso no es idealismo hablando; eso es una solicitud de
metadatos. Cuando pides "todo", puedes ignorar los datos sin importancia a tu
antojo; pero al preguntar por las curvas “brutas” se da cuenta de que se olvidó
de pedir las cabeceras de los pozos, y así sucesivamente, se entiende la idea.
Comprenderá que necesita datos sobre los datos (metadatos) y algunos datos
de referencia (datos maestros), como la Lista de curvas maestras de curvas de
pozos o los términos estratigráficos oficiales utilizados por su organización o
cliente. Este es su primer paso en el camino hacia el contexto y, por lo tanto,
hacia la iluminación.

En muchas compañías de petróleo y gas, es difícil ubicar, o algunas veces


acceder, la versión "oficial" o "correcta" de dichos datos y existe un área gris
que está habitada por la versión favorita o más confiable de las personas de un
conjunto de datos o referencia determinada. mesa. Todos hemos visto ejemplos
de este mundo turbio, y verificar la veracidad de los datos a medida que pasan
de una aplicación de dominio a la siguiente es una de las principales pérdidas
de tiempo en los flujos de trabajo de análisis del subsuelo.

Metadatos, maestros y datos de medición

Los metadatos son una necesidad en el mundo de los datos del subsuelo. Es el
ancla para todas esas medidas e interpretaciones físicas.
Como geocientíficos, nos gusta pensar que sabemos exactamente cuándo y
dónde se realizaron todas nuestras costosas mediciones. En el mundo real, es
habitual escuchar anécdotas sobre la pérdida de la línea base geodésica y el
elipsoide de referencia cuando un sistema se migra de una base de datos a otra
como parte de una actualización tecnológica o cuando otra organización lo
adquiere.
Afortunadamente, nuestros administradores de datos del subsuelo son
personas inteligentes, incluso si los sistemas que deben usar no lo son, y sus
comités técnicos crearon formatos de intercambio de datos para varios tipos de
datos que han resistido la prueba de varias décadas (algo que casi todos los
demás formatos de archivo tienen). no pudo hacer!). Todos los conjuntos de
datos sísmicos, de pozos y de producción contienen datos que le indican al
usuario (en texto legible por humanos) cómo desempaquetar los datos y qué necesita cada uno
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 21

medios de campo. Como mínimo, tenemos un marco lógico, si no


espacial o cronológico, desde el cual partir. Si tiene suerte, tendrá
suficientes metadatos en forma de encabezados, comentarios y datos
maestros adjuntos que le permitirán ubicar sus datos de medición en el
contexto espacial y lógico correcto.

La ubicación de estos metadatos está bien definida (y bien adherida,


por lo general) en formatos como SEG-Y (sísmico) y LAS (registro de
pozo), y lo que el ojo humano puede leer fácilmente ahora se asimila
fácilmente analizando scripts en una variedad de idiomas. A un equipo
de ciencia de datos consistente le resultará sencillo analizar encabezados
de trazas, encabezados de pozos o cualquier otro metadato de la
industria para extraer la información necesaria sobre nombres de
encuestas/pozos y ubicaciones de puntos de profundidad común (CDP)/cabeceras de po
Varios proyectos de código abierto ahora están alojados en bases de
código público como "Github" para comenzar.

Tipos de datos

Consideremos brevemente las tres clases principales de datos que se


encuentran en el dominio del subsuelo y reflexionemos sobre el
retos de cada clase. Nuestros datos suelen ser una medición o conjunto
de mediciones en un lugar y en un momento determinado.
Tomamos medidas físicas en bruto y realizamos todo tipo de limpieza,
interpolación y refactorización para dar una mejor medida pero, en bruto
o sintético, estamos tratando de describir el subsuelo en el espacio y el
tiempo. También habrá información contextual contenida en el texto que
puede ser necesario extraer e integrar a escala.

Datos cronológicos

Más allá de las mediciones de un solo punto, las series de tiempo son
los tipos de datos más simples. Por lo general, son mediciones de la
misma propiedad en el mismo lugar, idealmente a intervalos regulares.
Si el intervalo es irregular, entonces alguna interpolación y remuestreo
Machine Translated by Google

22 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

a menudo se requiere una estrategia para proporcionar un conjunto de datos


consistente (las computadoras y, lo que es más importante, nuestros algoritmos
prefieren el muestreo regular). El análisis a menudo requiere preguntarle a un sistema
qué está sucediendo en un punto en el tiempo, o en una ventana discreta si la
restricción de concurrencia se puede relajar justificadamente.
Los datos cronológicos se convierten mejor a un tipo de datos de marca de
tiempo de la Organización Internacional para la Estandarización (ISO), que requiere
un análisis cuidadoso, conversión y concatenación de datos que a menudo vienen en
formato de día juliano si un barco ha estado involucrado en su adquisición (por
ejemplo, datos sísmicos).
Como un caso especial de datos temporales, los registros de pozos representan
una serie de tiempo, enmascarados como un conjunto de datos 1D más simple.
Recuerde que el registro de pozos es una colección de propiedades de la roca
detectadas a una tasa de muestreo regular mientras se extrae una herramienta de
registro de un pozo. Esto luego se convierte a una profundidad de fondo de pozo, pero
debe tenerse en cuenta que pueden ocurrir desajustes, y los registros compuestos no
son inmunes a los errores que se producen cuando los registros se han realizado a
diferentes velocidades por parte de diferentes contratistas.
De manera similar, los datos de imágenes sísmicas también son una colección
de ventanas de series temporales discretas. El tiempo es un tiempo de viaje de ida y
vuelta, y los datos se presentan como conjuntos de series de tiempo adjuntas a puntos
fijos en una encuesta. Los datos sísmicos preapilados son más complejos, ya que el
tiempo se convierte en una ruta de acceso crítica cuando se ensamblan eventos
simultáneos, como una recopilación de disparos.
Si bien estos dos últimos ejemplos de series de tiempo pueden parecer artificiales,
ilustran el hecho de que es necesario reflexionar detenidamente sobre las preguntas
que hacemos sobre nuestros datos antes de planificar cómo almacenar y acceder a
nuestros datos para su análisis. Los estándares de la industria para formatos de datos
se desarrollaron para una transferencia de datos sólida e infalible , y no para el acceso
ad-hoc a datos granulares a escala.

Consideremos el caso más simple más de cerca. Imagine que tenemos un solo
sensor tomando una medida a intervalos frecuentes y regulares (un segundo, por el
bien de este ejemplo).
Supongamos que medimos una propiedad que cambia rápidamente
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 23

lo suficiente como para que necesitemos muestrearlo cada segundo, y es parte de un


sistema de control operativo que podemos aprovechar por razones lógicas. Nos gustaría
comprender el comportamiento a escala a largo plazo (p. ej., semana-mes) de nuestra
propiedad. Abordaremos los tipos de análisis que son apropiados para esto más
adelante; basta con decir que tendremos un conjunto de datos muy largo y delgado.
Rápidamente llenaremos una hoja de cálculo más allá del punto en que un cerebro y un
ojo humanos puedan extraer información significativa y, además, presentará un desafío
de indexación si se almacena como un solo archivo físico.

Para series de tiempo precisas, puede ser necesario volver a muestrear a una
marca de tiempo estándar para el análisis o, mejor, usar una base de datos de series de
tiempo. Esta es una clase emergente de bases de datos que permite extraer y comparar
rangos de datos históricos incluso cuando los eventos no se encuentran en marcas de
tiempo exactas. Hasta hace poco, esto no se incorporó a las principales bases de datos,
pero el surgimiento de la agenda de Internet de las cosas (IOT) y su equivalente industrial
han visto una inversión considerable en capacidades analíticas basadas en el tiempo.

Para los datos 1D que resultan ser una serie temporal discreta (rastros sísmicos y
registros de pozos), todavía hay que tomar decisiones sobre cómo acceder a los datos
en la serie temporal. Sin embargo, esto debe equilibrarse con la forma en que se indexa

cada medición. Agregar índices adicionales para este, norte, tiempo de adquisición (o
identificador de levantamiento para sísmica 4D), nombre de parámetro (para registros
de pozos) y compensación (para sísmica previa al apilamiento) requiere almacenamiento
adicional. Dichas necesidades de almacenamiento deben justificarse en cuanto al valor
de proporcionar tantas formas de acceder a los datos para un análisis instantáneo.

Datos espaciales

Los datos espaciales presentan su clase de problemas, que se tratan de manera


eficiente en muchas otras publicaciones. Para una base sólida en la teoría, recomendamos
Modelado de datos espaciales para SIG 3D (Abdul-Rahman y Pilouk, 2008) como punto
de partida. La mayoría de los enfoques analíticos deberían admitir alguna representación
espacial de las relaciones entre los datos. Es posible
Machine Translated by Google

24 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

descomponga cualquier conjunto de datos 2D o 3D en su forma más granular


donde el valor analítico lo requiera. Al igual que con los datos de series
temporales, se convierte en una serie de decisiones de diseño sobre cómo
proporcionar acceso a escala y un grado de rendimiento.
La capacidad de acceder a subconjuntos geoespaciales de datos contiguos
se usa a menudo para datos geológicos específicos. Veremos en los casos
de uso petrofísicos que es más frecuente el caso de que hay relaciones en
juego en los datos que están ocultos para nosotros. Insistimos en almacenar
y manipular los datos como una unidad 2D o 3D en lugar de dejar que los
datos nos muestren las dimensiones en las que contienen la mayor cantidad
de información.
Siempre que el gobierno de datos sea sólido, es decir, no pierda la
información (también conocida como datos maestros) sobre los sistemas de
referencia de coordenadas, los elipsoides de referencia y el dato de referencia
de un conjunto de datos, entonces es posible tomar relaciones más abstractas
en los datos y proyectarlos fielmente en nuestro mundo físico.

Datos textuales

Los datos textuales en este sentido se refieren a documentos, así como a


campos de comentarios dentro de las aplicaciones, que contienen información
escrita que se puede incorporar en un estudio basado en datos. Esto es más
típicamente para agregar contexto a los datos numéricos en lugar de como
una fuente de datos estadísticos o de medición por derecho propio. El análisis
de texto es un área de investigación masiva y lo presentamos aquí para
señalar su aplicabilidad y su baja barrera de entrada.
En su forma más simple, el análisis de texto busca palabras y grupos de
palabras en un documento. El objetivo final es destilar un documento en un
vocabulario reducido que pueda extenderse a otros tipos de datos.
Algunos ejemplos son la inspección de equipos y las notas operativas, la
interpretación geológica o las observaciones durante la adquisición sísmica.
Se identifican palabras comunes y luego se inspeccionan tuplas de dos, tres y
cuatro palabras en busca de un contexto más profundo (por ejemplo, arenisca,
arenisca de grano fino, arenisca fina).
Se pueden hacer ajustes de ortografía y, eventualmente, se puede derivar
un vocabulario reducido. Donde la calidad de los datos
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 25

es alto, ha sido posible desarrollar modelos predictivos de validez variable, y Chen et


al. analizan enfoques estadísticos más sofisticados en esta área. (2010).

Por lo tanto, la transformación no es una simple manipulación geométrica o


estructural de los datos. Es la extracción de información contenida en los datos,
información que luego se

convirtiéndose en una propiedad o atributo para brindar contexto sobre una ubicación,
área, evento, período, etc. Mantenga este pensamiento a medida que avanzamos en
la ingeniería de características.

Hacer que sus datos sean utilizables

Una capacidad crítica en su conjunto de habilidades de ciencia de datos es la


capacidad de comprender cuándo tiene un problema de calidad de datos. Es sencillo
inspeccionar los datos y ver dónde aparecen los caracteres no numéricos donde
espera ver un número. Sin embargo, requiere grados crecientes de sofisticación para
establecer cuál es el rango de valores permitidos; cuál debería ser la precisión
esperada; o si un espacio en blanco, un valor nulo, un NaN (no un número) o un valor
(por ejemplo, ÿ999 en archivos LAS) debe respetarse y resolverse mediante imputación.
Los datos deben diseñarse de tal manera que las reglas se desarrollen y apliquen de
manera consistente, de acuerdo con un experto en el dominio cuando sea necesario,
para garantizar que la información sea sólida desde el primer paso y que cualquier
trabajo futuro se base en bases sólidas.

Tratar con datos de mala calidad mediante la eliminación de valores puede


conducir a otro problema: la escasez de datos. ¿Hay suficiente información contenida
en un conjunto de datos para obtener información significativa? La escasez también
requiere reglas. Si faltan datos, ¿debería usarse el último valor, un valor nulo o un
valor interpolado? Si se interpola, ¿qué enfoque se debe utilizar?

Si los datos son propensos a errores, principalmente errores instrumentales,


entonces se deben usar métodos estadísticos para suavizarlos. Dichos enfoques
podrían ser tan simples como una media móvil, aplicada al pasar una ventana a lo
largo de un conjunto de datos, a técnicas estadísticas más sofisticadas, incluido el
control de procesos estadísticos y la ventana móvil.
Machine Translated by Google

26 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

análisis de componentes principales (PCA). Esto es ingresar al territorio del análisis de


series de tiempo, y hay una multitud de técnicas que se pueden implementar. Como en
el mundo real, es factible limpiar demasiado los datos; un filtro de suavizado o una
interpolación demasiado agresiva eliminará los detalles y la variabilidad que contiene la
información requerida para el análisis. Aquí es donde una iteración a través de la
experiencia en el dominio es vital para garantizar que los datos y las percepciones sean
estadísticamente válidos mientras se retiene la mayor cantidad de información posible
en los datos de origen. Una buena ingeniería de datos permitirá que esto se construya y
agregue de manera eficiente.

El camino hacia la perfección de la ciencia de datos

Pedimos disculpas por el encabezado irónico, ya que la perfección es algo que vemos
muy lejos al momento de escribir, y algo que esperamos ver que cambie en nuestro
mundo de las geociencias muy pronto. Esperamos que el siguiente razonamiento,
basado en muchos proyectos analíticos ejecutados por los autores, muestre el valor de
hacer que el flujo de trabajo de preparación de datos sea lo más sólido posible antes de
embarcarse en lo que puede parecerle a una parte interesada comercial como la
actividad de análisis de alto valor. Nuestra experiencia da lugar a un enfoque cauteloso
y mesurado.

Perfilado de datos

La creación de perfiles de datos va más allá de la verificación básica de errores para


decirnos algo sobre el comportamiento o el carácter de los datos. Las métricas simples,
como su variabilidad o desviación estándar, son útiles, al igual que los rangos, las
medias y las medianas. Esta es estadística elemental, pero es un dominio matemático
que muchos geocientíficos pueden no haber encontrado durante algún tiempo. Ilustramos
esto con datos de registro de pozos en el Capítulo 3, sobre datos petrofísicos, donde la
elaboración de perfiles estadísticos a nivel de formación es una métrica simple y eficiente
que se puede almacenar junto con los datos sin procesar.

En un nivel más generalizado, considere una serie de datos infinitamente larga.


Hay una señal contenida en los datos, y para
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 27

un experimento mental puede ser una señal armónica simple con


mucho ruido de fondo. Imagine que está escuchando una flauta que
se toca a través de una pared delgada y la ventana está abierta, por
lo que el ruido del tráfico está en el fondo y debe filtrarse.
Supongamos que una flauta toca una nota tonal de concierto de A por
encima de C central (440 Hz) y el sonido se muestrea durante 1 ms;
entonces adquieres 1000 bytes por segundo. Suponemos que puede
describir la amplitud de su micrófono en un byte de 32 bits (esto es
razonable, así que no se lo piense demasiado).
Ahora, ¿qué pasa si el tono de la flauta sube y baja por cualquier
razón? Como experto en la materia (es decir, usted es el vecino que
escucha esto todo el día y todos los días) observa que este subir y
bajar de una nota constante no es abrupto sino que cambia ligeramente
durante un período de muchos segundos. Continuando en este mundo
imaginario y fingiendo que tenemos la tarea de monitorear el tono de
la flauta en el transcurso de varias horas, digamos que solo tenemos
una hoja de cálculo para ese propósito. Se hace evidente que
superaremos las limitaciones de tamaño en cuestión de
minutos si intentamos registrar la intensidad del sonido medida por un
micrófono cada milisegundo.
Esta es la idea de perfilar superficies. No son los datos en bruto,
sino la frecuencia (o el tono) de los datos en un instante dado lo que
nos interesa. Además, como la frecuencia varía lentamente, solo
requiere muestras cada diez segundos, según nuestra experiencia en
la materia. Por lo tanto, ahora tenemos un número, el tono, que
describe los datos en un período determinado, digamos cada segundo.
Esto proporciona toda la información relevante, pero reduce el volumen
de contenedores en tres órdenes de magnitud. Es posible que se
requiera un procesamiento de la señal para extraer esto del ruido de
fondo, pero un filtrado sensato lo logrará y dejará intacta la señal necesaria.
Ahora considere el ruido de fondo. Existe el zumbido constante
del tráfico y, potencialmente, el extraño avión. Notamos que cuando
un avión pasa por encima, la música se vuelve más animada con
secuencias de notas que se tocan. Nuestro vecino flautista es
aficionado a los aviones y la vista de un avión eleva la música. Si nosotros estamos
Machine Translated by Google

28 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

al calcular la desviación estándar (una medida de la variabilidad) en los datos


a lo largo del tiempo, vemos que tiene un mayor rango y una desviación
estándar de su tono en esos momentos y una regresión lineal realizada por el
científico de datos respalda esto fácilmente.
¿Hay alguna forma de caracterizar lo que juega nuestro vecino cuando se
avista un avión? La hay, y esto es ingeniería de funciones. Vemos que hay un
patrón característico de las notas, por ejemplo, y siempre escuchamos una
progresión de las mismas cuatro notas cuando miramos un plano. Esta
progresión es un patrón o característica que debemos mantener ya que ahora
tenemos una advertencia temprana de que se acerca un avión y debemos
cerrar nuestras ventanas para evitar el ruido ensordecedor. Acabamos de
realizar un experimento mental de ingeniería de características.

Ingeniería de funciones

Usando el ejemplo de un conjunto de notas para definir una característica,


debería ser evidente que hay muchas aplicaciones para esto en los datos de
geociencias. Esto podría ser el estado del mar o el comportamiento de las
mareas en las operaciones marítimas, una litofacies en un registro de pozo,
una facies acústica en un estudio sísmico o un efecto de yacimiento dinámico
observado en la respuesta de producción.
En pocas palabras, la ingeniería de características le permite a un
geocientífico identificar y capturar todos los aspectos emocionantes de un
conjunto de datos que se habría esbozado y anotado en un cuaderno de campo en el
mundo físico. Las técnicas de ciencia de datos conducen a las características
destacadas, y es el experto en la materia (en este libro, el geocientífico) quien
luego asigna el contexto o el significado o de otra manera. Aún mejor es permitir
que otros datos proporcionen el contexto.
Está más allá del alcance de este capítulo revisar casos de uso específicos
o algoritmos como datos, y los enfoques matemáticos muestran tanta diversidad
en el dominio de E&P. El propósito de este experimento mental extendido es
mostrar que es al menos
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 29

igualmente útil, si no más, para presentar los datos sin procesar en una forma
accesible y bien seleccionada. También debemos mantener los datos de perfil y las
características clave de los datos junto con ellos. Son las características las que
proporcionan los ganchos analíticos: "¿Dónde escucho esta secuencia de notas?"
se convierte en "¿Dónde veo estas facies?"

Bloques de construcción analíticos

Estas características y parámetros estadísticos se convierten en bloques de


construcción analíticos. A medida que evoluciona la familiaridad con los datos, los
métodos estadísticos se vuelven más sofisticados y abstractos.
Es en el nivel de ingeniería de características que la experiencia en la materia
necesita incorporar muchas de las relaciones científicas en los datos. A riesgo de
insistir en el punto, la calidad de los datos y las estrategias de preparación de datos
son vitales si las funciones van a ser útiles para la implementación analítica a largo
plazo en un contexto empresarial.
En muchos casos, son estas características, en lugar de los datos sin procesar
en sí, las que se convierten en el punto de partida para los algoritmos de regresión
y aprendizaje automático (ML). Si el experto en la materia ha validado que las
características y las métricas estadísticas contienen suficiente

información sobre los datos, entonces hay una probabilidad mucho mayor de
ejecutar flujos de trabajo de ML exitosos en los datos a escala en lugar de desarrollar
una arquitectura para la extracción de datos, procesamiento estadístico y flujos de
trabajo de ML de datos granulares a escala.
Debería convertirse en la norma para la reducción de dimensiones y

pasos de caracterización a realizar, y los beneficios de un buen gobierno de datos


se vuelven evidentes si estas características se van a reutilizar en varios estudios a
escala de una organización grande como una compañía petrolera o la comunidad
académica. Del mismo modo, las características bien diseñadas y diseñadas pueden
convertirse en propiedad intelectual de una organización si el beneficio competitivo
se puede derivar de su propiedad. ¡Es probable que esta pregunta moleste a la
industria durante varios años!
Machine Translated by Google

30 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Aldea

El objetivo detrás del aprendizaje profundo (DL) es sin duda la forma de arte
que es la inducción. ¿Cómo se diferencia de
¿deducción?

fi Inducción: el camino cerebral desde las minucias fácticas hasta los principios
generales.

ÿ Deducción: viajando en sentido contrario a la inducción, sigue el razonamiento


de lo general a lo particular o de la causa al efecto.

A través de la inducción en el aprendizaje profundo, nos esforzamos por dar


sentido a los grandes datos acumulados a través de fuentes de ingeniería dispares:
datos de múltiples sensores que registran lo que sucedió en el sistema bajo
investigación. Luego sacamos grandiosas conclusiones a medida que identificamos
tendencias y patrones en estos conjuntos de datos. Esencialmente, estamos
aplicando ingeniería inversa a las leyes físicas y los primeros principios de la Madre
Naturaleza. Como observó Polonio en Hamlet: es el descubrimiento del método en
la locura.
Debemos hacer suposiciones durante nuestro proceso de inducción ya que
hay muchos comportamientos irracionales observados en los datos.
No existe tal cosa como una comprensión perfecta de la forma en que funciona un
sistema. Por lo tanto, el método de aprendizaje se basa en suposiciones simples
que son una forma inteligente de identificar patrones que son útiles en nuestra
metodología DL.
Parece que la industria del petróleo y el gas está plagada de ingenieros y
geocientíficos que están firmemente anclados en el razonamiento deductivo
propugnado por Aristóteles y planteado por Hobbes en sus discusiones con Wallis
en el siglo XVII. Si la metodología analítica es deficiente en rigor e invariablemente
te lleva por el camino de las paradojas, entonces no es precisa ni científicamente
aceptable.
El famoso ejemplo de contradicciones de Zenón, que ilustra el célebre enigma de
“Aquiles y la tortuga”, agrega sustancia a las actitudes contemporáneas contra la
lógica inductiva. ¿Por qué fue el
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 31

¿La Royal Society inicialmente desconfiaba de las matemáticas cuando


se estableció en Inglaterra durante el siglo XVII? Debido al ilustre
fundador, becarios como William Ball, Sir Robert Moray y posteriormente
Wallis y Wren veneraron la ciencia experimental.
Por supuesto, gran parte del argumento a favor del razonamiento
inductivo en oposición al deductivo nació de los ideales liberales de la
época que lucharon contra el puño de hierro jesuita que parecía estar
asfixiando a la sociedad en el siglo XVII.
Sin embargo, Wallis, quien se destacó como el único matemático
en los pasillos sagrados de la Royal Society, tomó el manto para
fusionar las matemáticas con la fuerza vital de la Sociedad. Afirmó: "Las
entidades matemáticas no existen en la imaginación sino en la realidad".
En resumen, apoyó la metodología experimental que desde entonces
ha evolucionado hasta convertirse en los actuales flujos de trabajo
analíticos basados en datos bajo el estandarte de la ciencia de datos.
Esto está en marcado contraste con la perspectiva euclidiana de la
geometría. Wallis argumentó que construir objetos geométricos a partir
de los primeros principios es contrario al orden del mundo natural donde
tal geometría existe en la Madre Naturaleza. Afirmó que el estudio de
figuras geométricas era análogo al examen de los estratos geológicos
en el subsuelo. Al igual que Wallis, los geocientíficos modernos deberían
confiar más en la lógica inductiva y, por lo tanto, integrar metodologías
basadas en datos dentro del contexto riguroso de los primeros principios.
¿Por qué? Porque la simple deducción sofoca las nuevas ideas y la
inducción allana el camino para que se siembren ideas revolucionarias
a medida que jugamos con nuevas perspectivas que reflejan la realidad de la naturaleza
Sin la inducción, Newton no habría inventado el cálculo como una rama
de las matemáticas para abordar los problemas generados por el
"método de los indivisibles", una técnica sospechosa de los jesuitas que
despreciaban a quienes luchaban por una explicación de los
"infinitesimales". Por lo tanto, no rechacemos la inducción al aplicar un
enfoque lógico y razonado para resolver la caracterización o simulación
de yacimientos en las ciencias geofísicas y petrofísicas. Atrapado en la
deducción solo para adherirse a los primeros principios, se desviará de
los resultados realistas, aunque probabilísticos, obtenidos de una
metodología basada en datos nacida en la inducción.
Machine Translated by Google

32 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Las actividades de exploración y producción de petróleo y gas se encuentran en una intersección. Hay

una creciente tensión entre la imagen aceptada y prevaleciente de


las matemáticas como un conjunto de verdades eternas e
inmutables y su implementación real en los depósitos globales
repletos de incertidumbres, frustraciones y fracasos. ¿Queremos
nosotros, como geocientíficos, perpetuar, como los jesuitas en el
siglo XVII, la apariencia de infalibilidad académica a expensas de
explorar nuevos terrenos y técnicas innovadoras? Recuerde que
los avances teóricos y prácticos en todas las ciencias se generan
invariablemente a partir de ideas extrañas.
Con eso en mente, descubramos los conocimientos
probabilísticos de algunas técnicas avanzadas basadas en datos
aplicadas en las ciencias geofísicas y petrofísicas cuando se aplican
a los datos generados en estos silos.

REFERENCIAS

Abdul-Rahman, Alias y Morakot Pilouk, Modelado de datos espaciales para SIG 3D (2008).
DOI: 10.1007/978-3-540-74167-1.
Amir, Alexander, "Infinitesimal: How a Dangerous Mathematical Theory, Shaped the
Modern World", Scientific American/Farrar, Straus & Giroux (abril de 2014).

Boman, Karen, “Estudio: El bajo precio del petróleo da a la industria la oportunidad de


perseguir la transformación digital”, Rigzone, 12 de mayo de 2015, www.rigzone.com/
news/oil_gas/a/138503/Study_Low_Oil_Price_Gives_Industry_
Chance_to_Pursue_Digital_Transformation, Consultado el 27 de julio de 2015.

Chen J., Z. Li y B. Bian, "Aplicación de la minería de datos en el análisis de factores


geológicos múltiples". En: Cai Z., C. Hu, Z. Kang y Y. Liu (eds.), "Advances in
Computation and Intelligence", ISICA 2010, Lecture Notes in Computer Science, vol.
6382, Springer, Berlín, Heidelberg. DOI: 10.1007/978-3-642-16493-4_41.

Davenport, TH, Harris, JG, Compitiendo en análisis: la nueva ciencia de ganar, 2007.

Ferry, G., Una computadora llamada LEO: las tiendas de té de Lyon y la primera oficina del mundo
Informática, 2010.
Machine Translated by Google

INTRODUCCIÓN A LOS CONCEPTOS BASADOS EN DATOS 33

Jacobs, Trent, “Equipo BOP de alta presión/alta temperatura


Convertirse en una realidad”, Journal of Petroleum Technology, 67, no. 7,
www.spe.org/jpt/article/6707-ep-notes-5/, Consultado el 27 de julio de 2015.
Kane, Gerald C. et al., “La estrategia, no la tecnología, impulsa la tecnología digital
Transformación”, Deloitte University Press, verano de 2015, http://
52.7.214.27/artículos/estrategia-de-transformación-digital-madura-
digitalmente/ , Consultado el 27 de julio de 2015.
Slaughter, A., G. Bean y A. Mittal, “Barriles conectados: transformación de las
estrategias de petróleo y gas con el Internet de las cosas” (2015),
https://dupress.deloitte.com/content/dam/dup-us-en/articles/iot-in-oil-and-gas-
industry/DUP-1169_IoT_OilGas.pdf .
Teradata, "Reducir la complejidad operativa para reducir el NPT", www.teradata
.com/industry-expertise/petróleo-y-gas/, Consultado el 27 de julio de 2015.
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

CAPÍTULO
2
Basado en datos
Analítico
Métodos utilizados
en exploración y producción

34
Machine Translated by Google

“Hay una marea en los asuntos de los hombres. Lo cual,


tomado en el diluvio, conduce a la fortuna; Omitidos, todo el
viaje de su vida está ligado a bajíos y miserias. En un mar tan
lleno estamos ahora a flote, y debemos aprovechar la corriente
cuando sirve, o perder nuestras aventuras.”
William Shakespeare
Julio César, Acto 4, Escena 3, 218–224

INTRODUCCIÓN

Generaciones de geocientíficos han pasado por los pasillos


académicos de instituciones globales de aprendizaje avanzado para
lograr sus títulos de grado y posgrado. Los planes de estudios se han
basado en principios básicos y conceptos de ingeniería. Estos
algoritmos empíricos se sustentan en las matemáticas puras y
aplicadas, las observaciones realizadas por Newton, el genio de
Einstein, y muchos físicos teóricos impulsados a comprender el
mundo subatómico de la física cuántica.
Necesitamos encontrar un terreno común donde la física y las
matemáticas puedan jugar con conjuntos de datos cada vez mayores,
tanto mediciones duras como blandas, para permitir metodologías
analíticas predictivas y prescriptivas. Comencemos con la premisa de
que las técnicas de computación suave, como las redes neuronales
artificiales y los árboles de decisión, solo dos ejemplos entre una
letanía de diferentes modelos probabilísticos, pueden ser más útiles
y potencialmente mucho más sólidas al alimentarlos con un modelo
físico o matemático. En las evaluaciones de campos de petróleo y
gas, es imperativo estimar valores desconocidos para los parámetros
primarios y cuantificar la incertidumbre inherente a estos parámetros.
Podemos determinar estos parámetros mediante correlaciones o
estimaciones determinadas por proveedores externos o incluso
realizar nuestros cálculos mediante algoritmos estadísticos. Pero hay
trampas escondidas en el camino para identificar las relaciones funcionales que prod

35
Machine Translated by Google

36 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

mediciones. Hay mayores riesgos asociados con las decisiones que


dependen del conocimiento obtenido de los conjuntos de datos sin procesar.
Tenga en cuenta que no todo lo que hace genera un impacto accionable
en su objetivo comercial. Los tres amplios sistemas interrelacionados
observados en las actividades de petróleo y gas, a saber, yacimientos,
pozos e instalaciones de superficie, son complejos y heterogéneos por
naturaleza y determinar los parámetros que causan cambios dentro de cada
sistema y entre sistemas es, incluso en condiciones ideales, casi imposible.
imposible y subjetivo.
La industria del petróleo y el gas está adoptando poco a poco los
conceptos que sustentan los grandes datos y las metodologías basadas en datos.
Los flujos de datos en tiempo real de pozos inteligentes equipados con
múltiples sensores se agregan con innumerables fuentes de diferentes
datos estructurados duros y blandos. Es muy evidente que se requiere un
conjunto integral de flujos de trabajo basados en datos para recopilar
conocimiento procesable del tsunami de datos sin procesar que se
encuentran actualmente en proceso. Para aclarar y expandir el panorama
de datos, ahora tenemos una caja de herramientas repleta de soluciones
que pueden obtener información y patrones de superficie a partir de datos
no estructurados. Las técnicas de minería de datos ya no son un estudio
interesante; se han manifestado en un estándar de facto que los ingenieros
ignoran bajo su propio riesgo mientras luchan por dar sentido al paradigma
de análisis de big data.
En la exploración de petróleo y gas tenemos conjuntos de datos
espaciales y temporales . Definamos estas dos perspectivas desde la
perspectiva de un geofísico y un petrofísico:

Conjuntos de datos espaciales

La fuerza de la correlación entre dos propiedades geofísicas o petrofísicas


aleatorias se refleja en la teoría de la probabilidad como la medida de la
covarianza. Tales relaciones lineales sustentan la dimensión espacial de un
modelo de exploración y producción (E&P). Estos atributos geofísicos o
propiedades petrofísicas en puntos próximos en el espacio se pueden
correlacionar desde un punto positivo o positivo.
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 37

una perspectiva negativa. Autocorrelación en el dominio espacial,


como la autocorrelación temporal, contraviene la estadística básica
procedimientos ya que existe una expectativa de independencia en todos
observaciones en un modelo espacial dependiente.

Conjuntos de datos temporales

Cuando estudiamos datos de series de tiempo, es ventajoso realizar


flujos de trabajo analíticos en el dominio de compensación de tiempo o posterior
a la transformada de Fourier, en el dominio de número de onda de frecuencia. Está
factible ejecutar análisis espectrales, así como análisis wavelet y
Determinar análisis de autocorrelación y correlación cruzada para obtener
características perspicaces que arrojen luz sobre la complejidad.
inherentes a los datos de yacimientos, tanto geofísicos como petrofísicos.
Hay dos familias distintas de métodos analíticos de series de tiempo.
métodos, a saber, paramétricos y no paramétricos. el anterior
asume que una estructura particular sustenta un estocástico estacionario
proceso. Solo necesita una pequeña cantidad de parámetros para definir
la estructura. Autoregresivo (AR) y media móvil (MA)
Los procesos son paramétricos. Ambos métodos estiman el modelo
parámetros que detallan el proceso estocástico. Por el contrario, los métodos no
paramétricos evalúan explícitamente la covarianza del proceso.
sin supuestos predeterminados sobre la estructura interna del proceso. También
podemos dividir algoritmos de series de tiempo
en lineal o no lineal, y de univariante y multivariante
perspectiva.
Con el crecimiento de los sensores conectados y el panorama cada vez
mayor de datos de diversas fuentes, tanto no estructurados
y estructurado, estamos asistiendo a una aceleración de la adopción
a través de activos automatizados y relacionados. Tanto por lotes como en tiempo real

la minería de datos son metodologías críticas para descubrir patrones ocultos y


convertir datos sin procesar en conocimiento procesable. tres clave
Sectores de negocio impactan E&P: gestión de datos, cuantificación
de incertidumbre y evaluación de riesgos. Y los dos principales flujos de trabajo
analíticos implementados para abordar estas tres áreas son
Machine Translated by Google

38 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

denominado análisis exploratorio y predictivo de datos. El primero identifica


hipótesis que vale la pena modelar para refinar el espacio de entrada multivariado,
multidimensional y complejo. Este último se basa en los conjuntos de datos del
modelo generados por el análisis exploratorio de datos (EDA) y las lecciones
aprendidas del mismo para mapear los problemas comerciales a las funciones
objetivas. Este proceso permite el desarrollo de modelos predictivos que se ponen
en funcionamiento en flujos de datos en tiempo real para identificar firmas ocultas.

Recursos tales como ingenieros, tecnología y metodologías analíticas sustentan


una plataforma integral de gestión de yacimientos. El momento ideal para comenzar
a gestionar un yacimiento es en la etapa de descubrimiento. Sin embargo, un
programa de gestión de yacimientos bien pensado y coordinado siempre es de
actualidad y se enriquece con metodologías analíticas de series temporales
basadas en datos.
La caracterización y simulación de yacimientos son dos trabajos

flujos que sustentan un modelo 3D de campos de petróleo y gas. El modelo se


utiliza para la estimación de reservas, para la colocación rentable de pozos y
estrategias mejoradas de recuperación de petróleo en un campo maduro. Las
técnicas de computación blanda como las redes neuronales, la lógica difusa, los
algoritmos genéticos y los modelos basados en datos de coincidencia de patrones
han demostrado que es factible obtener modelos más activos en comparación con
las metodologías interpretativas convencionales.
Los flujos de trabajo analíticos sísmicos que implementan técnicas informáticas
blandas, como las redes neuronales artificiales, se han establecido durante varias
décadas. Hay múltiples ejemplos de estudios de casos que asignan atributos
sísmicos a las propiedades de las rocas. Crearemos metodologías de base
fundamentales para profundizar en los flujos de trabajo analíticos de atributos
sísmicos aprovechando los modelos basados en datos que implementan técnicas
de minería de datos para descubrir patrones y tendencias ocultos en la exploración.

Es imperativo comprender el contexto histórico que ha llevado inexorablemente


a la adopción actual de modelos basados en datos para complementar las
metodologías deterministas tradicionales a medida que avanzamos por algunas de
las piedras angulares de las técnicas informáticas blandas en la industria del
petróleo y el gas.
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 39

TÉCNICAS DE COMPUTACIÓN BLANDA

La minería de datos a menudo se define como el proceso de encontrar patrones en


conjuntos de datos. Esta definición tiene muchas implicaciones. Una es que los
datos son en su mayoría oportunistas, en el sentido de que no se adquirieron
necesariamente para la inferencia estadística. Una parte importante de un estudio
de minería de datos se dedica a los ciclos iterativos de investigación de datos:
limpieza, agregación, transformación y modelado.
Otra implicación es que los modelos a menudo se construyen sobre datos con
puntuaciones de observaciones o variables. Los métodos estadísticos deben ser

elegido e implementado cuidadosamente para la escalabilidad. Finalmente, un


modelo de minería de datos debe ser accionable.
En el dominio de E&P, existen múltiples disciplinas científicas.
Todos podrían beneficiarse de las diversas tecnologías informáticas blandas
derivadas de los flujos de trabajo de minería de datos, como se muestra en la
Figura 2.1.
Las reglas estables (modelos) pueden predecir los valores de las variables
objetivo dependiendo de los valores de las diferentes variables independientes para
cada observación del conjunto de datos. Después de establecer reglas útiles,
podemos aplicarlas a nuevos conjuntos de datos (puntuación) que pueden contener
la variable o variables a predecir.

Estadísticas Computacional
Patrón
neurociencia
Reconocimiento

Datos
Ciencias
Máquina
Procesamiento de datos AI
Aprendizaje

bases de datos

KDD

Figura 2.1 Naturaleza multidisciplinar de las tecnologías informáticas blandas


Machine Translated by Google

40 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Hay muchas herramientas para el modelado predictivo. La regresión, el


análisis de árboles de decisión y las redes neuronales artificiales son familiares
para la mayoría de los geofísicos y petrofísicos. Pero las técnicas de
computación blanda parecen crecer en número inexorablemente a medida que
los algoritmos innovadores se vuelven parte de la lengua vernácula cotidiana.
Los métodos de aprendizaje automático (ML) y aprendizaje profundo (DL)
tientan nuestros intereses a diario y nos educan en cuanto a su adopción en
diferentes negocios verticales. Entonces, antes de discutir los métodos de
modelado predictivo en geofísica y petrofísica, será útil aclarar los términos en
discusión.

Nomenclatura de minería de datos

fi Modelo: un modelo es una clase de algoritmos que calcula salidas a


partir de entradas. Un modelo estadístico incluye el conocimiento de la
distribución condicional de las variables dependientes en función de
las variables independientes ingeridas por el modelo. Consulte la
definición de modelo entrenado.
Sinónimos: clasificador, ecuación, función ÿ
Pesos: los pesos suelen ser cantidades desconocidas que se utilizan en
los modelos antes de que se lleve a cabo cualquier análisis de los
datos en estudio.
Sinónimos: parámetros estimados, coeficientes de regresión

fi Entrenamiento: El proceso de calcular valores reales para los pesos del


modelo. Los modelos basados en árboles requieren un entrenamiento
basado en variables de división óptimas y valores asociados.
Sinónimos: estimación, ajuste, aprendizaje, adaptación, inducción,
crecimiento.
fi Modelo entrenado: un modelo entrenado calcula salidas dadas entradas
específicas. Un algoritmo de entrenamiento selecciona todos los pesos
o aproximaciones de parámetros en el modelo en función de una clase
de algoritmos de diseño.
Sinónimo: modelo ajustado
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 41

fi Ruido: el ruido, ya sea aleatorio o coherente, representa una discrepancia

impredecible que se encuentra en una variable dependiente.

Si un petrofísico modeló valores de parámetros de entrada idénticos y asignó

varios parámetros objetivo, la disparidad en esos diferentes valores objetivo es

impredecible para cualquier modelo que ingiera solo esas entradas. La variación

es el ruido.

El ruido, si es aleatorio, es inherentemente impredecible. Dado que el ruido impide

que los valores objetivo se predigan con precisión, la distribución del ruido se

puede estimar estadísticamente con suficientes datos.

Sinónimo: error

fi Señal: Las variables objetivo a veces tienen una variación predecible, y esto se

llama señal. A menudo se supone que los valores objetivo son la suma de la

señal y el ruido, donde la señal es una función de las variables de entrada.

Sinónimos: función, componente sistemático

ÿ Datos de entrenamiento: Datos que consisten en valores de parámetros

dependientes e independientes, utilizados para entrenar para aproximar pesos y

valores de otros parámetros.

Sinónimos: conjunto de entrenamiento, conjunto de diseño

ÿ Datos de prueba: datos que consisten en valores de parámetros dependientes e

independientes, que no se usan durante el entrenamiento, pero se usan para

aproximar los errores de generalización.

Sinónimo: conjunto de datos de prueba

fi Datos de validación: datos que consisten en valores de parámetros dependientes

e independientes usados indirectamente durante el entrenamiento para la


selección del modelo.

Sinónimo: conjunto de validación

ÿ Puntuación: aplicamos un modelo entrenado a nuestros datos para calcular

salidas.

Sinónimos: correr (para redes neuronales), simular (para redes neuronales),

filtrar (para árboles), interpolar, extrapolar


Machine Translated by Google

42 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

ÿ Interpolación: La interpolación es una aproximación de un valor entre


dos medidas identificadas de un
propiedad izada. Los petrofísicos determinan la permeabilidad en las
ubicaciones de los pozos y luego estiman la permeabilidad entre los
pozos.

fi Extrapolación: al extrapolar una aproximación del valor de un


parámetro, como una propiedad de la roca medida en núcleos,
estamos extendiendo una secuencia identificada de valores más allá
del valor localizado. fi Datos operativos: datos que se calificarán y
que contienen variables independientes pero no variables dependientes.

Los datos operativos en la industria del petróleo y el gas también


pueden referirse a aquellos parámetros bajo el control de los ingenieros.
Las propiedades de los reservorios son dominio de la Madre
Naturaleza y, por lo tanto, se acuñan como no operativas.
Sinónimo: puntuación de datos

fi Variable categórica: una variable categórica se utiliza para la


exclusividad mutua. No es una categoría ordenada. Por ejemplo, los
geofísicos pueden comparar diferentes atributos sísmicos. Podemos
codificar estos atributos con números
valores siempre que el orden sea arbitrario y cualquier estimación no
tenga valor.
Sinónimos: variable de clase, variable nominal, etiqueta ÿ
Categoría: uno de los valores probables de una variable categórica
variable.
Sinónimos: clase, nivel, etiqueta
fi Variable de clase: una variable de clase es una variable objetivo
categórica, y la clasificación significa asignar casos a categorías de
una variable dependiente. Una variable de clase es una variable
categórica, ya sea una entrada o un destino. fi Medición: El proceso
de asignar números a una característica de un objeto. Las propiedades
de los números reflejan un atributo del objeto o eventos en el caso
de una serie de tiempo.
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 43

fi Nivel de medida: una de las varias formas en que las propiedades de los
números pueden reflejar los atributos de las cosas.
Los niveles de medición estándar son nominal, ordinal, de intervalo, de
intervalo logarítmico, de razón y absoluto. ÿ Variable nominal: una

variable categórica numérica o de caracteres. Las categorías están


desordenadas. Los valores de cada categoría no contienen información
adicional más allá de la pertenencia a la categoría.

fi Variable ordinal: el orden es importante, pero cualquier diferencia entre los


valores es irrelevante. Por ejemplo, un petrofísico podría expresar la
dureza de una roca utilizando la escala de Moh del 1 al 10. Sin embargo,
una puntuación de 8 significa una roca más dura que una con una
puntuación de 6, y eso es más de 4, pero la diferencia entre 8 y 6 no es lo
mismo que eso
entre 6 y 4.

ÿ Variable de intervalo: una variable de intervalo refleja una media

gran diferencia de medida entre dos variables.


ÿ Variable de razón: Una variable de razón es similar a un intervalo

variable y lleva un valor definido de 0.0. El peso del apuntalante en una


estrategia hidráulica es una variable de razón, pero la temperatura no, ya
que 100° C no es el doble de caliente que 50° C, pero 1000 lbs es el doble
que 500 lbs.

ÿ Variable binaria: una variable binaria tiene solo dos valores distintos. Una
variable binaria puede tratarse legítimamente como nominal, ordinal, de
intervalo o, a veces, de relación.

Algunas de las técnicas de computación blanda discutidas en este libro


se resumen aquí como referencia útil.

Árboles de decisión

Podemos representar la segmentación o el desglose de los datos mediante un


árbol de decisión, guiados por un conjunto de reglas simples. Las reglas estipuladas
analizan cada observación o fila de datos y asignan

a una sección basada en el valor de una entrada. el iterativo


Machine Translated by Google

44 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

la aplicación de reglas da como resultado una jerarquía de segmentos dentro de


segmentos. Un árbol de decisión es una jerarquía y cada segmento se denomina
nodo del árbol. Todos los datos componen el segmento original y representan el
nodo raíz del árbol. Las ramas crecen de los nudos y las hojas representan los
nudos terminales. A nivel de hoja, se toma una decisión y se aplica a todas las
observaciones en la hoja. Los datos contextuales determinan el tipo de decisión. En
el modelado predictivo, la decisión es el valor predicho.

Utilice el árbol de decisión para crear un modelo que haga una de

las siguientes tareas:

ÿ Clasifica las observaciones según los valores de objetivos nominales, binarios


u ordinales

fi Predice resultados para objetivos de intervalo fi

Predice la decisión apropiada cuando especifica alternativas de decisión

Una ventaja del árbol de decisión sobre otras técnicas de modelado, como la
red neuronal, es que produce una salida que describe el modelo de puntuación con
reglas interpretables. Otra ventaja del árbol de decisión es el tratamiento de los
datos faltantes. La búsqueda de una regla de división utiliza los valores faltantes de
una observación de entrada. Las reglas sustitutas están disponibles como respaldo
cuando faltan datos que impiden la aplicación de una regla de división.

MÉTODOS BASADOS EN REGLAS

Las técnicas basadas en reglas pertenecen a la misma familia de métodos de


computación blanda que los árboles de decisión. Sin embargo, no existe una
partición jerárquica rígida del conjunto de entrenamiento para los flujos de trabajo
basados en reglas. La falta de rigidez permite una opción superpuesta para generar
un modelo de entrenamiento más robusto y un modelo predictivo más general. Este
enfoque es adecuado para el análisis de conjuntos de datos petrofísicos para
clasificar las características de las rocas de cambios sutiles de facies en yacimientos
estructurales complejos.
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 45

Regresión
La regresión se usa para ajustar los modelos de regresión lineal y
logística a un conjunto de datos predecesor. La regresión lineal se
esfuerza por predecir el valor de un objetivo de intervalo como una
función lineal de una o más entradas independientes. Sin embargo, el
método de regresión logística predice la probabilidad de que una variable
dependiente ordinal o binaria alcance el evento en estudio en función de
una o más entradas independientes.
También puede usar una red neuronal para construir modelos de
regresión. En este caso, debe configurar la red para tener conexiones
directas entre las unidades de entrada y las unidades de salida sin incluir
unidades ocultas. Las conexiones directas definen capas lineales,
mientras que las neuronas ocultas definen capas no lineales. La red
neuronal admite más funciones de enlace (como identidad, logit, log,
raíz cuadrada y recíproco) y más funciones de error (como normal,
Poisson y gamma) que la regresión. Las redes neuronales también
tienen capacidades de estimación sólidas (como Cauchy, logística y
Huber).
La regresión utiliza una función de vínculo de identidad y una
función de error de distribución normal para la regresión lineal. La
regresión utiliza una función de error de distribución logit, log-log
complementaria o binomial para un análisis de regresión logística. Una
desventaja de usar la red neuronal para un análisis de regresión es que
no proporciona valores p para probar la importancia de las estimaciones
de los parámetros.

Tareas de clasificación

En las tareas de clasificación, estamos tratando de producir un modelo


que pueda dar la correlación entre los datos de entrada $X$ y la clase
$C$ a la que pertenece cada entrada. Este modelo se forma con los
valores característicos de los datos de entrada. Por ejemplo, el conjunto
de datos contenía puntos de datos pertenecientes a las clases Manzanas,
Peras y Naranjas, y en función de las características de los puntos de
datos (peso, color, tamaño, etc.) intentamos predecir la clase.
Machine Translated by Google

46 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

El clasificador requiere una cierta cantidad de datos de entrenamiento para


generar un modelo confiable. El clasificador entrenado es entonces ideal para
categorizar nuevas observaciones. El clasificador bien entrenado puede predecir
las probabilidades de clase de nuevos datos dentro de los intervalos de confianza
estipulados.
Hay cuatro clasificadores tradicionales que usan diferentes métodos matemáticos.

Enfoques matemáticos para clasificar datos:

fi Naive Bayes, que usa un método estadístico (bayesiano) fi Análisis


discriminante, que usa métodos de ajuste cuadrático, lineal, regularizado y
lineal ancho fi Regresión logística, que usa un enfoque funcional fi
Máquinas de vectores de soporte, que usan un método geométrico

ología

Teorema de Bayes

Desde una perspectiva puramente estadística, implementaríamos la técnica de


clasificación de Bayes. Hay varios métodos básicos de clasificación de datos, y
el enfoque probabilístico sustenta todas las técnicas. La clasificación
probabilística adopta un método de inferencia estadística para determinar la
clase más adecuada para los datos.
bajo estudio Más allá de la asignación de clase óptima, la técnica de
clasificación probabilística ofrece una probabilidad posterior igual de que la
instancia de prueba sea un participante de todas las clases posibles.
La probabilidad previa representa esa fracción de todas las observaciones de
entrenamiento que son miembros de cada clase, independientemente de
cualquier conocimiento inherente a la instancia de prueba. La teoría de la
decisión es la opción preferida para implementar la identificación de pertenencia
a clases para todas las instancias nuevas, en función de las probabilidades posteriores.

Análisis discriminante

El análisis discriminante se esfuerza por clasificar filas de datos definidos por


valores de variables continuas en grupos. La afiliación grupal, identificada por
una variable categórica X, es predicha por la
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 47

Variables continuas. Estas variables se denominan covariables y

se denotan por Y. En el análisis discriminante, las clasificaciones son fijas y las


covariables (Y) son realizaciones de variables aleatorias. Sin embargo, al igual
que la regresión logística, el valor categórico es predicho por las variables
continuas.
Los cuatro métodos de ajuste son:

1. Lineal: asume que las matrices de covarianza dentro del grupo son
iguales. Se espera que las medias de las covariables para los grupos
definidos por X difieran.
2. Cuadrática: asume que las matrices de covarianza difieren dentro del
grupo. Un método cuadrático estima valores basados en más parámetros
que un método lineal. Los tamaños de muestra de grupos pequeños
tienden a generar estimaciones inestables para el ajuste cuadrático.

3. Regularizado: proporciona dos métodos para garantizar la estabilidad de


las estimaciones cuando las matrices de covarianza dentro del grupo
difieren. Esto es útil si los tamaños de muestra del grupo son pequeños.

4. Lineal ancho: este método es más apropiado cuando se ajustan modelos


basados en un gran número de covariables. Se supone que todas las
matrices de covarianza son iguales.

Regresión logística

La regresión logística es un método para identificar una variable de resultado


binaria (p. ej., bueno/malo). En el mundo de la geofísica o la petrofísica, las
variables X pueden ser atributos sísmicos o propiedades de la roca que se utilizan
para construir un algoritmo matemático para predecir la probabilidad de que la
variable Y, indicador directo de hidrocarburos (DHI) o roca reservorio, tome un
valor de 1 o 0. Por lo tanto, implementamos flujos de trabajo de regresión logística
cuando es factible abordar un problema comercial en E&P con el conocimiento de
que una variable Y es 0 o 1. Al igual que lanzar una moneda, existe la probabilidad
de ver un “ caras” o “cruces” basadas en las variables X. Pero, a diferencia del
lanzamiento de una moneda, la probabilidad de ver cruz no siempre es 50/50, ya
que
Machine Translated by Google

48 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

el resultado depende de los valores multivariantes, multivariantes y estocásticos


de todas las variables X.

Máquinas de vectores de soporte

Las máquinas supervectoriales (SVM) utilizan condiciones lineales para aislar las
clases entre sí. La metodología conocida como SVM ejecuta una clasificación
lineal binaria así como una clasificación no lineal. Utiliza un mapeo de los datos
geofísicos y petrofísicos de entrada en un espacio de características de alta
dimensión.
Podemos mapear filas de datos como puntos en un hiperplano o incluso un
conjunto de hiperplanos en un espacio de entrada multidimensional. Cuando
intentamos resolver flujos de trabajo basados en datos con datos geofísicos y
petrofísicos, encontramos que el espacio de información es invariablemente
multidimensional y multivariado. El proceso de mapeo nos permite distinguir las
categorías separadas por la mayor distancia o margen funcional. A medida que
introducimos nuevos puntos de datos en el flujo de trabajo de SVM, el algoritmo
mapea estos puntos en el mismo espacio. El componente predictivo luego asocia
las nuevas observaciones a una categoría que refleja el lado del margen más
apropiado.

Metodología de conjunto
La metodología de conjunto genera modelos uniendo las probabilidades
posteriores o los valores pronosticados de múltiples modelos precursores. El
modelo de conjunto se utiliza para puntuar nuevos datos.
El flujo de trabajo de conjuntos admite opciones de procesamiento de grupos de
indexación, estratificación (bucle sobre variables), validación cruzada, apilamiento,
embolsado y potenciación.
El enfoque de agregación de embolsado disminuye las posibilidades de
sobreajustar un modelo. El proceso, también conocido como arranque, promedia
los modelos bajo consideración mediante la creación de más conjuntos de datos
de aprendizaje del mismo tamaño en varias combinaciones, desarrollados a partir
del conjunto de datos de entrada original. La metodología bagging o bootstrapping
determina la probabilidad
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 49

estimaciones dentro de un intervalo de confianza predefinido. Por lo tanto, se considera


un método estadístico para evaluar la incertidumbre inherente a las estimaciones de
manera objetiva.
Un bosque de arranque, por ejemplo, promedia los valores pronosticados de
múltiples árboles de decisión. Por lo tanto, solo consideramos una población arbitraria
muestreada a partir de las observaciones de cada uno de los árboles en estudio para
generar una perspectiva de "bosque". Esta metodología asegura que la mayoría de las
variables independientes bajo consideración tengan un beneficio estadístico para
predecir la variable objetivo o de respuesta. La exclusión de filas y columnas permite
que Bootstrap Forest Est muestre correlaciones ocultas en los datos. Estudiar aquellas
variables que están pobladas por valores distintos de cero en las observaciones nos
permite detectar los factores que impactan estadísticamente la variable objetivo, incluso
si es una cantidad sutil. Es importante identificar los factores que tienen el mayor poder
predictivo y, por lo tanto, la mayor contribución al modelo de conjunto, en este caso, el
bosque de arranque.

El impulso se implementa para disminuir la varianza y el sesgo de los datos.


Es un proceso iterativo para aprender de conjuntos de datos de promedio ponderado
para evolucionar de un conjunto de datos de aprendizaje débil a uno sólido. Para evitar
una clasificación errónea del cambio de peso, calculamos el peso después de cada
paso de aprendizaje débil.
Otra metodología es el apilamiento. Este enfoque mezcla varios modelos para
respaldar un concepto conocido como metaaprendizaje.
Estas son fases típicas seguidas de un proceso de apilamiento para entregar un
modelo de conjunto:

1. Divida el conjunto de entrenamiento en dos partes.

2. Use una parte para capacitar a algunos alumnos básicos.

3. Mida a los alumnos básicos con respecto a la segunda parte.

4. Preparar a un alumno en un nivel más alto y más sólido con las predicciones
calculadas de las fases anteriores y con las respuestas precisas como
resultados.

La metodología de validación cruzada divide los datos en múltiples conjuntos k


o pliegues k, a menudo denominados validación cruzada de pliegues k.
Machine Translated by Google

50 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Luego podemos estimar k modelos, donde cada modelo se genera con los datos
que son residuales, después de un solo pliegue de los datos existentes. Esto nos
permite puntuar el pliegue excluido al estimarlo. El modelo de conjunto final
caracteriza un proceso de promediación de todos los k modelos bajo estudio tanto
desde una perspectiva predictiva como desde una perspectiva evaluada
estadísticamente.
El enfoque de validación cruzada es propicio para estudios poblados por pequeños
conjuntos de datos, pero el inconveniente es probablemente la debilidad del modelo
de conjunto para la generalidad.
Un método de conjunto es agregar varios métodos de modelado, como un
árbol de decisión y una red neuronal artificial, para obtener modelos separados del
mismo conjunto de datos de entrenamiento.
Los modelos de componentes de los dos métodos de modelado complementarios
se integran en un modelo de conjunto para formar la solución final, como se muestra
en la Figura 2.2.
Un modelo de conjunto es más preciso que el constituyente.

modelos sólo si los modelos individuales están en desacuerdo. Es fundamental


comparar el rendimiento del modelo de conjunto con la eficacia de los modelos
individuales.

Mínimos cuadrados parciales

Los problemas de minería de datos que tradicionalmente podrían abordarse


utilizando técnicas de regresión lineal múltiple se vuelven más complicados cuando
hay muchas variables de entrada o existe una colinealidad significativa entre las
variables. En estos casos,

Modelado Modelo
Método A A

Conjunto
Capacitación Puntaje
Datos Modelo Datos

Modelado Modelo
Método B B

Figura 2.2 Flujo de trabajo analítico que demuestra un modelo de conjunto


Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 51

los modelos de regresión tienden a sobreajustarse a los datos de entrenamiento y


no funcionan bien al modelar otros datos. A menudo, este es el caso cuando solo
unas pocas variables latentes entre las muchas variables de entrada son
responsables de la mayor parte de la variación en los valores de la variable objetivo
o de respuesta.
Los mínimos cuadrados parciales son una metodología útil para extraer las
variables de entrada latentes que explican la mayor variación en el objetivo predicho.
PLS significa "proyección a estructuras latentes" y es útil para identificar variables
latentes de un grupo grande. Pero, los resultados analíticos del flujo de trabajo de
PLS no son útiles para identificar variables de menor o ninguna importancia.

Redes neuronales tradicionales: los detalles


Unidades y Conexiones

Una red neuronal consiste en unidades (neuronas) y conexiones entre esas


unidades. Hay tres tipos de unidades.

1. Las unidades de entrada obtienen los valores de las variables de entrada y


opcionalmente estandarizan esos valores.

2. Las unidades ocultas realizan cálculos internos, proporcionando la no


linealidad que hace que las redes neuronales sean convincentes.

3. Las unidades de salida calculan los valores pronosticados y comparan esos


valores pronosticados con los valores de las variables objetivo.

Las unidades pasan información a otras unidades a través de conexiones. Los


enlaces son direccionales e indican el flujo de computación dentro de la red. Las
conexiones no pueden formar bucles ya que el nodo de la red neuronal solo permite
redes de avance.
Las siguientes restricciones se aplican a las redes feedforward:

ÿ Las unidades de entrada se pueden conectar a unidades ocultas o de salida


unidades.

ÿ Las unidades ocultas se pueden conectar a otras unidades ocultas o

unidades de

salida ÿ Las unidades de salida no se pueden conectar a otras unidades.


Machine Translated by Google

52 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Valores pronosticados y funciones de error

Cada unidad produce un único valor calculado. Para las unidades ocultas y de
entrada, este valor calculado se transmite a lo largo de las conexiones a otras
unidades ocultas o de salida. Para las unidades de salida, el valor estimado es lo
que los estadísticos llaman valor predicho.
El valor predicho se compara con el valor objetivo para calcular la función de error,
que los métodos de entrenamiento intentan minimizar.

Peso, sesgo y altitud

La mayoría de las conexiones en una red tienen un número asociado

valor llamado estimación de peso o parámetro. Los métodos de entrenamiento


intentan minimizar la función de error ajustando iterativamente los valores de los
pesos. La mayoría de las unidades también tienen uno o dos valores numéricos
asociados llamados polarización y altitud, que también son parámetros estimados
ajustados por los métodos de entrenamiento.

Funciones combinadas

Las unidades ocultas y de salida usan dos funciones para producir sus valores
calculados. Primero, todos los valores calculados de las unidades anteriores que
alimentan la unidad dada se combinan en un solo valor usando una función de
combinación. La función de combinación utiliza los pesos, el sesgo y la altitud.

Normalmente se utilizan dos tipos generales de funciones de combinación.

1. Las funciones de combinación lineal calculan una combinación lineal de los


pesos y los valores que alimentan la unidad y luego agregan el valor de
sesgo (el sesgo actúa como una intersección).

2. Las funciones de combinación radial calculan la distancia euclidiana al


cuadrado entre el vector de pesos y el vector de valores que alimentan la
unidad y luego se multiplican por el valor de sesgo al cuadrado (el sesgo
actúa como un factor de escala o ancho inverso).
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 53

Funciones de activación

El valor producido por la función de combinación es transformado por una función


de activación, que no involucra pesos u otros parámetros estimados. Comúnmente
se utilizan varios tipos generales de funciones de activación.

ÿ La función de identidad también se llama función lineal. No cambia el valor


del argumento y su rango es potencialmente ilimitado.

fi Las funciones sigmoideas son funciones en forma de S, como las funciones


de tangente logística e hiperbólica que producen valores acotados dentro
de un rango de 0 a 1 o ÿ1 a 1.
ÿ La función Softmax es llamada función logística múltiple por los estadísticos
y es una generalización de la función logística que afecta a varias
unidades juntas, obligando a que la suma de sus valores sea uno.

ÿ Las funciones de valor son funciones con forma de campana acotadas,


como la función gaussiana.

ÿ Las funciones exponenciales y recíprocas están delimitadas a continuación


por cero pero sin acotar arriba.

Capas de red

Una red puede contener muchas unidades, tal vez varios cientos.
Las unidades se agrupan en capas para facilitar su gestión. Invariablemente hay
una capa de entrada, una capa oculta y múltiples capas de salida. En la red
neuronal, cuando conecta dos capas, cada unidad de la primera capa está
conectada a cada unidad de la segunda capa.

Todas las unidades de cada capa comparten ciertas características. Por


ejemplo, todas las unidades de entrada en cada capa tienen el mismo nivel de
medición y el mismo método de estandarización. Todos
las unidades en cada capa oculta tienen la misma función de combinación y la
misma función de activación. Todas las unidades en una capa de salida tienen la
misma función de combinación, función de activación y función de error.
Machine Translated by Google

54 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Redes neuronales simples


Visión general

La red neuronal más simple tiene una sola unidad de entrada (variable independiente),
un solo objetivo (variable dependiente) y una sola unidad de salida (valores predichos),
como se muestra en la figura 2.3.
La barra dentro del cuadro representa una función de activación de salida lineal
(o de identidad). En términos estadísticos, esta red es un modelo de regresión lineal
simple. Si la función de activación de salida fuera una función logística, entonces esta
red sería un modelo de regresión logística.

Cuando se aplica una red neuronal a los datos sísmicos para identificar las
propiedades del yacimiento, debemos ser conscientes de dos pasos críticos que son
trampas potenciales:

1. Paso de selección

2. Paso de aprendizaje

Ambos pasos tienen una influencia significativa en la eficiencia de la red y la


credibilidad y solidez de los resultados.
Según Romeo (1994), hay tres explicaciones para el bajo rendimiento:

1. Configuración de red inadecuada 2. Algoritmo

de entrenamiento confinado a un mínimo local 3. Conjunto de datos

de entrenamiento incongruente

La configuración de la red o el diseño arquitectónico es fundamental.


Uno de los impulsores clave detrás de la arquitectura de un sistema neuronal profundo

Red neuronal
Nomenclatura Aporte Producción Objetivo

Independiente Predicho Dependiente


Terminología Estadística Variable Valor Variable

Figura 2.3 Expresión más simple de una red neuronal


Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 55

red, sin importar su algoritmo, es el número de capas ocultas y el número de neuronas


en cada capa. Nos esforzamos por describir la distribución estadística subyacente de
la dispersión de los datos de entrada. No existen reglas rígidas que rijan el número de
capas y neuronas, pero Huang y Huang (1991) ilustran que el techo para el número
de neuronas por capa oculta no debe exceder el número de muestras de entrenamiento.
Y para restringir el entrenamiento, la cantidad de muestras de entrenamiento debe
exceder la cantidad de pesos internos. Al limitar el número de neuronas, podemos
evitar el sobreajuste.

La función de inadaptación es invariablemente muy compleja (Hush et al., 1992).


Tal fenómeno atrapará a la red en un mínimo local en lugar de adquirir un aspecto
global. Es importante iniciar las ponderaciones mediante técnicas aleatorias y no
aleatorias y probar varios algoritmos de inversión.

El conjunto de entrenamiento debe ser representativo de la solución buscada por


la red. Se podrían identificar demasiados malos patrones si el conjunto de entrenamiento
es incongruente con el resultado deseado. El otro impacto negativo es el
sobreentrenamiento de la red, lo que da como resultado un conjunto de patrones
memorizados que solo son apropiados para el conjunto de datos de entrenamiento.
Este comportamiento requiere una división adecuada del conjunto de datos en un
conjunto de datos de entrenamiento y validación.

perceptrones

Una de las primeras arquitecturas de redes neuronales fue la

perceptrón, que es un tipo de modelo discriminante lineal. Un perceptrón utiliza una


combinación lineal de entradas para la función de combinación. Inicialmente, los
perceptrones usaban una función de activación de umbral (Heaviside), pero entrenar
una red con funciones de activación de umbral es computacionalmente exigente. En
la práctica actual, la función de activación es casi siempre una función logística, lo que
hace que un perceptrón sea equivalente en forma funcional a un modelo de regresión
logística.

Como ejemplo, un perceptrón podría tener dos entradas y una sola salida, como
se muestra en la Figura 2.4.
Machine Translated by Google

56 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Red neuronal
Nomenclatura Aporte Producción Objetivo

Independiente Predicho Dependiente


Terminología estadística Variable Valor Variable

Figura 2.4 Arquitectura de perceptrón para una red neuronal

En términos de redes neuronales, el diagrama muestra dos


entradas conectadas a una sola salida con una función de activación
logística (representada por la curva sigmoidea en el recuadro). En
términos estadísticos, este diagrama muestra un modelo de regresión
logística con dos variables independientes y una variable dependiente.

Capas ocultas

Las redes neuronales pueden aplicar transformaciones adicionales a


través de una capa oculta. Por lo general, cada unidad de entrada está
conectada a cada unidad en la capa oculta y cada unidad oculta está
conectada a cada unidad de salida, como se ilustra en la Figura 2.5.
Las unidades ocultas combinan los valores de entrada y aplican una
función de activación, que puede ser no lineal. Luego, los valores que
fueron calculados por las unidades ocultas se combinan en las unidades
de salida, donde se aplica una función de activación adicional
(posiblemente diferente). Si dicha red utiliza funciones de combinación
lineal y funciones de activación sigmoidea, se denomina perceptrón multicapa (MLP)
También es posible utilizar otras funciones de combinación y otras
funciones de activación para conectar capas de muchas otras formas.
Una red con tres unidades ocultas con diferente activación.
funciones se muestra en el siguiente diagrama.
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 57

Capa oculta

Red neuronal
Nomenclatura Aporte Producción Objetivo

Independiente Predicho Dependiente


Terminología estadística Variable Valor Variable

Figura 2.5 Capa oculta dentro de la arquitectura de la red neuronal

Perceptrones multicapa (MLP)

La forma más popular de arquitectura de red neuronal es el perceptrón multicapa


(MLP), que es la arquitectura predeterminada en el nodo de red neuronal.

Un perceptrón multicapa:

ÿ Tiene cualquier número de entradas

ÿ Tiene una capa oculta con cualquier número de unidades


ÿ Utiliza funciones de combinación lineal dentro y fuera

poner capas

fi Usa funciones de activación sigmoide en las capas ocultas fi Tiene

cualquier número de salidas con cualquier función de activación fi Tiene

conexiones entre la capa de entrada y la primera capa oculta, entre las


capas ocultas y entre la última capa oculta y la capa de salida

El nodo de la red neuronal admite muchas variaciones de esta forma


general. Por ejemplo, puede agregar conexiones directas entre las entradas y
las salidas, o puede cortar las conexiones predeterminadas y agregar nuevas
conexiones propias.
Machine Translated by Google

58 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Con suficientes datos, suficientes unidades ocultas y suficiente tiempo


de entrenamiento, un MLP con una capa oculta puede aprender a estimar
cualquier función con cualquier grado de precisión. (Una analogía estadística
es la aproximación de una función con polinomios de n-ésimo orden). Por
esta razón, los MLP se denominan aproximadores universales y se pueden
implementar con base en un conocimiento previo limitado de la relación
entre las entradas y los objetivos.

Funciones de error

Una red se entrena minimizando una función de error (también llamada


criterio de estimación o función de Lyapunov). La mayoría de las funciones
de error se basan en el principio de máxima verosimilitud, aunque
computacionalmente es la verosimilitud logarítmica negativa la que se
minimiza. La probabilidad se basa en una familia de distribuciones de error
(ruido) para las cuales el estimador resultante tiene varias propiedades de
optimización. Los estimadores M son formalmente como estimadores de
máxima verosimilitud, pero para ciertos tipos llamados estimadores M
redescendentes, no existe una distribución de error adecuada.
Algunas de las funciones de error más utilizadas son:

fi Distribución normal: también conocida como criterio de mínimos


cuadrados o error cuadrático medio. Adecuado para objetivos de
intervalos ilimitados con varianza condicional constante, sin valores
atípicos y una distribución simétrica. También se puede utilizar para
destinos categóricos con valores atípicos.
ÿ Estimador M de Huber: adecuado para alquitrán de intervalo ilimitado

obtiene con valores atípicos o con un grado moderado de desigualdad


de la varianza condicional pero con una distribución simétrica.
También se puede usar para objetivos categóricos cuando desea
predecir el modo en lugar de la probabilidad posterior. ÿ Estimadores
M redescendentes: adecuados para objetivos de intervalos ilimitados
con valores atípicos severos. También se puede utilizar para predecir
un modo de una distribución multimodal.
Incluye estimadores bi-peso y de onda.
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 59

ÿ Distribución gamma: adecuada para objetivos de intervalos positivos sesgados


donde la desviación estándar condicional es proporcional a la media condicional.

ÿ Distribución de Poisson: adecuada para objetivos de intervalo sesgados y no


negativos, especialmente conteos de eventos raros, donde la varianza condicional
es proporcional a la condicional.
significar.

ÿ Distribución de Bernoulli: adecuada para un objetivo que solo toma los valores cero
y uno. Igual que una distribución binomial
con un ensayo.

fi Entropía: entropía cruzada o relativa para objetivos de intervalo independientes


con valores entre cero y uno inclusive. ÿ Bernoulli múltiple : adecuado para

objetivos categóricos (nominales u ordinales). fi Entropía múltiple: entropía cruzada


o relativa para objetivos de intervalo que suman uno y tienen valores entre cero

y uno inclusive. También llamada divergencia Kullback-Leibler.

Bosques aleatorios

Un bosque aleatorio recopila un grupo de árboles de decisión, cada uno de los cuales
representa un subconjunto asociado aleatoriamente de los datos originales y luego
determina un resultado predictivo a partir de la metodología del conjunto. Muy a menudo
podemos presenciar el sobreajuste en los árboles de decisión individuales, pero el bosque
aleatorio reduce drásticamente el comportamiento deficiente del modelo. ¿Cuántos
árboles hacen un bosque? En el mundo de la geofísica y la petrofísica de conjuntos de
datos de alta dimensión, podríamos agregar cientos de árboles de decisión.

Todos los árboles de decisión dentro del bosque aleatorio usan diversos

conjuntos de datos, cada uno de los cuales es un subconjunto del conjunto de datos original.

1. Divida las filas que contienen las observaciones para formar conjuntos de datos
de entrenamiento.

2. Haz las columnas que representan las variables o factores


disponible para cada nodo de división.
Machine Translated by Google

60 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Aumento de gradiente

Otro ejemplo de una metodología de conjunto es el aumento de gradiente,


que genera un modelo resultante a partir de un conjunto de modelos
predictivos débiles en un proceso secuencial y por pasos.
El algoritmo se implementa para transformar a los alumnos débiles en
representaciones más sólidas. En el aprendizaje supervisado, vemos
que esta técnica reduce la varianza y el sesgo oculto en los datos originales.
Inicializamos el algoritmo de aumento de gradiente con pesos de igual
medida en todos los puntos. Durante la implementación, a aquellos
puntos que están correctamente categorizados se les asigna un peso
menor y, a la inversa, a aquellos puntos que están mal clasificados se
les asigna un valor de ponderación más alto. ¿Ves el problema? Los
puntos categorizados correctamente en la primera ola se clasifican
incorrectamente después de la primera iteración.
Esto ocurre para múltiples iteraciones. Finalmente, todos los modelos
tienen asociado un peso que depende de la precisión.
Estos resultados del modelo luego se agregan para crear un modelo de
conjunto con un efecto único. El aumento de gradiente es apropiado
como metodología de extracción de características sísmicas cuando
deseamos clasificar trampas estratigráficas o estructurales en una imagen sísmica.
Podemos generar un vector de características que, por ejemplo,
represente una característica sísmica etiquetada a partir de múltiples
atributos que, cuando se combinan de manera única, definen la
característica, como un pinch-out o un cambio sutil de facies.

Descenso de gradiente

La optimización de descenso de gradiente identifica los mínimos de una


relación funcional entre las variables dependientes y las múltiples
variables independientes que actúan como predictores. Al igual que la
teoría de la gravedad desarrollada por Newton y Einstein, el gradiente
descendente busca una solución para minimizar algo. Es decir, la
gravedad aborda los estados de energía potencial y el descenso de
gradiente se esfuerza por resolver una función de pérdida o error. identificando
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 61

los valores mínimos de una función se pueden lograr de varias maneras. Una
de las formas más eficientes, si hay pocas variables predictoras, es emplear
el cálculo diferencial. Esto aborda el problema desde una perspectiva lógica.

Considere la función:

f(x) = x4 ÿ 5x2 + 17

Igualando a cero la primera diferencial de la función:

dÿdx f(x) = 4x3 ÿ 10x = 0 x =


+ÿÿ2,51ÿ2

Así, los mínimos de la función f(x) = x4 ÿ 5x2 + 17 = +ÿÿ1.58.

Una metodología iterativa para resolver los mínimos es más apropiada


cuando el número de predictores es grande y la relación funcional es más
compleja. Este sería el estándar al abordar la mayoría de los problemas
comerciales que se observan en la industria del petróleo y el gas.

yÿ = METRO × X + C . . . Ecuación 1

La ecuación yÿ = M × X + C representa la línea que es un ajuste lineal a


través de la gráfica bivariada de gas acumulativo contra los valores de
volumen del apuntalante como se expresa en la Figura 2.6. Resolviendo la
ecuación lineal, obtenemos

yÿ = 14.16X ÿ 629.91 donde yÿ = Qg100 y X = ProppantVol

Aplicando la metodología de descenso de gradiente, estamos tratando


de definir los valores de los coeficientes (M y C). Inicialmente, debemos
encontrar la función de pérdida para el modelo de regresión lineal. Pasamos
a la ecuación generalizada para una función de pérdida:
2
Función de pérdida (LF) = 1ÿN ÿ (y ÿ yÿ) . . . ecuación 2

Esencialmente estamos resolviendo el valor original de y menos el valor


esperado yÿ. Sustituyendo la Ecuación 1 en la Ecuación 2, obtenemos:

Función de pérdida (LF) = 1ÿN ÿ (y ÿ (mX + c))2 . . . Ecuación 3


Machine Translated by Google

62 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

2500

2000

1500

1000

500

80 100 120 140 160 180 200


ProppantVol

Figura 2.6 El descenso de gradiente resuelve la regresión lineal

El descenso de gradiente identifica la dirección de la bajada

pendiente en cada punto de la función de pérdida tanto en m como en c. Después,


modifica m y c para lograr el objetivo a través de una iterativa
cálculo para llegar a los mismos valores para los coeficientes

expresado en la Ecuación 1. Los valores de los coeficientes representan


los valores mínimos de pérdida o error en la Función de Pérdida en

Ecuaciones 2 y 3.

Aprendizaje automático factorizado

Un buen ejemplo de un modelo predictivo general es la máquina de factorización


(FM). Es esencialmente una SVM caracterizada por una
núcleo polinomial. Por lo tanto, los FM pueden modelar toda la familia de
posibles interacciones entre las variables mediante la adopción de parámetros
factorizados. El uso de FM permite a los geofísicos y petrofísicos estimar las
interacciones en conjuntos de datos escasamente poblados.

Computación Evolutiva y Algoritmos Genéticos

Se formulan metodologías de computación evolutiva (EC)


para emular la teoría darwiniana de la evolución a través de la naturaleza
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 63

selección. ¿O fue Alfred Russel Wallace? Los algoritmos genéticos (AG) son un
elemento fundamental del enfoque EC. Se entiende que la mayoría de las
aplicaciones de GA hasta ahora están diseñadas para realizar una rutina de
optimización esencial para los motores de búsqueda. EC y GA se utilizaron por
primera vez en el cuidado de la salud y la epidemiología. Existe una rápida adopción
del aprendizaje automático (ML) y los flujos de trabajo de aprendizaje profundo (DL)
asociados en múltiples escuelas de ingeniería que adoptan tecnologías informáticas
blandas y basadas en datos. Esto ha aumentado el interés reciente en la aplicación
de AG, particularmente en los yacimientos no convencionales en los Estados
Unidos. ¿Por qué? Hay mucha incertidumbre y malentendidos en los parámetros
operativos utilizados para explotar estos recursos. Esto se debe principalmente a la
complejidad del entorno geológico donde los campos de tensión sutiles y la
geomecánica diluyen la fuerza de la interpretación tradicional de los yacimientos
convencionales.

Podemos postular a GA como una técnica multipropósito y versátil no solo para


identificar el aprendizaje de parámetros para implementaciones de redes neuronales
artificiales, sino también para determinar las relaciones o reglas de membresía al
aplicar flujos de trabajo de lógica difusa.
EC es un término general que caracteriza los sistemas diseñados para resolver
problemas basados en computadora que implementan modelos evolutivos.

Todos estos sistemas tienen los denominadores comunes darwinianos:

ÿ Selección

ÿ Mutación

ÿ Reproducción

La industria del petróleo y el gas se ha inclinado hacia la AG a partir de la


variedad de técnicas EC disponibles. GA se inicializa con una matriz de puntos
seleccionados (atributos sísmicos, picos y valles de wavelets, características
petrofísicas, etc.) para habilitar una rutina de búsqueda para identificar un conjunto
de puntos máximos o mínimos en paralelo. El operador genético permite el
intercambio de
Machine Translated by Google

64 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

conocimiento a través de múltiples puntos locales para reducir la probabilidad


de avanzar hacia un mínimo local y omitir el mínimo global. Como metodología
de optimización, necesitamos calcular la derivada de la función objetivo, pero
a diferencia de la mayoría de los algoritmos de optimización, GA evalúa la
función objetivo para varios conjuntos diferentes de puntos de datos. Por lo
tanto, solo hay una salida del flujo de trabajo de GA que representa el valor de
la métrica de rendimiento.

Todas las reglas de transición son probabilísticas en lugar de disuasorias.


minista
Un flujo de trabajo estándar de AG se compone de varios pasos que se
adhieren lógicamente al modelo darwiniano de selección natural.
El método de codificación de una solución a un problema de petróleo y gas
que se esfuerza por aislar los atributos sísmicos críticos y las propiedades
petrofísicas para representar una característica estratigráfica o estructural se
puede formular para crear una población base. Los mecanismos de codificación
y la función de evaluación se unen para dar cuenta de la cadena de vínculos
entre el GA y la función.
problema de identificación. El dispositivo de codificación óptimo es binario por
naturaleza (Holland, 1975). Aparentemente, es preferible tener algunas
opciones potenciales para múltiples bits en lugar de lo contrario: muchas
opciones para muchos menos bits. La función de evaluación en un flujo de
trabajo de AG esencialmente emula el patio de recreo ambiental donde tiene
lugar una evolución natural.

INTELIGENCIA ARTIFICIAL: MÁQUINA


Y APRENDIZAJE PROFUNDO

El aprendizaje automático (ML) encapsula una metodología para el análisis de


datos para automatizar la creación de modelos analíticos avanzados basados
en datos. Los algoritmos iteran a través de un ciclo de aprendizaje proveniente
de diferentes conjuntos de datos. En última instancia, ML permite que las
computadoras muestren tendencias, conocimientos y patrones ocultos sin un
conocimiento a priori programado en sus directivas. La naturaleza iterativa de
los algoritmos de ML permite que los modelos evolucionen
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 65

independientemente y así sobrevivir como un medio válido y confiable para descubrir


patrones similares en nuevos datos. La variedad de algoritmos ML actuales permite
a los geofísicos generar automáticamente modelos contra datos más grandes y
complejos, brindando resultados más rápidos y precisos en una escala colosal de
datos de entrada. Thomas H. Davenport, un líder de pensamiento analítico, escribió
en el Wall Street Journal (septiembre de 2013) que con volúmenes de datos que
cambian y crecen rápidamente, “necesita flujos de modelado de rápido movimiento
para mantenerse al día”. Y puedes hacerlo con técnicas de ML. Él dice: “Los humanos
normalmente pueden crear uno o dos buenos modelos a la semana; el aprendizaje
automático puede crear miles de modelos a la semana”.

El aprendizaje profundo (DL) ha evolucionado desde el aprendizaje automático


(ML) para reunir a este último en el ámbito de la inteligencia artificial (IA). DL está
respaldado por una pila de algoritmos que están diseñados para modelar
abstracciones de alto nivel inherentes a los conjuntos de datos. Hay varias
posibilidades arquitectónicas compatibles con DL cuando transcribimos una
observación como una imagen en su representación compuesta como un vector de
valores de intensidad para cada píxel:

ÿ Redes neuronales profundas directas ÿ

Redes neuronales profundas convolucionales ÿ

Redes neuronales profundas recurrentes ÿ

Codificadores automáticos de eliminación de ruido apilados

Profundizaremos en estas cuatro topologías de redes neuronales en el Capítulo


8, donde ilustraremos no solo los matices arquitectónicos sino también su aplicabilidad
en toda la E&P.
sectores

REFERENCIAS

Breiman, L., "Predictores de embolsado", Machine Learning, 26 (1996):


123–140.
Machine Translated by Google

66 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Friedman, J., T. Hastie y R. Tibshirani, The Elements of Statistical


Aprendizaje, Springer-Verlag (2001).
Gelman, A., "Análisis exploratorio de datos para modelos complejos", Journal
of Computational and Graphical Statistics, 13, no. 4 (2004): 755–779.
Ghaemi, R., Md. N. Sulaiman, H. Ibrahim y N. Mustapha, "A Survey: Clustering
Ensemble Techniques", Academia Mundial de Ciencias, Ingeniería y
Tecnología, 50 (2009).
Hippel, KW y AI McLeod, “Modelado de series temporales de recursos
hídricos y sistemas ambientales”, Developments in Water Sciences, 45,
Elsevier, Nueva York (1994).
Hoaglin, DC, F. Mosteller y JW Tukey, Understanding Robust and Exploratory
Data Analysis, John Wiley & Sons, Nueva York (1983).
Holland, JH, Adaptation in Natural and Artificial Systems, University of
Michigan Press, Ann Arbor, MI (1975); reeditado por MIT Press (1992).

Huang, SC y YF Huang, "Bounds on the Number of Hidden Neurons in


Multilayer Perceptrons", IEEE Trans. Neur. Redes (1991): 2, 47–55.

Hush, D., B. Horne y JM Salas, "Superficies de error para perceptrones


multicapa", IEEE Trans. Systems, Man and Cybernetics (1992): 22, 1152–
1161.
Kosaraju, Raj, "How Machine Learning Affects Everyday Life", https://
icrunchdata.com/how-machine-learning-affects-everyday life/, consultado
el 6 de julio de 2016.
Romeo, G., “Detección y clasificación de señales sísmicas utilizando redes
neuronales artificiales”, Annali di Geofisica (1994): 37, 343–353.
Nodos de extensión de SAS Enterprise Miner 7.1: Guía del desarrollador,
http://support.sas.com/documentation/cdl/en/emxndg/64759/HTML/
default/viewer.htm#n0npe25scre3jnn1g6z770h3awle.htm , SAS Institute
Inc., SAS Campus Drive , Cary, Carolina del Norte, EE. UU.
Shahab, DM, “Recent Developments in Application of Artificial Intel ligence
in Petroleum Engineering”, SPE Paper 89033, JPT (abril de 2005), pág.
86.
Strehl, A. y J. Ghosh, "Conjuntos de clústeres: un marco de reutilización del
conocimiento para combinar particiones", Asociación Estadounidense de
Intel Artificial. (2002).
Machine Translated by Google

MÉTODOS ANALÍTICOS BASADOS EN DATOS UTILIZADOS EN E&P 67

Topchy, A., M. Law, A. Jain y A. Fred, “Análisis de la partición de consenso en conjunto


de clústeres”, IEEE Int'l. Conf. Minería de datos (2007): 225–232.

Tukey, JW, Análisis de datos exploratorios, Addison-Wesley (1977).


Wang, Yuhong, “Determinación de la incertidumbre en la estimación de reservas a
partir del análisis de los datos de disminución de la producción”, tesis presentada
en la oficina de estudios de posgrado de la Universidad Texas A&M (mayo de 2006).
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

CAPÍTULO 3

Avanzado
Geofísica y
petrofísica
Metodologías

68
Machine Translated by Google

“Los datos están ampliamente disponibles; lo que escasea es la


capacidad de extraer sabiduría de ella.”

Hal Varian, economista jefe de Google

INTRODUCCIÓN

Este capítulo ilustra varias aplicaciones típicas de metodologías analíticas


basadas en datos, ideales para conjuntos de datos geofísicos y petrofísicos.
Hay una discusión en profundidad sobre las variaciones sutiles de los
tipos de datos petrofísicos y cómo se manifiestan en un flujo de trabajo
analítico. El concepto importante es que los datos geofísicos y petrofísicos,
cuando se integran en un estudio basado en datos, ya no están aislados.
Estas geociencias cruzan fronteras para agregarse con tipos de datos
operativos y de ingeniería para una evaluación completa de un problema
empresarial. El aspecto importante de cualquier estudio es la característica
multidimensional.

METODOLOGÍAS GEOFÍSICAS AVANZADAS

Los datos sísmicos se pueden clasificar, segmentar o agrupar desde una


perspectiva espacial o temporal. Como geofísico, es posible que se
concentre en una formación estratigráfica específica o en un conjunto de
estructuras distintas que son características de un yacimiento potencial.
A medida que aumenta la profundidad del perfil sísmico, invariablemente
se deteriora la resolución en el espacio y el tiempo de la respuesta sísmica.
Aumentar la ventana de interpretación a lo largo de cualquiera de los ejes
agrega más confusión e incertidumbre en los atributos bajo estudio. Por lo
tanto, la clasificación se vuelve más difícil y, por lo tanto, las técnicas de
agrupación y su implementación se vuelven más críticas para lograr el
valor comercial.
Una segmentación de facies en una metodología de computación
suave requiere una abstracción de los atributos sísmicos, extrayendo

69
Machine Translated by Google

70 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

mediciones absolutas para una variedad de atributos como frecuencia,


amplitud y medidas geométricas. El proceso de segmentación clasifica cada
área única en forma de caja del espacio sísmico 3D o vóxel en un número
finito de grupos. Cada grupo es representativo de una facies sísmica que,
a su vez, puede corresponder a algunas facies geológicas distintas.

¿Cuántos clústeres?
¿Cómo determinamos el número de conglomerados apropiados para el
estudio? Esta es una pregunta que no tiene un resultado determinista,
independientemente del análisis de conglomerados implementado (Everitt,
1979; Hartigan, JA, 1985; Bock, 1985). La mera adopción del análisis de
conglomerados consiste esencialmente en resumir los datos sísmicos sin
ningún método para clasificar los atributos en conglomerados significativos.
Invariablemente, es suficiente anotar el R-cuadrado para cada atributo y
generar gráficos de R-cuadrado contra el número de conglomerados.
Cuando se cuestiona la validez y el rigor de las varianzas entre los
conglomerados, no es inusual adoptar pruebas de significación ordinarias,
como las pruebas F de análisis de varianza . Sin embargo, a medida que
nos esforzamos por explotar las características de separación de los grupos,
cualquier norma de las pruebas de significación, ya sean paramétricas o no
paramétricas, se ve radicalmente alterada. Consideremos una población de
unas 100 observaciones distintas de nuestro conjunto de datos de atributos
sísmicos y supongamos una distribución normal univariada.
Generando solo dos grupos, notaríamos un valor p de menos de 0.0001.
Por lo tanto, los métodos que prueban los conglomerados contra la hipótesis
nula, estipulando que los conglomerados son objetos asignados
aleatoriamente (como McClain y Rao, 1975; Klastorin, 1983), son
inadecuados.
La mayoría de las pruebas prácticas para conglomerados tienen
distribuciones de muestreo inflexibles y comprenden hipótesis nulas para
las cuales el rechazo es vago. Al clasificar los atributos sísmicos, es mejor
adoptar metodologías de agrupamiento basadas en matrices de distancia.
Una hipótesis nula favorita establece que todas las permutaciones de los valores en el
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 71

matriz de distancia son igualmente probables (Ling, 1973; Hubert, 1974).


Adoptando esta hipótesis nula, podemos realizar una prueba de rango o una
prueba de permutación. Una mejora de la hipótesis nula de permutación es
la hipótesis nula normal multivariante. Pero no es adecuado ya que suele
haber una alta probabilidad de eliminación si los datos sísmicos se aprecian
a partir de una distribución con menor curtosis que una distribución normal,
como una distribución uniforme.
distribución.
Una hipótesis nula más eficiente es que los datos se extraen de una
distribución uniforme (Hartigan, 1978; Arnold, 1979; Sarle, 1983). La hipótesis
nula uniforme refleja inexorablemente tasas de error constantes cuando los
datos se muestrean a partir de una distribución fuertemente unimodal como
la normal.
Sarle (1983) empleó una amplia gama de simulaciones para madurar el
criterio de agrupamiento cúbico (CCC). Podemos aplicar CCC para pruebas
de hipótesis básicas para aproximar algunos grupos de población. El CCC
asume que una distribución uniforme en un
el hiperrectángulo se dividirá en grupos con forma aproximada de hipercubos.
Podemos dividir grandes conjuntos de datos de muestra en una cantidad
adecuada de hipercubos para obtener resultados muy precisos.
Podemos ejecutar pruebas no paramétricas para determinar la cantidad
de grupos apropiados y calcular estimaciones de densidad no paramétricas.
La adopción de este método requiere que tomemos muestras de las
observaciones de forma independiente, aplicando supuestos mucho más
débiles en comparación con los modelos mixtos. Mueller y Sawitzki (1991)
desarrollaron métodos no paramétricos que requerían requisitos
computacionales significativos.
Wong y Schaack (1982) abordaron el problema de determinar el número
ideal de conglomerados mediante el uso de una estimación de la densidad
del k-ésimo vecino más cercano. Aplicaron valores variables para el número
de conglomerados. La estimación del número de grupos modales para cada
El valor se calculó a través de una amplia gama de valores. Si aparecía un
número constante, se consideraba un indicador fiable del número de modas
en la muestra de población.
Machine Translated by Google

72 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Sarle y Kuo (1993) proponen una metodología menos costosa desde


el punto de vista computacional para determinar un número ideal de
conglomerados:

fi Hay cero supuestos distributivos. ÿ Cualquier


parámetro de suavizado es apropiado. ÿ Los datos
de entrada pueden ser coordenadas o distancias.

Estudio de caso: Sinopsis del embalse maduro del Mar del Norte

La historia geológica del yacimiento consiste predominantemente en


depósitos fluviales con secuencias alternas de arenisca y lutita. El
yacimiento contiene una zona productiva de aproximadamente 1000 m de
espesor que es difícil de interpretar con enfoques deterministas debido a
que las formaciones individuales de arenisca y lutita son relativamente
delgadas y, por lo tanto, por debajo de la resolución sísmica actual. Es de
suma importancia comprender completamente los movimientos de fluidos
y mapear los patrones de drenaje de manera temporal. Dichos cambios
dinámicos en el yacimiento a lo largo de diferentes épocas de los cubos
de datos 3D permiten identificar los cambios en la presión observados en
las variaciones de amplitud y velocidad en relación con los cambios de
tiempo. Es esencial cotejar aquellos atributos sísmicos considerados
significativos para una mejor caracterización del yacimiento. Podemos enumerar a través
un estudio de sensibilidad todos aquellos atributos que proporcionan el
mayor impacto estadístico en una función objetivo establecida. Algunos
de los temas comerciales y técnicos abordables son los patrones de
drenaje y los movimientos de fluidos a través del yacimiento, el aumento
de la producción de hidrocarburos, la duración de la meseta y el factor de
recuperación del yacimiento.
La optimización de la producción y el aumento del factor de
recuperación se pueden lograr cuando se identifican y evalúan todos los
parámetros críticos no operativos. Estos parámetros, denominados
indicadores clave de rendimiento (KPI), deben analizarse y cuantificarse a
través de una metodología de análisis exploratorio de datos (EDA) que
descubre patrones ocultos e identifica tendencias y correlaciones.
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 73

en un sistema complejo multivariado. Se enumerarán hipótesis que vale la


pena modelar debido a los procesos de EDA.
Para obtener el máximo valor de los cubos sísmicos 4D, el operador ha
establecido una estrategia de interpretación aliada con flujos de trabajo
basados en datos para promover la confianza en los estudios deterministas.
Utilizamos múltiples conjuntos de datos dispares, como datos de producción
e inyección, datos de la herramienta de registro de producción (PLT) e
información de seguimiento. También desarrollamos procesos para mejorar
la sísmica 4D en la cuadrícula geológica y de simulación.
A través de un conjunto de metodologías de limpieza, transformación y
EDA de datos, establecimos flujos de trabajo escalables y repetibles para la
identificación, selección, diagnóstico y búsqueda de soluciones. El operador
se benefició al comprender las correlaciones y tendencias, así como al
identificar firmas que proponen hipótesis que vale la pena modelar. En última
instancia, la solución mejoró el proceso de vigilancia, gobierno y control de
la perforación. Está diseñado para manejar grandes cantidades de datos
dispares de una variedad de fuentes para ofrecer una solución analítica
robusta.
Al brindar estas capacidades, las técnicas de computación suave responden
de manera eficiente preguntas sobre un problema comercial preciso y
brindan decisiones estratégicas para optimizar un activo.
La caracterización de los yacimientos en un campo marrón requiere el
análisis de conjuntos de datos masivos agregados a partir de datos históricos
de producción, análisis de presión transitoria (PTA) y conjuntos de datos de
análisis de tasa transitoria (RTA), así como resultados de análisis de núcleo.
Los geofísicos asignan atributos sísmicos a las propiedades del yacimiento
a través de algunas redes neuronales fundamentales, lo que lleva a un
conjunto de datos de entrada más rico para la caracterización del yacimiento.
Es fundamental capturar las observaciones más sutiles inherentes a estos
conjuntos de datos y comprender la estructura de los datos. Invariablemente,
se pueden implementar métodos geoestadísticos para cuantificar la
heterogeneidad con precisión, integrar datos escalables y capturar el alcance
de la incertidumbre. Sin embargo, entre el 50 y el 70 por ciento del esfuerzo
en un estudio de caracterización de yacimientos debe centrarse en flujos de
trabajo de EDA y visualizaciones inmersivas basadas en datos.
Machine Translated by Google

74 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Además del análisis espacial, la simulación y la cuantificación de la


incertidumbre, EDA garantiza la integración, la agregación y la gestión
general repetibles y escalables de los diferentes conjuntos de datos en
estudio.
La interpretación de los datos sísmicos de lapso de tiempo es esencial
no solo desde una perspectiva acumulativa sino también desde un período
de lapso de tiempo individual. Los datos estáticos sísmicos 3D también
deben interpretarse desde el punto de vista de la identificación de diferencias
brutas, diferencias brutas desplazadas en el tiempo, así como diferencias absolutas.
Una metodología paso a paso es vital que integre flujos de trabajo para
administrar los datos, agregar, transformar e imputar los datos, así como
verificar la calidad de la solidez antes de crear data marts para flujos de
trabajo analíticos avanzados. Los procesos de EDA que invocan
conocimientos de datos multivariados son muy importantes para sacar a la
luz las tendencias ocultas y comprender completamente los patrones y las
correlaciones en un sistema complejo y heterogéneo como el campo del Mar del Norte.

Estudio de caso: trabajar con datos sísmicos pasivos

El monitoreo continuo del comportamiento del subsuelo es una disciplina de


larga data con sus orígenes en las primeras redes sismológicas. El despliegue
de sensores acústicos y la posterior integración de mediciones, combinados
con observaciones no sísmicas como efectos de fieltro, daños en edificios y
efectos del nivel freático, han permitido crear modelos complejos del subsuelo.

El monitoreo sismológico se ajusta para detectar y caracterizar los


eventos sísmicos a medida que se libera la tensión de las fallas en la corteza.
La aplicación práctica para monitorear el fracturamiento dentro de la
formación es desafiada por:

fi La escala de tal red de observación con respecto a la energía liberada


en eventos detectables fi La cantidad de atenuación y dispersión de
la onda inicial y la coda de ondas que evolucionan a lo largo de los
tiempos de viaje típicos
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 75

El monitoreo acústico también es capaz de detectar fallas mecánicas.


energía liberada por la extracción de fluidos o la actividad de perforación.
El propósito de este capítulo es mostrar cómo las mediciones de los sensores que
funcionan de forma pasiva (es decir, escuchan continuamente) pueden proporcionar
información impactante que complementa su implementación más tradicional en modo
activo. Los habilitadores tecnológicos clave en este caso son las comunicaciones rápidas
de datos para permitir el procesamiento oportuno de los datos. El proceso suele ser un
flujo de trabajo lineal que opera en flujos continuos de series de tiempo que comprenden
pasos de eliminación de ruido, reconocimiento de patrones y análisis estadístico.

Despliegues típicos para el monitoreo continuo del subsuelo


varían con el entorno y la escala de longitud:

fi Despliegue temporal, campo en tierra: Un conjunto microsísmico para cubrir unos


pocos kilómetros cuadrados que tendrá un tiempo de viaje de 1 a 2 segundos a
través del área de interés. Por lo general, se despliegan durante las actividades
de hidrofracturación y estimulación de pozos.

ÿ Despliegue temporal, campo en alta mar: Los sismómetros del fondo del océano
se despliegan desde barcos o ROV y escuchan continuamente durante semanas
o meses. El costo del equipo y las restricciones operativas significan que solo se
pueden realizar levantamientos localizados en unos pocos kilómetros cuadrados.
Las áreas más grandes dan como resultado una cobertura más escasa. ÿ
Despliegue permanente, campo marino: Con la llegada del monitoreo permanente

de yacimientos (PRM) para sísmica 4D frecuente y altamente repetible, se vuelve


lógico utilizar estos arreglos en modo pasivo. Las consideraciones de transferencia
y almacenamiento de datos, así como la falta de valor comprobado, están
inhibiendo esto en el momento de escribir este artículo. fi Despliegue localizado,
alrededor/ dentro de un pozo: Los sensores acústicos digitales en fibra óptica
comercial son sensibles a señales de mayor frecuencia y menor amplitud. Esto

hace que escuchar los sonidos del movimiento de fluidos y las actividades de
perforación sea una realidad.
Machine Translated by Google

76 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Los propios sensores sísmicos han evolucionado hasta convertirse en


dispositivos de ancho de banda alto y bajo de cuatro componentes (4C) a
precios comerciales cada vez más bajos. Los datos de los sensores
microsísmicos y las fibras ópticas tienen una relación señal/ruido muy
baja. La extracción de patrones es un desafío y ha vencido a las
arquitecturas de procesamiento en tiempo real incluso en los arreglos
terrestres más modestos. Las consideraciones prácticas de traer una
capacidad de procesamiento, específicamente un centro de datos en
contenedores, junto con los caminos en mal estado en los ambientes
húmedos y sucios de un campo de esquisto de Eagle Ford o Bakken, han
obstaculizado la evolución de una capacidad de procesamiento en tiempo
real adecuada para el propósito. . La otra solución es transferir los datos
a una instalación informática remota. La Ley de Moore ganará
eventualmente, y esto sucederá en la ubicación del pozo.
Sin embargo, el desafío algorítmico sigue en pie. ¿Qué conocimiento
geofísico se puede extraer de una matriz de geófonos de baja relación
señal/ruido? Sobre la base de nuestro experimento mental de escuchar
una flauta distante a través del ruido de fondo, ahora nos enfrentamos al
desafío de escuchar un solo golpe de una baqueta en un tambor contra el
mismo ruido de fondo. No sabemos de dónde viene, pero esta vez
tenemos el beneficio de muchos oyentes que pueden comparar notas
entre sí cada vez que alguno de ellos cree haber escuchado el tambor.

Cuando se trata de datos microsísmicos, el flujo de datos de un


receptor (suponemos aquí que cada flujo es un componente único de un
receptor 4C) debe almacenarse en un búfer de almacenamiento de
longitud adecuada. Si se detecta un patrón o estado en un canal o flujo de
datos, se puede buscar en todos los demás flujos de datos entrantes. Por
lo tanto, la fuente del evento acústico puede estar en el tiempo y el
espacio: una simple tomografía. Esto es casi directamente equivalente a
la arquitectura de datos para la sismología de terremotos.
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 77

Esto se puede ver como una versión en tiempo real de los conceptos
presentados anteriormente. Las técnicas estadísticas se pueden utilizar para
identificar eventos de una manera cruda pero efectiva. Para un búfer de, por
ejemplo, 10 segundos de datos, el búfer de 10 segundos se muestreará cada
2 ms, por lo que cada búfer contendrá 5000 muestras. Cuatro canales (y, por
lo tanto, cuatro búferes) por receptor, en una matriz de miles de receptores,
presenta un problema de procesamiento formidable si buscamos patrones en
toda la matriz a lo largo del tiempo. Para cada canal, la media, la mediana y el
rango se calcularán continuamente en el búfer. A medida que crece la
familiaridad con la demografía de los datos, evolucionará una caracterización
significativa de los eventos en términos de métricas como umbrales de rango
o la medida en que un valor es una anomalía. Si nuestra ventana de interés
es de cinco segundos para una matriz de unos pocos kilómetros de ancho,
entonces podemos permitirnos enviar más datos a nuestra ventana cada
segundo. Por lo tanto, buscamos constantemente 2,5 segundos antes y
después de la ventana de interés de 5 segundos, y es posible que deseemos
actualizar esto cada pocos segundos con un nuevo fragmento de 10 segundos.
El carácter de los datos se ilustra en la figura 3.1.

Este es claramente un problema de gestión de datos y arquitectura que


está al borde de lo que es computacionalmente posible en el campo, si no en
el centro de datos. El principal desafío computacional es cargar todos los
canales en un búfer simultáneamente en un tiempo mucho más pequeño que
la ventana de tiempo en los datos. Con muchos canales, el potencial para
perfilar los datos con métricas significativas es atractivo, ya que permite
descartar el resto de los datos.
Con un conjunto de datos lo suficientemente grande, el científico de datos
puede caracterizar los datos y desarrollar una estrategia para extraer patrones
significativos, ya sean estadísticas agregadas en el dominio del tiempo o
métricas en el dominio de la frecuencia o de las ondículas, como las
frecuencias dominantes. Este enfoque es particularmente apropiado cuando
la fuente acústica puede ser de naturaleza continuamente variable (fluidos,
concentración de burbujas) y la ubicación de la fuente.
Machine Translated by Google

78 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

40
20
0
–20
–40
–60
0 20 40 60 80
frecuencia, Hz

Figura 3.1 Una ventana espectral típica de 4500 muestras de un canal de un solo

componente de datos sísmicos pasivos que duran 9 segundos de un arreglo sísmico del

fondo marino. La relación señal/ruido es de aproximadamente 1:1. Las frecuencias dominantes

incluyen CA de red de 60 Hz y sus armónicos, y frecuencias mucho más bajas de

perforaciones cercanas.

Esperamos que esto dé una idea de cómo la ciencia de datos y el


análisis se pueden poner casi en tiempo real. Los movimientos de datos
por sí solos hacen de esta un área desafiante. También vale la pena
recordar que tales redes de monitoreo a menudo tienen un costo
extremadamente alto, ya que el valor de la información que brindan es igualmente alto.
¡Cualquier conocimiento analítico derivado de tal enfoque debe ser
igualmente sólido si se utiliza en un entorno tan comercial!

METODOLOGÍAS PETROFÍSICAS AVANZADAS

Tipos de datos petrofísicos y de registro de pozos

Esperamos explicar cómo se pueden obtener conocimientos basados en


datos a partir de mediciones físicas de las propiedades de las rocas (del
griego: petra = roca; física = naturaleza). El dominio petrofísico es el
puente entre el dominio de imágenes y el mundo físico del subsuelo. El
dominio también sustenta la caracterización y simulación de yacimientos,
la planificación de pozos, la perforación y la
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 79

optimización de la producción. Trabajar con datos petrofísicos requiere


una combinación sutil de conocimiento del dominio, ingeniería de datos
y algunas estadísticas básicas, pero puede generar impacto y valor
científico sin demasiada inversión en recursos analíticos.
Es probable que los datos petrofísicos se utilicen en más flujos de
trabajo y actividades upstream basados en el conocimiento que cualquier
otro tipo de datos. Los datos petrofísicos se utilizan en imágenes
sísmicas, interpretación sísmica, caracterización y simulación de
yacimientos, planificación de pozos, perforación y optimización de la producción.
La conservación y custodia sólidas de los datos petrofísicos son
fundamentales para todas las actividades que impulsan la estimación de
reservas, la eficacia operativa y, lo que es más importante, la seguridad.
Hay muchos recursos para trabajar con datos de registro de pozos.
Recomendamos a Asquith y Krygowski (2004), y no es nuestra intención
duplicar nada de esto más allá de la descripción general básica del
dominio. Nuestro alcance aquí es crear una intersección entre los
dominios de la petrofísica, la ingeniería de datos y el análisis para permitir
una productividad rápida en lo que es un espacio muy desafiante. La
Figura 3.2 propone algunos flujos de trabajo posibles y las áreas de
preparación para los diversos componentes clave, desde la integración
de datos hasta la implementación de metodologías de inteligencia artificial.

Los datos petrofísicos comienzan su vida como mediciones derivadas


de sensores recopiladas por contratistas de perforación y registro de
pozos durante o inmediatamente después de perforar un pozo. ¿Se
recopila para comprender las formaciones rocosas y el entorno del pozo?
¿Podemos usar datos petrofísicos para formular una comprensión del
yacimiento, su contenido de hidrocarburos y la movilidad potencial de los
hidrocarburos? Estos a menudo se reducen a dos áreas de interés: pago
neto y permeabilidad. Estas cualidades se basan en la medición de
propiedades físicas directas e indirectas a través de registros de potencial
espontáneo (SP), rayos gamma, resistividad, densidad y acústica.
Machine Translated by Google

80 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

• Datos analizados en tablas de etapas •


Dinámicos a representaciones centradas en la
profundidad • Vinculados a la lista de curvas maestras y características litoestratigráficas
Integración de datos

• Aplicar correlaciones estratigráficas y de profundidad •


Aplicar relaciones físicas entre propiedades de litología, fluidos y porosidad
Matemático
Normas

• Generar estadísticas por parámetro, pozo y formación • Perfilar


formaciones para patrones típicos y valores atípicos
Estadístico
Relaciones

• Explorar relaciones espaciales y tendencias • Identificar


curvas logarítmicas no coincidentes
Procesamiento de datos

• Identificar características de ingeniería para descripciones petrofísicas •


Construir modelos predictivos y prescriptivos
Aprendizaje
automático y artificial
Inteligencia

Figura 3.2 Estudios de negocios petrofísicos en un contexto de ciencia de datos

La mayoría de los usuarios de datos de registro de pozos piensan en


ellos como una serie de mediciones sin procesar que normalmente se
interpolan y luego se validan contra rangos de valores aceptables y se
ponen a disposición para su reutilización bajo un sólido régimen de gobierno
de datos. El sistema de gestión valora la custodia y la interoperabilidad,
pero refleja el enfoque centrado en archivos de antaño, cuando los datos
se almacenaban y transmitían en cinta y se controlaban a ojo como texto
sin formato. Además de los parámetros registrados, hay un ecosistema de
datos de pozos, informes de geólogos y otros registros operativos para dar
contexto y significado a lo que es esencialmente un montón de (relativamente,
según los estándares actuales) series de tiempo cortas, con algunos
humanos. -Información de encabezado legible.
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 81

Si es tan fácil trabajar con datos petrofísicos y tienen un papel tan importante
en la cadena de valor upstream, ¿por qué no se utilizan en un modelo más basado
en datos? Hay tres obstáculos

saltar:

1. El formato de los datos: ¿Trabaja con un conjunto de curvas individuales o


con las propiedades interpretadas?

2. El almacenamiento de los datos: por lo general, se guardan en una base de


datos de aplicación, es raro que los datos de múltiples pozos se expongan
a un análisis numérico.

3. Es conceptualmente desafiante: finamente muestreado en el pozo y luego


espacialmente disperso, el análisis estadístico es desafiado por las escalas
en las que opera cada una de las diferentes propiedades petrofísicas.

Los registros de pozo generalmente se almacenan por ubicación del pozo y


por curva de parámetro en una base de datos propietaria. También puede contener
información sobre la trayectoria del pozo, disparos de verificación y, en
organizaciones más grandes, información petrofísica y geotécnica. A veces es
recomendable almacenar datos de ingeniería sobre las formaciones rocosas
perforadas, la planificación y ejecución de la perforación y el diseño e implementación
de la estrategia de terminación de pozos. Por lo general, la transferencia de datos
de registro se realiza mediante un archivo de texto ASCII en formato Log ASCII
Standard (LAS), y hojas de cálculo o archivos de texto sin formato para el resto.

Comencemos nuestro proyecto basado en datos con algunos archivos LAS.


Los usuarios experimentados de registros de pozos están familiarizados con al
menos dos tipos de datos en un archivo LAS. Para un ingeniero de datos, es la más
dolorosa de las estructuras de datos, un archivo con múltiples estructuras. Si bien
el formato de archivo está bien descrito, se puede implementar en una variedad
infinita de formas, de modo que cada pozo en un campo tendrá diferentes metadatos
y conjuntos de mediciones. Por lo general, hay bloques en la estructura del archivo
que contienen datos sobre:

fi El tipo de datos en sí: el bloque de información de la versión fi

Metadatos sobre el pozo, el contratista de registro y el


carrera de registro: el bloque de información del pozo
Machine Translated by Google

82 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

ÿ Los parámetros medidos en la corrida de registro—la curva


bloque de información

ÿ Metadatos sobre el pozo: la información de los parámetros


bloquear

ÿ Las propias medidas físicas

El formato especifica que todas las mediciones a una profundidad determinada


se proporcionan en una sola fila. Aquí radica la raíz del desafío de la gestión de datos
cuando se trabaja con archivos LAS. Los datos deben
pivotar hacia una estructura en forma de curva o en forma de pozo,
pero hay una relación de muchos a muchos entre pozos y
curvas que varía según pozo y ventana de profundidad que hasta hace poco
derrotó las estructuras de datos de la mayoría de los enfoques de programación.
Para el ingeniero de datos y el científico de datos, una buena manera de pensar en
los datos contenidos en un archivo LAS es un grupo de mediciones físicas unidimensionales
precedidas por algunas mediciones espaciales.
y contexto lógico. Tenga en cuenta que las profundidades suelen ser en el fondo del pozo
y deben corregirse para obtener la profundidad y la ubicación verdaderas utilizando
la trayectoria del pozo (si existe).

Recopilación de datos y calidad de datos

Aunque el registro de pozos sustenta muchas actividades, no


apreciar completamente el potencial de errores ocultos en el registro de pozos
datos. Los registros de pozo se recopilan en el dominio del tiempo dibujando herramientas
de registro a través de un pozo con la velocidad del registro.
siendo utilizado para convertir el registro a una profundidad de fondo de pozo. hay espacio
para que los errores se filtren a través de datos registrados incorrectamente y velocidades
de registro, y la subsiguiente falta de coincidencia con los registros realizados por
ejecuciones posteriores.
Los errores aleatorios pueden ser introducidos por la ubicación del equipo de adquisición

de registros, su movimiento brusco (es decir, la tasa de tracción) durante la adquisición de registros y

el posicionamiento de la instrumentación de los sensores de registro


ellos mismos. No estamos acusando a las cuadrillas madereras de errores técnicos.
incompetencia: el problema suele ser un compromiso con el
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 83

diseño del pozo y el estado de las formaciones de interés después de ser


perforadas.
De manera similar, la comprensión del entorno del pozo con respecto a
la alineación de la profundidad, el tamaño del pozo, los efectos de invasión
de lodo y la rugosidad del pozo (variaciones de amplitud en la altura de una
superficie a pequeña escala) es vital al interpretar registros y proporcionar
un nivel de error o incertidumbre con una interpretación
Estos factores agravan los problemas parciales en la interpretación, lo que
da como resultado errores de más de +/-100 por ciento.
Se han introducido muchas técnicas en los últimos años para mitigar la
mayoría de los problemas, principalmente debido a la miniaturización de la
potencia informática para permitir que la autocalibración y la autocorrección
se realicen en la propia herramienta de registro. Sin embargo, dado que
algunos campos contienen registros de décadas, se debe suponer la
existencia de errores numéricos en registros antiguos. Cabe señalar que los
diferentes parámetros están sujetos a errores de diversas formas, que
surgen de la geometría y la física del entorno y la instrumentación del pozo.
Además, la combinación de conjuntos de mediciones de diferentes registros
y contratistas puede estar sujeta a discrepancias derivadas de errores de
posicionamiento y de referencia.

Una vez registrada, es probable que una ejecución de registro se corrija


por cualquiera de los problemas anteriores. Cuando el registro se lleve a
cabo en áreas donde la geología se comprende bien, se observarán errores
significativos. El próximo desafío antes del uso analítico es desarrollar reglas
para hacer frente a las lagunas en los datos. Este es un problema al trabajar
con cualquier serie continua de datos. Los archivos LAS suelen contener un
número especial (normalmente –999,99) para indicar un valor nulo,
normalmente debido a una mala lectura del sensor.
Afortunadamente, la mayoría de las bibliotecas matemáticas en los lenguajes
R o Python contienen un manejo de excepciones robusto y ofrecerán una
gama de opciones como parámetros de función para tratar con valores nulos .
Es raro que los datos de sensor más crudos se proporcionen desde un
sensor de registro. Se aplica algún tipo de corrección, aunque solo sea por
la deriva instrumental durante el registro. Se pueden utilizar otros enfoques
Machine Translated by Google

84 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

que corrigen la modificación de parámetros geofísicos por la presencia de fluidos y


lodos en el pozo.
El rango dinámico de los datos registrados puede ser una sorpresa cuando se
encuentra por primera vez. Existen muchos tipos de variabilidad que requerirán una
cuidadosa consideración cuando se expongan a las técnicas del científico de datos:

ÿ Algunas propiedades varían de manera lenta, constante y lineal (y, por lo


tanto, es posible que sea necesario eliminar la tendencia), como la
temperatura del pozo.
ÿ Algunos sensores registran una medida que varía en un

forma continua pero aparentemente errática, como el diámetro del pozo.

fi Algunas mediciones son altamente discontinuas ya que reflejan una propiedad


de la roca y cambiarán, a menudo dramáticamente, de una litología a la
siguiente. Además, algunas medidas registradas tendrán una relación lineal
con la propiedad que se está registrando, mientras que otras no serán
lineales (como las propiedades que interrogan el dominio electromagnético).

Cualquiera que realice análisis de datos de registros de pozos deberá trabajar


en estrecha colaboración con un petrofísico para garantizar que se respeten los
aspectos científicos de los datos. Hay espacio para comprender la demografía de
los datos de manera eficiente y garantizar que los valores extremos o
estadísticamente cuestionables sean significativos en lugar de basura. Este nivel
de curación y comprensión es vital para un análisis efectivo. Una población
relativamente pequeña de mediciones a menudo representa una litología delgada
pero crítica.

¿Qué nos dicen los datos de registro de pozos?

Como se esbozó anteriormente, el propósito de registrar un pozo es proporcionar


información sobre las rocas del yacimiento y los hidrocarburos y otros fluidos que
contiene. Los detalles de este

imagen se completan calculando propiedades y parámetros para


Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 85

describir las rocas que se están perforando, los fluidos incluidos en los espacios
porosos de la roca, el estado del pozo y la presencia e influencia en el ambiente
del pozo de los materiales utilizados
en, o creado por, la perforación.
Para el petrofísico y el geólogo, esto será una segunda naturaleza. Para el
científico de datos que se encuentra con datos de registro de pozos por primera
vez, vale la pena recorrer esta área lentamente con su experto en la materia y
comprender las etapas en la madurez de los registros de pozos. Las medidas
sin procesar, una vez limpiadas y corregidas, se convierten en interpretaciones
de propiedades físicas y mecánicas.

Deberíamos ilustrar dónde se abstrae mucha ciencia.


lejos detrás de un par de parámetros más simples. Por ejemplo, no existe una
medición directa de conceptos básicos como la porosidad; esta propiedad se
calcula a partir de relaciones bien establecidas entre la densidad de la formación
y la concentración de hidrógeno (donde están los vacíos). Si ha estado prestando
atención a sus datos, tampoco habrá visto estos parámetros: la densidad se
infiere del bombardeo de rayos gamma (el registro gamma) y la concentración
de hidrógeno del registro de neutrones detectada por los radionúclidos de
hidrógeno-3 (el registro compensado). registro de neutrones).

A menudo, el petrofísico realiza correcciones adicionales durante la fase de


preparación de datos utilizando sensores sónicos y fotoeléctricos.
mediciones.
Además, las combinaciones de mediciones registradas infieren algunas
propiedades. La confiabilidad de las propiedades calculadas de los fluidos solo
puede entenderse si se toman en consideración la rugosidad y la integridad del
pozo.
Estas ilustraciones son la punta de un iceberg que representa un enorme
cuerpo de conocimiento basado en la sólida comprensión científica de las
relaciones físicas bien entendidas. Se incluyen como advertencia de que el
análisis no supervisado en ausencia de experiencia en el dominio puede generar
conocimientos falsos o incluso engañosos. También subraya el requisito de
garantizar que el análisis se realice con un fuerte liderazgo y apoyo de expertos
en el campo.
Machine Translated by Google

86 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Para responder a la pregunta, “¿Qué nos dicen los datos de registro de


pozos?”, nos brinda una descripción multifísica del subsuelo de un pozo. Es
posible, pero poco probable, que las técnicas de ciencia de datos descubran
nuevos conocimientos basados en un solo pozo.
Por lo general, la correlación de registros de pozos con imágenes sísmicas
desarrolla una comprensión de la estratigrafía y la estructura del subsuelo
desde una perspectiva espaciotemporal. Una buena ingeniería de datos
permite acceder a los datos de registro de pozos en un contexto más
significativo para comparar pozos y registros entre formaciones y cuencas,
algo que hasta ahora ha sido imposible sin dicho enfoque.

Información estratigráfica
Armado con algunos datos de registro de pozos pivote, agrupados por pozo
y parámetro y ordenados por profundidad, el siguiente paso podría ser
proporcionar algún contexto geológico. Uno de los esfuerzos más antiguos
de los geólogos ha sido nombrar las capas de roca con niveles de detalle
cada vez más finos, desde unidades de roca de muchos kilómetros de
espesor hasta capas individuales u horizontes de unos pocos milímetros.
Este tipo de observaciones se relacionan con un evento geológico, como
una erupción volcánica o la desecación de un lago, o por el contrario, una
inundación. Sobreimpresos en el registro de sedimentación y erosión de
rocas hay movimientos físicos que pueden fracturar y fallar rocas
quebradizas si las tensiones son suficientes. Las rocas podrían plegarse
si es más dúctil. Las reacciones geoquímicas modificarán las rocas a
medida que su profundidad las exponga a cambios en sus temperaturas y
presiones de confinamiento.
Esto se está desviando hacia el territorio de los dominios geológicos y
requiere un curso de grado para hacerle justicia. Estas simples observaciones
deberían proporcionar un contexto de alto nivel para el científico de datos
que está tratando desesperadamente de dar sentido a un dominio científico
completamente nuevo, y actuar como un punto de partida para obtener una
experiencia de dominio más profunda de un petrofísico.
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 87

Integración con datos estratigráficos


¿De dónde vienen los datos estratigráficos? La mejor fuente de conocimiento
estratigráfico es una interpretación geológica. Ha sorprendido a muchos colegas
con experiencia en informática que un geólogo pueda mirar un trozo de roca y
describir sus propiedades visuales y físicas y, a menudo, asignarle un nombre, tipo
de ubicación e historial de formación. Si la roca es sedimentaria (es decir, está
hecha de lodo, arena o carbonato), es probable que haya algunos fósiles, por
pequeños que sean, que ayuden mucho en esta tarea. Esto lleva años de
entrenamiento, pero no es diferente a un consultor médico que identifica los
síntomas y hace un pronóstico. Existe el mismo margen de error (¡limitado!),
especialmente cuando un geólogo ha estado estudiando rocas de un área o depósito
durante un tiempo (¡décadas en algunos casos!).

Entonces, en términos más simples, un geólogo puede mirar un núcleo de roca


extraído de un pozo e identificar fácilmente las capas y, por lo tanto, los límites entre
las capas. Hay poco margen de error a menos que el núcleo esté dañado o falte, o
que haya un límite o una gradación poco claros de una capa a la siguiente.

De tal pozo, se genera una comprensión básica del subsuelo. La recuperación de


núcleos es un proceso costoso en términos del tiempo que se dedica a realizarla (la
operación de extracción de núcleos en una plataforma de perforación en el Mar del
Norte cuesta decenas de miles de dólares por hora), y existe un riesgo geotécnico
en la recuperación y, por lo tanto, la disponibilidad de los registros principales son
limitados. Los registros de pozos son interpretados por el estratígrafo (el petrofísico
responsable de encontrar las capas) en base a la comprensión geológica
prevaleciente, y posiblemente se cotejen con el bioestratógrafo para garantizar que
el contenido fósil tenga sentido geológico.

Luego se asignan los topes de formación. Estas son las profundidades de


fondo de pozo de la parte superior de cada una de las formaciones rocosas identificadas.
De manera confusa para los no geólogos, el término formación a menudo se usa
incorrectamente como un término genérico para una capa de roca, así como el sentido
Machine Translated by Google

88 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

como la unidad primaria de clasificación estratigráfica. La Comisión Estratigráfica


Internacional (ISC) (www.stratigraphy.org) proporciona muchos antecedentes, pero
basta saber que la jerarquía del ISC se resume así:

ÿ Supergrupo: varios grupos y formaciones con significado


no puedo tener en común

fi Grupo—dos o más formaciones contiguas que juntas proporcionan un “medio


útil para simplificar la clasificación”

fi Formación: la unidad primaria de clasificación fi Miembro: una

zona litológicamente distinta de una formación fi Lecho: un solo estrato en

una secuencia sedimentaria

Por lo general, las escalas que le interesan al geólogo en el rango del


yacimiento son grupos (como el Grupo Brent en el Mar del Norte) y formaciones
(como las formaciones constituyentes que generan el acrónimo nombre del grupo
Brent : Broom, Rannoch, Etive, Ness y Tarberto). Un miembro no está
necesariamente presente en una formación completa por las sutilezas de los
procesos de depósito o erosión y, de manera similar, no todas las formaciones
están continuamente presentes en un grupo, y puede que no haya un límite definido.

Tenga en cuenta estos pensamientos cuando intente interpretar un estudio


basado en estadísticas. Presentamos estos conceptos tanto para resaltar las
oportunidades en las que la visualización de datos a escala puede ser útil en un
área del tamaño de una cuenca, como para mostrar que puede haber razones por
las que su enfoque personal de aprendizaje automático está teniendo dificultades.
Por lo tanto, la selección visual de la parte superior de la formación de un conjunto
de registros de pozos es una actividad impulsada por expertos, pero está abierta a
la subjetividad y al sesgo cognitivo.
Este es el proceso mediante el cual se crea la información de profundidad,
pero este no es un contexto geológico integrado para permitir la ciencia de datos.
En primer lugar, los datos deben extraerse de su sistema de registro. Esta podría
ser una base de datos estratigráfica y, de ser así, una hoja de cálculo bien
seleccionada del nombre de una unidad (de una cantidad limitada).
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 89

vocabulario si tiene suerte), su tipo (formación o grupo), las profundidades


de la parte superior e inferior y el registro del pozo en el que se recogió
estarán presentes y serán correctos. Si tiene menos suerte, es posible que
deba ser creativo, o simplemente tener una mentalidad francamente sangrienta.

Extracción de información útil de los informes de pozos

Experimentamos un flujo de trabajo en el que la segunda página de cada


documento PDF en un directorio de más de 200 informes de pozos tuvo que
ser desechada y la tabla estratigráfica compilada por la consultora de gestión
de datos responsable del estudio de la escala de la cuenca extraída y
analizada a través de algunos análisis de texto básicos.
Esto dio como resultado una hoja de cálculo básica de formaciones, grupos
y aproximadamente un 20 por ciento de palabras aleatorias, pero con el
premio de la formación superior numéricamente intacto y con la unidad de
medida al lado para garantizar la integridad de los datos (es decir, ningún
dígito se extravió). Un par de horas de limpieza manual fueron seguidas por
una racionalización igualmente simple (pero tediosa) de los nombres de las unidades.
Este proceso introdujo un vocabulario estratigráfico consistente que dio una
visión a escala de la cuenca que hasta ahora no estaba clara para ninguno
de los equipos de perforación durante los 30 años de actividad en la cuenca.

Si bien este enfoque podría haber sido igualado en el tiempo con un


simple copiar y pegar durante los dos días transcurridos, con este flujo de
trabajo de limpieza de datos simple en su lugar, la siguiente cuenca solo
tomó un par de horas. Entonces, un paso lógico sería aplicar el aprendizaje
automático a esta tarea y automatizar el proceso por completo, solicitando
orientación experta donde no existe una acción precisa.

Como comentario general sobre el trabajo con representaciones de texto


de un parámetro, si esto se puede reducir a un número (es decir, un índice
o una cantidad), entonces es computacionalmente más eficiente. Es mucho
más fácil realizar análisis con clasificaciones y representaciones numéricas
(p. ej., usar una ID de unidad en lugar de una formación).
Machine Translated by Google

90 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

o nombre del grupo). El manejo de caracteres y cadenas es una sobrecarga


computacional mayor que trabajar con un número entero; trabajar con
representaciones enteras de datos clasificados acelerará sus análisis
complejos y simplificará los flujos de trabajo.

Integración con otra información del pozo


Además de los propios registros de pozos, los informes de pozos pueden
proporcionar información operativa vital sobre cómo y por qué se perforó
un pozo, lo que en algunos casos puede proporcionar muchas páginas de
contexto petrofísico y geológico. Los informes de pozos brindan un puente
hacia el dominio geológico más amplio con la desventaja (desde una
perspectiva analítica) de que el tipo de datos preferido aquí es el texto
libre. La minería de textos está más allá del alcance de este libro, pero ha
habido varios intentos exitosos de generar diccionarios y listas de palabras
clave a partir de la nomenclatura estratigráfica. A partir de estos diccionarios
y listas de pares de palabras, trillizos y tuplas más largas, es posible aplicar
contexto enriquecido al nivel de formación.
Este contexto se puede usar en un nivel muy fundamental para probar
el rigor y la consistencia de la interpretación geológica, es decir, ¿se usan
conceptos opuestos para describir patrones petrofísicos similares? Un
ejemplo ilustrado (Rahman, 2015) donde las descripciones de facies
similares de arenisca-lutita y limolita se aplicaron incorrectamente mediante
la coincidencia de patrones en los registros de pozo y la comparación con
el texto extraído de los informes de pozo.

Integración con otros dominios técnicos


a nivel de pozo

Se podría integrar una gran cantidad de información del ciclo de vida de


un pozo para obtener un mayor valor. Algunos operadores han estado
empleando técnicas basadas en datos en algunas de las áreas durante
varios años, pero para la mayoría de la comunidad upstream, este es
todavía un campo nuevo.
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 91

Las fuentes de información abarcan dominios comerciales:

fi La información de planificación incluye el objetivo del yacimiento, la planificación


de la trayectoria, la planificación de la tubería de revestimiento y la integridad,
la planificación de la infraestructura y las instalaciones, y la logística necesaria para
apoyar la perforación, la terminación y la producción posterior,
operación y mantenimiento.

fi La información de perforación contiene específicamente información valiosa


sobre el equipo, las técnicas y los procesos
empleados, y todas las mediciones del equipo capturadas durante la
perforación (MWD) y parámetros geofísicos
registrado durante la perforación (LWD).

fi La información de producción podría incluir tasas de flujo, petróleo/gas/


divisiones de agua, velocidades de inyección y composiciones de fluidos.

ÿ La información operativa incluye el estado del pozo, el mantenimiento


intervenciones y encierros.

Los dominios técnico y funcional contienen datos de diversa calidad y


accesibilidad. Se ha realizado mucho trabajo analítico
realizadas por operadores de activos no convencionales, donde el campo
el desarrollo se ha vuelto altamente operativo, para impulsar mejor
prácticas basadas en conocimientos de estos dominios de datos. Tiene
Queda claro que ciertos métodos de estimulación de pozos (p. ej.,
“el super-frac”) tienen un efecto estadísticamente significativo en ciertos
formaciones de yacimientos, incluso cuando no hay hipótesis geomecánicas
puede ser validado. De manera similar, una comprensión de la probabilidad de
requerir una lista precisa de materiales para la entrega del pozo
o la estimulación basada en el conocimiento geológico puede hacer una
cadena de suministro del operador mucho más eficiente en el apoyo
requisitos comerciales.
En toda la industria, el uso más impactante de los datos petrofísicos, cuando se
combinan con otros datos técnicos, ha sido en
comprender la eficacia de la perforación y las eficiencias operativas
y comprender las mejores prácticas generales en la entrega de pozos
a la escala impulsada por el desarrollo de campos no convencionales.
Machine Translated by Google

92 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Información fundamental

En el nivel jerárquico de una formación significativa o incluso de grupos


relativamente homogéneos, se puede lograr un perfilado sencillo con
estadísticas agregadas:

ÿ El mínimo y el máximo para entender el rango de


valores
ÿ Media, mediana para entender el comportamiento “normal” de
los datos

ÿ La desviación estándar para cuantificar el grado de variación


del valor medio

Cuando se lleva a cabo para cada parámetro registrado, esta


información es suficiente para proporcionar un perfil estadístico de la
calidad de los datos contenidos en los registros, así como una comprensión
de la variabilidad de los datos y, por lo tanto, su probable heterogeneidad vertical.
En cuanto a la calidad de los datos, lo ideal es que el rango se proporcione
en una lista de curvas maestras, y los valores ilegales se pueden corregir
mediante el desarrollo y la aplicación de reglas, como se hace
normalmente en los flujos de trabajo convencionales. Un enfoque más
rico consideraría las otras estadísticas agregadas para que los datos
anómalos o sospechosos, que tienen una desviación estándar más alta
de lo que se esperaría de las mediciones físicas exactas, pudieran
señalarse a un petrofísico.
Al nivel de una formación gruesa (más de varias decenas de metros)
(es decir, varios miles de puntos de datos) hay suficiente información
sobre la demografía de los datos registrados para permitir la comparación
de un pozo con el siguiente. Particularmente perspicaces son los pozos
o las curvas de pozos individuales que muestran un comportamiento extremo
sobre el resto de la población en formación. Al llevar a cabo tales estudios
en una variedad de escenarios geológicos, se hizo evidente que la
heterogeneidad vertical de la mayoría de las formaciones es suficiente
para socavar el valor de cualquier información estadística contenida en
cualquier parámetro petrofísico en particular. Una matriz de correlación
de los coeficientes de Pearson de un pozo al siguiente
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 93

mostrará relaciones similares en términos generales, pero hay una falta de


claridad y la heterogeneidad inhibe la descripción cuantitativa.
Es más útil presentar la mayor cantidad de información en la menor cantidad
de dimensiones posible.
Los métodos no paramétricos de reducción de dimensiones, como el
agrupamiento de k-medias y el análisis de componentes principales (PCA),
se han aplicado a las curvas de registros de pozos durante muchos años,
como en estudios geotécnicos de prospectividad y aplicaciones de ingeniería
de producción. Se ha utilizado con éxito para describir y relacionar
formaciones a través de pozos en una formación a escala de cuenca para
respaldar las técnicas de aprendizaje automático.
Las primeras propiedades que se vuelven visibles cuando se presentan
datos con respecto a sus descripciones estadísticas y demográficas a tal
escala son a menudo los valores atípicos. Cuando una formación o un
conjunto completo de registros de pozos se desvía en carácter de la
población en general, nos dice que hay algo que podemos aprender de este
comportamiento. Si el valor atípico es una función de la gobernanza de
datos deficiente en algún punto entre la adquisición y la interpretación,
entonces se puede reparar o descartar y la calidad general de los datos
mejorará. Dichos impactos surgen de registros de pozos que no coinciden,
por ejemplo, índices de extracción, datum, datos faltantes o, como se
muestra en la Figura 3.3, una falta de coincidencia en las unidades.
Si el valor atípico se encuentra en el nivel del yacimiento o de la
formación, entonces se deben revisar e interpretar los parámetros petrofísicos
incorporados en la propiedad estadística de interés.
Un ejemplo podría ser donde, por ejemplo, se perfora una secuencia de
canal de grava en una formación donde se encuentran turbiditas. Si la
geometría de los canales o el espesor de la formación está por debajo de la
resolución sísmica, es posible que se haya perdido la importancia de la
asociación a través de la correlación visual, particularmente en un conjunto
de datos históricos o donde la interpretación se realizó antes de una
comprensión más madura de la forma. había surgido la formación. Este
efecto se ilustra en la Figura 3.4.
Incluso en localidades geológicas bien seleccionadas y entendidas,
existe la posibilidad de escuchar lo que los datos podrían decirnos.
Machine Translated by Google

94 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

2000

1000

500

200

100

50

20

10

0.5

0.2

0.1

0.05

0.02
5 10 20 50 100 200 500 1000 2000 5000 10000
Promedio (registro (impedancia elástica))

Figura 3.3 Un estudio estadístico de datos de registros de pozos indica que la impedancia elástica al

nivel de la formación en 180 pozos se divide en dos grupos. Cerca

La inspección de los datos reveló que había persistido un prefijo mili en algunos pozos.

Este es un problema de gobernanza de datos que debe abordarse antes de que los datos puedan usarse

para el análisis.

Sin ataduras por valores atípicos, entonces vale la pena investigar los grados de
libertad en los datos en busca de tendencias que puedan estar dentro.
Las relaciones elementales entre la profundidad de enterramiento y los parámetros
elásticos deberían ser evidentes, y la eliminación de la tendencia de la profundidad
es un paso relativamente sencillo. Pueden existir tendencias en otras dimensiones
y, libres de las restricciones espaciales que se aplican en la mayoría de los
paquetes de software de modelado del subsuelo, los patrones en, por ejemplo,
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 95

0.28

0.26

0.24

0.22

0.20

0.18

0.16

0.14

0.12

0.10

0.08

0.06

0.04

0.02

0.00

2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7


Promedio (rho b) g cc-1

Figura 3.4 Densidad de formación promedio y su desviación estándar para


el grupo BRENT (azul escoba/círculo, rosa Rannoch/X, marrón Etive/cuadrado,
púrpura Ness/+, rojo Tarbert/*). La formación Etive, más heterogénea, contrasta
con la arenisca homogénea de la Escoba. Son de interés los pozos atípicos para
cada grupo y la diversidad en la variabilidad a lo largo del Tarbert.

la geoquímica y otros dominios no espaciales pueden volverse evidentes. Las


tendencias inducidas geoquímicamente antes del entierro pueden volverse
evidentes. De manera similar, las geometrías radiales y otras no lineales serán
más evidentes cuando se exploren con un enfoque no espacial.

Ingeniería de funciones en registros de pozos

Una vez que se establecen las descripciones estadísticas fundamentales de los


datos petrofísicos, puede llevarse a cabo la identificación de características. En el
Machine Translated by Google

96 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

extremo más simple del espectro, esto podría estar en la línea de buscar
picos térmicos en los registros de temperatura. Rahman (2015) utilizó el
analizador agregado simbólico (SAX), que mapea los valores numéricos en
un conjunto de contenedores derivados estadísticamente.
Al decidirse por un puñado (5–7 funcionaron de manera óptima) de
contenedores, Rahman asignó un carácter (p. ej., a–e) a los valores de
temperatura reorganizados. Luego utilizó el análisis básico de expresiones
regulares, disponible en la mayoría de los idiomas (script de Unix Shell,
Python, etc.), para detectar tales características en cientos de pozos en cuestión de segund
Sobre la base de los conceptos de ingeniería de características
presentados en el Capítulo 1, existe una amplia gama de propiedades que
se pueden utilizar en los datos petrofísicos. Antes de realizar una regresión
o reducción de dimensión en un conjunto de curvas de registro para evaluar
la similitud general entre los pozos, puede ser útil buscar un patrón en un
registro. Puede ser que algunas facies sean una zona productiva y la simple
pregunta geológica sea: "Muéstrame algo como esto en otros registros". La
variabilidad en la mayoría de las curvas logarítmicas requiere enfoques como
las transformaciones wavelet o shapelet. Estos métodos capturan las
características clave, como picos, valles, tamaños relativos y posiciones, y
permiten encapsularlos como una plantilla que luego se puede ofrecer en un
conjunto de datos más amplio para comparar y clasificar candidatos similares.
Rahman (2015) utilizó una transformada de ondículas para igualar las
propiedades de las ondículas de las unidades sedimentarias intercaladas y
compararlas con las interpretaciones geológicas de cada pozo para identificar
diferentes interpretaciones. El enfoque arrojó ideas poderosas y racionalizó
un modelo sedimentario complejo para el desarrollo de la cuenca. En la
Figura 3.5 se ilustra un ejemplo de características definidas en un pozo y
encontradas mediante técnicas de wavelet.

En un nivel más general, las descripciones de cambio de estado se


pueden aplicar para respaldar y guiar la correlación de pozos mediante la
identificación de estados discretos en una curva logarítmica sin información
a priori sobre dónde puede estar el tope de la formación. Este enfoque se
utiliza en análisis industrial mientras se monitorea la condición y
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 97

Figura 3.5 Las medidas de carbón determinadas en un pozo en la cuenca de Taranaki,


noreste de Nueva Zelanda, se usaron para crear una plantilla basada en wavelet que se
aplicó a los pozos del resto de la cuenca con gran éxito. Rahman (2015) reporta falsos
positivos ocasionales que apuntan a la necesidad de afinar más la técnica, pero también
reporta muchas características candidatas que no habían sido interpretadas como carbón
pero que ocurrieron en formaciones interpretadas que estaban asociadas con carbón.
Machine Translated by Google

98 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

rendimiento de maquinaria compleja, pero aún tiene que emerger en el espacio


petrofísico más allá de algunos prototipos iniciales.

Hacia el aprendizaje automático

Al momento de escribir este artículo, aún no está suficientemente probado que


las técnicas de aprendizaje automático (ML) puedan hacer un mejor trabajo que
un experto en el dominio de capturar información crítica y luego usarla en un
modelo predictivo útil a escala de cuencas o a través de las complejidades. de
flujos de trabajo de múltiples dominios, como la coincidencia de historial 4D. Lo
más probable es que esto se deba a la madurez de la disciplina y no a la falta
de aplicabilidad. Cada vez es más claro que ML puede brindar información más
rápida y llamar la atención del experto hacia donde los datos no tienen sentido.
El principal inhibidor de una mayor aceptación de la industria de ML en esta
área ha sido cualquier visibilidad de la actividad.

Casos de uso

Los casos de uso para estudios basados en datos en el dominio petrofísico son
pocos. Anticipamos una explosión masiva en el uso de técnicas analíticas y de
ciencia de datos. Hemos demostrado enfoques simples para evaluar la calidad
de los datos y creemos que será una actividad vital y complementaria para la
comunidad actual de gestión de datos.

Más allá de los casos de uso geológico y prospectivo que presentamos


anteriormente, se han realizado estudios de prototipos en la efectividad de la
perforación utilizando datos de medición y registro durante la perforación, y esto
podría extenderse a la entrega y el rendimiento del pozo cuando se combina
con datos operativos.
A medida que mejoramos como comunidad en la comprensión del carácter
estadístico de los datos de nuestro dominio, la aplicación potencialmente tomará
en cuenta la selección de objetivos, la comprensión del comportamiento del
yacimiento y, eventualmente, las actividades de ciclo cerrado, como la
comparación del historial.
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 99

Observaciones finales

Armados con un conjunto de herramientas básicas, podemos capturar


información contenida en datos de formaciones geológicas que trasciende
cualquier propiedad petrofísica individual. Todavía queda mucho trabajo
por hacer para garantizar que se aplique un nivel de contexto y
experiencia en la materia a tales conocimientos basados en datos, pero
también hay mucho que se puede practicar de inmediato a la escala de
un gran conjunto de datos.
El enfoque es eficiente y tiene el potencial de extensión y reutilización
mucho más allá del alcance del estudio general a escala de campo.
Debería convertirse en una cuestión de rutina calcular (y recalcular
regularmente) y almacenar para reutilizar esta información encapsulada
como un componente esencial para un análisis más amplio. Las técnicas
básicas de ingeniería de características deben aplicarse a las curvas de
registro para construir un conjunto de patrones o características que
capturen los fenómenos fundamentales en una biblioteca de registros de
pozos. Tal esfuerzo podría ser una pieza crítica de propiedad intelectual
competitiva para una empresa operativa. Las propiedades importantes
del yacimiento pueden presentarse en la medida que se rigen por las
técnicas de perforación, como algunos fluidos presentes durante la
perforación o el daño a la formación y su impacto en la capacidad de
registrar otras propiedades geofísicas.

REFERENCIAS

Abdul-Rahman, Alias y Morakot Pilouk, Modelado de datos espaciales para


SIG 3D, Springer (2007).
Arnold, SJ, "A Test for Clusters", Journal of Marketing Research, 16 (1979): 545–551.

Asquith, GB y D. Krygowski, "Análisis básico de registros de pozos", AAPG Methods in


Exploration Series No. 16 (2004): 0891816674.
Bock, HH, "Sobre algunas pruebas de significación en el análisis de conglomerados", Revista
de Clasificación, 2 (1985): 77–108.
Cao, Q., R. Banerjee, S. Gupta, J. Li, W. Zhou y B. Jeyachandra, "Previsión de producción
basada en datos mediante aprendizaje automático"
Machine Translated by Google

100 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Sociedad de Ingenieros de Petróleo (1 de junio de 2016). DOI: 10.2118/ 180984-MS.

Chen, J., Z. Li y B. Bian, “Aplicación de la minería de datos en el análisis de factores


geológicos múltiples. En: Cai, Z., C. Hu, Z. Kang y Y. Liu (eds.), Advances in
Computation and Intelligence, ISICA 2010, Lecture Notes in Computer Science, vol.
6382, Springer, Berlín, Heidelberg.
DOI: 10.1007/978-3-642-16493-4_41.
Coste, J.-F., J.-P. Valois, Elfo. TotalFina, “An Innovative Approach for the Analysis of
Production History in Mature Fields: A Key Stage for Field Reengineering”, artículo de
la SPE 62880 presentado en la Conferencia y Exposición Técnica Anual de la SPE de
2000, Dallas, Texas (1 al 4 de octubre).

Everitt, BS, "Problemas no resueltos en el análisis de conglomerados", Biometrics, 35


(1979): 169–181.
Hall, B., "Clasificación de facies mediante el aprendizaje automático", Leading Edge, 35,
no. 10 (2016): 906–909, http://dx.doi.org/10.1190/tle35100906.1 .

Hall, Matt y Brendon Hall, "Predicción colaborativa distribuida: resultados del concurso de
aprendizaje automático", Leading Edge, 36, no. 3 (2017): 267–269. DOI: 10.1190/
tle36030267.1.
Hartigan, JA, "Distribuciones asintóticas para criterios de agrupación",
Annals of Statistics, 6 (1978): 117–131.
Hartigan, JA, "Teoría estadística en agrupamiento", Journal of Classifica
ción, 2 (1985): 63–76.
Holdaway, KR, L. Fabbi y D. Lozie, “Unconventional Data-Driven Methodologies Forecast
Performance in Unconventional Oil and Gas Reservoirs”, artículo 1910-2015,
presentado en el Foro Global SAS 2015, Dallas.

Hubert, L., "Técnicas de evaluación aproximadas para los procedimientos de agrupación


jerárquica de enlace único y enlace completo", Journal of the American Statistical
Association, 69 (1974): 698–704.
Jochen, VA y JP Spivey, “Probabilistic Reserves Estimation Using Decline Curve Analysis
with the Bootstrap Method”, artículo de la SPE 36633 presentado en la Conferencia y
Exhibición Técnica Anual de la SPE de 1996, Denver (6 al 9 de octubre).

Johnston, J. y A. Guichard, "Uso de herramientas de análisis de Big Data para comprender


las secciones de agujeros defectuosos en la plataforma continental del Reino Unido",
Sociedad de Ingenieros del Petróleo (2015). DOI: 10.2118/1015-0060-JPT.
Machine Translated by Google

METODOLOGÍAS GEOFÍSICAS Y PETROFÍSICAS 101

Klastorin, TD, “Assessing Cluster Analysis Results”, Journal of Marketing Research,


20 (1983): 92–98.
Ling, RF, "Una teoría de la probabilidad del análisis de conglomerados", Revista de la
Asociación Estadounidense de Estadística, 68 (1973): 159–169.
McClain, JO y VR Rao, "CLUSTISZ: un programa para probar la calidad de la
agrupación en clústeres de un conjunto de objetos", Journal of Marketing Research,
12 (1975): 456–460.
Mueller, DW y Sawitzki, G., “Estimaciones y pruebas de exceso de masa para
Multimodalidad”, JASA, 86 (1991): 738–746.
Patricelli, JA y CL McMichael, “An Integrated Deterministic/Probabilistic Approach to
Reserve Estimations”, JPT (enero de 1995).

Rahman, Laique, tesis de maestría: "El diseño de un sistema de clasificación impulsado


estadísticamente para la extracción de datos y el procesamiento automatizado de
registros de pozos y datos asociados", Universidad de Manchester (2015).
Saenger, EH et al., "Un estudio sísmico pasivo sobre un campo de gas: análisis de
anomalías de baja frecuencia", Geofísica, 74, no. 2 (2009), https://doi.org/
10.1190/1.3078402.
Sarle, Criterio de agrupamiento cúbico de WS, Informe técnico A-108 de SAS, Cary,
NC: SAS Institute Inc. (1983).
Sarle, WS y An-Hsiang Kuo, El procedimiento MODECLUS, Informe técnico SAS
P-256, Cary, NC: SAS Institute Inc. (1993).
Schnetzler, Emmanuel, T. y David L. Alumbaugh, "El uso de análisis predictivos para
la exploración de hidrocarburos en la cuenca de Denver Julesburg", Leading Edge,
36, no. 3 (2017): 227–233. DOI: 10.1190/tle36030227.1.

Thompson, RS y JD Wright, “The Error in Estimating Reserve Using Decline Curves”,


artículo de la SPE 16295 presentado en el Simposio de Evaluación y Economía
de Hidrocarburos de la SPE de 1987, Dallas (2 y 3 de marzo).

Wong, MA y Schaack, C. “Uso del k-ésimo procedimiento de agrupación de vecinos


más cercano para determinar el número de subpoblaciones,”
Asociación Estadounidense de Estadística, Actas de la Sección de Computación
Estadística, 40–48 (1982).
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

CAPÍTULO 4
Continuo
Vigilancia

102
Machine Translated by Google

“Alice se rió: 'No sirve de nada intentarlo', dijo; 'uno no puede creer
cosas imposibles'”.
“Me atrevo a decir que no has tenido mucha práctica,” dijo la Reina.
“Cuando era más joven, siempre lo hacía durante media hora al día.
Vaya, a veces he creído hasta seis cosas imposibles antes del
desayuno.

Lewis Carroll (Las aventuras de Alicia en el país de las maravillas)

INTRODUCCIÓN

El monitoreo continuo del estado físico de sistemas complejos multivariados


y multidimensionales es una tecnología relativamente inmadura en la
exploración geofísica. Existen soluciones de vigilancia sismológica para
levantamientos 4D que monitorean cambios sutiles en los yacimientos de
petróleo y gas. Se ha implementado un sistema sísmico controlado, llamado
ACROSS (Sistema de señales controlado con precisión y operado de forma
rutinaria), en algunos de los campos antiguos de Medio Oriente.
También existen métodos sísmicos para obtener imágenes de zonas
litológicas individuales cuyas propiedades físicas varían a lo largo del tiempo.
El monitoreo continuo del estado físico de los yacimientos de petróleo y gas
puede extenderse a la captura y el secuestro de carbono (CSS) y los
entornos acuíferos. La aplicación de técnicas analíticas basadas en datos
permite soluciones de monitoreo continuo con motores de procesamiento de
flujo de eventos. Los depósitos inteligentes equipados con sensores envían
datos en tiempo real a modelos dinámicos de computación suave en el borde
donde se generan los datos.
Los campos petrolíferos digitales y los pozos inteligentes están
equipados para enviar datos de forma continua a los centros analíticos de
excelencia y centros de tecnología geocientífica remotos para el monitoreo
y la toma de decisiones en tiempo real. Podemos informar sobre las
condiciones de fondo de pozo en toda la cartera de pozos de producción de un activo.
La fibra óptica y los flujos de trabajo analíticos automatizados implementados
en la transmisión de datos se han combinado para aumentar la importancia
103
Machine Translated by Google

104 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

de sensores de monitoreo. Analizaremos los datos de detección distribuida de


temperatura (DTS) y de detección acústica distribuida (DAS) y su importancia
en evolución para gestionar los ciclos de vida de un yacimiento de petróleo y
gas. Los flujos de trabajo analíticos basados en datos de aprendizaje
automático (ML) y aprendizaje profundo (DL) influyen en la generación de
conocimiento en tiempo real a partir de múltiples conjuntos de datos de
transmisión. Exploremos los conjuntos de datos geofísicos y petrofísicos de
series temporales que se pueden aprovechar para abordar los problemas comerciales ascend
Podemos ir más allá del muestreo puntual tradicional y la interpretación
determinista mediante la agregación de conjuntos de datos innovadores y
técnicas de computación blanda cognitiva basadas en datos. La industria ha
sido testigo de una evolución desde el enfoque de sensores permanentes
distribuidos para monitorear las condiciones de los pozos de fondo de pozo al carácter
izar el embalse en su totalidad.

MONITOREO CONTINUO EN EL EMBALSE


Hoy somos testigos de pozos productores instrumentados que continuamente
transmiten datos que describen las firmas de las condiciones de fondo de
pozo. Los avances en las tácticas de implementación, la fibra óptica y los
flujos de trabajo de interpretación innovadores se han unido para aumentar la
huella de los sensores de monitoreo permanente que brindan conocimiento
en tiempo real del subsuelo. Los flujos continuos de datos de presión y
temperatura en tiempo real (DTS) emulan registros de pozos durante las fases
de producción. Dichos conjuntos de datos abordan problemas técnicos y
comerciales durante las intervenciones y estimulaciones junto con la reducción
de OPEX y diferido
producción. El muestreo puntual ha sido y sigue siendo un problema en la
industria del petróleo y el gas a medida que nos esforzamos por comprender
las complejidades de los sistemas del subsuelo. Sin embargo, estamos
evolucionando poco a poco desde el muestreo puntual hasta la aceptación de
la industria de mediciones continuas a través de fibra óptica. A medida que se
adopta la tecnología innovadora de sensores de fibra óptica, notamos el
enfoque de instalar sensores permanentes que permitan la caracterización de
yacimientos además del monitoreo y la vigilancia simples.
Sin embargo, para maximizar el valor de todas las mediciones de sensores
permanentes, debemos adoptar e implementar sistemas automatizados.
Machine Translated by Google

MONITOREO CONTINUO 105

y metodologías analíticas avanzadas basadas en datos semiautomáticas. Veamos


algunas de las aplicaciones y beneficios de aprovechar flujos de datos de monitoreo
continuo para ir más allá de la mera vigilancia y permitir la caracterización de
yacimientos. Nosotros

puede entonces reducir los ciclos de toma de decisiones ya que las tácticas y
estrategias comerciales y técnicas se realizan en tiempo real.

TÉCNICAS DE APRENDIZAJE AUTOMÁTICO


PARA DATOS TEMPORALES

¿Por qué deseamos estudiar datos de series de tiempo? Tal vez queramos predecir
el futuro basándonos en firmas históricas o controlar más estrictamente el proceso
que genera los conjuntos de datos temporales.
¿Es más fundamental entender el mecanismo detrás

estas firmas de series de tiempo, o sólo queremos documentar la descripción de las


características significativas ocultas en los datos?

Ciertas medidas cambian continuamente, como la temperatura y la presión, pero


invariablemente una grabación digital se coteja discretamente en el tiempo. Existen
series temporales univariadas y multivariadas, pero en la identificación de firmas
sísmicas podemos centrarnos en las primeras donde se realiza repetidamente un tipo
de medición.

El aprendizaje automático dinámico (DML) está saliendo rápidamente a la calle


como la condición sine qua non del dominio de la inteligencia artificial (IA). Estos
flujos de trabajo requieren aprendizaje recursivo en tiempo real

algoritmos de procesamiento. La implementación de este tipo de algoritmos requiere


modelos de datos variables en el tiempo que aprenden continuamente. Hay cuatro
beneficios para DML:

1. Aprendizaje en tiempo real.

2. El aprendizaje automático se adapta al hardware obsoleto para lograr


un nuevo estado normal.

3. Menos falsos positivos gracias al establecimiento de metamodelos


por los estados del sistema subyacentes.

4. La facilidad y la eficiencia de los gemelos digitales en evolución permiten


mejoras continuas en el rendimiento de ciclo cerrado.
Machine Translated by Google

106 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

PERSPECTIVAS ESPACIOTEMPORALES

La incertidumbre en el subsuelo surge invariablemente de una borrosidad


(Aminzadeh, 1991) en contraposición a la pura casualidad. Existe una
necesidad mucho más crítica de modelar la complejidad en la
heterogeneidad espacial y temporal del subsuelo a medida que el fluido
fluye a través de un reservorio "vivo" y dinámico.
Estamos resolviendo un problema inverso a través de un conjunto de
pasos de calibración. Habiendo logrado un modelo calibrado de la
heterogeneidad, las estrategias de pronóstico de pozos y agotamiento de
campo son más robustas y confiables. Hay esencialmente dos caminos
para la inversión del modelo. Primero, desde una perspectiva
computacional, podemos lograr eficiencia adoptando flujos de trabajo de
filtrado que cuenten con la linealidad inherente a los modelos. En segundo
lugar, para abordar los modelos no lineales más generalizados asociados
con la caracterización de yacimientos, debemos confiar más en
metodologías de optimización pura.
Los problemas espaciotemporales requieren la formulación de un
problema de inversión desde el punto de vista de un desajuste funcional
entre las observaciones de entrada y los valores de salida de los modelos
numéricos. Todas las observaciones independientes son, pues, funciones
en el espacio y el tiempo. La incertidumbre inherente a la adquisición de
datos también se puede expresar en la relación funcional no coincidente
entre los parámetros de entrada y salida. Podemos cambiar los parámetros
del modelo en cada nodo de la cuadrícula dentro de la discretización del
yacimiento para generar un protocolo de búsqueda óptimo. Invariablemente,
optimizar la inversión de un modelo, trabajando con una función objetivo
no lineal y no convexa, requiere múltiples simulaciones que consumen
mucho tiempo. Para agregar a este problema de modelado están los
grados de libertad que son mayores que el número de observaciones.
Podemos abordar estos problemas adoptando el análisis de
componentes principales (PCA) para reducir la dimensión del conjunto de
datos de entrada a un espacio más pequeño y conservar el rango de
varianza entre las observaciones de entrada. El primer componente
principal es la mayor variación posible en las características geológicas espaciales
Machine Translated by Google

MONITOREO CONTINUO 107

bajo estudio, y por lo tanto representa la mayor parte de la variabilidad en el conjunto


de datos de entrada. Podemos reducir la cantidad de soluciones óptimas aumentando
la diversidad de las observaciones dentro del conjunto de datos.

ANÁLISIS DE SERIES TEMPORALES

Definamos desde el principio qué es una serie de tiempo para que podamos

asignar algoritmos apropiados para analizar dicha serie. Esencialmente es una


secuencia de vectores o escalares que dependen del tiempo. Estamos estudiando
patrones en un conjunto de datos temporales asociados con puntos o períodos de
tiempo específicos. En la industria del petróleo y el gas, estamos considerando los
siguientes ejemplos de datos de series de tiempo que son discretos o continuos por
naturaleza:

fi Datos discretos: puntos de datos individuales o fases de un tiempo


serie

ÿ Datos continuos: datos que contienen cualquier valor que se considere factible
ble dentro de un rango

Los datos de series de tiempo comprenden atributos en dos tonos distintivos:


1. Atributos contextuales

2. Atributos de comportamiento

El primer tono es temporal por naturaleza y el segundo corresponde a una medida


temporal.
Si profundizamos en el mundo de los datos temporales, podemos identificar dos
grupos de clasificación distinta:

1. Podemos categorizar momentos precisos en el tiempo. Se puede predecir que


eventos sobresalientes ocurrirán en momentos específicos en los flujos de
datos de series temporales. Asociamos etiquetas con

los tiempos específicos, y luego la clasificación se basa en los atributos de


comportamiento para cada momento.

2. Podemos clasificar alternativamente una ventana de tiempo o una serie de


tiempo completa. En tales casos, la asociación de las etiquetas es con
muestras temporales en ventana o con la serie temporal completa.
Machine Translated by Google

108 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Los riesgos potenciales asociados con la toma de decisiones estratégicas en


upstream se reducen o incluso se mitigan con flujos de trabajo analíticos basados
en datos de pronóstico de series temporales inteligentes. ML está ampliando la
gama de tecnologías informáticas blandas de extracción de datos al permitir que
los algoritmos informáticos se ajusten a los nuevos datos sin ser reprogramados
explícitamente de forma dinámica. Desde una perspectiva de series de tiempo,
esta capacidad ofrecía una precisión increíble para el monitoreo continuo de datos
de series de tiempo generados a altas frecuencias y muestreados a intervalos de
subsegundos.
En una serie temporal estacionaria, las propiedades de media, varianza y
autocorrelación son constantes. La mayoría de las metodologías de pronóstico se
basan en la suposición de que la serie de tiempo se puede estacionarizar usando
transformaciones matemáticas. Entonces se vuelve más fácil predecir la serie
temporal ya que las propiedades estadísticas futuras serán las mismas que los
valores históricos.

Podemos obtener estadísticas muestrales significativas de una serie de


tiempo estacionaria como descriptores del comportamiento futuro. Tenga en
cuenta que la extrapolación de modelos de regresión ajustados a datos de series
de tiempo no estacionarios es problemática.

PREDICCIÓN AVANZADA DE SERIE DE TIEMPO

Es imperativo en la industria del petróleo y el gas generar pronósticos sólidos y


eficientes desde las perspectivas de corto y largo plazo.
Los yacimientos son muy complejos y un análisis de tendencia empírico de los
datos históricos de producción proporciona un análisis de curva de declive
fundamental (DCA) y predicciones de series de tiempo tenues. Los flujos de
trabajo de ML han surgido en múltiples negocios verticales para abordar la
incertidumbre inherente a las técnicas de pronóstico tradicionales y el análisis de
series temporales. Esencialmente, podemos poner los métodos de predicción en
dos canastas:

1. Cualitativo

2. Cuantitativo
Machine Translated by Google

MONITOREO CONTINUO 109

La primera metodología describe aquellos estudios de casos en los que la


industria del petróleo y el gas se basa únicamente en la experiencia y los
conocimientos geocientíficos, y no en los datos. El segundo enfoque está
respaldado por datos y flujos de trabajo analíticos de series de tiempo basados en
datos clásicos.
Hay varios modelos de series de tiempo estándar disponibles en

las industrias Algunos de los predictores del modelo temporal incluyen:

ÿ ARIMA (media móvil integrada autorregresiva) ÿ VAR (vector

autorregresivo)
ÿ Inviernos Holt

ÿ Regresión lineal ÿ

Regresión no lineal

La mayoría de los modelos de series temporales necesitan datos de buena calidad


para generar pronósticos precisos. Por lo tanto, es imperativo completar un conjunto de
pasos de procesamiento de datos para determinar una entrada de conjunto de datos
sólida para los procesos de modelado temporal.
Es importante entender que ninguna técnica de pronóstico individual es
óptima para varios ambientes geológicos. Hay, por ejemplo, una diferencia
significativa en el flujo de fluidos a través de depósitos convencionales y no
convencionales. Los ARP tradicionales

Las ecuaciones son demasiado optimistas cuando se ajustan a los datos históricos
de producción de yacimientos no convencionales, debido a la muy baja
permeabilidad y los valores deficientes de porosidad de las rocas del yacimiento.
¿Es factible combinar múltiples técnicas de pronóstico de series temporales
basadas en datos para lograr un flujo de trabajo más sólido y confiable para
predecir eventos en la industria del petróleo y el gas?
Estudiemos los tres componentes más importantes de cualquier
conjunto de datos de serie temporal:

1. Tendencias y ciclos 2.

Estacionalidad
3. Residuos

Las tendencias pueden surgir a través de la identificación de un aumento o


disminución a largo plazo en la ventana de datos. Y, por supuesto, estos
Machine Translated by Google

110 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

las tendencias pueden alternar entre direcciones crecientes y decrecientes. La


naturaleza cíclica de los datos de series temporales refleja los máximos
y mínimos o altibajos de los datos de una ventana de tiempo o
periodicidad que no es fija.
La estacionalidad se refiere a patrones que toman forma debido a
factores repetidos que afectan los datos en fijo y entendido
ventanas de tiempo, como cuando un pozo se cierra periódicamente
cada mes. Recuerde, estacional es diferente de cíclico
en que el primero tiene una característica fija asociada con

periodos en un año calendario. La Figura 4.1 ilustra un tiempo original


conjunto de datos en serie convolucionado con un modelo aditivo, y Figura 4.2
muestra los paneles de descomposición de las tendencias inherentes y
estacionalidad de las firmas temporales.
El proceso de descomposición para extraer cada uno de estos componentes
de un conjunto de datos de series temporales permite al analista apreciar
los factores impulsores clave que son firmas del pasado y potencialmente
eventos futuros. ¿Hay una tendencia creciente o decreciente inherente a los
datos durante una ventana de tiempo? ¿Cuánta fluctuación hace
vemos semanalmente o mensualmente? ¿Cuántos valores atípicos son
hay en el conjunto de datos temporal?
Aquí hay un modelo aditivo propuesto:

yt = Tt + St + Rt

donde los datos de la serie temporal están representados por yt y las tendencias
(Tt), Estacionalidad (St) y Residuales (Rt) son los que contribuyen
componentes durante un período de tiempo t.

400000

300000

200000

ene00 ene02 ene04 ene06 ene08 10 de enero 12 de enero 14 de enero 16 de enero

Fecha

Información histórica Anulación de límites de confianza conciliados de pronóstico conciliado Pronóstico final

Figura 4.1 Modelo aditivo convolucionado de serie temporal original


Machine Translated by Google

400000 75000

50000

350000
25000
Tendencia-
Ciclo

Estacional-
Irregular

0
300000
–25000

250000 –50000

ene00 ene02 ene04 ene06 ene08 10 de enero 12 de enero 14 de enero ene00 ene02 ene04 ene06 ene08 10 de enero 12 de enero 14 de enero

400000
50000

25000 350000
Irregular

0 estacionalmente
Ajustado

300000

–25000

250000
–50000

ene00 ene02 ene04 ene06 ene08 10 de enero 12 de enero 14 de enero ene00 ene02 ene04 ene06 ene08 10 de enero 12 de enero 14 de enero

Figura 4.2 Paneles de descomposición que ilustran tendencias y ciclos estacionales

111
Machine Translated by Google

112 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

También podríamos mirar los datos de la serie de tiempo de una multiplicación


perspectiva tiva. Aquí hay un modelo multiplicativo propuesto:

yt = Tt × St × Rt

Cuando el tamaño de las oscilaciones estacionales o las disímiles

lidad inherente a la tendencia-ciclo no muestra variación con el nivel de la serie


temporal, el modelo aditivo es más apropiado.
Sin embargo, cuando el patrón estacional y las variaciones del ciclo de tendencia
parecen estar en el nivel de la serie temporal, entonces es mejor implementar un
modelo multiplicativo. Con series de tiempo sísmicas, los modelos aditivos son más
frecuentes.
Uno de los pasos más importantes en el flujo de trabajo analítico de series
temporales es la primera fase de suavizado de datos. Nuevamente hay múltiples
enfoques:

Mejores modelos de suavizado no estacional: ÿ

Suavizado exponencial de tendencia amortiguada ÿ

Suavizado exponencial lineal (Holt) ÿ Suavizado

exponencial simple ÿ Suavizado exponencial doble (Brown)

Los mejores modelos de alisado estacional:

ÿ Método Winters (aditivo) ÿ Método

Winters (multiplicativo) ÿ Suavizado exponencial

estacional aditivo

Después del alisado, necesitamos identificar cualquier estacionalidad inherente.


en la serie de datos de tiempo a través de la ventana de estudio.

Análisis de brechas de producción

La producción de hidrocarburos a lo largo del ciclo de vida de un campo maduro


puede ser errática o incluso disminuir exponencialmente a un ritmo gradual. Las
pruebas de pozo y las estimulaciones EOR compartimentan períodos de producción
continua. También implementamos
Machine Translated by Google

MONITOREO CONTINUO 113

métodos de levantamiento artificial secundarios y terciarios para mitigar los


tiempos de no producción (NPT). Las compañías de petróleo y gas se esfuerzan
por mantener una tasa de producción para minimizar la brecha entre el nivel
previsto idealmente y ese nivel en el punto de venta, aguas abajo de las
actividades aguas arriba. La brecha aumenta a medida que las ineficiencias se
infiltran en la multitud de flujos de trabajo y procesos en los diversos sistemas, a
saber, yacimientos, pozos e instalaciones de superficie.

La precisión de los pronósticos de la tasa de producción es fundamental


para evitar costos innecesarios y mitigar los riesgos asociados con CAPEX y
OPEX en las actividades de redesarrollo del campo. Idealmente, nos gustaría
ofrecer una solución empresarial que permita un conjunto probabilístico de
metodologías basadas en datos combinadas con un conjunto de interpretaciones
deterministas basadas en los primeros principios y la experiencia de los
geocientíficos. Es importante desarrollar la solución integrando un conjunto de
pasos escalables y repetibles como se detalla en el proceso SEMMA (consulte
el Capítulo 6, “Análisis de atributos sísmicos”). Los pasos de calidad y
enriquecimiento de datos preceden a la visualización del análisis exploratorio de
datos (EDA). EDA se implementa para identificar tendencias y patrones en
conjuntos de datos multivariados y multidimensionales.

Después de aplicar flujos de trabajo de transformación y análisis factorial,


podemos establecer algunas técnicas de computación para generar un conjunto
probabilístico de modelos. El paso de evaluación en SEMMA entrega el modelo
óptimo basado en los datos de entrada y la influencia estadística de las variables
independientes en el parámetro objetivo. Luego, podemos poner en funcionamiento
este modelo en la arquitectura existente para buscar patrones y firmas en los
nuevos datos a medida que se transmiten a través del modelo predictivo para
abordar la brecha de producción en estudio.

La figura 4.3 ilustra algunas de las tendencias que es probable que


identifique un flujo de trabajo analítico basado en datos temporales.
Dos modelos analíticos de series de tiempo utilizados en un análisis de
brechas son el promedio móvil integrado autorregresivo (ARIMA) y el modelo de
componentes no observados (UCM).
Machine Translated by Google

Patrones de series temporales

Series de tiempo Patrón

Tendencias + valores atípicos

Tendencia + Cíclico

Tendencia + Aumento

Figura 4.3 Los patrones de series de tiempo permiten un análisis de brechas en la producción de hidrocarburos

114
Machine Translated by Google

MONITOREO CONTINUO 115

ARIMA:

ÿ Pronostica datos de series de tiempo univariados y espaciados


uniformemente ÿ Predice un valor como una combinación lineal de valores anteriores
ues en la misma serie de tiempo y actual e histórica

valores de otros conjuntos de datos temporales (modelo ARIMAX)


fi Divide el análisis en tres etapas: identificación, estimación
ción y pronóstico de diagnóstico

UCM:

ÿ Descompone datos temporales en tendencias, ciclos y regresiones


efectos de sion

fi Ofrece una variedad de flujos de trabajo de diagnóstico para evaluar la


solidez de un modelo ajustado fi Proporciona un análisis sucinto de todos
los mecanismos subyacentes inherentes a la serie temporal

ÿ Encapsula la versatilidad de ARIMA y los beneficios de todos


modelos de suavizado

Las ventajas predictivas de un análisis basado en datos de series de tiempo


se ilustran en la Figura 4.4. El flujo de trabajo tradicional de DCA, que utiliza las
ecuaciones empíricas de ARP, muestra una disminución notable en el pronóstico
a partir de enero de 2006. La producción real está muy cerca del modelo UCM. El
área sombreada representa los límites de confianza reconciliados del 95 por
ciento que representan la incertidumbre en el pronóstico con los límites superior
e inferior de la predicción de producción.

La aplicación de modelos informáticos de ARIMA y UCM para pronosticar la


producción de hidrocarburos proporciona valor comercial sobre los flujos de
trabajo tradicionales de DCA. Podemos capturar los patrones y tendencias en la
producción del campo. Estamos mejor posicionados para adoptar pronósticos
más precisos para mejorar la utilización de recursos y mitigar el NPT y reducir los
aplazamientos que afectan negativamente el desempeño.
Machine Translated by Google

Modelo y Pronósticos para SUM_of_GAS


5E8

Pronóstico basado en datos


4.5E8

4E8

real
A
3.5E8

3E8

Análisis de la curva de declinación Pronóstico empírico


2.5E8

ene00 ene02 ene04 ene06 ene08 10 de enero 12 de enero

Fecha de producción

Actual Predicho
Banda de confianza del 95 % Inicio de previsiones de varios pasos

Figura 4.4 Análisis de brechas para un pozo típico

116
Machine Translated by Google

MONITOREO CONTINUO 117

TEORÍA DEL PROCESAMIENTO DE SEÑALES DIGITALES

Cuando examinamos un proceso de serie de tiempo, P, dirigido por dinámica lineal,


nos estamos moviendo hacia el área del procesamiento de señales digitales (DSP).
Invariablemente, estamos modelando un proceso de serie de tiempo específico
para predecir entradas futuras que llevan firmas con significado a priori.

La teoría DSP se puede segregar en cuatro de los siguientes cuatro


modelos de soft computing: grupos potenciales de modelos lineales:

1. Autorregresivo (AR[p])

2. Media móvil (MA[q])

3. Media móvil autorregresiva (ARMA[p, q])

4. Media móvil integrada autorregresiva (ARIMA[p, i, q])

La mayoría de los paquetes de software que realizan análisis de series de tiempo y


por lo tanto, las capacidades de pronóstico estipulan ciertos criterios de datos:

fi El conjunto de datos tiene una variable para cada variable dependiente. fi

Hay una variable de identificación de tiempo que refleja una periodicidad para
cada fila de datos. Invariablemente, es necesario ordenar esta variable
para asegurar una progresión temporal lineal de las observaciones de los
datos en estudio.

fi Los puntos de datos se separan por igual de manera que las observaciones
sucesivas se adhieren a un intervalo de tiempo fijo. Esto permite

una periodicidad característica tal como horaria o mensual.

MONITOREO DE FRACTURA HIDRÁULICA


Y MAPEO

El monitoreo y posterior mapeo de la red de fracturas generada por una estrategia


de fractura hidráulica permite a los ingenieros optimizar la producción de
hidrocarburos. Es fundamental identificar las tácticas de terminación óptimas para
un yacimiento dado a fin de maximizar la producción acumulada de hidrocarburos y
mejorar
Machine Translated by Google

118 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

estrategias de gestión del agua. Los ingenieros pueden usar los datos de
la herramienta de registro de producción (PLT) para descubrir qué etapa
en un yacimiento multicapa está generando las tasas individuales de
producción de petróleo, gas y agua. Con este conocimiento, es plausible
apuntar a un número óptimo de etapas y sus ubicaciones a lo largo de un
pozo determinado. Apreciar la red de fracturas es clave para impulsar el
diseño de los parámetros operativos para explotar las reservas máximas.
Podemos mitigar los factores de riesgo a través de flujos de trabajo
analíticos que implementan técnicas de computación suave durante el
monitoreo en tiempo real de la fractura hidráulica. ¿Dónde está el
movimiento fluido? ¿Podemos descubrir la progresión de la fractura y la
conectividad a través del yacimiento? ¿Están los fluidos de fractura y el
apuntalante en nuestro objetivo zonal? Los parámetros de operación de
la estimulación son dinámicos incluso desde la misma parte del
yacimiento. Necesitamos observaciones perspicaces, y los datos
microsísmicos brindan respuestas para mejorar la estrategia de espaciamiento y termin
Los datos microsísmicos agregados con conjuntos de datos
geológicos, petrofísicos y sísmicos activos amplían los beneficios
comerciales al proporcionar análisis geológicos y geomecánicos en
profundidad. El modelado de fracturas nos permite, a través del monitoreo
y el mapeo, estimar el volumen de roca estimulada (SRV), la longitud
media apuntalada y las propiedades de la red de fracturas que impactan
el factor de recuperación y las tasas de producción.

EVALUACIÓN DE TERMINACIONES

Un operador implementó un conjunto simple de integración de datos y


extracción de datos de flujos de trabajo supervisados y no supervisados
en la estructura anticlinal compuesta en el activo Pinedale en Wyoming.
La base de datos incluía información general sobre pozos, parámetros
de estimulación operativa y datos PLT. Otros conjuntos de datos
agregados en el mercado de datos analíticos incluyeron algunas
propiedades físicas de formación, como sumas y promedios de los datos
petrofísicos para las arenas y varias litologías a lo largo de
Machine Translated by Google

MONITOREO CONTINUO 119

el anticlinal. Las tasas de producción de gas y los regímenes de reflujo completaron


el mercado de datos del estudio con fines analíticos. El operador evaluó flujos de
trabajo analíticos tanto univariados como multivariados (Huckabee y Minquan et
al., 2010) y determinó que una metodología híbrida bivariada y multivariada
proporcionaba una precisión mucho mayor, debido a la naturaleza mixta y
heterogénea del yacimiento.

Una red neuronal de avance rápido después de un análisis de conglomerados


permitió a los geocientíficos comprender las diferencias sutiles en la producción de
fluidos en relación con la estrategia de finalización de cada pozo bajo vigilancia.
Este es un ejemplo de una metodología de conjunto eficaz para el análisis basado
en datos. El estudio se centró inicialmente en identificar qué etapas producían la
mayor parte del agua y determinaba los regímenes máximos de reflujo y la cantidad
de apuntalante no solo para reducir los gastos operativos sino también para
aumentar la producción de gas. El estudio tiene una plausible extensión. Podríamos
analizar los parámetros geológicos implementados para caracterizar la ubicación
del escenario, como la pendiente del anticlinal (primera derivada), la curvatura
(segunda derivada) y la distancia desde el máximo global en el pico de la estructura.
Este análisis podría determinar la estrategia de terminación para maximizar la
ubicación de los pozos subsiguientes a lo largo de la estructura del yacimiento.

MONITOREO DE RESERVORIOS: CALIDAD DE DATOS EN TIEMPO REAL

La garantía de calidad (QA) de los datos en tiempo real es esencial para maximizar
el valor intrínseco en los procesos de trabajo de exploración. En un alto nivel, los
datos en tiempo real consisten en series temporales con información de etiquetas
(una etiqueta describe un punto de recopilación de datos) y medidas (presión,
temperatura, caudal, etc.).
Se utilizan muchos recursos para monitorear el estado normal cuando

la situación deseada es gestionar las desviaciones. Debemos garantizar la solidez


de los datos para automatizar los procesos de control de calidad y permitir una
explotación más sofisticada de los datos sin procesar.
Machine Translated by Google

120 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Debemos aspirar a unos requisitos básicos en una plataforma de QA de


datos. Las áreas de requisitos deben abordar:

ÿ Identificación de datos no recibidos dentro de lo esperado


periodo de tiempo

fi Imputación de datos faltantes fi


Documentación de datos considerados fuera de los predefinidos
umbrales

ÿ Violación de las reglas de control de calidad

fi Exploración de tendencias y correlaciones entre variables dependientes


e independientes fi Flujos de trabajo de agregación e integración
para una base de datos espacial temporal

ÿ Operaciones de manipulación y transformación ÿ


Gestión de todas las reglas de calidad de datos predefinidas
ÿ Comunicación de alertas causadas por violaciones de reglas y
anormalidades

Se recibe una combinación de datos en tiempo real, datos casi en tiempo


real y datos por lotes de diferentes fuentes y en diferentes
formatos. Los datos deben ser utilizados para diferentes propósitos:

ÿ Casi en tiempo real para monitoreo y alertas ÿ Flujo


de trabajo analítico y soporte de procesos

Los datos en tiempo real deben verificarse con un conjunto simple de


reglas ("Reglas de nivel 1") antes de llenar un data mart en tiempo real casi
en tiempo real.
Los datos en tiempo real, casi en tiempo real y por lotes deben
corroborarse con un conjunto de reglas más complejo, como se muestra en
la Figura 4.5. Esas reglas pueden consistir en análisis sofisticados de series
de tiempo, otras funciones analíticas, comparación con datos históricos y
otras reglas complejas. Para incorporarse al Soporte de procesos/Apoyo a
las decisiones, los datos deben filtrarse, agregarse e integrarse. Se debe
investigar la latencia aceptada en el flujo de datos, pero la complejidad no
permitirá una ejecución precisa en tiempo real.
Machine Translated by Google

MONITOREO CONTINUO 121

Datos en tiempo real

Repositorio de reglas Datos por lotes/casi en tiempo real

Tiempo real
Fuente de datos

Básico
Transformaciones

Datos en tiempo real


Nivel 1
Datos de lote Normas

Básico
Transformaciones
Tiempo real
alertando

Integración de datos Integración de datos

Filtrado de datos Filtrado de datos


Puesta en escena

Agregación de datos Agregación de datos

Nivel 2
Normas

Datos DS/PS

Análisis
Ejecución Datos DS/PS
Repositorio de reglas

Figura 4.5 Flujos de trabajo de control de calidad de datos

Tanto para las reglas de Nivel 1 como de Nivel 2, se deben activar las alarmas
correspondientes.
La arquitectura de plataforma de alto nivel describe los servicios necesarios
para una solución general de control de calidad de datos. En un nivel alto, una
solución potencial, como se muestra en la Figura 4.6, requiere lo siguiente
servicios:

ÿ Servicios de adquisición de datos tanto en tiempo real como por lotes/


datos casi en tiempo real

ÿ Servicios de calidad de datos con servicios de ejecución de reglas ÿ

Servicios de integración de datos para tiempo real y por lotes/


datos casi en tiempo real

ÿ Servicios de almacenamiento de datos


Machine Translated by Google

122 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Reglas de calidad de datos Análisis KPI de calidad de datos Gestión de datos


banco de trabajo banco de trabajo Tablero banco de trabajo

Adquisición de datos Calidad de datos Integración de datos Almacenamiento de datos

Datos en tiempo real


Fuente de datos
Almacenamiento seguridad
Servicios
de

Conectividad Programación de trabajos

Decisión
Datos en tiempo real
Motor de reglas Datos de soporte
Procesamiento de alimentación Integración de datos Almacenamiento
ydisponibilidad
rendimiento
Servicios
de
Plataforma
yMonitoreo
Gestión
de
la

Datos de lote flujo de trabajo


Análisis
Procesando Motor Filtrado de datos Datos de soporte
Almacenamiento

Tiempo real Desconectado Real


Puesta en escena de datos Datos
alertando Datos de tiempo
Agregación
Archivo

Reglas de calidad de datos Proceso de tiempo de ejecución


Repositorio de metadatos
Repositorio Repositorio de información

Figura 4.6 Plataforma de solución de control de calidad de datos

ÿ Servicios de repositorio y metadatos para tiempo de diseño y


tiempo de ejecución

ÿ Herramientas de cliente

ÿ Servicios de plataforma

DETECCIÓN ACÚSTICA DISTRIBUIDA

Los sistemas de detección acústica distribuida (DAS) aprovechan los cables de


fibra óptica que constan de una o varias fibras ópticas que se utilizan para transmitir
la luz. Es una tecnología emergente que encuentra sus raíces en todo el
departamento de defensa. Un pulso de láser se propaga a lo largo de una fibra
óptica que presenta ubicaciones de dispersión, lo que da como resultado
interferómetros distribuidos discretamente que tienen una longitud de pulso
comparable a la longitud del indicador. Se establece una función temporal que mide
la intensidad de la luz reflejada a lo largo del tiempo después de la transmisión del
pulso láser. Se envía otro pulso
Machine Translated by Google

MONITOREO CONTINUO 123

a lo largo de la fibra una vez que el pulso anterior haya recorrido toda la
longitud de la fibra y haya regresado a su ubicación inicial. Los pulsos
secuenciales se comparan para notar cualquier fluctuación en la intensidad de
la luz reflejada desde la misma área bajo estudio.
Podemos aplicar el análisis de flujo de trabajo DAS para monitorear el
flujo dentro de un sistema. La literatura interesante publicada en los últimos
cinco años ha tendido a concentrarse en los pozos verticales y horizontales.
perforado en los yacimientos de gas compacto en los activos de América del
Norte (Van der Horst et al., 2013).
Los conjuntos de datos recopilados de DAS son ideales para comprender
los flujos de producción de líquidos en diferentes regiones zonales. Podemos
monitorear el flujo interzonal del yacimiento y, por lo tanto, optimizar las
estrategias de levantamiento artificial a medida que observamos casi en
tiempo real el flujo de fluido a través de los pozos, notando cualquier fuga o
acumulación significativa de depósitos en el pozo. El éxito en el monitoreo de
la integridad de la tubería con DAS (Williams, 2012), iniciado hace varios años,
abrió la puerta para que DAS pasara al ámbito de las aplicaciones de fondo
de pozo (Koelman et al., 2012).
La aplicación de DAS como herramienta de vigilancia reemplaza las
técnicas de monitoreo tradicionales. La tecnología de fibra óptica es ideal para
el monitoreo continuo o de lapso de tiempo. DAS proporciona una alta
resolución espacial en períodos de muestreo de hasta 20 kHz a lo largo de
toda la longitud de un pozo horizontal. Por lo tanto, es factible crear un sistema
permanente de vigilancia y monitoreo en tiempo real para una amplia gama de
operaciones de pozos con un OPEX bajo.
Las técnicas de recuperación mejorada de petróleo (EOR) están
evolucionando con la aparición de tecnologías digitales innovadoras. Es
necesario adoptar un conjunto de flujos de trabajo basados en datos que
analicen conjuntos de datos de fibra óptica para mejorar las soluciones de
recuperación secundaria y terciaria.

DETECCIÓN DE TEMPERATURA DISTRIBUIDA

Los sistemas de detección de temperatura distribuida (DTS) permiten que las


mediciones de temperatura de fondo de pozo se recopilen en múltiples puntos
simultáneamente por medio de fibra óptica. Se entiende
Machine Translated by Google

124 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

que la temperatura del pozo, medida a lo largo de todo el intervalo de la extensión


de la fibra, está estrictamente correlacionada con las condiciones de flujo
contemporáneas en el yacimiento localizado. Mediciones DTS

son fundamentales para validar la vigilancia de la producción.


Examinemos un estudio de caso en el que interpretamos la importancia de las
propiedades de la formación y el caudal inherente a los datos DTS. Es un problema
inverso. Sui et al. (2008) adoptaron la metodología de mínimos cuadrados para
determinar las propiedades de la formación usando datos DTS. Zhuoyi et al. (2010)
desarrollaron un modelo de computación suave para medir las distribuciones de
presión y temperatura a lo largo de un pozo horizontal. Implementaron un flujo de
trabajo Markov Chain Monte Carlo para determinar las tasas de flujo de los datos
DTS.

Metas:

ÿ Monitoreo continuo de fondo de pozo de medición de temperatura


aseguramientos a lo largo de un pozo horizontal

fi Optimización de la estrategia de terminación de fracturas hidráulicas fi

Monitoreo del desempeño del yacimiento fi Falla catastrófica de terminación

Utilizamos datos proporcionados por varios pozos perforados en un yacimiento


de gas compacto no convencional en el campo Barnett. Se tomaron 29 mediciones
en intervalos de medición de 86 segundos que generaron 220 000 registros de
temperatura a una profundidad máxima de 12 445 pies.

Teniendo en cuenta la proximidad cercana a la superficie y la distribución de la


temperatura, la "turbulencia" de la temperatura se puede atribuir a los efectos de los
chorros de agua fría (a 1000 m de profundidad). Se pudieron observar efectos
similares durante la estimulación de pozos en fracking. Vale la pena señalar el hecho
de que el efecto visual de la turbulencia de temperatura se reduce significativamente
cuando la agregación de temperatura se realiza en rangos de profundidad más
pequeños.
Cuando se trata de datos DTS, donde los puntos de datos representan muestras
de una superficie de datos común, una representación rápida especial
Machine Translated by Google

MONITOREO CONTINUO 125

82
profundidad 70
14000 12000 10000 8000 6000 4000 2000 0 100 –2000 57
100
80 80 44 temperatura
60 32
60
40 19
40
6
20 20

0 100 0 100

80 80

60 60

40 40

20 20

0 0

10000 profundidad 8000 6000 4000 2000 0 –2000 14000 12000

Figura 4.7 Gráfica de superficie de datos DTS de temperatura

El algoritmo fue desarrollado para permitir suavizar las brechas entre conjuntos
de datos, dando una apariencia de terreno "limpio" (Figura 4.7).
La Figura 4.7 ilustra los datos DTS con disminuciones de temperatura
correspondientes a distintas capas del yacimiento. Los datos DTS de fibra
óptica reflejan los cambios de temperatura a medida que el efecto Joule-
Thomson enfría las entradas de gas a dos profundidades diferentes que
corresponden al yacimiento de dos niveles. Observamos que las disminuciones
de temperatura en la capa del yacimiento a menor profundidad (2000 pies) son
mayores que las observadas a mayor profundidad (6000 pies).
La figura 4.7 ilustra esto mediante el mapeo del grosor de la línea que indica
las dos capas del yacimiento. Este comportamiento es indicativo de que el
descenso es menor a 2000 pies que a 6000 pies. Los datos DTS permiten a
los geocientíficos monitorear la relación gas/petróleo (GOR) ya que cualquier
aumento en la GOR da como resultado que la viscosidad del fluido del
yacimiento disminuya y la tasa de flujo disminuya. alterar. Por lo tanto, hay una
caída aparente de la temperatura.
Machine Translated by Google

126 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Los datos DTS proporcionados actualmente, que incluyen variables


como Tiempo × Profundidad ÿ Temperatura, pueden mejorarse con
otras propiedades comúnmente disponibles de los sensores de fibra,
por ejemplo, la presión y la velocidad del flujo, y combinarse con datos
sísmicos y de perforación. Las visualizaciones de dichos datos podrían
incluir modelos dinámicos en capas de múltiples propiedades
simultáneas medidas en todo el yacimiento, por ejemplo, la distribución
de la temperatura en todo el yacimiento a diferentes profundidades,
los cambios de presión de gas o líquido en varias áreas a lo largo del
tiempo y el nivel del equipo. deterioro.
Con el desarrollo de varios métodos novedosos para instalar fibras
ópticas en pozos de petróleo y gas para DTS, la búsqueda continúa
para obtener el considerable valor que ofrece esta notable tecnología.

Se ha desarrollado un método extremadamente rentable y preciso


para determinar la irrupción de vapor en los pozos productores que
aprovecha el poder de la tecnología DTS.
Se han realizado varios estudios que implementan la tecnología
DTS para identificar los intervalos de avance del vapor. Es fundamental
determinar los puntos de entrada precisos de diferentes fluidos y, en
particular, la aparición de vapor dentro del pozo en función de los
transitorios de temperatura que se activan con la inyección de agua.
La tecnología DTS proporciona una comprensión casi instantánea de
los perfiles de temperatura a lo largo de toda la longitud del pozo.
Obviamente, esto es ventajoso sobre las instantáneas de los cambios
de temperatura posteriores a la inyección de agua. Es fundamental
para la gestión de yacimientos comprender el avance en el espacio y
el tiempo de todos los fluidos inyectados en todos los pozos de
producción incluidos en una técnica de EOR. Por extensión, la gestión
de vapor sólida y práctica se basa en la comprensión del avance del
vapor en los pozos de producción. Identificar qué zonas están
generando vapor es clave para un proceso de inyección de vapor
económicamente viable. Por supuesto, la geología del yacimiento
sustenta el mecanismo que impulsa la progresión del vapor a través
de las zonas que impactan en los pozos de producción. Para mitigar un
Machine Translated by Google

MONITOREO CONTINUO 127

disminución dramática en la producción de petróleo, las metodologías de identificación de


avances de vapor requieren un flujo de trabajo basado en datos vinculado con una
interpretación empírica de gestión de yacimientos.
Los perfiles de temperatura de los pozos y los registros de neutrones pulsados
proporcionan datos críticos.

La tecnología DTS amplía y mejora las innovadoras técnicas de identificación,


brindando vigilancia y monitoreo en tiempo real a través de fibra óptica.

La Figura 4.8 muestra la aplicabilidad de los datos DTS para optimizar una estrategia
de fracturamiento hidráulico en los yacimientos no convencionales donde las rocas
compactas y la baja permeabilidad requieren el rompimiento de las rocas para iniciar el
flujo de hidrocarburos a los pozos productores.

Podemos identificar rápidamente los perfiles de temperatura en todo el pozo


horizontal y utilizar este conocimiento para evaluar la profundidad de origen de la fractura,
la exposición vertical y la cantidad de fracturas generadas por el fluido de fractura.
También podemos observar los regímenes de flujo de retorno con mayor detalle para
evaluar la eficacia del proceso de estimulación.

Los datos DTS pueden ser difíciles de interpretar. Usando un sofisticado conjunto de
modelos matemáticos, podemos simplificar la interpretación de la transferencia de calor y
masa a lo largo de la estrategia de fractura hidráulica. Se pueden construir modelos
térmicos para simular los gradientes de temperatura a lo largo de todo el pozo, teniendo
en cuenta el impacto tanto de la conducción como de la convección.

La Figura 4.8 es un gráfico de superficie que muestra los cambios de temperatura, que
van desde el azul, que representa temperaturas más frías, hasta el rojo, que indica las
temperaturas más altas a lo largo del pozo durante el proceso de estimulación de
fracturamiento. Las zonas azules son sintomáticas de estadios poco perforados. Los
parámetros independientes en el lado derecho del gráfico de superficie se pueden alternar
a diferentes valores, y luego las mediciones asociadas se visualizan en el cubo 3D. Esto
permite a los ingenieros identificar las mejores y peores etapas a lo largo del pozo a
medida que los fluidos fluyen a través del pozo productor. podemos ver el
Machine Translated by Google

Figura 4.8 Gráfico de superficie que ilustra los gradientes de temperatura en todo el pozo fracturado

128
Machine Translated by Google

MONITOREO CONTINUO 129

pico azul a una profundidad de unos 2000 pies, lo que refleja un problema
de aislamiento con la estrategia de fractura hidráulica llevada a cabo en
este pozo. Con este tipo de conocimiento, podemos diseñar modelos de
fractura más precisos y estimar, con un mayor grado de fidelidad, la
conductividad a lo largo de la geometría de la fractura. ¿Quizás debamos
abordar el número y la ubicación de los disparos y qué etapas cerrar para
seguir las estrategias de fractura en pozos adyacentes?

Varias metodologías de diagnóstico viables han evolucionado para


mejorar la interpretación de las redes de fracturamiento generadas por las
estrategias de fracturamiento hidráulico. La microsísmica juega un papel
importante, así como los medidores de inclinación y los trazadores
radiactivos, los registros de gradientes de temperatura e incluso las
imágenes de pozos. A menudo, el análisis de datos de producción y el
análisis de transitorios de presión (PTA) se emplean desde una perspectiva
empírica. El advenimiento de la adopción de fibra óptica en la industria
está permitiendo una tecnología complementaria y eficiente para interpretar
la temperatura y las propiedades acústicas que se pueden asociar con el
crecimiento de fracturas y redes basadas tanto en el determinismo de visualización como e
Metodología informática basada en datos.

ESTUDIO DE CASO: SERIE DE TIEMPO PARA OPTIMIZAR HIDRÁULICA


ESTRATEGIA DE FRACTURA

Consideremos los métodos analíticos que sustentan la integración de


datos sísmicos y microsísmicos con datos de ingeniería para maximizar
un conjunto de parámetros operativos de fractura hidráulica en el campo
de esquisto Eagle Ford en la cuenca occidental del Golfo en el sur de
Texas.
Históricamente, los pozos perforados en Eagle Ford se desarrollaron
con base en un espaciamiento geométrico para maximizar la cobertura de
la superficie en acres, de modo que el azimut de los pozos fuera
perpendicular a la dirección de la tensión regional. Muchos de los pozos
han superado las expectativas, pero el rango de desempeño ha sido algo
amplio cuando se mide por la producción diaria.
Machine Translated by Google

130 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Estas son algunas características de los datos sísmicos recopilados

en el campo Eagle Ford:

ÿ TOC

ÿ Porosidad ÿ

Calidad frágil/dúctil (LMR–MuR) ÿ Módulo de Young

ÿ Módulo a granel

ÿ Relación de Poisson

ÿ Estrés diferencial

ÿ Orientación del campo de tensiones

ÿ Anisotropía azimutal ÿ Presión

intersticial ÿ Facies (tipo de roca,

contenido de arcilla) ÿ Qg100: Producción de

gas acumulada 100 días después de PLT


se iniciaron los datos

Conjunto de datos: sísmico

ÿ PSTM (isotrópico) ÿ

Modelo de velocidad ÿ

Volumen convertido en profundidad ÿ

Anisotropía azimutal ÿ Impedancia

acústica
ÿ Frágil/dúctil

ÿ Lambda rho, mu rho

ÿ Relación de Poisson

ÿ Módulo de Young
ÿ TOC

ÿ Facies sísmicas

ÿ Coherencia
ÿ Curvatura

ÿ Descomposición espectral
Machine Translated by Google

MONITOREO CONTINUO 131

Métrica de rendimiento = Gas acumulativo mensual máximo


Producción

Indicadores potenciales: 36 atributos sísmicos y tres características de


ingeniería. Es importante incluir parámetros geológicos y de ingeniería, así como
atributos sísmicos, en esta evaluación inicial de posibles indicadores de desempeño.

Cinco indicadores primarios de desempeño seleccionados:

1. Longitud lateral —intersección de rocas más productivas 2.

Inversión elástica frágil/ dúctil—“fracabilidad”

3. Descomposición espectral de 10 Hz: presencia de gas 4.

Descomposición espectral de 32 Hz: espesor de Eagle Ford 5.

Anisotropía sísmica azimutal : tensión diferencial

Caracterización de Yacimientos y Diagramas de Tukey

El conjunto de visualizaciones utilizado para realizar la caracterización de


yacimientos para cualquier problema comercial de E&P se implementa mejor a
través de un conjunto de diagramas de Tukey, aprovechado por varios flujos de trabajo de EDA.
John Tukey desarrolló técnicas gráficas interactivas con PRIM-9 en 1972. Abrió
una ventana al mundo de los datos multivariados para ser visto desde múltiples
perspectivas. Estos diagramas y gráficos perspicaces e intuitivos revelaron
estructuras y tendencias ocultas en los conjuntos de datos bajo estudio.

Podemos aprovechar la variedad de visualizaciones para explorar los conjuntos


de datos petrofísicos y geofísicos para identificar las correlaciones y relaciones entre
los parámetros dependientes e independientes considerados críticos desde el punto
de vista del primer principio.

Una de estas visualizaciones se representa en la figura 4.9 y lleva el nombre


del capitán Matthew Henry Sankey, quien adoptó este tipo de diagrama para mostrar
la eficiencia energética de una máquina de vapor en 1898. El ancho de las flechas
es proporcional en tamaño a la cantidad de energía. flujo en estudio. La Figura 4.9
detalla las relaciones
Machine Translated by Google

132 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Figura 4.9 Diagrama de Sankey para la producción acumulada de gas

entre grupos de diferentes parámetros operativos que se han considerado


estadísticamente sensibles a la variable dependiente, la producción
acumulada de gas 100 días después de la primera recopilación de datos
PLT. Observamos las líneas de flujo que no solo reflejan las correlaciones
de las variables independientes entre grupos, sino que también demuestran
rangos de valores para cada parámetro que se pueden implementar como
coeficientes para una relación funcional que optimiza la producción
acumulada de gas.
Los diagramas de Sankey se utilizan para visualizar las transferencias
de energía o materiales entre procesos. La interpretación del diagrama de
Sankey en la Figura 4.9 permite a los geocientíficos concentrarse en los
grupos 1 y 4. La producción acumulada de gas es más alta en el grupo 1.
A medida que trazamos las líneas de flujo del grupo 1, vemos un rango
óptimo de valores para algunos de los parámetros operativos: volumen de
la capa de puntal, longitud lateral y número de etapas utilizadas en la
estrategia de fractura. Por el contrario, el diagrama de Sankey ilustra no
solo las mejores prácticas sino también las peores prácticas. La Figura 4.9
muestra claramente un impacto pequeño en la producción acumulada de
gas en las longitudes laterales muy largas que son características del grupo 0.
Machine Translated by Google

MONITOREO CONTINUO 133

Figura 4.10 Matriz de correlación

La matriz de correlación representada en la Figura 4.10 es notable por su


representación interna e intuitiva de la fuerza de la relación entre los principales
parámetros en el estudio de la estrategia de fractura hidráulica. La barra de
color explica la correlación débil a fuerte entre los parámetros dependientes e
independientes. La identificación de los parámetros críticos se hace evidente
cuando echamos un vistazo a la matriz. Identifique la variable objetivo Qg100 y
enumere los parámetros operativos y los atributos geofísicos y petrofísicos
importantes que son impulsores clave para la máxima producción de gas.
Podemos reducir el espacio de entrada y comenzar a formular una relación
funcional para desarrollar y evolucionar un modelo de computación suave como
solución a un problema comercial. El problema comercial podría ser: ¿Cómo
optimizo la estrategia de terminación hidráulica para maximizar la producción
de gas?

El gráfico de burbujas que se muestra en la Figura 4.11 es una visualización


muy tradicional al estilo de Tukey, ya que podemos representar varias
dimensiones de los datos en una sola imagen. Tiene la ventaja de permitir una
dimensión temporal, ya que la visualización dinámica se adapta idealmente a modo de
Machine Translated by Google

134 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Figura 4.11 Gráfica de burbujas

“La Danza de las Burbujas” dando vida a los cambios sutiles en las
correlaciones durante una ventana de tiempo.
La Figura 4.11 muestra la longitud lateral promedio a lo largo del
eje Y y el número de etapas de fractura a lo largo del eje X.
La producción acumulada de gas se refleja en el tamaño de la burbuja.
Estamos buscando burbujas de mayor tamaño para determinar rangos
óptimos de valores para ambos parámetros operativos: longitud lateral
y número de etapas de fractura. La burbuja más grande observada
en enero de 2000, el comienzo de los datos de producción, ilustra que
el número ideal de etapas es 12 o 13. Se observa que la longitud
lateral correspondiente es de unas 10.000 unidades.
Al animar el gráfico de burbujas, podemos observar los cambios
dinámicos en los dos parámetros operativos frente a los datos de
producción. Las diferentes regiones añaden otra dimensión de
información al diagrama de Tukey.
Un diagrama de red, Figura 4.12, muestra al geofísico y al
petrofísico las relaciones significativas entre los valores de categoría
a través de una secuencia de nodos vinculados. Generamos una
versión desagrupada del diagrama de red tradicional en lugar de una
estructura jerárquica usando un conjunto de categorías.
Machine Translated by Google

MONITOREO CONTINUO 135

Figura 4.12 Diagrama de red

La variable objetivo, Qg100, fue el foco del estudio. Queremos


comprender las relaciones y la importancia estadística de las
variables independientes en nuestra variable objetivo o dependiente.
La Figura 4.12 presenta la variable objetivo, Qg100, que representa
la producción acumulada de gas. También podemos ver el impacto
estadístico en la producción de gas por las tres características del
yacimiento: módulo volumétrico, porosidad y relación de Poisson. El
diagrama de red vincula este conocimiento bajo la categoría de
etapas de fractura.
Los maplets SOM representados en las Figuras 4.13–4.16 son
vehículos ideales para visualizar las correlaciones dinámicas de los
parámetros críticos y sus valores asociados.
Los mapas de características autoorganizados (SOM) de
Kohonen son bestias fascinantes. Los inventó Teuvo Kohonen,
profesor de la Academia de Finlandia. Podemos representar datos
multidimensionales en una o dos dimensiones. Existe una
metodología de compresión de datos conocida como cuantificación
de vectores que disminuye la dimensionalidad de los vectores.
Además, la técnica de Kohonen genera una red conectada para
almacenar conocimiento para que se establezcan y persistan las relaciones topológ
Machine Translated by Google

136 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Un ejemplo típico utilizado para ayudar a enseñar los principios detrás de los
SOM es el mapeo de las propiedades del yacimiento desde las perspectivas
tridimensionales en dos dimensiones. Uno de los aspectos más interesantes de los
SOM es que aprenden a clasificar datos sin supervisión. Es posible que ya conozca
las técnicas de entrenamiento supervisado, como la retropropagación, donde los
datos de entrenamiento consisten en pares de vectores: un vector de entrada y un
vector de destino. Con este enfoque, se presenta un vector de entrada a la red
(típicamente una red de alimentación directa multicapa) y la salida se vincula al
vector de destino. Cualquier diferencia sugiere alterar los pesos de la red para
disminuir el error en la salida. Este proceso se repite varias veces con varios
conjuntos de pares de vectores para lograr un resultado probable y aceptable.

Las Figuras 4.13–4.16 detallan los maplets de 10 × 10 para cada uno de los
cuatro parámetros en estudio:

1. Qg100 (producción de gas acumulada 100 días después de recopilados los


datos PLT)
2. Módulo a granel

3. Etapas de fractura

4. Volumen de apuntalante

10

1 2345 6 7 8 9 10
SOM Dimensión2

Figura 4.13 Diagrama SOM—Qg100


Machine Translated by Google

MONITOREO CONTINUO 137

10

1 2345 6 7 8 9 10
SOM Dimensión2

Figura 4.14 Diagrama SOM—Módulo a granel

10

1 2345 6789 10
SOM Dimensión2

Figura 4.15 Diagrama SOM—Etapas de fractura

Ilustremos rápidamente el poder visual de estas salidas SOM. La


figura 4.13 representa la producción acumulada de gas.
La producción más alta se observa en el rectángulo [9,6]. Luego
podemos echar un vistazo a los maplets de los otros parámetros,
centrándonos en el mismo rectángulo [9,6]. Las figuras 4.14 y 4.15
reflejan el módulo volumétrico y el número de etapas de fractura, respectivamente.
Tenga en cuenta que el rectángulo [9,6] para cada uno de estos
parámetros muestra un valor alto según el esquema de color y el valor
deslizante de las medidas. Sin embargo, la figura 4.16, que representa la
Machine Translated by Google

138 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

10

1 2345 6 7 8 9 10
SOM Dimensión2

Figura 4.16 Diagrama SOM—Volumen de apuntalante

volumen apuntalante, cuenta otra historia. El rectángulo [9,6] refleja un


valor más bajo para la medición del peso en libras de apuntalante que
generará la mayor producción de gas. Podemos ver que los rectángulos
que ilustran los rangos más altos de volumen de apuntalante no se
correlacionan con la mayor producción de gas en la Figura 4.13.
Visualizar los datos usando técnicas de Tukey es una metodología
eficiente para captar las relaciones y tendencias de los datos bajo
estudio. Podemos responder preguntas tanto técnicas como comerciales,
así como estimular una mayor comprensión desde una perspectiva
basada en datos para complementar los flujos de trabajo tradicionales
de determinismo basado en los primeros principios.

REFERENCIAS

Aminzadeh, F., “¿Dónde estamos ahora y hacia dónde vamos?” En: Expert Systems in
Exploration (eds. F. Aminzadeh y M. Simaan), Tulsa, OK, SEG (1991), págs. 3–32.

Echeverria, D. y T. Mukerji, “A Robust Scheme for Spatio-Temporal Inverse Modeling of Oil


Reservoirs”, Departamento de Ingeniería de Recursos Energéticos, Universidad de
Stanford, 367 Panama St., Stan ford, CA 94305-2220, 18th World IMACS /Congreso
MODSIM, Cairns, Australia, 13 al 17 de julio de 2009.
Machine Translated by Google

MONITOREO CONTINUO 139

Hoaglin, DC, F. Mosteller y JW Tukey, Understanding Robust and Exploratory


Data Analysis, John Wiley & Sons, Nueva York (1983).
Huckabee, PT, y Jin Minquan et al., “Tight Gas Well-Performance Evaluation
with Neural Network Analysis for Hydraulic Propped Fracture Treatment
Optimization”, Conferencia y exhibición técnica anual de la SPE, Florencia,
Italia, 19 al 22 de septiembre de 2010.
Koelman, J., JL Lopez y J. Potters, “Optical Fibers: The Neurons for Future
Intelligent Wells,” Paper SPE 150203, presentado en SPE Intelligent Energy
International 2012, Utrecht, Países Bajos, 27 al 29 de marzo de 2012 .

Mohaghegh, SD et al., "Diseñe trabajos de fraccionamiento óptimos mediante


técnicas de inteligencia virtual", Computers and Geosciences, 26, no. 8
(octubre de 2000): 927–939, Elsevier Science Publications, Amsterdam,
Holanda.
Montgomery, Douglas C., Diseño y análisis de experimentos, John Wiley &
Sons, 2004, ISBN: 047148735X.
Sui, W., D. Zhu, AD Hill y CA Ehlig-Economides, “Model for Transient
Temperature and Pressure Behavior in Commingled Vertical Wells,” SPE
115200-MS, documento presentado en la Conferencia Técnica Rusa de
Petróleo y Gas de la SPE y Exposición, Moscú, 28 al 30 de octubre de 2008.

Tukey, JW, Análisis de datos exploratorios, Addison-Wesley (1977).


Van der Horst, J., H. den Boer, P. Panhuis, R. Kusters, D. Roy, A. Ridge y A.
Godfrey, “Detección de fibra óptica para mejorar la vigilancia de pozos”,
Conferencia Internacional de Tecnología del Petróleo, 2013.

Williams, J., "Detección acústica distribuida para el monitoreo de tuberías"


Pipeline and Gas Journal, 239, no. 7 (julio de 2012).
Zafari, M., y AC Reynolds, AC, “Assessing the Uncertainty in Reservoir
Description and Performance Prediction with the Ensemble Kalman Filter,”
SPE 95750, Conferencia técnica y exposición anual de la SPE de 2005,
Dallas, 9 al 12 de octubre de 2005.
Zhuoyi, Li, “Predicción del perfil de flujo de un pozo horizontal por presión de
fondo de pozo y datos de temperatura distribuidos para el yacimiento de
impulsión de agua”, SPE Production and Operations, 25, no. 3 (agosto de
2010): 296–304.
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

CAPÍTULO 5

Yacimiento Sísmico
Caracterización

140
Machine Translated by Google

“Las personas que deseen analizar la naturaleza sin utilizar


las matemáticas deben conformarse con una comprensión reducida”.

ricardo feynman

INTRODUCCIÓN

¿Cómo se asignan los volúmenes de datos sísmicos 3D a la producción, petrología,


geología, litología y registros de pozos? La literatura actual de caracterización de
yacimientos relaciona varios aprendizaje automático (ML)
técnicas que brindan información, extrapolando las propiedades del yacimiento
lejos del control de pozo localizado. Enfoques geoestadísticos
son metodologías que toman inversiones sísmicas y correlacionan
a una simulación estadística de las propiedades de la roca (M. Bosch
et al., 2010). Las redes neuronales a menudo se implementan para mapear
propiedades de las rocas, calculadas a partir de testigos y registros de pozos hasta
atributos sísmicos (Haykin, 1999). Nombres elegantes como adaptativo
sistemas de lógica neuro-difusa (J. Jang, 1993) y lógica difusa tipo 2
(SO Olatunji et al., 2011) han mostrado gradaciones en
la aplicación exitosa para la caracterización de yacimientos.

CARACTERIZACIÓN SÍSMICA DEL RESERVORIO:


PARÁMETROS CLAVE

La caracterización de yacimientos se basa en una serie de diferentes datos de


exploración y producción (E&P) recopilados de todos los silos geocientíficos. Nos
estamos esforzando hacia un rango probabilístico de
resultados aceptables basados en un modelo multivariante, multidimensional,
análisis multivariado y estocástico de los datos agregados. Este
La perspectiva es fundamental para transformar los datos sin procesar en
conocimiento práctico que conduce inexorablemente a estrategias más sólidas.
y toma de decisiones tácticas para abordar los problemas comerciales de E&P.

141
Machine Translated by Google

142 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Acústico
Impedancia
inversión fallas

Geomecánica

• Jóvenes Fracturas
Módulo •
Relación de Poisson

Geoquímica
• TOC • Velocidad
% de querógeno Anisotropía

multivariante
Multidimensional Campo de velocidad
Reservorio multivariado • Acimut •
Dimensiones
estocástico Buzamiento •
Huelga

Sísmico

Figura 5.1 Multivariante, multivariante, multidimensional y estocástica


características sísmicas

Definamos algunos de estos términos relevantes como se muestra en


Figura 5.1:

Multivariante: Múltiples variables independientes que afectan el


resultado de una singularidad.
Multidimensional: Dimensiones que afectan a las variables
independientes. Por ejemplo, la compartimentación del yacimiento
puede interpretarse como fallas subsísmicas que se caracterizan por
atributos derivados tanto antes como después del apilamiento.
Se refiere a un espacio de entrada donde varias variables
exploratorias pueden personificar la propiedad de colinealidad donde
los valores demuestran una relación lineal exacta o aproximada. La
anisotropía, inherente a algunas propiedades de las rocas, como la
permeabilidad, aumenta la dimensionalidad del espacio de entrada,
ya que depende de la dirección.
Multivariante: Múltiples variables dependientes que deben predecirse
para alcanzar un objetivo en una singularidad. Por lo general, estas
son variables que tienen interdependencias que pueden afectar el
resultado de la singularidad.
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 143

Estocástico: Variabilidad y comportamiento errático de las variables


independientes.

Vamos a enumerar algunos de los parámetros clave que proporcionan


características esenciales en un yacimiento no convencional típico:

ÿ Geología del yacimiento:


ÿ Espesor y extensión lateral

ÿ Mineralogía ÿ

Porosidad y permeabilidad ÿ

Geoquímica: ÿ Contenido orgánico total

(TOC) ÿ Madurez y riqueza de querógeno

ÿ Geomecánica:

fi Impedancia acústica fi

Módulo de Young fi Relación

de Poisson (Vp/Vs) fi Fallas,

fracturas y regímenes de tensión:

ÿ Mapas de fracturas
ÿ Volúmenes de fallas

ÿ Mapas de estrés

El primer paso en un flujo de trabajo de interpretación sísmica tradicional


produce una perspectiva estructural a gran escala del campo de estudio.
El geofísico genera un conjunto de horizontes e integra una red de fallas y pinch-
outs. Los horizontes son reflectores sísmicos que se pueden rastrear a través de
ondículas contiguas. Los pozos apropiados están vinculados a los datos sísmicos
de series de tiempo para proporcionar control local. El segundo paso identifica las
ubicaciones de las fallas que representan las discontinuidades del reflector. Las
características de falla a menudo se pueden determinar mediante una inspección
visual de los rastros sísmicos. El rápido desplazamiento vertical de las secuencias
sísmicas es indicativo del plano de falla, como se ilustra en la Figura 5.2.

La interpretación sísmica genera múltiples gráficos que detallan la estructura


en todo el campo de petróleo y gas. La descripción estructural
Machine Translated by Google

144 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

(a) (b)

• Desplazamiento vertical de la secuencia sísmica

Figura 5.2 Interpretación tradicional de fallas sísmicas

consiste en identificar horizontes y planos de falla. Los horizontes son superficies


que el intérprete selecciona como reflectores a partir de vínculos entre pozos y
extrapolándolos a todo el volumen 3D. El volumen sísmico 3D consta de una serie
de líneas cruzadas ortogonales y en línea. La detección manual de fallas implica
dos pasos.
Primero, el geofísico encuentra la ubicación de la falla a través de la visualización
determinista, observando las discontinuidades del reflector. En segundo lugar, la
falla se inspecciona más de cerca para estimar los parámetros de falla.
Esto se hace haciendo coincidir las secuencias sísmicas de ambos lados de la falla.
En las imágenes sísmicas, las fallas se reconocen por el desplazamiento vertical
angular de las secuencias sísmicas a lo largo de algún plano (es decir, el plano de
falla), como se ilustra en la Figura 5.2.
La caracterización sísmica de yacimientos adopta invariablemente un conjunto
de flujos de trabajo o metodologías que incorporan los atributos sísmicos derivados
de un cubo sísmico 3D. La figura 5.3 ilustra un método de este tipo que ejecuta los
siguientes pasos:

fi Integración de datos y control de calidad fi Análisis

exploratorio de datos fi Análisis de componentes

principales fi Mapas autoorganizados

ÿ Caracterización de cuencas

Tanto los yacimientos convencionales como los no convencionales pueden ser

abordado por la metodología basada en datos para responder preguntas


Machine Translated by Google

Figura 5.3 Metodología basada en datos para la caracterización sísmica de yacimientos

145
Machine Translated by Google

146 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

sobre garantía de flujo, rendimiento de perforación, categorización de


pozos para la compartimentación de campos, optimización para
estrategias y tácticas adicionales en campos maduros, así como
caracterización de yacimientos.

Análisis de componentes principales

Esta técnica multivariante examina las relaciones entre múltiples


variables cuantitativas, como los atributos sísmicos, para identificar la
contribución respectiva de los datos. Se utiliza un flujo de trabajo de
análisis de componentes principales (PCA) (Figura 5.4) para resumir o
factorizar datos y detectar relaciones lineales, reduciendo así la
dimensionalidad del espacio de datos de entrada.

Mapas autoorganizados

Los mapas autoorganizados (SOM) se pueden implementar como


una técnica de agrupamiento, proporcionando una visualización
inmersiva y abstracción de los datos de entrada. Pertenecen a la
familia de redes neuronales de aprendizaje competitivo y no
supervisado. El SOM clasifica el espacio de datos multidimensional en
una matriz de grupos. El aspecto organizativo del algoritmo SOM
construye un conjunto de maplets diseñados sobre las distancias relativas entre

Figura 5.4 Flujo de trabajo de análisis de componentes principales


Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 147

los conglomerados generados. El algoritmo establece un grupo natural de atributos


asignados a un punto en el espacio como una neurona.
El entrenamiento neuronal clasifica esos atributos en un volumen sísmico
considerado esencial por PCA para asignar cada muestra de datos de entrada a
una neurona de ajuste optimizado. El mapa bidimensional resultante se correlaciona
con la forma en que los atributos se agrupan en n dimensiones. Este

map permite a los geocientíficos discriminar entre características geológicas y


estratigráficas, así como identificar indicadores directos de hidrocarburos (DHI).

La integración entre los procesos PCA y SOM revela una mayor comprensión
de la geología y la estratigrafía del prospecto. Ofrecer una visión complementaria
del volumen sísmico, tradicionalmente lograda mediante interpretación convencional,
disminuye el riesgo.

La Figura 5.4 ilustra cómo PCA-SOM procede recursivamente a resultados de


superficie que acentúan diferentes aspectos de la entrada
espacio.

fi Identificar los atributos más importantes para un objetivo dado


función.

fi Cuantificar la contribución relativa de cada atributo. fi Enfatiza

los aspectos de los datos:


ÿ Contactos de fluidos

ÿ Puntos planos

fi Discriminar ubicaciones de hidrocarburos.

REDES NEURONALES ARTIFICIALES MODULARES

Debido a la naturaleza heterogénea de un reservorio y las complejas interrelaciones


de un conjunto multivariado de propiedades del reservorio, el uso de redes
neuronales artificiales (ANN) únicas no ha alcanzado el rigor y la aplicación
comercial exitosa.
Por lo tanto, un conjunto híbrido de ANN o redes neuronales artificiales modulares
(MANN) ha cobrado fuerza (P. Tahmasebi, 2012). Esta técnica es ideal para
abordar un problema multivariado, multidimensional,
Machine Translated by Google

148 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

y sistema multivariante o conjunto de sistemas conectados representados


por reservorios y pozos. La expresión “divide y vencerás” se acuñó a
principios del siglo XVII, basada en una máxima latina, Divide et impera, y
subrayaba la política de ganar y retener el poder dividiendo las estructuras
de poder expansivas en unidades de poder estratégicas más pequeñas. En
informática, un MANN es un algoritmo que se adhiere al paradigma: dividir
un problema en subproblemas con rasgos y características similares al
problema original. Los módulos ANN resuelven los subproblemas más
simples individualmente y luego la combinación resultante logra la solución
general al problema comercial original: cómo caracterizar un yacimiento de
manera eficiente bajo incertidumbre desde una perspectiva espacial y
temporal. El aspecto de la modularidad se logra a través de otras técnicas
de computación suave, como las técnicas de agrupación y clasificación. Los
atributos sísmicos y los registros de pozos proporcionan datos suficientes
para servir como dimensión de entrada en los estudios de caracterización
de yacimientos. Sin embargo, existen limitaciones en esta metodología. Los
atributos sísmicos son variables independientes y no variables dependientes
en MANN.

¿Qué significa esto? Solo podemos usar un MANN para predecir las
propiedades petrofísicas a partir de los atributos sísmicos y no a la inversa.
Esto puede ser una limitación, pero aún brinda suficiente validación como
técnica para establecer una caracterización más robusta del yacimiento
lejos del control de pozo localizado. Cuando exploramos en busca de
hidrocarburos, tratamos con varios grupos litológicos y grupos focales
zonales con respecto a los techos y horizontes de los pozos. Los registros
de pozo arrojan luz inicialmente sobre la identificación tanto de la parte
superior de los pozos como de los horizontes de interés. Este conocimiento
es ingerido posteriormente por los datos sísmicos interpretados en la misma extensión geo

ANÁLISIS ONDULA

Las wavelets proporcionan un dispositivo activo para comprender y analizar


datos de series temporales. El análisis wavelet tiene aplicaciones críticas
en el modelado no paramétrico, el reconocimiento de patrones y la sísmica.
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 149

identificación de características. Las ondículas permiten a los geofísicos


localizar el conocimiento en una variedad de escalas y lugares geométricos
matemáticos. Tradicionalmente, los geofísicos se enfocan en las
diferencias de amplitud y las variaciones en el campo de velocidad que
se reflejan en los cambios de tiempo a través de cubos de datos sísmicos
3D en una dimensión temporal. Cualquier atenuación o aumento de la
amplitud se correlaciona invariablemente con un aumento en la saturación
de agua y gas, respectivamente. Además, un cambio de tiempo positivo
refleja una disminución de la presión y, por el contrario, un cambio de
tiempo negativo infiere un aumento de la presión. Los geofísicos juegan
con wavelets, estudiando sus componentes matemáticos fundamentales,
para apreciar mejor los datos sísmicos de series temporales gracias a la
versatilidad del análisis de wavelet. Las wavelets ofrecen el potencial para
mejorar los modelos no paramétricos, identificar patrones ocultos,
determinar las características sísmicas y mejorar la resolución de los
perfiles sísmicos para una mejor comprensión estratigráfica y estructural.
El petrofísico tiene acceso a datos localizados de alta resolución de
núcleos y registros de pozos; Los geofísicos utilizan el análisis de
ondículas para proporcionar una descripción detallada de los datos
sísmicos que restringe sustancialmente el conocimiento en una variedad
de escalas y ubicaciones espaciales. Además, las escalas y ubicaciones
espaciales se pueden calcular de manera eficiente a través de una teoría matemática inna
Como enfoque matemático, el análisis wavelet incorpora tanto los
datos como sus relaciones funcionales. Las funciones consisten en
propiedades matemáticas. Podemos detectar diferentes escalas y
resoluciones. A través del análisis de ondículas, podemos acomodar picos
y discontinuidades de manera más eficiente que implementando una
transformada rápida de Fourier (FFT) tradicional. Las aplicaciones
tradicionales del análisis wavelet se han centrado en la compresión de
imágenes. Fourier explica que una señal es una síntesis de ondas
sinusoidales de diferentes amplitudes, frecuencias y fases. El siguiente
ejemplo ilustra un análisis de ondas sísmicas aplicado a una transformada
de Fourier de los datos de traza del dominio de compensación de tiempo
(frecuencia temporal de una onda) al dominio de número de onda de
frecuencia (frecuencia espacial de una onda). El espectro se expresa
Machine Translated by Google

150 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

70000

60000

50000

40000

30000

20000

10000

0
4000 3000 2000 1000 0
Número de onda

Figura 5.5 Gráfico de líneas que muestra datos de trazas sísmicas posteriores a la transformación FK

como un valor de amplitud para cada uno de los números de onda. La


Figura 5.5 es una ilustración del diagrama de líneas para los datos bajo estudio.
Las ondículas se pueden calcular de manera competente y proporcionan
una teoría matemática intuitiva y sofisticada para acompañar al geofísico a
través del laberinto de firmas sutiles. Los datos sísmicos utilizados en este
estudio representan un mapeo de una trampa estratigráfica en un reservorio
de carbonato en el Medio Oriente. Widess (1973) desarrolló un modelo de
cuña que ilustraba que la máxima interferencia constructiva ocurre cuando
hay igualdad entre la cuña y el espesor de afinación. Posteriormente,
Laughlin et al. (2002) demostraron que los canales a mayor profundidad
están definidos por amplitudes más fuertes en las frecuencias más bajas,
mostrando simultáneamente que las amplitudes de los flancos a menor
profundidad son más fuertes en las frecuencias más altas.

Los datos sísmicos se representan en dos escalas discretas, a saber,


una curva de baja frecuencia superpuesta con una oscilación de alta
frecuencia que varía en varias bandas diferentes. la ondícula
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 151

El flujo de trabajo analítico permite a los geofísicos clasificar las


frecuencias en los datos de amplitud sísmica a medida que varía el
número de onda. La amplitud es la variable dependiente en este
análisis wavelet y se muestrea a intervalos regulares a lo largo de la
variable independiente, un número de onda que asume el papel del tiempo.
Leemos los valores de la variable de amplitud en un vector antes
de implementar el análisis wavelet. Se identificó el tercer miembro de
la familia de ondículas de Daubechies y se controlaron los límites
alargando la señal como un polinomio lineal en cada punto final. El
paso analítico posterior inició el flujo de trabajo de descomposición de
ondículas y los gráficos de diagnóstico.
El resultado generado a partir del flujo de trabajo de descomposición
de ondículas y que se muestra en la Figura 5.6 tiene un valor comercial
y analítico limitado. Una visualización gráfica proporciona una mayor
comprensión. Sin embargo, el nivel de ruido representado en la parte
inferior de la Figura 5.6 es un valor relevante y útil que cuantifica el

Figura 5.6 Resumen del análisis de descomposición que ilustra la wavelet


coeficientes
Machine Translated by Google

152 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Gráfico de coeficiente de detalle Espectro de trazas

Escalado de nivel independiente

9 Tamaño de datos

norte: 850
8
Nivel superior: 10

7 Nivel de inicio: 0

6
Especificación de ondícula

5 Familia: Embadurnamiento 3

Perímetro: Extensión lineal


4

2
Sin umbral
1

Figura 5.7 Gráfico detallado de coeficientes para todos los niveles con escalado independiente

desviación estándar de los coeficientes de detalle de más alto nivel. Uno de los
gráficos de visualización de diagnóstico más poderosos se ve en la Figura 5.7.
Describe los coeficientes prescritos por nivel.
En la Figura 5.7, los coeficientes de detalle para los diferentes niveles se
escalan de forma independiente. Observamos que las oscilaciones en los datos
de amplitud se expresan en la gráfica de coeficientes de detalle en ciertos
niveles, a saber, 7, 8 y 9.
Luego generamos una gráfica de coeficientes de solo estos tres niveles
que están escalados uniformemente (Figura 5.8). El ruido en los datos se
representa en el gráfico de coeficientes de detalle, especialmente en los
coeficientes pequeños en los niveles más altos de la descomposición de datos.
Cuando ponemos a cero o disminuimos estos coeficientes, obtenemos
restauraciones más suaves de los datos sísmicos de entrada. Al especificar un
valor de umbral para cada nivel de coeficientes de detalle, podemos poner a
cero o disminuir todos los coeficientes de detalle por debajo de este valor de umbral.
La figura 5.9 muestra la gráfica detallada de los coeficientes con el
algoritmo de umbralización de Donoho y Johnstone (1995). Puedes
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 153

Gráfico de coeficiente de detalle Espectro de trazas

Escalado uniforme

Tamaño de datos

norte: 850

9 Nivel superior: 10

Nivel de inicio: 0

Especificación de ondícula

Familia: Embadurnamiento 3

8 Perímetro: Extensión lineal

Sin umbral
7

Figura 5.8 Gráfico detallado de coeficientes con los tres niveles superiores escalados uniformemente

Gráfico de coeficiente de detalle Espectro de trazas

Escalado de nivel independiente

Tamaño de datos

9 norte: 850

Nivel superior: 10

Nivel de inicio: 0

8 Especificación de ondícula

Familia: Embadurnamiento 3

Perímetro: Extensión lineal

7
Detalles de umbral

Política: Suave

Método: SEGURO Híbrido

6 Niveles: 0–9

Figura 5.9 Gráfica detallada de coeficientes utilizando el algoritmo de Donoho y Johnstone


Machine Translated by Google

154 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

ver el umbral ha puesto a cero algunos de los coeficientes de detalle en


los niveles más altos. Los coeficientes más grandes que identifican la
oscilación en los datos de trazas sísmicas aún son evidentes. Por lo tanto,
las restauraciones de la señal de entrada que adoptan los coeficientes de
detalle umbralizados encapsulan las características sísmicas esenciales
de los datos, pero son más suaves ya que se ha eliminado la mayor parte
del detalle de escala muy fina.
Un gráfico de aproximación multiresolución ilustra las restauraciones
o reconstrucciones, como se ve en la Figura 5.10. Podemos delinear las
reconstrucciones de los datos sísmicos de entrada por nivel. En un nivel
particular, la reconstrucción usa solo los coeficientes de detalle y escala
definidos debajo de ese nivel.
Incluso en el nivel 3, se ha definido la forma subyacente de la señal
sísmica de entrada. Ya hemos señalado que las oscilaciones presentes
en los datos de amplitud se capturan en los coeficientes de detalle
superiores al nivel 7. Nótese que en el nivel 7 y por debajo del

Aproximación multiresolución Espectro de trazas

Nivel
Tamaño de datos
10
norte: 850
9 Nivel superior: 10
Nivel de inicio: 0
8

Especificación de ondícula
7
Familia: Embadurnamiento 3

Perímetro: Extensión lineal


6

4 Sin umbral

Figura 5.10 Gráfico de aproximación multiresolución que muestra restauraciones de la

señal de entrada
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 155

Aproximación multiresolución Espectro de trazas

Nivel
Tamaño de datos

norte: 850

Nivel superior: 10

Nivel de inicio: 0

Especificación de ondícula

Familia: Embadurnamiento 3
7
Perímetro: Extensión lineal

Sin umbral

Figura 5.11 Gráfico de aproximación multiresolución de un nivel particular

las reconstrucciones están en su mayoría libres de oscilación ya que no


utilizan ninguno de los coeficientes de detalle más altos. Esta observación se
puede confirmar trazando solo este nivel en el análisis de resolución múltiple
como se muestra en la Figura 5.11.
Podemos trazar cualquier nivel para las aproximaciones multirresolución
obtenidas con coeficientes de detalle umbralizados. La Figura 5.12 traza la
reconstrucción de nivel superior obtenida mediante el uso del umbral híbrido
"Seguro".
La oscilación de alta frecuencia está siempre presente en la
reconstrucción a pesar de la aplicación del algoritmo de umbral híbrido
"Sure".
El gráfico de descomposición multiresolución, como se muestra en la
Figura 5.13, muestra los coeficientes de detalle para cada nivel. La trama
incluye tanto la reconstrucción del nivel inicial en el nivel más bajo como la
reconstrucción en el nivel más alto. Al agregar versiones adecuadamente
escaladas de todos los niveles de detalle a la reconstrucción del nivel inicial,
se recupera la reconstrucción final.
Machine Translated by Google

156 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Aproximación multiresolución Espectro de trazas

Nivel
Tamaño de datos

norte: 850

Nivel superior: 10

Nivel de inicio: 0

Especificación de ondícula

Familia: Embadurnamiento 3
10
Perímetro: Extensión lineal

Detalles de umbral

Política: Suave

Método: SEGURO Híbrido


Niveles: 0 – 9

Figura 5.12 Gráfico de aproximación multiresolución para el nivel 10

Descomposición multiresolución Espectro de trazas


Nivel

Tamaño de datos
10
norte: 850
Escalado de nivel independiente
Nivel superior: 10
Nivel de inicio: 0
9

Especificación de ondícula
8
Familia: Embadurnamiento 3

7 Perímetro: Extensión lineal

5
Sin umbral

Figura 5.13 Gráfica de descomposición multirresolución para los datos sísmicos


Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 157

Escalogramas Wavelet

Los escalogramas wavelet son análogos a la transformación wavelet


discreta (DWT) del periodograma prevalente utilizado en el análisis
espectral de series temporales. Los geofísicos usan escalogramas para
descomponer la energía sísmica en niveles de energía apropiados y
validar las propiedades de localización de frecuencia de tiempo del
DWT. La figura 5.14 traza los coeficientes detallados como rectángulos
coloreados que corresponden al tamaño del coeficiente. El intervalo de
tiempo y el rango de frecuencia del coeficiente determinan la ubicación
y las dimensiones de cada rectángulo representado en el escalograma.
En las escalas de energía más bajas, notamos que los coeficientes son
rectángulos cuyo ancho y largo son más grandes y más pequeños
respectivamente. El ancho refleja un amplio intervalo de tiempo en los
datos sísmicos y la longitud define una serie limitada de frecuencias.
Lo contrario ocurre con los rectángulos que indican los coeficientes de energía superior

escalograma Espectro de trazas

Tamaño de datos

Energía norte: 850

9 Nivel superior: 10

Nivel de inicio: 0
8

7
Especificación de ondícula

6 Familia: Embadurnamiento 3

Perímetro: Extensión lineal


5

4
Detalles de umbral
3
Política: Suave

2 Método: SEGURO Híbrido


Niveles: 0–9
1

Figura 5.14 Escalograma wavelet de la traza sísmica


Machine Translated by Google

158 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

niveles Notamos rectángulos más delgados y más altos que son indicativos de
rangos de tiempo más pequeños y rangos de frecuencia más grandes.
La figura 5.14 ilustra un gráfico de escalograma de todos los niveles con
umbral híbrido "seguro" aplicado. El eje horizontal refleja el componente de tiempo
y el eje vertical representa la escala de energía. La tercera dimensión es el color
que caracteriza la

logaritmo del módulo al cuadrado de los coeficientes wavelet.


La energía total de cada nivel para la traza sísmica está representada por la
barra coloreada a la izquierda del diagrama de escalograma.
Sumamos los cuadrados de los coeficientes de detalle en cada nivel para definir el
nivel de energía. Es evidente que las energías más altas se observan en los
niveles más bajos donde los coeficientes reflejan la

principales características de los datos. Los geofísicos que buscan interpretar las
características de escala más fina dentro de la sísmica se dirigen a los niveles más
altos. Los niveles por encima de cinco se muestran en la Figura 5.15.
No se aplica una escala logarítmica a las alturas de los rectángulos en

escalograma Espectro de trazas

Tamaño de datos

Energía norte: 850

Nivel superior: 10

Nivel de inicio: 0

Especificación de ondícula
9
Familia: Embadurnamiento 3

Perímetro: Extensión lineal

Detalles de umbral

8 Política: Suave

Método: SEGURO Híbrido


Niveles: 0 – 9
7

Figura 5.15 Scalograma Wavelet que muestra la mayor parte de la energía en el nivel 8
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 159

70000

60000

50000

40000

30000

20000

10000

0 4000 3000 2000 1000 0


Número de onda

Figura 5.16 Gráfico de líneas que muestra datos de trazas sísmicas después del suavizado de ondículas

Figura 5.15 donde se concentra la energía de la oscilación en los


coeficientes de detalle en el octavo nivel.
Cuando comparamos la Figura 5.5 y la Figura 5.16, es evidente que
el suavizado wavelet de los datos sísmicos ha conservado las
características más críticas.

DESCOMPOSICIÓN ESPECTRAL

La descomposición espectral es una poderosa herramienta de análisis


que ha tenido un éxito significativo en la delineación de canales, abanicos,
depósitos sobre bancos y otros elementos arquitectónicos relativamente
delgados de ambientes de depósito clásticos y carbonatados.
Fagan, van Wijk y Rutledge (2013) señalan que "identificar fallas
subterráneas individuales en un sistema de fallas más grande es importante
para caracterizar y comprender la relación entre la microsismicidad y los
procesos del subsuelo". Los autores proporcionaron
Machine Translated by Google

160 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

una metodología para identificar claramente la evidencia de fallas superpuestas


estrechamente espaciadas de un conjunto de eventos designados originalmente en el
dominio de compensación de tiempo. Señalaron que la expresión del dominio de la
frecuencia acentuaba cualquier diferencia sutil entre los eventos:

Se utilizaron espectros de potencia basados en la transformada de Fourier


de la función de autocorrelación en el dominio del tiempo, ya que esta
formulación da como resultado intensidades estadísticamente
independientes y está respaldada por un cuerpo completo de la teoría
estadística sobre la cual se pueden desarrollar marcos de decisión.

Se muestran las siguientes herramientas:

1. Una herramienta de minería de datos con tecnología de cepillado de visualización


niques

2. Análisis de componentes principales en datos SEG-Y 3.

Descomposición de trazas de wavelet 4. Transformada rápida de

Fourier (FFT) en datos de trazas 5. Discusión sobre cómo los datos

sísmicos pueden ser estadísticamente


analizado

6. Modelos estadísticos para encontrar/agrupar atributos que comprenden las


características más interesantes

PRIMERAS LLEGADAS

La adquisición y el procesamiento sísmico en la industria del petróleo analizan las ondas


P (de compresión) y las ondas S (de corte). Las primeras llegadas de ambos tipos de
ondas se registran y estudian para obtener información crítica sobre el subsuelo. Es
fundamental asegurarse de que los datos de la primera llegada se asocien no

con ruido, ya sea este intrínsecamente aleatorio o lineal, pero con un evento sísmico real.
Los conjuntos de datos sísmicos 3D están formados por miles de puntos de disparo y las
matrices de receptores generan miles de registros. Por lo tanto, el análisis manual de
todos los registros orientados a tiros y receptores es demasiado voluminoso para
interpretarlo.
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 161

individualmente. Una de las primeras aplicaciones de una red neuronal artificial


(ANN) en el mundo aislado de la geofísica fue abordar la interpretación de los
primeros arribos. La literatura existente y más reciente que detalla este enfoque
se puede encontrar escrita por McCormack (1990) y Veezhinathan et al. (1991).

Esencialmente, la ANN es una metodología de reconocimiento de patrones.


Entonces, la lógica binaria dicta que la primera llegada es generada sísmicamente
o nace del ruido de los trenes. Podemos enventanar los datos sísmicos de series
de tiempo para cada registro y crear varios

Atributos de Hilbert. Taner et al. (1979) introdujo una serie de atributos de Hilbert
derivados de datos sísmicos en ventanas.

Algunos de los atributos sísmicos clave de la transformada de Hilbert para un


estudio de primera llegada plausible incluyen:

1. Amplitud (máxima)
2. Nivel de potencia (media)
3. Relaciones de potencia

4. Pico de pendiente envolvente

El flujo de trabajo analítico basado en datos para identificar las primeras


llegadas analiza tres picos adyacentes a través de trazas contiguas. La primera
regla binaria basada en un modelo de computación suave de reconocimiento de
patrones determina si el pico medio es el primero en llegar. Utilizamos una red
neuronal de retropropagación con siete capas ocultas de neuronas.

SUPRESIÓN DE RUIDO

Los primeros arribos están asociados con otro tema: editar el ruido del registro
sísmico. En contraste con la identificación de eventos de origen sísmico, nos
enfocamos en suprimir eventos de origen no sísmico. Para aumentar la relación
señal-ruido (S/N), el geofísico puede emplear un flujo de trabajo analítico basado
en datos que se basa en modelos informáticos de reconocimiento de patrones.

Las redes neuronales artificiales (ANN) son apropiadas como técnicas de


modelado candidatas para el proceso de eliminación de ruido.
Machine Translated by Google

162 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Zhang y Li (1995) editaron todo el trazo ruidoso. El proceso de aprendizaje de la


ANN se basa en la lectura de múltiples registros de disparos sísmicos. Entonces
podemos apreciar las propiedades wavelet del ruido caracterizadas por altas
amplitudes, o por la baja frecuencia con un comportamiento lineal y coherente.

Podemos mejorar la fase de aprendizaje a través de un conjunto de análisis


de conglomerados no supervisados que distinguen los rastros "buenos" de los "malos".
Es ideal establecer reglas que representen umbrales de aceptación para ciertas
características de trazas sísmicas. A medida que se obtienen nuevos registros sísmicos

alimentado a la red, identificará el ruido y arrojará esos rastros al cubo de "edición".

Otro flujo de trabajo para atenuar el ruido se basa en la separación predictiva


del ruido coherente en un registro de tomas preapiladas.
La metodología se esfuerza por separar de manera no destructiva el balanceo de
tierra hiperbólico de los reflejos primarios.
Consideremos la adquisición de sísmica en el campo. ¿Es factible atenuar el
ruido coherente y aleatorio en tiempo real basado en

en un modelo predictivo? Debemos identificar firmas de trenes de ruido sísmico a


través del modelo geológico localizado.
Tradicionalmente, la costosa adquisición de datos con una baja relación señal/
ruido obstaculiza la recolección sísmica tanto marina como terrestre. Ground roll,
que consiste en llegadas directas y energía dispersada por discordancias cercanas
a la superficie, contribuye a la baja relación S/N.
En el espacio (t, x, y), el giro del suelo cae casi dentro de un cono centrado en
la ubicación del disparo. Es fundamental adoptar técnicas ágiles de procesamiento
sísmico para identificar y filtrar el terreno.
Sin embargo, el movimiento del suelo puede adoptar múltiples rasgos característicos
debido a la imprevisibilidad de los estratos geológicos cercanos a la superficie no
consolidados. Por lo tanto, es difícil estandarizar un flujo de trabajo común y
universalmente aceptado para procesar la puesta a punto.
A menudo, el balanceo de tierra ocupa una banda de frecuencia mucho más
baja que las reflexiones primarias, en cuyo caso el balanceo de tierra se puede
eliminar fácilmente silenciando (w, x), a expensas del componente de baja frecuencia
de la señal, que es crucial para la inversión de la impedancia acústica. .
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 163

El filtrado FK es un método adoptado para eliminar eventos lineales. Sin embargo,


el aliasing es un problema ya que el balance de tierra es invariablemente aliasing en
el espacio regular del receptor. El aliasing se vuelve aún más pronunciado en 3D ya
que los costos de adquisición generalmente impiden un muestreo adecuado en la
dirección de la línea cruzada.
El movimiento de tierra fuerte, dispersivo y con alias con movimiento hiperbólico
contamina la parte inferior de la imagen sísmica.
La relación señal-ruido es bastante baja.
Dado un conjunto de datos, podemos estimar un filtro de error de predicción
(PEF) y ver los componentes de ruido gaussiano de los datos en el espacio nulo de la
estimación. Se sabe (Claerbout, 1976) que la respuesta de frecuencia de un PEF se
aproxima al espectro inverso de los datos a partir de los cuales se estimó el PEF. Al
calcular un PEF (dominio f ÿ x ) a partir de los datos contaminados por ruido, este
enfoque obtiene una estimación “in situ” del espectro de potencia de la señal. La
aplicación de la reconstrucción de Wiener (Castleman, 1996) produce una estimación
óptima (mínimos cuadrados) de la señal.

Ground roll es altamente dispersivo y, por lo tanto, no estacionario, por lo que


parece plausible elegir un método de compensación de tiempo que utilice PEF no
estacionarios. Ground roll suele ser un popurrí de diferentes trenes de ondas, todos
con diferentes tasas de dispersión, violando activamente esta suposición de
estacionariedad temporal. La técnica del dominio de desplazamiento de tiempo no
estacionario no tiene tal limitación.
Un método general y eficaz para la eliminación del balanceo del suelo en 3D
puede tener efectos profundos en el futuro de la adquisición sísmica.
Si el balance de tierra severo requiere el registro de compensaciones extremadamente
largas o el uso de conjuntos de receptores grandes, la capacidad de eliminar el balance
de tierra de manera sólida a partir de datos de un solo sensor reducirá considerablemente
los costos de adquisición.
Veamos un método para realizar la separación de la relación S/N, y no
simplemente la eliminación de ruido. El ruido estimado de salida puede contener
información útil, como las velocidades de las ondas transversales. La sismología
multicomponente es una especialidad prometedora que sin duda se beneficiaría de
cualquier restricción adicional proporcionada por una extracción robusta de “ruido”.
Machine Translated by Google

164 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Actualmente se dedica un esfuerzo considerable a la búsqueda del modelo de


ruido perfecto, particularmente en la supresión múltiple. Sin embargo, los resultados
presentados aquí muestran que la separación predictiva de la relación S/N produce
buenos resultados con un modelo de ruido imperfecto.
Queda una pregunta abierta: ¿Podrían ser suficientes métodos más primitivos para
obtener modelos múltiples si se pasan a un algoritmo predictivo de separación de
relación S/N?
Nuestro enfoque se basa en una metodología basada en datos de dos pasos,
sin primeros principios, para identificar patrones en el contenido de amplitud y
frecuencia de los datos de series temporales. Esta táctica está destinada a identificar
eventos y discriminar entre el ruido, tanto coherente como aleatorio, de los primarios
y la señal de energía que representa los estratos geológicos.

Eliminación de ruido coherente y aleatorio de los datos sísmicos

la adquisición crea dos conjuntos de datos:

1. La señal sísmica que muestra la serie de reflectividad de la tierra o los


componentes estacionarios que se corresponden con los reflectores
localizados

2. Trenes de ruido coherente y dispersivo con cualidades de aliasing en el


dominio FK y ruido ambiental aleatorio

Adoptamos una metodología basada en datos para determinar los atributos clave
del balanceo de tierra y el ruido aleatorio para diferenciarlo de la señal principal. Este
enfoque está destinado a reducir los altos costos de adquisición mediante la
producción de datos con una relación S/N mejorada en el campo. La principal de las
bajas relaciones S/N es el balance de tierra, que consiste en la llegada directa y la
energía dispersa de las ondas Rayleigh generadas por disparos.

La identificación de las firmas del movimiento del suelo en algunas regiones


geológicas permitirá construir un modelo predictivo para abordar el problema del
ruido dominante de los trenes. Para atenuar dicho ruido, se puede determinar el
movimiento hiperbólico mediante el análisis de datos de las trazas sísmicas.
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 165

La intención es dividir la señal de amplitud en sus componentes elementales


únicos utilizando PCA, una técnica estadística adoptada para analizar y transformar
conjuntos de datos multivariados. Este enfoque asume un conjunto de vectores N-
dimensionales como entradas que representarán el volumen completo de un
registro de tiro. El proceso clasifica los componentes principales (PC) por su
contribución a la varianza total de las trazas sísmicas en todo el conjunto de datos.
los

Las PC se consideran completamente independientes y, como tales, son


apropiadas para procesos analíticos más avanzados.
También se considerará el análisis del árbol de decisión, dada la naturaleza
de los eventos continuos inherentes a la traza sísmica.

atributos Un árbol de decisión es un modelo lógico que ilustra el valor de las


cualidades predictivas de una variable objetivo.
El estudio de rodadura conduce a múltiples problemas de identificación de
patrones periódicos que se encuentran en la naturaleza. Demostró periodicidad
en muchos niveles con cambios graduales en el tiempo y el espacio. Se aplicaron
metodologías de regresión lineal múltiple generalizada (ARIMA) con los siguientes
criterios:

ÿ Intersección y pendiente variables en el tiempo (variedad de tendencias


patrones)

ÿ Patrones periódicos variables en el tiempo

ÿ Efectos de regresión no lineal a través de regresores spline


ÿ Ruido correlacionado

Luego, el estudio creó un modelo de componentes no observados (UCM) que


es esencialmente un modelo estructurado en el dominio temporal. Analiza y,
posteriormente, pronostica datos de series de tiempo univariantes igualmente
espaciados. El modelo UCM se quiebra

la serie de tiempo de respuesta sísmica en componentes constituyentes tales


como tendencia, ciclos y cualquier efecto de regresión que se deba a la serie
predictora. Estos componentes permiten a los geofísicos identificar características
sobresalientes de la serie, beneficiosas para la interpretación y el pronóstico del
comportamiento típico de los trenes de ruido coherente.
Machine Translated by Google

166 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

como el rollo de tierra. Los UCM brindan la versatilidad inherente a los modelos ARIMA
al tiempo que amplían la capacidad de interpretar los modelos de suavizado. Los
modelos dinámicos son muy similares a los UCM y encuentran favoritismo en la
literatura de series temporales bayesianas. Desarrollamos un algoritmo para pronosticar
los valores de la serie de respuesta y la serie de componentes en el modelo.

Escribamos un pseudocódigo para un algoritmo de predicción aplicable a trenes


de ruido sísmico coherente a través de 30 contiguos
huellas:

Supongamos que, para 1 <= t, x <= 30,

g(t, x) = 5 + 6ÿ sin(2ÿpiÿtÿ35) (Figura 5.17)

+cos(2ÿÿÿ exp(xÿ35)) +2ÿ

sin (2ÿÿÿtÿ35) ÿ cos(2ÿÿÿ exp(xÿ35))

superficie

15

10

0
5
10 30
25
15 20
20 15
tiempo 25 10
5
30 0 X

Figura 5.17 Superficie verdadera g(t, x)


Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 167

z
20

15

10

–5

0
5
10 30
25
15 20
20 15
tiempo 25 10
5
30 0 X

Figura 5.18 Observaciones con ruido Z(t, x)

Observamos una versión ruidosa de g(t, x) (Figura 5.18):

Z(t, x) = g(t, x)+ÿ ÿÿ N(0; 9)

Podemos suponer que, para un t dado, la relación funcional g(t, x) se


representa como una spline cúbica en x con cuatro nudos repartidos
uniformemente en el rango de x (1:30). Luego, para un vector variable spline de
7 dimensiones Spl(x) y el coeficiente de regresión ÿt, establecemos la relación:

Z(t, x) = Spl(x)ÿt + ÿt

Además, suponga que ÿt cambia en la dirección t de la siguiente manera:

ÿt + 1 = Tÿt + ÿt + 1

para alguna matriz de “transición” T y covarianza de perturbaciones ÿt y ÿt .


Machine Translated by Google

168 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Valor suavizado de superficie0

15

10

0
5
10 30
25
15 20
20 15
10
tiempo 25 5
30 0 X

Figura 5.19 Superficie lisa estimada

Obtuvimos una versión sin ruido del registro sísmico de entrada.


Se interpoló cualquier rastro faltante o incorrecto en el registro de
disparos generando los valores faltantes de la serie de respuestas del
período histórico (es decir, el registro de disparos anterior). La Figura
5.19 representa la muestra completa de las trazas para el registro de
disparos, que son estimaciones suavizadas de la serie de componentes
en el modelo UCM.
Lendzionowski, Walden y White sugieren que el número máximo
de atributos independientes importantes que pueden describir
integralmente un segmento de traza sísmica es una cantidad 2BT,
donde B = ancho de banda (Hz) y T = longitud del segmento de traza
(segundos). Esta suposición lleva a la conclusión de que existe una
ambigüedad inherente o una redundancia parcial en algunos de los
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 169

los atributos comunes obtenidos de las huellas sísmicas, lo que otorga


complejidad a la atenuación del ruido de los registros de disparos.
Para limitar el potencial de resultados ambiguos, nuestra afirmación es
que debemos derivar atributos sísmicos significativos en una sola
transformación. La intención es dividir la señal de amplitud en sus
componentes elementales más exclusivos. Con ese fin, proponemos
implementar PCA, una técnica estadística adoptada para analizar y
transformar conjuntos de datos multivariados. Se pretende tomar como
entrada un conjunto de vectores N-dimensionales que representarán el
volumen total de un registro de tiro. El tamaño de la ventana de muestreo
restringe la dimensionalidad de cada vector. PCA produce N lin vectores
propios transformados tempranamente conocidos estadísticamente como
componentes principales (PC). El proceso clasifica los componentes
principales por su contribución a la varianza total de las trazas sísmicas en
todo el conjunto de datos. Los PC se consideran completamente
independientes y, como tales, son apropiados para procesos analíticos más avanzados.
El agrupamiento de las PC reduce la información relevante sobre el ruido
sísmico en una sola propiedad categórica. El análisis del árbol de decisiones
puede ser otro enfoque, dada la naturaleza de los eventos continuos
inherentes a los atributos de las trazas sísmicas. Aplicamos el flujo de trabajo
analítico basado en datos para predecir el ruido de rodadura de los trenes a
un registro de disparo sin procesar, como se muestra en la Figura 5.20.
Después de aplicar la secuencia de pasos que implementó el algoritmo
de supresión de ruido al registro de disparos sin procesar, generamos el
registro de disparos de salida en la Figura 5.21. Todavía quedan restos de
los trenes de ruido coherente a través de las huellas.
Determinamos que el aspecto de aprendizaje del algoritmo requería más
datos de registros de disparos contiguos. Al restar todos los datos del registro
de disparos capturados en la Figura 5.21 de los datos sin procesar
representados en la Figura 5.20, pudimos ver los resultados del algoritmo de
eliminación de ruido en la Figura 5.22. Tenga en cuenta la supresión del ruido
coherente del balanceo de tierra a través de las pistas.
Se requiere una delicadeza más detallada para optimizar el flujo de trabajo.
Se recomienda un enfoque iterativo con más registros de disparos para
finalizar la metodología analítica basada en datos.
Machine Translated by Google

170 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Gráfico de contorno de logampl


25
600
20

15

10
rastro
400
5
logamp

–5

200 –10

-15

–20

–25
012 3
Tiempo

Figura 5.20 Registro de disparos con rodada desde el suelo antes de aplicar el algoritmo de

supresión de ruido

Gráfico de contorno de smoothed_surface0


30
600

20

10
400
rastro

0 superficie_alisada0

–10
200

–20

–30
012 3
Tiempo

Figura 5.21 Registro de disparos después de aplicar el algoritmo de supresión de ruido


Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 171

Gráfico de contorno de smoothed_wn


12.5
600
10

7.5

5
400
2.5
rastro

0 alisado_wn

–2.5

200 –5

–7.5

–10

–12,5

012 3
Tiempo

Figura 5.22 El ruido atenuado

REFERENCIAS

Programa de Medición de Radiación Atmosférica, “ARM Archive,” http://ncvweb.archive.arm.gov/,


Consultado el 1 de febrero de 2016.
Bengio, Y., A. Courville y P. Vincent, "Aprendizaje de representación: una revisión y nuevas
perspectivas", IEEE Transactions on Pattern Analysis and Machine Intelligence, 35
(2013): 1798–1828.
Bosch, M., T. Mukerji y EF Gonzalez, "Seismic Inversion for Reservoir Properties Combinando
Statistical Rock Physics and Geostatistics: A Review", Geophysics, 75, no. 5 (septiembre
de 2010):
75A165–75A176.

Castleman, KR, Procesamiento de imágenes digitales. Prentice-Hall, silla de montar superior


Río, Nueva Jersey, 1996.

Claerbout, JF, Fundamentos del procesamiento de datos geofísicos. pozo negro,


1976.

Donoho, DL e IM Johnstone, "Minimax Estimation via Wavelet Shrinkage", presentado en


The Annals of Statistics, 1995.
Doyen, PM, "Porosidad a partir de datos sísmicos: un enfoque geoestadístico",
Geofísica, 53, no. 10 (1998): 1263–1276.
Machine Translated by Google

172 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Fagan, D., K. van Wijk y J. Rutledge, “Clustering Revisited: A Spec tral Analysis of
Microseismic Events,” Geophysics, 78, no. 2 (marzo de 2013): KS41–KS49.

Hall, P., J. Dean, IK Kabul y J. Silva, "Una descripción general del aprendizaje automático
con SAS Enterprise Miner". En: Actas de la Conferencia SAS Global Forum 2014,
Instituto SAS, Cary, Carolina del Norte (2014), https://support.sas.com/resources/
papers/proceedings14/SAS313-2014.pdf .

Hall, Patrick, Jared Dean, Ilknur Kaynar Kabul y Jorge Silva, "An Overview of Machine
Learning with SAS® Enterprise Miner™", artículo SAS313-2014, SAS Institute Inc.,
2014.
Haykin, S., Redes neuronales: una base integral, Prentice-Hall,
Nueva Jersey (1999).
Hinton, GE y RR Salakhutdinov, "Reducción de la dimensionalidad de los datos con redes
neuronales", Science, 313, no. 504 (28 de julio de 2006). DOI: 10.1126/ciencia.1127647.

Holdaway, Keith R., Aproveche los grandes datos de petróleo y gas con análisis: optimice
la exploración y la producción con modelos basados en datos, John Wiley & Sons,
Hoboken, NJ (mayo de 2014).
Jang, J., "ANFIS: Sistema de inferencia difusa basado en redes adaptativas"
Trans. IEEE. sist. Hombre Cybern., 23, núm. 3 (1993): 665–685.
Kreutz-Delgado, K., JF Murray, BD Rao, K. Engan, T.-W. Lee y TJ Sejnowski, "Dictionary
Learning Algorithms for Sparse Representation", Neural Computation, 15 (2003): 349–
396.
Krizhevsky, A., I. Sutskever y GE Hinton, "Clasificación de ImageNet con redes neuronales
convolucionales profundas". En: Avances en sistemas de procesamiento de información
neuronal 25 (NIPS 2012), Actas de la Conferencia anual sobre sistemas de
procesamiento de información neuronal (2012), págs. 1097–1105.

Laughlin, K., P. Garossino y G. Partyka, "Descomposición espectral aplicada a 3D",


AAPGExplorer, 23, no. 5 (2002): 28–31.
Lee, H., A. Battle, R. Raina y AY Ng, "Algoritmos de codificación dispersa eficientes". En:
Avances en sistemas de procesamiento de información neuronal 19 (NIPS 2006),
Actas de la Conferencia anual sobre sistemas de procesamiento de información
neuronal (2006), págs. 801–808.
McCormack, MD, "Computación neuronal en geofísica", Geophys., The Leading Edge
Explor., Capítulo 10, págs. 11–15 (1990).
Machine Translated by Google

CARACTERIZACIÓN SÍSMICA DE RESERVAS 173

Olatunji, SO, A. Selamat y A. Abdulraheem, "Modelado de la permeabilidad


de un yacimiento de carbonato mediante sistemas de lógica difusa de tipo
2", Comput. Ind., 62, n. 2 (febrero de 2011): 147–163.
Tahmasebi, P. y A. Hezarkhani, “Una arquitectura rápida e independiente de
una red neuronal artificial para la predicción de permeabilidad”
J. Mascota. ciencia Eng., 86–87 (mayo de 2012): 118–126.
Taner, MT, F. Koehler, F. y RE Sherrif, “Traza sísmica compleja
Análisis”, Geofísica, 44 (1979): 1196–1212.
Vapnik, VN, Teoría del aprendizaje estadístico, 41, no. 4, John Wiley & Sons,
Nueva York (1998).
Veezhinathan, J. y D. Wagner, "Selección de la primera ruptura mediante la
red neuronal", Sistemas expertos en exploración. SEG, Tulsa, OK, 1991,
págs. 179–202.
Widess, MB, "¿Qué tan delgada es una cama delgada?" Geofísica, 38 (1973),
1176-1180.
Zhang, X. y Y. Li, "La aplicación de la red neuronal artificial con SOM: un
enfoque de red neuronal". 65.ª reunión anual de SEG, Houston (octubre
de 1995).
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

CAPÍTULO 6

Atributo sísmico
Análisis

174
Machine Translated by Google

INTRODUCCIÓN

Los datos sísmicos de reflexión y refracción son tradicionalmente


dominio de los geofísicos y matemáticos. Corresponde a estos
científicos identificar reservorios potenciales basados en la interpretación
determinística de las huellas sísmicas que han rebotado en las rocas
del subsuelo y han sido detectadas por geófonos de superficie e
hidrófonos de agua. Los principios de la sismología están arraigados
en las funciones matemáticas y los axiomas de
física que arrojó luz sobre las perturbaciones de ondas sísmicas que
han viajado a través del subsuelo. La interacción de la energía de las
olas en las interfaces de las rocas genera una serie de impedancias
acústicas (el producto de la velocidad y la densidad de las olas) que
son firmas resultantes de la energía reflejada o refractada. Al igual que
otras metodologías geofísicas (microgravedad, electromagnetismo en
el dominio de la frecuencia y el tiempo, y estudios de resistividad
eléctrica), podemos abordar la sismología de reflexión como un problema inverso.
Y como tal, el modelo resultante es invariablemente determinista por
naturaleza e intrínsecamente no único. Los geofísicos proporcionan un
modelo abstracto de un sistema físico complejo, regido por leyes
escritas a lo largo de los siglos por matemáticos y físicos.
Como geocientíficos, estamos algo limitados no solo por los primeros
principios, sino también por la incertidumbre y la sensibilidad a errores
relativamente pequeños en la adquisición, procesamiento e
interpretación de datos sísmicos. Con la confluencia de grandes
conjuntos de datos sísmicos 3D y fuentes de mediciones petrofísicas,
es necesario adoptar no solo los modelos interpretados tradicionalmente,
sino también un conjunto de metodologías basadas en datos. Una
fuente de datos sísmicos que es ideal como dominio de entrada para
los flujos de trabajo de computación suave basados en datos son los
ricos atributos generados a partir de las trazas sísmicas. Los atributos
sísmicos previos y posteriores al apilamiento han evolucionado como
una fuente importante. El conjunto de atributos sísmicos y el
conocimiento obtenido de su análisis, cuando se combina con la interpretación estratig

175
Machine Translated by Google

176 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

dirigir una poderosa luz sobre las características esenciales del yacimiento
para una explotación exitosa de hidrocarburos.

TIPOS DE ATRIBUTOS SÍSMICOS

Los atributos sísmicos son inherentemente cuantitativos, de medición


una propiedad que refleja una característica geológica, o cualitativa, que
identifica patrones espaciales como fallas o cambios de facies. Al ser
cuantitativo por naturaleza, un atributo sísmico puede representar un objetivo o
medición de características dependientes que da cuenta de un indicador de
rendimiento clave o punto de acceso. Las tablas 6.1 y 6.2 enumeran algunas de las
atributos sísmicos primarios que tienen una forma geométrica y wavelet
característica.
Desde una perspectiva matemática, una traza sísmica es una
representación funcional compleja de la respuesta de la tierra.
La firma sísmica registrada es la parte real de un complejo

Tabla 6.1 Atributos de curvatura

Salidas primarias Formas geométricas de alta resolución Semblanza

mín. Buzamiento de curvatura Buzamiento de azimut Curvatura Domo Correlación cruzada de

Real versus imaginario

máx. Curvatura Aderezo


gaussiano Cresta Derivada de Total

Magnitud Curvatura Energía

más positivo En línea Producto exterior del sillín Strike Curvature

Curvatura buzamiento aparente

más negativo Línea de cruce Angular Recipiente

Curvatura buzamiento aparente Inconformidad

Tabla 6.2 Atributos sólidos como una roca

Atributos instantáneos Atributos de wavelet Atributos geométricos

Parte real de la traza compleja Fase de ondícula Continuidad del evento

Parte imaginaria de la frecuencia de ondícula de trazas complejas Relación arena/lutita

Sobre de seguimiento Factor Q de ondícula Variación de buzamiento

Fase Instantánea Caída instantánea de frecuencia dominante

Factor Q instantáneo Polaridad aparente de Buzamiento Azimut

ondícula
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 177

función y la cuadratura la parte imaginaria. La cuadratura es una descripción


desfasada de 90° de la parte real. Podemos calcular los atributos instantáneos
(amplitud, fase y frecuencia) a partir de la traza compleja que acabamos de describir.
¿Por qué son "instantáneas"? Son concisos. Representan descripciones cuantitativas
del carácter sísmico en cualquier punto dado a lo largo de la forma de onda. Los
atributos instantáneos aparecen como parámetros críticamente independientes en el
estudio de caracterización de facies sísmicas más adelante en este capítulo. La
amplitud instantánea es una medida de la intensidad de la reflectividad. La fase
instantánea es una representación de la continuidad de un evento sísmico a través
de trazas adyacentes y la frecuencia instantánea mide la tasa de cambio de la función
de fase instantánea desde una perspectiva temporal.

Los atributos sísmicos se clasifican comúnmente como:

fi Atributos físicos: Directamente correlacionados con la propagación de ondas y


la litología desde una perspectiva previa o posterior al apilamiento. Dos
subclases son, por definición, instantáneos y wavelet. Los primeros se
determinan muestra a muestra y son indicativos del cambio continuo tanto
en la dimensión espacial como temporal. Estos últimos definen las
características de las ondículas y el espectro de amplitud.

ÿ Atributos geométricos: Estos incluyen buzamiento, acimut y


discontinuidad.

Podemos derivar atributos posteriores al apilamiento a partir de datos apilados


después de que se hayan abordado los efectos del movimiento normal mediante la
aplicación de un conjunto de modelos de velocidad en toda la extensión espacial de
los datos sísmicos. En 1979, Tanner describió por primera vez el "rastro complejo".
Se define como:

CT(t) = T(t) + H(t)

Dónde:

CT(t) = Traza compleja


T(t) = Traza sísmica
H(t) = Transformada de Hilbert de T(t)
Machine Translated by Google

178 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Las huellas sísmicas consisten en una parte real y otra imaginaria.


La parte real es la señal sísmica real registrada. La parte imaginaria es la cuadratura
que es la versión desfasada 90ÿ (transformada de Hilbert) de la parte real. Es un
proceso simple para calcular los atributos instantáneos de la señal sísmica una vez
que se establece la traza sísmica compleja.

La amplitud instantánea mide la fuerza de la reflectividad que es proporcional a


la raíz cuadrada de la energía total de la señal sísmica en un instante particular de
tiempo. Su ventaja sobre la amplitud de la traza real es que es independiente de la
fase; sin embargo, se pierde la información del signo de amplitud. La continuidad de
los eventos en un perfil sísmico es una medida reflejada por la fase instantánea, y
la tasa de cambio temporal de la fase instantánea se representa como la frecuencia
instantánea.

Tenga en cuenta que esta no es la misma frecuencia que normalmente se encuentra


en el análisis espectral.
La envolvente de amplitud (E) se determina a partir del complejo
rastro:

E(t)={T(t) + H(t)} 1ÿ2

Algunos de los beneficios de interpretación obtenidos de la amplificación


el sobre de tude incluye:

ÿ Puntos brillantes
ÿ Acumulación de gases

fi Cambios en los entornos de depósito fi Efectos de

sintonización de lecho delgado


ÿ Discordancias

fi Cambios en la litología fi

Fallas a nivel localizado fi Correlación

espacial con las propiedades de la roca, como la porosidad

La amplitud instantánea que muestra la fuerza de la reflectividad es un buen


indicador de puntos brillantes y oscuros. El atributo de fase instantánea es a menudo
un delineador robusto de pinch-outs,
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 179

fallas y on-laps, mientras que el atributo de frecuencia instantánea se relaciona con el


centroide del espectro de potencia de la wavelet sísmica, respondiendo a las
características depositacionales.
Los geofísicos implementan flujos de trabajo tradicionales para atenuar el ruido
múltiple y aleatorio. Los atributos instantáneos se pueden generar posteriormente a
través de un cubo sísmico 3D. Es factible ejecutar un conjunto de flujos de trabajo EDA
para descubrir patrones y correlaciones ocultos utilizando los atributos sísmicos como
espacio de entrada. La función objetivo podría ser identificar todos los pinch-outs
estratigráficos potenciales que no se ven fácilmente en una sección sísmica de resolución
baja a media con una relación señal-ruido deficiente. Esas variables independientes,
representadas por los atributos sísmicos generados, se pueden correlacionar
estadísticamente con la función objetivo para clasificar los parámetros más influyentes
para identificar características como pinch-outs.

La coherencia o discontinuidad es un atributo geométrico que mide las relaciones


laterales en los datos sísmicos. Se usa para enfocar

Si prestamos atención a los eventos discontinuos, como las fallas, podemos

correlacionar amplitudes altas con discontinuidades y amplitudes bajas con características


continuas.

Este atributo es útil para comprender y evaluar:

ÿ Valores en la máxima y mínima dirección de coherencia


ÿ Terminaciones de eventos

ÿ Horizontes sísmicos seleccionados

ÿ Detección de fallas

ÿ Zonas de ropa de cama paralela y caótica ÿ Zonas no

reflectantes ÿ Patrones de ropa de cama convergentes

y divergentes y no
formalidades

Los atributos de descomposición espectral nos permiten resaltar las estructuras


con diferentes bandas de frecuencia para ofrecer una mayor resolución. Mover los datos
sísmicos del dominio de compensación de tiempo al dominio de número de onda de
frecuencia aplicando un discreto
Machine Translated by Google

180 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

La transformada de Fourier permite a los geofísicos identificar y cuantificar


eficazmente las interferencias de capa delgada y las discontinuidades sutiles.
En conclusión, algunos de los atributos más utilizados son:

ÿ Envolvente: Presencia de gas (puntos brillantes), sintonización de lecho delgado


efectos y cambios de litología
ÿ Fase: Continuidad del reflector lateral y configuración del lecho
Uraciones

fi Frecuencia: Presencia de hidrocarburos y zonas de fractura fi


Descomposición espectral: Espesor del lecho fi Coherencia: Fallas,
fracturas y estratigrafía lateral
discontinuidades

FLUJOS DE TRABAJO DE ATRIBUTOS SÍSMICOS

El análisis de los atributos sísmicos desde una perspectiva basada en datos


requiere un conjunto escalable y repetible de flujos de trabajo formulados a
partir de un proceso o metodología establecidos.
¿Cuál es la diferencia entre un proceso y una metodología?

fi Un proceso se define como una serie sistemática de acciones u


operaciones continuas que ocurren de manera fija. fi Una metodología
representa un conjunto de principios subyacentes limitados por reglas
para regular una disciplina como las geociencias.

Estamos buscando un proceso para nuestros flujos de trabajo de


computación suave. Por lo general, nos permite abordar un conjunto de
tareas continuas y repetibles que invariablemente no tienen una conclusión definitiva.
Es más propicio proporcionar una forma confiable, repetible y competente de
aplicar el análisis basado en datos.
Describamos un proceso apropiado para estudios analíticos basados en
datos en el dominio analítico de atributos sísmicos. Va bajo el acrónimo
SEMMA: Sample, Explore, Modify, Model, and Assess.
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 181

Proceso SEMMA

Estos flujos de trabajo se basan en un proceso de muestra-exploración-


modificación-evaluación del modelo (SEMMA) (Figura 6.1). El método
implementa flujos de trabajo lógicos en cada etapa para garantizar una
progresión natural desde la gestión, exploración, transformación y análisis
de datos. El producto es un conjunto de modelos informáticos predictivos
que luego se califican estadísticamente para identificar el mejor modelo. Los
criterios de puntuación tienen en cuenta el conjunto de datos y la función
objetivo que representa el problema de negocio a abordar.
Es ventajoso implementar un producto integrado que proporcione una
solución empresarial integral para la minería de datos y que incorpore una
interfaz gráfica de usuario (GUI) que actúe como una interfaz fácil de usar
para un proceso de minería de datos SEMMA:

fi Muestrear los datos extrayendo y preparando una población de datos


para la construcción de modelos, implementando una o más tablas
de datos. El paso de muestreo proporciona una ventana al conjunto
de datos. Podemos crear subconjuntos de las observaciones y reducir
la dimensionalidad del espacio de entrada. Invariablemente, el
conjunto completo de datos, previsto para abordar el problema
comercial, pasa al siguiente paso, donde se realiza un análisis
exploratorio de datos.

EXPERTOS EN LA MATERIA

CIENTÍFICOS DE DATOS

Figura 6.1 Proceso SEMMA para análisis basado en datos


Machine Translated by Google

182 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

fi Explore los datos sacando a la luz patrones y tendencias ocultos dentro


de los datos. Estamos buscando relaciones que sean indicativas de
causa y efecto correlacionados. Este paso proporciona un conjunto
de hipótesis que vale la pena modelar en lugar de un modelo
determinista único.
fi Modifique los datos creando y seleccionando variables después de
cualquier transformación que se considere relacionada con el esfuerzo
de minería de datos para resolver un problema comercial. La
modificación puede ser un análisis de distribución para determinar si
variables específicas caen en una distribución gaussiana o no normal.
Es en este paso que se pueden editar los valores atípicos y sesgados.
Las técnicas de imputación para reemplazar valores erróneos o
faltantes se pueden ejercitar en el flujo de trabajo de modificación.

fi Modele los datos utilizando una variedad de técnicas analíticas para


buscar una combinación de datos que prediga de manera confiable
un resultado deseado.

fi Evaluar los modelos predictivos. Podemos evaluar estadísticamente el


valor y la confiabilidad de los modelos de computación suave de
salida. Al calificar los modelos, podemos determinar una excelente
variedad de resultados probabilísticos y el valor de cada modelo
medido por la aplicabilidad al problema comercial que se está
estudiando.

Es esencial iniciar cualquier estudio analítico basado en datos con un


conjunto de flujos de trabajo de análisis exploratorio de datos (EDA). EDA
proporciona, a través de visualizaciones intuitivas, la capacidad de mostrar
patrones, correlaciones y tendencias ocultos en los conjuntos de datos subyacentes.
En el caso del análisis de atributos sísmicos, podría agregar múltiples
atributos desde una perspectiva anterior o posterior a la acumulación, según
la función objetivo o el problema comercial que se esté estudiando.
La optimización de la producción o la eficacia de una técnica de recuperación
mejorada de petróleo (EOR) como la alternancia de agua y gas (WAG) son
dos ejemplos de propuestas de valor comercial que se pueden traducir en un
flujo de trabajo analítico de datos SEMMA. El proceso basado en datos
complementa la interpretación tradicional de los flujos de trabajo de
visualización inmersiva en 3D.
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 183

CLASIFICACIÓN DE FACIES SÍSMICAS

¿Qué son las facies sísmicas? Esencialmente es una unidad sísmica en un espacio
tridimensional que consiste en un conjunto de reflejos de ondículas. Los factores distintivos
entre las distintas unidades de facies sísmicas son las diferentes mediciones de parámetros
variados obtenidas del análisis de ondículas y el análisis de atributos sísmicos. El flujo de
trabajo de clasificación de facies sísmicas es un conjunto de datos de conglomerados

técnicas de minería, algunas supervisadas y otras no supervisadas, para agrupar parámetros


sísmicos dentro de secuencias de tercer orden. El resultado es una descripción cuantificada
de las diferentes litofacies laterales y la variación en los tipos de fluidos espaciales. La Figura
6.2 identifica los pasos analíticos críticos para un flujo de trabajo de clasificación de facies
sísmicas.
Posiblemente, las geometrías de los patrones de reflexión son las más valiosas para
ajustarse a las litofacies, interpretadas tradicionalmente a partir de núcleos y registros de
pozos.
Aquí hay una secuencia tradicional de pasos deterministas:

1. Segregar todas las secuencias depositacionales en sísmicas distintas


facies

2. Delinear la configuración de reflexión interna de todas las unidades de facies


sísmicas.

3. Mapee todas las facies sísmicas desde los perfiles sísmicos hasta un mapa de
puntos de disparo para cada secuencia.

4. Espesor del lecho agregado y distribución de facies sísmicas.

Rasgo
Extracción
Datos del sensor Segmentación

Correo
• Interpretación • Ventanas Grupo
• Adquisición Procesando
sísmica espacio- Análisis
sísmica 3D • tradicional • temporales •
• Prueba de
Registros de Análisis de facies Análisis • Clasificación
de modelos hipótesis
pozos • DTS/DAS sísmicas • espectral •
Extracción de geológicos
Identificación de
características sísmicas atributos

Figura 6.2 Clasificación en un ciclo iterativo de interpretación de facies sísmicas


Machine Translated by Google

184 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

5. Mapear la distribución de todos los parámetros de diagnóstico.

6. Asimilar datos de afloramientos y registros de pozos con la sísmica


distribución de facies.

7. Aplicar procesos analíticos deterministas a los mapas de facies sísmicas.

8. Identificar ambientes depositacionales: marinos o no marinos, posición de la


cuenca, profundidad del agua, dirección de transporte o cualquier otra
característica depositacional.

9. Evaluar la litología a partir de todos los resultados interpretativos.

Desde el inicio de los grandes datos en el mundo de la exploración sísmica, hemos


sido testigos de una aplicación continua de técnicas informáticas de clasificación. Estas
metodologías de segmentación supervisadas y no supervisadas basadas en datos
permiten a los geofísicos establecer un marco más sólido para la interpretación tradicional.
Los geofísicos pueden casar su intuición y conocimiento determinista basado en los
primeros principios con las tendencias de coincidencia de patrones obtenidas de un flujo
de trabajo de clúster. Tal combinación hace que sea más factible determinar el
conocimiento procesable de los grandes cubos de datos sísmicos 3D, así como la
evolución y el número creciente de atributos sísmicos, tanto antes como después de la
acumulación.

Calcular el número de facies sísmicas es difícil ya que la resolución temporal y


espacial se ve afectada negativamente a medida que profundizamos en un perfil sísmico.
Esencialmente, las facies sísmicas son de naturaleza no estacionaria, y los diversos
ambientes depositacionales se suman a la complejidad en la clasificación de las facies
sísmicas.
El conjunto de datos para un estudio de facies sísmica cae en una de dos categorías,
influenciado por las variables litológicas y su distribución en el dominio espacial y
temporal. El conjunto de datos de facies sísmicas está balanceado o no balanceado. Un
ejemplo de esta categorización de las superficies de los conjuntos de datos es cuando
observamos una fracción de arena dentro de la roca. Va de cero a la unidad y, por lo
tanto, se considera equilibrado, mientras que las saturaciones de líquido están sesgadas
en cero o en la unidad, lo que genera un conjunto de datos desequilibrado.
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 185

Habiendo determinado esta característica del conjunto de datos, necesitamos


identificar qué familia de modelos de computación suave es más apropiada para
analizar los datos de facies sísmicas: supervisados o no supervisados. Los
primeros clasificadores se eligen invariablemente debido a las complejidades
inherentes al estudio. Esto es probablemente cierto para la mayoría de los
problemas analíticos basados en datos de exploración y producción upstream.
Las técnicas supervisadas agregan una carga al rigor y la sensibilidad de los
valores en el dominio de entrada. Un conjunto de datos equilibrado favorece los
flujos de trabajo supervisados, y los algoritmos de clúster no supervisados
analizan mejor el conjunto de datos desequilibrado.
Algunos de los algoritmos de clasificación estándar que se pueden aplicar
para clasificar las facies sísmicas en los yacimientos de hidrocarburos son:

Sin supervisión:

1. Agrupación jerárquica 2.
Agrupación de k-medias 3.
Mapas autoorganizados (SOM)
4. Mezclas normales

5. Análisis de clases latentes

Supervisado:

1. Análisis de componentes principales (PCA)


2. Máquinas de vectores de soporte (SVM)
3. Redes neuronales artificiales (RNA)

Las técnicas basadas en datos de reconocimiento de patrones son


herramientas ideales para detectar cambios sutiles en los volúmenes de lapso
de tiempo de micrófono sísmico multicomponente 3D actualmente adquiridos.
Los flujos de trabajo de la vieja escuela que incluían técnicas de detección de
diferencias de ecualización cruzada entre volúmenes de lapso de tiempo 3D han
generado un valor comercial relativo a partir de imágenes de baja resolución.
Sin embargo, estudios sísmicos multicomponentes más avanzados que generan
no solo imágenes de mayor resolución sino también atributos más robustos
Machine Translated by Google

186 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

se prestan a flujos de trabajo de aprendizaje automático basados en datos


avanzados.
Los geofísicos tienen la tarea de encontrar, a través de una
interpretación válida, características tales como canales y redes de
transporte masivo, explorando la gran cantidad de trazas onduladas.
Utilizando técnicas de visualización inmersiva en 3D, un intérprete
experimentado examina las características de las formas de onda sísmica,
la frecuencia, la fase y la amplitud asociadas, así como la alineación
geométrica. Antes, los mapas de facies sísmicas se contorneaban
manualmente, pero ahora podemos adoptar flujos de trabajo basados en
datos cuantitativos y automatizados para discernir patrones en la respuesta
sísmica e identificar las características de las facies sísmicas.
El agrupamiento es una técnica multivariante que agrupa observaciones
que comparten valores similares en algunas variables.
Por lo general, las observaciones no se dispersan uniformemente en el
espacio n-dimensional, sino que forman grupos o grupos. La identificación
de estos clústeres le proporciona una comprensión más profunda de sus datos.
La Figura 6.3 muestra un flujo de trabajo alternativo que es clave para
clasificar las facies sísmicas según lo definido por Duda et al. (2001). El
proceso de “adquisición” incluye no solo los volúmenes sísmicos sino
también registros de pozos y tácticas y estrategias de terminación. Los
datos de producción de brownfields enriquecen la dimensión de datos de
entrada. A medida que avanzamos en el flujo de trabajo, es importante
enfatizar la perspectiva híbrida. Los geofísicos se centran en la "interpretación tradicional"
No es raro concentrarse en una unidad estratigráfica objetivo o en un
conjunto de formaciones homogéneas cuando el intérprete identifica
estratos geológicos con rasgos característicos tales como delineaciones
geométricas, bloques de fallas y llanuras aluviales. Durante el proceso de
“abstracción de características”, nos esforzamos por enumerar los atributos
sísmicos clave, ya sean de naturaleza cuantitativa o cualitativa.
La extracción de las características clave reduce la caracterización sísmica
a una dimensión manejable para la entrada a un flujo de trabajo analítico
basado en datos. El proceso de "clasificación basada en datos" adopta una
de las técnicas de clasificación de computación suave, invariablemente sin
supervisión, para complementar un proceso más tradicional.
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 187

Adquisición

Tradicional
Interpretación

Abstracción de características

Basado en datos
Clasificación

Hipótesis
Generación

Verificar decisión

Figura 6.3 Flujo de trabajo de clasificación de facies sísmicas

clasificación impulsada por la experiencia que interpreta los modelos


geológicos estáticos. El penúltimo proceso, "generación de hipótesis", es un
paso de evaluación que determina de manera probabilística las hipótesis que
vale la pena modelar. El paso de decisión valida los resultados y determina si
debemos modificar el espacio de entrada generando diferentes atributos para
abordar el problema de negocio en estudio.

Discutamos algunos de los beneficios de implementar segmen


tación de técnicas de soft-computing para clasificar las facies sísmicas.
Machine Translated by Google

188 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Conjunto de datos de facies sísmicas

Hay siete parámetros de reflexión útiles:

1. Configuración (geometría de reflexión)


2. Continuidad
3. Amplitud (instantáneo)
4. Frecuencia (instantáneo)
5. Fase (instantáneo)
6. Velocidad de
intervalo 7. Impedancia acústica

Los puntos brillantes y oscuros ocultos dentro de los perfiles sísmicos


son identificables a partir de las mediciones de amplitud instantánea.
Podemos delinear trampas estratigráficas, fallas, pinch-outs y on-laps a
partir de mediciones de fase instantáneas específicas. El atributo de
frecuencia instantánea es útil como descriptor de facies en yacimientos
de condensado donde las altas frecuencias tienden a filtrarse.

El primer paso analítico después de cualquier proceso de agregación


de datos es implementar varias visualizaciones de EDA para identificar
tendencias y correlaciones. ¿Cuáles son las relaciones estadísticas entre
las variables dependientes e independientes? ¿Hay valores atípicos?
¿Podemos reducir el espacio de entrada a un rango de variables y tal
vez encuadrar esas variables en un rango de valores?
El estudio de clasificación de facies sísmicas es un problema de
negocio convertido en un problema de minería de datos. La función
objetivo permite el agrupamiento supervisado o no supervisado de
distintos tipos de facies a través de la ventana de interés en los
volúmenes sísmicos. Además de las técnicas de clasificación para
agrupar facies de características similares, podemos, a través de la
correlación con la función objetivo, identificar las variables más críticas y
su correspondiente rango de valores. La Tabla 6.3 detalla algunas de las
mediciones de clasificación de facies sísmicas críticas de variables clave.
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 189

Tabla 6.3 Mediciones de clasificación de facies sísmicas


Parámetro Interpretación Geológica

Continuidad ÿ Estratos geológicos laterales/espaciales

ÿ Procesos Deposicionales

Configuración ÿ Horizonte/Patrones de ropa de cama

ÿ Contactos de fluidos

ÿ Propiedades depositacionales

Amplitud ÿ Horizonte/Espacio entre lechos

ÿ Grosor del horizonte/lecho

ÿ Contrastes de velocidad y densidad: acústica


Impedancia

Amplitud instantánea ÿ Fuerza de reflectividad en puntos específicos

Frecuencia ÿ Contenido fluido

ÿ Grosor del horizonte/lecho

Frecuencia instantánea ÿ Tasa de Cambio de Fase Instantánea

Fase Instantánea ÿ Continuidad del Evento Sísmico

Velocidad de intervalo ÿ Identificaciones de litofacies

ÿ Mediciones de porosidad
ÿ Contenido fluido

Fuente de sedimentos, ambiente depositacional y litofacies


se puede interpretar agrupando y mapeando estos parámetros
en grupos tridimensionales de facies sísmicas.

Estudio de Facies Sísmicas: Preprocesamiento

Este estudio propone un flujo de trabajo de preprocesamiento para permitir


predicciones de propiedades litológicas basadas en una serie de datos sísmicos
atributos Se implementan metodologías de aprendizaje automático (ML). La
plataforma de preprocesamiento consiste en reconstruir
señales sísmicas, normalizando los datos de entrada y estandarizando
las señales de destino. Estos pasos de regularización son críticos para
perfilar las propiedades litológicas dependientes caracterizadas por
Machine Translated by Google

190 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

una definición de alta resolución. Dichos pasos para generar conjuntos de datos
listos para ML incluyen:

ÿ Transformada de Fourier

ÿ Descomposición wavelet ÿ

Descomposición en modo empírico

Se lleva a cabo una estrategia de adquisición/procesamiento sísmico sobre un


área espacial de interés geológico para comprender las capas del subsuelo e
identificar potenciales reservorios de hidrocarburos, ya sean de naturaleza
estructural o estratigráfica. La energía mecánica generada por fuentes superficiales,
como un vibroseis, se convierte en energía eléctrica mediante el conjunto de
geófonos que registran las próximas reflexiones y refracciones de las formas de
onda. Las firmas de estas formas de onda se caracterizan por los atributos sísmicos
asociados con las propiedades geológicas de la roca de cada capa, como la
velocidad y la densidad. El producto de estas dos propiedades de la roca (velocidad
y densidad) constituye la impedancia acústica. La frecuencia instantánea representa
la tasa de cambio de la fase de la amplitud sísmica y puede usarse como predictor
o parámetro independiente en nuestro estudio.

Agrupación jerárquica

El algoritmo jerárquico inicia el proceso de agrupación al tratar cada observación


en su grupo. El algoritmo calcula las distancias euclidianas entre cada par de
grupos. Luego itera a través de una etapa de "fusión" en la que dos grupos,
caracterizados por la distancia euclidiana como los más cercanos, se unen para
producir un solo grupo. Este proceso paso a paso finalmente produce un solo grupo
para todos los grupos originales que inicialmente contenían una sola variable, de
ahí su sinónimo: agrupamiento aglomerativo.

El algoritmo finalmente genera un dendrograma como se muestra en la figura


6.4. Es útil implementar este enfoque de agrupación para establecer una buena
estimación del número de grupos apropiados.
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 191

La línea vertical que conecta los dos


diamantes es indicativa del grupo.
número que es apropiado para este
conjunto de datos: 3

900
700
490
2184
800
770
1270
860
1090
1540
1300
1300
1260
1344
1145
1090
2294
1784
1289
1690

Figura 6.4 Dendograma generado por un algoritmo de agrupamiento jerárquico

para un problema comercial específico. Por lo tanto, la interpretación del


dendrograma por parte de un geofísico es crítica.
La técnica de agrupamiento jerárquico es más apropiada para pequeños
conjuntos de datos que no superen las 10.000 observaciones. Los tipos de datos
de caracteres están permitidos. La razón es que el tiempo de ejecución aumenta
rápidamente a medida que el conjunto de datos se expande más allá de este
techo. Como se describe más adelante en esta sección, las medias k de
conglomerados y las mezclas normales son más adecuadas si su conjunto de datos es amplio.
Si leemos el dendrograma de izquierda a derecha, vemos que el proceso de
agrupamiento jerárquico combina los dos grupos más cercanos en un solo grupo.
Las distancias relativas que separan los grupos están representadas por los
espacios horizontales entre las líneas verticales que conectan los grupos.
Machine Translated by Google

192 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

En la Figura 6.4, los conglomerados están designados o etiquetados por una


nomenclatura que significa facies sísmicas y los parámetros independientes
incorporados por el algoritmo de conglomerado jerárquico son una matriz de atributos
sísmicos posteriores al apilamiento generados por un volumen de datos sísmicos 3D.
Teniendo en cuenta las diferencias relativamente pequeñas en los grupos hasta la
línea que indica tres, es plausible sugerir que tres es el punto de partida ideal para
otros algoritmos de clasificación que requieren un número de grupo, k.

La figura 6.5 muestra una visualización conocida como diagrama de constelación.


El gráfico organiza las etiquetas de las facies como puntos finales y cada conexión de
clúster como un punto diferente. Las líneas reflejan el número de miembros del clúster
y la distancia de la línea entre cada clúster estima la distancia entre los clústeres
unidos.
Si interpretamos el gráfico de constelación que se ve en la Figura 6.5, es evidente
que los grupos que contienen facies sísmicas (1270, 770, 800) y (900, 700, 490, 2184)
están igualmente distantes del grupo de facies sísmicas restantes en el parte alta de
la parcela.

30

20
1090 1784
1300
10 1289

1690

Y0 1090
900
700
–10
1270

–20

–30
–20 –10 0 10 20
X

Figura 6.5 Diagrama de constelación


Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 193

Agrupación de k-medias

El algoritmo k-means (MacQueen, 1967) es una técnica no supervisada de


uso común para agrupar datos. ¿Qué significa la "k" ? Se refiere a un número
fijo de clústeres implementados en el algoritmo. Es un valor definido por el
usuario. Esto plantea un problema potencial para el geofísico ya que es un
valor a priori que optimiza el algoritmo de agrupamiento de k-medias.
Construye varios clústeres implementando un algoritmo iterativo para
segmentar las observaciones de datos. El objetivo es determinar k puntos
que representen centroides de conglomerados estables y, por lo tanto, definir
los conglomerados de manera que cada observación se asigne a un
conglomerado definido por su centroide de conglomerado más cercano. La
asignación óptima de centroides de conglomerados es la que minimiza la
suma de la distancia
desde cada punto hasta su centroide de conglomerado más cercano. El
algoritmo k-means establece inicialmente un conjunto de n puntos
denominados semillas de conglomerados que representan las primeras
conjeturas de los valores medios de los conglomerados. Los grupos iniciales
se formulan asignando cada punto de datos a la semilla más cercana. Luego,
el algoritmo itera a través de dos pasos: la asignación y el paso de
actualización . Los atributos sísmicos se dividen en grupos utilizando este
proceso de dos pasos para minimizar las distancias a los centroides de los grupos.
Otra complejidad son las diferentes unidades de medida inherentes a los
atributos sísmicos utilizados para poblar los conglomerados.
Es posible que estemos tratando con la frecuencia (Hz), la amplitud RMS
(mV) o la fase de reflexión (grados). Es posible escalar los datos utilizando
una inversa de la matriz de covarianza, lo que produce la "distancia de
Mahalanobis". Esto evita el problema de que una variable domine el proceso
de agrupación.
La Figura 6.6 ilustra una visualización típica de conglomerados de k-
medias. Los conglomerados que están más separados de los otros
conglomerados en función de los dos primeros componentes principales son
los numerados 3, 10 y 11. Los centros de los conglomerados están rodeados,
y el tamaño de cada círculo representa el recuento de observaciones en un conglomerado.
La porción sombreada de la figura refleja el contorno de densidad del 50 por
ciento alrededor del valor medio o centroide. Indica donde
Machine Translated by Google

194 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

–1

–2

–3

–4
–4 –2 0 2 4
impresión 1

Figura 6.6 Visualización de conglomerados de k-medias

El 50 por ciento de todas las observaciones en un grupo específico caería (Mardia


et al., 1980). Los valores propios se representan en orden decreciente.

El flujo de trabajo de clasificación de k-means es favorable para millones

conjuntos de datos de fila, pero solo permite datos numéricos. Habiendo


conjeturado el número de conglomerados, k, para ejecutar el algoritmo, es
inicialmente un juego de adivinanzas en cuanto a los puntos semilla del
conglomerado. Luego, el algoritmo asigna iterativamente puntos a los grupos y
calcula los centroides de los grupos.

Mapas autoorganizados (SOM)

SOM es una metodología de red neuronal no supervisada. Se han realizado


estudios utilizando esta técnica para observar distintas agrupaciones de datos
(Vesanto y Alhoniemi, 2000). La transformada Wavelet proporciona un medio para
identificar las singularidades de las trazas sísmicas, expresiones matemáticas de
cada traza sísmica (Hoekstra, 1996), en todos los volúmenes sísmicos de lapso de
tiempo 3D. Clasificando el
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 195

singularidades sísmicas con SOMs desarrolla observaciones perspicaces


en cuanto a un número optimizado de grupos o clasificaciones que se
aplicarán en la estimación del número de facies sísmicas (Matos et al.,
2003).
La metodología SOM fue iniciada por Teuvo Kohonen (1990). El
objetivo clave abordado por el algoritmo SOM es formular grupos en una
cuadrícula particular de modo que las observaciones estén cerca no solo
en la cuadrícula SOM sino también en el espacio de entrada multivariante
de alta dimensión. La estructura arbitraria inherente al flujo de trabajo
clásico de k-means difiere de la estructura basada en cuadrículas
caracterizada por la técnica SOM.

Mezclas Normales

Si los conglomerados tienden a superponerse, el algoritmo de k-medias


tiende a fallar, abriendo la puerta a la metodología de mezclas normales,
ya que se basa en las probabilidades de pertenencia al conglomerado en
lugar de asignaciones de clasificación arbitrarias basadas en límites. La
técnica de mezclas normales es de naturaleza iterativa y se centra en la
hipótesis de que la distribución de probabilidad conjunta de todos los
puntos de datos en estudio se estima mediante una combinación de
distribuciones normales multivariadas. las mezclas son
representando diferentes grupos. Cada grupo se caracteriza por
distribuciones normales multivariadas.
La Figura 6.7 muestra los contornos de las densidades normales que
son adecuadas para los grupos. Un grupo parece estar notablemente
separado de los otros grupos en función de los primeros tres componentes
principales.
Si tiene datos caracterizados por distribuciones normales multivariadas
superpuestas que son numéricas, entonces las técnicas de mezcla
normal son una opción adecuada para la clasificación. Sin embargo, si
hay una gran cantidad de valores atípicos multivariados, entonces es
esencial realizar un conglomerado de valores atípicos con una distribución
uniforme asumida. E invariablemente, el algoritmo de "mezclas normales
robustas" es una extensión alternativa a las mezclas normales con
agrupamiento uniforme de valores atípicos.
Machine Translated by Google

196 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

4
4 3
impresión 1 2 2
1
0 Imprimir
0
2
–2
–1
–4 –2
3 –3
–4
3
2

1 2

0 1

–1 0

–2 –1

–3 –2

–4 –3
–5 –4
3
2 –5
4
1
2
0
–1 0
impresión 1
–2 –2
–3
–4

Figura 6.7 Grupos representados con contornos para las densidades normales

Al igual que en la técnica de conglomerados de k-medias, debe determinar un


número adecuado de conglomerados a priori. Adoptamos un método de máxima
verosimilitud para aproximar la media, la desviación estándar y las correlaciones
simultáneamente. Por lo tanto, a cada punto de datos se le ha atribuido una
probabilidad de ser miembro de cada grupo.

Análisis de clase latente


Si la mayoría de las variables en un flujo de trabajo de clasificación de facies son

categórico, entonces la técnica óptima es el análisis de clase latente (LCA).


Nuevamente, se requiere la cantidad de grupos apropiados para ejecutar el
algoritmo. Nos esforzamos por ajustar un modelo que asume que la distribución es
una mezcla multinominal. Cada

La observación se clasifica en un grupo distinto basado en su mayor


Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 197

probabilidad de pertenencia, y una estimación de máxima verosimilitud determina


esto.

Esta técnica le permite descubrir conglomerados o clasificaciones de todas


las variables en observaciones categóricas. Establecemos una variable latente
como variable de clasificación no observable

y designe una clase latente para cada capa de la variable latente. El algoritmo
ajusta un modelo de clase latente y calcula el grupo o clase latente más apropiado
para cada observación de atributo sísmico.

Esta técnica invariablemente requiere un experto en el dominio, como un


geofísico, para interpretar los resultados de un análisis de clases latentes a fin de
construir definiciones para todas las clases latentes basadas en
las características inherentes de la clase.
El modelo es un modelo de mezcla multinominal que tiene dos conjuntos

de parámetros: los parámetros y y los parámetros p . El primero refleja las


probabilidades generales de pertenencia al clúster. Este último representa las
probabilidades de observar una respuesta determinada en función de la
pertenencia al grupo. Un patrón de estas probabilidades condicionales caracteriza
una clase latente.
La Figura 6.8 muestra un diagrama ternario que representa las probabilidades
de conglomerados para cada fila en el conjunto de datos de facies sísmicas. Los
tres vértices que se ven en la figura 6.8 ilustran una tendencia de las probabilidades
de pertenencia a un grupo a alinearse en estas áreas. Esto podría significar que
las probabilidades de membresía reflejan valores altos para un grupo en particular
y valores más bajos para los otros dos grupos. Hay algunos puntos cotejados y
dispersos en el medio de la gráfica, lo que indica que estas observaciones en el
conjunto de datos de facies sísmicas no reflejan una alta probabilidad de
pertenencia a ninguno de los grupos. Quizás debamos centrarnos en estos
puntos, ya que dicho comportamiento podría ser indicativo de que los grupos más
plausibles son apropiados para representar el conjunto de datos.

El algoritmo LCA es ideal para un conjunto de datos que es principalmente


de naturaleza categórica. Es importante saber a priori
Machine Translated by Google

198 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

0
1
Prob en el grupo 2
0.1
0.9

0.2
0.8

0.3
0.7

0.4
0.6

0.5
0.5

0.6
0.4

0.7
0.3

0.8
0.2

0.9
0.1

1
0
1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0
Prob en el grupo 1

Figura 6.8 Gráfica ternaria que explica las probabilidades de conglomerados para cada sísmica
observación

el número de clústeres que son plausibles para abordar el problema


empresarial. El geofísico puede interpretar la matriz de datos sísmicos
atributos y otros parámetros de entrada destacados y determinar un
buen número inicial, k. El algoritmo asume una distribución de mezcla
multinomi nal e intenta estimar el máximo
probabilidad de que cada observación determine la pertenencia a un grupo.
La mayor probabilidad determina la membresía.

Análisis de componentes principales (PCA)

El análisis de componentes principales (PCA) desarrolla un número conciso


de variables independientes denominadas componentes principales (PC).
PCA realiza una transformación ortogonal de la entrada
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 199

observaciones que pueden tener tendencias correlacionadas para generar un


conjunto de PC linealmente no correlacionadas. La intención es encapsular
la variabilidad en el espacio de datos en una dimensión más pequeña y
sucinta. Por lo tanto, es una metodología para reducir la dimensionalidad del
espacio de datos. En el estudio para determinar una clasificación de facies
sísmica, PCA también realiza una EDA de todos los diferentes parámetros
sísmicos.
Si su conjunto de datos es escaso por naturaleza y consiste en muchas
variables con un valor cero, PCA ejecuta una metodología escasa para
calcular un número de PC definido por el usuario y, por lo tanto, fijo.
También hay posibilidades de que PCA apoye el análisis factorial realizando
una rotación ortogonal u oblicua para permitir la interpretación de los PC
resultantes.
La clasificación de las facies sísmicas involucra invariablemente muchas
variables que dan como resultado un espacio de entrada de alta dimensión.
PCA es una metodología ideal para restringir la redundancia y el exceso entre
los atributos sísmicos. Aceptamos que gran parte de la señal deseada está
presente en las primeras PC (vectores propios) con la relación S/N
deteriorando las PC posteriores con ruido no correlacionado.
El primer vector propio representa de manera óptima los patrones que
estamos buscando en los atributos sísmicos que se ingresan en el flujo de
trabajo de clasificación de facies sísmicas.
El flujo iterativo del algoritmo PCA se puede reflejar en estos pasos:

1. Genere el primer vector propio, el vector en el espacio de atributos


sísmicos de dimensión N que mejor refleje los patrones.
2. Haga una correlación cruzada entre los datos de entrada N-
dimensionales con la salida vectorial del paso 1 en cada vóxel o valor
en un espacio tridimensional, lo que da como resultado el primer
volumen de datos de PC.

3. Escale el primer vector propio por el primer PC y réstelo del vector de


atributos N-dimensional original; luego generamos un vector de datos
residuales.
4. Genere el siguiente vector propio, el vector que mejor refleje los
patrones de atributos sísmicos en el vector de datos residuales.
Machine Translated by Google

200 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

5. Haga una correlación cruzada del siguiente vector propio con los datos
originales o los datos residuales para crear el siguiente volumen del
componente principal.

6. Iterar a través de los pasos 4 y 5 para todas las N-dimensiones para generar
Erate N autovectores y N PC.

La Figura 6.9 resume la variación de las variables de atributos sísmicos


especificados con componentes principales. El informe detalla cómo las PC involucran
el cambio en los datos de atributos sísmicos. Los puntos PC se derivan de la
combinación lineal de vectores propios de las variables de atributos sísmicos.

La figura 6.9 muestra los valores propios y un gráfico de barras del porcentaje
de la variación explicada por cada PC. Hay dos gráficos más: un gráfico de
puntuación y un gráfico de cargas. Los valores propios indican el número total de
componentes extraídos, basados en el grado de varianza agregado por cada
componente.
El gráfico de puntuación muestra los valores estimados de cada elemento sobre
el otro, corrigiendo cada valor por la media y la desviación estándar. La gráfica de
cargas traza la matriz de carga no rotada entre las variables y los componentes.
Cuanto más cerca esté el valor de la unidad, mayor será la influencia del elemento
sobre la variable.

Evaluación estadística
La Tabla 6.4 representa las restricciones y las mejores prácticas para cada método
supervisado y no supervisado utilizado en el estudio de facies sísmicas.

Los resultados del análisis de clasificación de facies sísmicas se ilustran en la


Figura 6.10. Podemos notar claramente las diferentes características de cada uno de
los tres grupos principales que representan las tres facies sísmicas: azul, rojo y verde.

Implementamos un conjunto de flujos de trabajo estadísticos de ajuste para


diferenciar los modelos. Se aplicaron las técnicas Bayesian Information Criterion
(BIC) y Akaike's Information Criterion (AIC) para ver qué valores, invariablemente los
valores más pequeños
Machine Translated by Google

1.0
Valor propio 20 40 60 80
3.6002
4 Azimut
1.7335
1.0306 Espesor de pago neto
0,4060
0.5
0,1576
2 Coherencia
0,0529
0,0193

PhiE
0 0.0
Inst. Fase de
respuesta de amplitud

–2
–0.5

Aderezo

–4

–1.0
–4 –2 0 2 4 –1.0 –0.5 0.0 0.5 1.0

Componente 1 (51,4 %) Componente 1 (51,4 %)

Figura 6.9 Componentes principales del informe de correlaciones

201
Machine Translated by Google

202 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Tabla 6.4 Comparación estadística entre los diferentes métodos basados en datos

Número
Método Tipo de datos Tamaño de datos de clústeres

Jerárquico Ningún Hasta 5000 filas No

k-significa Numérico Hasta millones de filas Sí

Mezclas Normales Numérico Cualquier tamaño


Análisis de clase latente Nominal u ordinal Cualquier tamaño Sí

Figura 6.10 Conjunto de clasificación sísmica de conglomerados desde una perspectiva empresarial

indicado, siempre que se ajuste mejor. El AICc y BICc corregidos


son condiciones basadas en información que evalúan el ajuste del modelo. Ellos
se basan cada uno en –2LogLikelihood.
AICc se define de la siguiente manera:

AICc = –2LogVerosimilitud + 2k + 2k(k + 1)ÿ(n ÿ k ÿ 1)

donde k cuantifica el número de parámetros proyectados en el


modelo y n refleja el número de filas u observaciones bajo
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 203

estudiar. El valor de AICc varía entre diferentes modelos creados por el mismo
conjunto de datos. El valor más pequeño a menudo define el modelo que mejor
se ajusta.
BICc se define de la siguiente manera:

BICc = –2LogLikelihood + k ln(n)

Hay una interpretación paralela de los valores resultantes para BICc como
para AICc. El primero tiende a disciplinar aquellos modelos con un mayor
número de parámetros, prefiriendo los segundos la valoración estadística.

También analizamos la raíz cuadrada media (RMS) o la media cuadrática.


Esta es una medida estadística generalizada que cuantifica la magnitud de la
variación en nuestro conjunto de datos. En el estudio de clasificación de facies
sísmicas, algunos valores oscilaron entre el dominio negativo y el dominio
positivo. Este comportamiento es típico de las trazas sísmicas. RMS subraya
las variaciones, por ejemplo, en la impedancia acústica dentro de una ventana
espaciotemporal elegida.
Observamos que, invariablemente, cuanto mayores eran las variaciones de
impedancia acústica de las litologías apiladas, el valor RMS se correlacionaba
con un valor más alto. Como ejemplo, un RMS alto en un canal es el resultado
de un contraste de impedancia acústica del relleno del canal con la litología
circundante.
El atributo de varianza (lo opuesto a la coherencia) se mide en tres
dimensiones y representa la variabilidad de trazo a trazo en un intervalo de
muestra particular. Trazas similares producen coeficientes de varianza bajos.
Por otro lado, las discontinuidades tienen coeficientes altos. Las fallas y los
canales producen invariablemente discontinuidades en las litologías cercanas.

El flujo de trabajo de clasificación de facies sísmicas proporciona una


metodología profunda e intuitiva para agrupar las diversas facies y caracterizar
cada facies por los atributos en estudio. No se limite al número de atributos
sísmicos ni al número de cúmulos ideales para el método de clasificación
variable. Se obtienen diferentes resultados al implementar cada método de
agrupación, pero tenga en cuenta las pautas
Machine Translated by Google

204 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

detallada en la Tabla 6.4. Es posible que desee ejecutar varias técnicas


de segmentación con diferentes atributos, e incluso diferentes cantidades
de observaciones, y luego comparar los perfiles de conglomerados en
busca de denominadores comunes. La secuencia de clasificación de
facies sísmicas es escalable y repetible.

REFERENCIAS

Bracewell, RN, La transformada de Fourier y sus aplicaciones, McGraw-Hill, Nueva York


(1965).
Chawathe, A., “Interwell Property Mapping Using Crosswell Seismic Attributes,” SPE 38747,
artículo presentado en la Conferencia y Exposición Técnica Anual de la SPE de 1997,
San Antonio (5 al 8 de octubre de 1997).

Doyen, P., "Porosidad a partir de datos sísmicos: un enfoque geoestadístico",


Geofísica, 53 (1988): 1263.
Duda, RO, PE Hart y DG Stork, Clasificación de patrones, 2ª ed.,
John Wiley & Sons, Nueva York (2001).
Eren, H., CC Fung y KW Wong, "Red neuronal artificial modular para la predicción de
propiedades petrofísicas a partir de datos de registros de pozos", IEEE Trans.
instrumento Medida, 46, núm. 6 (diciembre de 1997): 1295–1299.

Fournier, F. y J. Derain, "Una metodología estadística para derivar propiedades de


yacimientos a partir de datos sísmicos", Geofísica, 60, no. 5 (1995): 1437.

Hoekstra, EV, "Análisis multiescala de datos sísmicos mediante la transformada de ondas",


tesis de maestría, Universidad Tecnológica de Delft (1996).
Holdaway, Keith R., Aproveche los grandes datos de petróleo y gas con análisis: optimice
la exploración y la producción con modelos basados en datos, Wiley, Hoboken (mayo
de 2014).
Kohonen, T. El mapa autoorganizado. Actas del IEEE, 9 (1990),
págs. 1464–1479.
MacQueen, J., “Algunos métodos de clasificación y análisis de observaciones multivariadas”.
En: Le Cam, LM y J. Neyman (eds.), Actas del Quinto Simposio de Berkeley sobre
Estadística Matemática y Probabilidad, University of California Press (1967), págs.
281–297.
Machine Translated by Google

ANÁLISIS DE ATRIBUTOS SÍSMICOS 205

Mardia, K., J. Kent y J. Bibby, Análisis multivariado. Prensa Académica


(1980).
Mathieu, PG y GW Rice, "Análisis multivariado utilizado en la detección de anomalías
estratigráficas a partir de datos sísmicos"
Geofísica, 34, núm. 4 (1969): 507.
Matos, MC, PLM Osorio y PRS Johann, “Using Wavelet Transform and Self-
Organizing Maps for Seismic Reservoir Characterization of a Deep-Water Field,
Campos Basin, Offshore Brazil,” 73rd Annual International Meeting, SEG,
Expanded Abstracts (2003) , págs. 1458–1461.

Nakayama, Kazuo y Jianyong Hou, “Soft Computing para la caracterización y el


modelado de yacimientos: predicción de las propiedades de los yacimientos
mediante la simulación Monte Carlo y la red neuronal artificial en la etapa de
exploración”, Springer (2002), págs. 15–33.
Neidell, Norman S., "Modelado e interpretación estratigráficos",
Departamento de Educación de la AAPG (1979).
Pairazian, K., “Modelization 3D des reserves petroliers par l'integra tion des donnees
sismiques et geologiques: Approches quanti taives multivariable,” tesis doctoral,
Ecole Nationale Superieur de Geologie: Institut National Polytechnique de
Loraine, Nancy, Francia (diciembre de 1998) .

Taner, MT, F. Koehler y RE Sherrif, “Traza sísmica compleja


Análisis”, Geofísica, 44 (1979): 1196–1212.
Vesanto, J. y E. Alhoniemi, "Agrupación del mapa autoorganizado",
Transacciones IEEE en redes neuronales, 11, no. 3 (2000): 586–600.
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

CAPÍTULO
7
Geoestadística:
integrando
sísmica y
petrofísica
Datos

206
Machine Translated by Google

“Se podría decir,


como en El Emperador de la Luna,
Que todo está en todas partes y siempre como
aquí, Hasta cierto grado de magnitud y perfección.”
G. W. Leibniz

INTRODUCCIÓN

La industria minera es el lugar de nacimiento de la geoestadística moderna a


medida que evoluciona como una rama de las matemáticas que se puede aplicar
para abordar problemas comerciales en la exploración de recursos naturales. A
principios de la década de 1950, el primer conjunto de técnicas estadísticas
denominadas geoestadísticas se esforzó por estimar las reservas de mineral.
Las ciencias de la tierra, a través de muchos grupos de ingeniería aislados,
tomaron las riendas de estas metodologías para cuantificar la incertidumbre en
sus parámetros geocientíficos desde una perspectiva espacial y temporal.
Detallaremos temas destacados en los conjuntos de datos espaciotemporales
propicios para la aplicación de la geoestadística, y particularmente en el campo
de los datos sísmicos que se integran para construir modelos terrestres para la exploración de hidr
La industria involucra las nociones de espacio y tiempo en el procesamiento
de datos geofísicos y petrofísicos de forma nativa. La ubicación espacial de un
yacimiento es crítica en la toma de decisiones de ingeniería, mientras que
múltiples métodos estimulan nuestro interés al realizar la vigilancia a tiempo. Por
lo tanto, se adopta otra metodología analítica basada en datos con este tipo de
información.
Se basa en gran medida en técnicas que utilizan datos referenciados
espacialmente para la interpolación y simulación de atributos dentro de una
ventana de interés predefinida y se conoce como geoestadística.
Los sectores de E&P se componen de muchas actividades que se sustentan
en principios científicos y tecnológicos. Como resultado, no es inusual trabajar
con múltiples mediciones duras hechas en ubicaciones espaciales y temporales
específicas. Entonces tenemos que preguntarnos, ¿cuáles son los valores de
dichas medidas lejos de los puntos muestreados? Hemos detallado localizado

207
Machine Translated by Google

208 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

mediciones de pozos, pero los valores entre pozos se extrapolan o se interpolan


conjeturas basadas en hipótesis estadísticas. Es un lugar común desarrollar una
cuadrícula de curso regular para todas las ubicaciones no muestreadas en un
campo de petróleo y gas. Los valores pronosticados luego se utilizan para generar
gráficos de superficie y mapas de contorno para los parámetros medidos en estudio.

Los valores espaciales pronosticados para todas las mediciones fuera del
control de pozos localizado conllevan incertidumbres que deben cuantificarse para
alcanzar el rigor necesario para tomar decisiones comerciales acertadas.
Invariablemente, los marcos y metodologías basados en el análisis estocástico
formulan los procesos que determinan y cuantifican las incertidumbres.

Una técnica de predicción espacial tradicional se conoce como kriging. El


kriging ordinario genera valores previstos para los parámetros, así como cualquier
error estándar relacionado. También requerimos una especificación integral de la
dependencia espacial que sustenta el proceso espacial. Así, todos los modelos
que representan la dependencia espacial se detallan como expresiones de
distancia entre dos ubicaciones adyacentes en el campo espacial en estudio.

Una función de covarianza o semivarianza constituye estos modelos.


En resumen, seis pasos constituyen una predicción espacial:

1. Modelar la covarianza o semivarianza de la espacial


proceso.

2. Calcule una estimación empírica.


3. Determinar la forma matemática.

4. Determinar los valores de los parámetros para una versión teórica del
modelo de dependencia.

5. Resuelva el sistema kriging en un conjunto de ubicaciones espaciales


utilizando los modelos de dependencia

6. Generar valores pronosticados y errores estándar asociados.

Descripción de datos

Debemos tener en cuenta que los problemas a resolver en un yacimiento de


petróleo y gas son de naturaleza multivariada. Hay
Machine Translated by Google

GEOESTADÍSTICA 209

también el problema de las facetas multidimensionales, multivariantes y estocásticas


de cualquier dato de exploración que se considere necesario para una
caracterización robusta del yacimiento. Antes de continuar, permítanme describir
cada una de estas etiquetas aplicadas a los parámetros de perforación afectados
por las propiedades de la roca que podemos incluir en nuestros flujos de trabajo
analíticos basados en datos:

Multidimensional: Dimensiones que afectan a las variables independientes.


Por ejemplo, las vibraciones pueden ser axiales, tangenciales y laterales. Se
refiere a un espacio de entrada donde varias variables exploratorias pueden
personificar la propiedad de colinealidad donde los valores demuestran una
relación lineal exacta o aproximada. La anisotropía es inherente a algunas
propiedades de las rocas, como la permeabilidad. La anisotropía aumenta la
dimensionalidad del espacio de entrada ya que depende de la dirección.

Multivariante: Múltiples variables independientes que afectan el resultado de


una singularidad.

Multivariante: Múltiples variables dependientes que deben predecirse para


alcanzar un objetivo en una singularidad. Por lo general, estas son variables
que tienen interdependencias que pueden afectar el resultado de la
singularidad. El torque afecta las RPM, el peso afecta el torque y las RPM, y
los tres cambian la tasa de penetración (el resultado).

Estocástico: Variabilidad y comportamiento errático de las variables


independientes. Por ejemplo, el rendimiento de la broca variará según el
tiempo, la resistencia de la roca y las tasas de flujo.

Los datos deben estudiarse a través del análisis exploratorio de datos (AED)
tanto en la dimensión espacial como temporal, así como en la perspectiva
multivariante. Cualquier valor atípico debe identificarse ya que oculta la estructura.
Los pasos de EDA permiten visualizaciones vinculadas de modo que podamos
mostrar patrones ocultos, correlaciones y tendencias en los datos asociados. Estas
pantallas incluyen histogramas, matrices de correlación y nubes de variogramas.
Machine Translated by Google

210 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Interpretación
Tomamos las mediciones de datos duros de núcleos y registros de pozos
en ubicaciones discretas a lo largo de un yacimiento y, a través de
metodologías gráficas y flujos de trabajo de EDA, interpretamos visualmente
los datos numéricos. La experiencia juega un papel importante en la
interpretación de los resultados. Los primeros principios y las proposiciones
evidentes impulsan nuestra comprensión al asignar el valor a las mediciones
de los datos duros. Generamos, debido al análisis, datos blandos tanto en
un dominio espacial como temporal. Principalmente, nos estamos moviendo
más allá del conocimiento muestreado medido en ubicaciones espaciales
y temporales remotas a medida que modelamos el yacimiento en un
continuo espacial y temporal.

Estimacion
Con el modelo que refleja la variación en un continuo espacial y temporal,
podemos estimar los valores de esas propiedades del yacimiento a
diferentes escalas y ubicaciones espaciales alejadas de los datos duros
locales muestreados en todo el yacimiento. Las metodologías que soportan
esta estimación se basan en mínimos cuadrados y deben ajustarse a una
variada gama de diferentes modelos determinados por primeros principios
y conceptos de ingeniería.
El tema de la geoestadística se puede dividir en cuatro
divisiones discretas:

1. Geoestadística estacionaria lineal


2. Geoestadística no lineal 3.
Geoestadística no estacionaria
4. Simulación geoestadística

La geoestadística juega un papel esencial durante la integración de


datos geofísicos y petrofísicos para desarrollar un modelo terrestre estático
para las actividades de gestión de yacimientos. La Figura 7.1 ilustra un
conjunto de ejemplos de flujos de trabajo para lograr un modelo terrestre estático
Machine Translated by Google

GEOESTADÍSTICA 211

• Modelo estructural

• Conversión de tiempo a profundidad: kriging, deriva externa, cokriging de error, cokriging coubicado y
kriging factorial
Paso 1

• Correlaciones de eventos sísmicos y pozos •

Cuantificación de la incertidumbre: modelos de velocidad e incertidumbre en la interpretación


Paso 2

• Generación de
grillas • Modelado de propiedades
Paso 3

• Escalado y modelado dinámico • Generación


de modelo heterogéneo basado en facies y propiedades • Integración de datos
multidisciplinarios y cuantificación de incertidumbre usando cokriging coubicado
y simulación
Paso 4

Figura 7.1 Geoestadística y modelado terrestre

antes de desarrollar el modelo terrestre dinámico para comprender el movimiento


de fluidos a través del yacimiento objetivo.

LA COVARIANZA Y EL VARIOGRAMA

La técnica de medida fundamental para la relación entre dos variables aleatorias


es la covarianza. Podemos
desarrollar las funciones kriging a partir de la relación derivada de la evolución
de la varianza de la suma de dos
variables en función de la covarianza.

Cov (X, Y) = E{[X ÿ E(X)] [Y ÿ E(Y)]}

Esta es la base de todas las matemáticas detrás del kriging:

Var(X + Y) = Var(X) + Var(Y) + 2Cov(X, Y)

Cov(X, Y) = 0 si X e Y no están correlacionados

Todos entendemos como geocientíficos que la Madre Naturaleza actúa de


maneras que desafían la lógica o la apreciación plausible. Por lo tanto, nosotros
Machine Translated by Google

212 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

esforzarnos por construir modelos geológicos de nuestros yacimientos


basados en unos pocos pozos y estudios sísmicos activos, dándonos
cuenta de que estos modelos son descripciones simples de un conjunto
complejo y heterogéneo de sistemas del subsuelo. Esto parece
ortogonal a una comprensión sólida y determinista de un yacimiento de
hidrocarburos que permite a los profesionales de E&P desarrollar
estrategias y tácticas para explotar estas reservas. Los modelos
terrestres al menos reducen la complejidad inherente a los sistemas
multidimensionales y multivariantes a la estimación de unos pocos parámetros críticos
La primera suposición matemática que sustenta el enfoque
geoestadístico se representa en la Figura 7.2.
Si (x) puede considerarse un punto en un espacio unidimensional,
entonces (x, y) es un espacio bidimensional y (x, y, z) es un espacio
tridimensional. La variable geológica o sísmica Z(x) se modelará como
una función aleatoria que refleja un objeto matemático como una
variable aleatoria en todas las ubicaciones x. Luego desarrollamos un
modelo geoestadístico que toma Z(x) como la suma de una tendencia
polinomial m(x) y una función aleatoria residual R(x). La función m(x) es
invariablemente una tendencia constante, lineal o parabólica en las
coordenadas de x. Como constante, estamos viendo un modelo
estacionario de media igual a m. Y como lineal o parabólico, estamos
viendo un análisis de superficie de tendencia como se muestra en la Figura 7.3.
El análisis de superficie de tendencia es similar en su formalismo a
la regresión lineal. La intención es predecir una variable, sin importar

Variable geológica o
atributo sísmico z(x) Z(x) = R(x) + m(x)

z(x) es la realización de una


función aleatoria Z(x) que
es igual a la suma de una
tendencia m(x) y de un
residuo estacionario
aleatorio R(x) de media 0

Figura 7.2 Supuesto básico de geoestadística


Machine Translated by Google

GEOESTADÍSTICA 213

Valor en Datum
Punto = Valor de Tendencia cuadrática:
función Z(x,y) = a0 + a1x +
determinista + azy + a3xy + a4x2 + a5y2
error al azar +E

Tendencia lineal: Ajuste


Z(x,y) = a0 + a1x + azy + los coeficientes de
E la función de tendencia por
mínimos cuadrados y use
esta tendencia para
predecir Z en
ubicaciones desconocidas

Figura 7.3 Análisis de superficie de tendencia

ya sea definida en una o dos dimensiones. La metodología es de


mínimos cuadrados y calculamos los coeficientes para minimizar el
error cuadrático medio. Tenga en cuenta que esto no es una técnica de
interpolación adecuada, ya que no respeta los puntos de datos y supone
que los residuos no están correlacionados en un dominio espacial.
¿Cómo calculamos un variograma? Primero, debemos clasificar los
pares de puntos por distancias, y luego calculamos la diferencia media
cuadrática entre los pares correspondientes a cada distancia. Un
variograma describe la continuidad espacial de los datos bajo estudio.
Define la varianza de la diferencia entre los valores de los parámetros
observados medidos en el campo en dos lugares diferentes a lo largo
de las realizaciones del campo (Cressie, 1993).
La fuente secreta detrás del ajuste de un modelo para la correlación
espacio-temporal de un evento observado es el variograma. Hay dos
variogramas descritos en la literatura actual:

ÿ Variograma experimental: visualización de la posible correlación


espacio-temporal
ÿ Modelo de variograma: Definición de los pesos para el kriging
funciones

El primer variograma representa una estimación empírica de la


covarianza de un proceso gaussiano. Por lo tanto, puede que no sea lo más
Machine Translated by Google

214 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

beneficioso para kriging si no aplicamos más restricciones o procesamiento. Esta


característica de inadecuación reduce el número de modelos de variograma disponibles
que son beneficiosos. Los modelos lineal, esférico, gaussiano y exponencial son los
más comunes.

ESTUDIO DE CASO: MODELO PREDICIDO ESPACIALMENTE


DE LA PERMEABILIDAD ANISOTROPICA

¿Qué es la anisotropía?

La anisotropía es una característica de la continuidad espacial que depende de la


dirección. La implicación es que en un punto particular en el dominio del espacio
puedes medir diferentes valores físicos o mecánicos a lo largo de diferentes ejes. La
permeabilidad es una propiedad anisotrópica de las rocas. El valor depende del eje de
medición vertical u horizontal.

Este ejemplo muestra cómo examinar los datos en busca de tendencias de


superficie no aleatorias y anisotropía. Usamos datos simulados donde la variable son
valores de permeabilidad relativa medidos en unidades Darcy (DU). Los
desplazamientos desde un punto en la esquina suroeste representan las coordenadas
del embalse hacia las distancias este y norte.

en unidades de metros (m).


Primero, exploramos el conjunto de datos inspeccionando la distribución de datos
espaciales. La figura 7.4 muestra un diagrama de dispersión de los datos observados.
El diagrama de dispersión propone una dispersión uniforme de los datos medidos en
la extensión del área que se va a predecir. No existe una inferencia inequívoca que
pueda determinarse acerca de la presencia de una tendencia superficial en los datos.
Sin embargo, la aparente estratificación de los valores de permeabilidad en la dirección
noreste-suroeste podría indicar una tendencia no aleatoria.

El paso importante ahora es investigar la presencia de tendencias en la medición.


Sugeriremos cómo eliminar las tendencias superficiales de los datos y luego continuar
con la semi

análisis de variograma con los datos sin tendencia. podemos más


Machine Translated by Google

GEOESTADÍSTICA 215

Semivariograma en caso anisotrópico con ejemplo de eliminación de tendencia


El procedimiento VARIOGRAMA
Variable dependiente: Permeabilidad

Número de observaciones leídas 300


Número de observaciones utilizadas 300

Distribución espacial de las observaciones de permeabilidad


100

310

80

300

60
Norte

permeabilidad

290
40

280
20

270
0
0 20 40 60 80 100
Este

Figura 7.4 Diagrama de dispersión de observaciones de permeabilidad en ubicaciones discretas


a través del depósito

experimente con tamaños de retraso más pequeños para obtener más puntos en
nuestro semivariograma de muestra (vea la Figura 7.4).

Análisis con eliminación de tendencia de superficie

Utilizamos un procedimiento de modelado predictivo para extraer patrones de


superficie de los datos originales. Si el objetivo es una predicción espacial, podemos
continuar procesando los datos sin tendencia para las tareas de predicción y, al final,
podemos restablecer la tendencia en las ubicaciones de proyección para informar
los resultados del análisis.
En general, se desconoce la forma exacta de la tendencia y, en este caso, la
distribución espacial de las mediciones que se muestran en
Machine Translated by Google

216 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Distribución de la distancia por pares para la permeabilidad

Distancia de retraso 4,02


2500 Distancia máxima de datos en el este 99,7

Distancia máxima de datos en el norte 99.4

Distancia máxima de datos 140.79

2000

1500

1000

500

0
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
Clase de retraso

Figura 7.5 Histograma que detalla las clases de rezago y las tendencias en el
medición

La Figura 7.5 sugiere que podemos usar un modelo cuadrático para describir la
tendencia de la superficie como la siguiente:

2
T(Este, Norte) = f0 + f1 [Este] + f2 [Este]
2
+ f3 [Norte] + f4 [Norte]

El proceso de eliminación de tendencia nos deja con un conjunto de datos


que contiene los residuos de datos de permeabilidad residual. Esta vez ejecutamos
un variograma nuevamente para inspeccionar los residuos sin tendencia, y con
una solicitud solo para el gráfico de observaciones, como se muestra en la Figura 7.6.
Antes de proceder con el cálculo del semivariograma empírico y el ajuste del
modelo, examinemos la anisotropía de nuestros datos. Si hay alguna anisotropía,
se manifiesta como diferentes rangos o umbrales o ambos para los semivariogramas
empíricos en varias direcciones.
Machine Translated by Google

GEOESTADÍSTICA 217

Distribución espacial de las observaciones de ResidualPerm


100

4
80

2
Norte 60

ResidualPerm

0
40

20 –2

0 –4
0 20 40 60 80 100
Este

Figura 7.6 Diagrama de dispersión de datos de permeabilidad residual sin tendencia

Queremos detalles en nuestro análisis, por lo que establecemos la


semivarianza empírica en 12 direcciones. Los semivariogramas empíricos
se producen en incrementos del ángulo base ÿ = 180ÿ/12 = 15ÿ.
También es fundamental ser consciente del ángulo de tolerancia que
especifica un rango de ángulos determinado por el número de clases de
ángulos utilizadas en el cálculo de las medidas de continuidad. El corte
de la distancia perpendicular también es una consideración importante
para determinar el tipo de ángulo para los puntos en consideración.
Las clases de distancia explican una secuencia de áreas de forma
cilíndrica mientras que las clases de ángulo cortan radialmente estas
áreas de forma cilíndrica.
Una elección diferente de valores produce semivariogramas empíricos
diferentes porque estas opciones pueden regular el número de pares
que se incluyen en una clase. Evite asignar valores que sean demasiado
pequeños a estos parámetros para que pueda permitir una cantidad
adecuada de pares de puntos por clase. Al mismo tiempo, el
Machine Translated by Google

218 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

cuanto mayores sean los valores de estos parámetros, más pares de datos
que provienen de direcciones vecinas cercanas se incluyen en cada retraso.
Por lo tanto, los valores de estas opciones que son demasiado altos presentan
un riesgo de pérdida de información a lo largo de la dirección. El efecto
secundario ocurre porque podemos incorporar pares de datos desde un
espectro más amplio de ángulos; por lo tanto, potencialmente amplificamos
la anisotropía más débil o debilitamos la anisotropía más fuerte.
Solo mostramos los gráficos de semivariograma en el número especificado
de direcciones. Los paneles predeterminados colocan múltiples
semivariogramas empíricos: los paneles que se muestran en las Figuras 7.7,
7.8 y 7.9 sugieren que en algunas de las direcciones, como para ÿ = 0ÿ,
los gráficos direccionales tienden a exhibir una estructura algo ruidosa. Este
comportamiento

Semivariograma en caso anisotrópico con ejemplo de eliminación de tendencia


El procedimiento VARIOGRAMA
Variable dependiente: ResidualPerm

Semivariograma empírico para ResidualPerm


Ángulo = 0 Ángulo = 15

Ángulo = 30 Ángulo = 45

0 20 40 60 0 20 40 60

Distancia

Figura 7.7 Semivariogramas para ángulos variables ÿ = 0ÿ a 45ÿ


Machine Translated by Google

GEOESTADÍSTICA 219

Semivariograma empírico para ResidualPerm


Ángulo = 60 Ángulo = 75

Ángulo = 90 Ángulo = 105

0 20 40 60 0 20 40 60

Distancia

Figura 7.8 Semivariogramas para cambiar ángulos ÿ = 60ÿ a 105ÿ

Semivariograma empírico para ResidualPerm


Ángulo = 120 Ángulo = 135

Ángulo = 150 Ángulo = 165

0 20 40 60 0 20 40 60

Distancia

Figura 7.9 Semivariogramas para cambiar ángulos ÿ = 120ÿ a 165ÿ


Machine Translated by Google

220 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

puede deberse a la distribución de pares en la dirección particular. Específicamente,


en función de la elección de la distancia de retraso, es posible que no haya
suficientes pares presentes en una clase. Además, según la tolerancia del ángulo
y el ancho de banda seleccionado, es posible que se estén considerando
demasiados pares de ángulos vecinos que potencialmente sigan una estructura
modificada. Estos son factores que pueden aumentar la variabilidad en la estimación
de la semivarianza. Una explicación diferente podría residir en la existencia de
valores atípicos en el conjunto de datos. Este aspecto se puede explorar más a
fondo en un diagrama de caja de la nube de diferencia de raíz cuadrada, como se
muestra en la Figura 7.10.
La Figura 7.10 sugiere que los valores atípicos, si los hay, no parecen estar
afectando negativamente el semivariograma empírico en la dirección N-S para el
conjunto de datos petrofísicos que describen la permeabilidad.
El efecto de los valores atípicos aislados en las clases de rezago 6 y 10–12 se
demuestra como la divergencia entre las estimaciones de semivarianza empírica
clásica y robusta en las distancias más altas.
La diferencia en estas estimaciones proviene de la definición

0 1234567 8 9 10 11 12 13 14 15

Clase de retraso

Figura 7.10 Diagrama de caja de la nube de diferencias de raíces cuadradas


Machine Translated by Google

GEOESTADÍSTICA 221

del estimador sólido de semivarianza yz(h), que impone un efecto


suavizante sobre la influencia de los valores atípicos.
Este comportamiento es relativamente leve aquí y no debería
obstruir su objetivo de estudiar la anisotropía en sus datos. También
puede realizar cálculos precisos en cualquier dirección. Al hacerlo,
puede ajustar los parámetros de cálculo. También podemos obtener
estimaciones más suaves de la semivarianza muestral.
Además, en este estudio, los gráficos direccionales de las Figuras
7.7, 7.8 y 7.9 sugieren que durante el cambio de ÿ = 0ÿ a ÿ = 90ÿ, el
rango del semivariograma empírico aumenta. Más allá del ángulo ÿ =
90ÿ, el rango comienza a disminuir nuevamente hasta que todo el
círculo se recorre a 180ÿ y se encuentran valores de campo pequeños.
alrededor de la dirección N–S en ÿ = 0ÿ. El alféizar parece permanecer
sobre todo igual. Este análisis sugiere la presencia de anisotropía en
los valores de permeabilidad, con el eje mayor orientado alrededor de ÿ
= 90ÿ y el eje menor situado perpendicular al eje mayor en ÿ = 0ÿ.

El análisis multidireccional requiere que para una distancia de


retraso dada, también debemos especificar un valor de retraso máximo.
Dado que el rango de correlación de permeabilidad se desconoce lejos
de las ubicaciones de los pozos, podemos aplicar la regla general que
sugiere el uso de la distancia de datos del medio extremo en la dirección de
interés. Siguiendo la información mostrada en la Figura 7.5 para
diferentes direcciones, esta distancia varía entre 99,4/2 = 49,7 m y 140/2
= 70,4 m. A su vez, la tabla de distancias por pares de la Tabla 7.1
indica que dentro de este rango de distancias se puede especificar el
valor de desfase máximo entre 12 y 17 desfases. Definámoslo como 16.

En este punto, estamos listos para continuar ajustando los modelos


de semivariograma teórico al semivariograma empírico en las direcciones
seleccionadas de ÿ = 0ÿ a ÿ = 90ÿ. Al probar diferentes modelos, vemos
que uno exponencial es adecuado para los datos empíricos:

yz(h) = co[1– exp (–hÿao)]


Machine Translated by Google

222 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Tabla 7.1 Intervalos de distancia por pares tabulados para cada clase de retraso

Intervalos de distancia por pares

Clase de retardo Límites Número de pares Porcentaje de pares


0 0.00 2.01 52 0,12%
1 2.01 6.03 420 0.94%
2 6.03 10.06 815 1,82%

3 10.06 14.08 1143 2,55%


4 14.08 18.10 1518 3,38%

5 18.10 22.12 1680 3,75%

6 22.12 26.15 1931 4,31%


7 26.15 30.17 2135 4,76%

8 30.17 34.19 2285 5,09%

9 34.19 38.21 2408 5,37%

10 38.21 42.24 2551 5,69%


11 42.24 46.26 2444 5,45%
12 46.26 50.28 2535 5,65%

13 50.28 54.30 2487 5,55%


14 54.30 58.33 2460 5,48%

15 58.33 62.35 2391 5,33%

dieciséis 62.35 66.37 2302 5,13%


17 66.37 70.39 2285 5,09%

18 70.39 74.41 2079 4,64%

19 74.41 78.44 1786 3,98%

20 78.44 82.46 1640 3,66%


21 82.46 86.48 1493 3,33%
22 86.48 90.50 1243 2,77%

23 90.50 94.53 925 2,06%


24 94.53 98.55 710 1,58%

25 98.55 102.57 421 0.94%

26 102.57 106.59 274 0,61%


27 106.59 110.62 200 0,45%

28 110.62 114.64 120 0,27%

29 114.64 118.66 55 0,12%


Machine Translated by Google

GEOESTADÍSTICA 223

Tabla 7.1 (Continuación)

Intervalos de distancia por pares

Clase de retraso Límites Número de pares Porcentaje de pares


30 118.66 122.68 35 0,08%

31 122.68 126.71 14 0,03%

32 126.71 130.73 11 0,02%

33 130.73 134.75 2 0,00%

34 134.75 138.77 0 0,00%

35 138.77 142.80 0 0,00%

A los efectos del presente ejemplo, es razonable


suponga un efecto de pepita constante igual a cero, basado en el
semivariogramas empíricos que se muestran en las figuras 7.7, 7.8 y 7.9.
El mismo resultado sugiere que es probable que la escala del modelo sea
por encima de 2 y que el rango puede ser relativamente pequeño en ÿ = 0ÿ.
Luego establecemos valores iniciales para los parámetros del modelo exponencial
y dar cuenta de estas consideraciones.

Asignamos un valor inicial de cero al efecto pepita. Después


solicitamos una búsqueda en cuadrícula para los parámetros de rango y escala para que
que se selecciona el conjunto óptimo de valores iniciales para el parámetro
estimación en cada uno de los dos ángulos ÿ = 0ÿ y ÿ = 90ÿ. Por
inspeccionando los semivariogramas empíricos en las Figuras 7.7, 7.8 y
7.9, especificamos la lista de valores 2, 2.5 y 3 para la escala y el
valores de 5 a 25 con un paso de 10 para el rango. también establecemos
el parámetro del efecto pepita como una constante.
Los semivariogramas ajustados y empíricos para los valores seleccionados
las direcciones se muestran en la Figura 7.11.
En conclusión, el análisis de semivariograma en el modelo sin tendencia
Los datos de permeabilidad sugieren que la permeabilidad SRF exhibe
anisotropía en las direcciones perpendiculares de N–S (ÿ = 0ÿ) y
E–O (ÿ = 90ÿ).
Los umbrales en las dos direcciones de anisotropía son similares
en tamaño. Inspeccionando de nuevo los semivariogramas empíricos
en las Figuras 7.7, 7.8 y 7.9, podríamos hacer lo razonable
Machine Translated by Google

224 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Semivariograma en caso anisotrópico con ejemplo de eliminación de tendencia


El procedimiento VARIOGRAMA
Variable dependiente: ResidualPerm

Semivariograma ajustado WLS para ResidualPerm


Ángulo = 0 Ángulo = 90

Empírico Empírico
Exp Exp
0

0 20 40 60 0 20 40 60

Distancia

Figura 7.11 Semivariogramas para ángulos ÿ = 0ÿ y ÿ = 90ÿ

suposición de que tenemos un caso de anisotropía geométrica, donde


el rango en el eje mayor es aproximadamente 4,5 veces mayor que el
rango del eje menor. Si quisiéramos usar estos resultados para
predicciones, entonces necesitaríamos especificar un valor de escala
único para el alféizar de anisotropía geométrica. En este caso,
podríamos elegir un valor arbitrario para la escala continua utilizando el
intervalo estrecho de las escalas estimadas en los resultados anteriores.
Como alternativa, podemos ajustar un modelo exponencial a todos los
diferentes ángulos examinados en este ejemplo y luego seleccionar el
valor de escala constante para que sea la media de las escalas en todas las direccion

KRIGADO Y CO-KRIGADO

Kriging es una técnica determinista. Por "determinista" quiero decir que


genera una sola solución. Aunque el modelo es probabilístico, kriging
produce solo una solución. Como hemos ilustrado en el estudio de caso
de propiedades petrofísicas, la permeabilidad se considera como una
variable Z(x) tal que se interpreta como la suma de una tendencia
polinomial, m(x), más un residuo, R(x), de la media cero.
El kriging universal (Matheron, 1970) aborda el problema de
Machine Translated by Google

GEOESTADÍSTICA 225

interpolando una variable por algunos puntos de datos dispersos. En nuestro


estudio de caso, esta es una interpolación de la capacidad de permeabilidad
promediada por capas a partir de datos de pozos, pero también podría ser fácilmente la
interpolación de otras propiedades petrofísicas como la porosidad
muestreados en ubicaciones discretas de espacio y tiempo a través del yacimiento.
kriging universal es una versión de kriging tomada en el contexto
del modelo en el que Z(x) es la suma de una tendencia polinomial y
un residuo de media cero, R(x). A lo que nos referimos en este caso es
la estimación del valor desconocido, z(xo), en una ubicación xo en un
perspectiva unidimensional, bidimensional o tridimensional. Usamos medidas
valores, z(xi) obtenidos en N número de puntos de datos dispersos;
(xi).z(xo) se estima mediante un promedio ponderado de los
valores z(xi).
Aparentemente, el algoritmo kriging explica el variograma
y el modelo de tendencia. Cualquier cambio en cualquiera de los sistemas impacta el
pesos kriging.
Continuemos con el estudio de caso de permeabilidad implementando el
sistema kriging en los datos. El algoritmo de kriging
primero utiliza el modelo Gaussian-Gaussian. La tabla 7.2 muestra la

valores de parámetros guardados del modelo gaussiano-gaussiano ajustado.

Tabla 7.2 Valores de los parámetros para el modelo gaussiano-gaussiano ajustado

Variable dependiente del procedimiento KRIGE2D: Predicción de permeabilidad:


Pred1, Modelo: SelModel

Información del modelo de covarianza para SelModel

Tipo de estructura anidada 1 gaussiano

Estructura anidada 1 alféizar 1019.3527

Estructura anidada 1 rango 369.81059

Estructura anidada 1 rango efectivo 640.53072

Estructura anidada 2 Tipo maternal

Estructura anidada 2 alféizar 1003.9332

Rango de estructura anidada 2 190.86061

Estructura anidada 2 Suavidad 107.59906

Efecto Pepita 2.4574104


Machine Translated by Google

226 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

El algoritmo utiliza estos parámetros para la predicción basada en el


modelo seleccionado.
La Figura 7.12 ilustra el semivariograma del modelo Gaussiano
Gaussiano. Los parámetros se muestran en la Tabla 7.2 que alimentan
el modelo.
La Figura 7.13 es un mapa de la predicción kriging de los valores
de permeabilidad en el yacimiento estudiado. La superficie de error de
predicción muestra un error que aumenta naturalmente a medida que se
aleja de las ubicaciones de observación. Curiosamente, el kriging predice
un área con mayores valores de permeabilidad ubicada en la parte
noreste del dominio. Pero la tendencia es suave.
A continuación, implementamos el algoritmo kriging para realizar
predicciones con el modelo exponencial. Los parámetros del modelo se
muestran en la Tabla 7.3.
La Figura 7.14 ilustra el semivariograma del modelo exponencial
anidado donde los valores de sus parámetros son los que se muestran
en la Tabla 7.3.

Semivariograma para permeabilidad basado en SelModel

2000

1500

1000

500

0 Gau Mat

0 200 400 600 800 1000


Distancia

Figura 7.12 Semivariograma para permeabilidad basado en el seleccionado


Modelo gaussiano-gaussiano
Machine Translated by Google

GEOESTADÍSTICA 227

Contornos de predicción de permeabilidad basados en SelModel


Con errores estándar
100
310
300 305
1.75
295
80
290

Norte
60 285 1.70

estándar
Error

280
40
1.65
275

20

1.60

0
0 20 40 60 80 100
Este

Figura 7.13 Predicción de Kriging para valores de permeabilidad a través del yacimiento usando

modelo seleccionado

Tabla 7.3 Valores de los parámetros para el modelo exponencial ajustado

Variable dependiente del procedimiento KRIGE2D: Predicción de permeabilidad:


Pred1, Modelo: ExpModel

Información del modelo de covarianza para ExpModel

Escribe Exponencial
Umbral 26839222

Rango 12863919

Alcance efectivo 38591757

Efecto Pepita 0

La gráfica de predicción para el modelo exponencial se presenta


en la Figura 7.15. Los valores de predicción y los patrones espaciales
no son muy diferentes en general a los del caso gaussiano-gaussiano con
valores de permeabilidad en torno a 280 en la zona suroeste del
embalse. Aparentemente, aunque ambos modelos predicen las mismas
características esenciales de la distribución de permeabilidad,
Machine Translated by Google

228 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Semivariograma para permeabilidad basado en ExpModel

25000000

20000000

15000000
Semivarianza

10000000

5000000

0 Exp

0 10000000 20000000 30000000 40000000 50000000


Distancia

Figura 7.14 Semivariograma de permeabilidad basado en el modelo exponencial

Contornos de predicción de permeabilidad basados en ExpModel


Con errores estándar
100
310
5
300
80

290 4

Norte 60

280 estándar
Error

280 3
40

2
20

1
0
0 20 40 60 80 100
Este

Figura 7.15 Predicción de Kriging para valores de permeabilidad a través del yacimiento utilizando

un modelo exponencial
Machine Translated by Google

GEOESTADÍSTICA 229

el modelo exponencial sugiere una variabilidad espacial más limitada en


ubicaciones adyacentes a medida que los contornos se vuelven menos
uniformes. La falta de un efecto pepita en el modelo exponencial justifica
este comportamiento. Además, las predicciones del modelo exponencial
parecen menos inclinadas a desviarse más de la media cercana a cero
que las predicciones del modelo gaussiano-gaussiano. El error de
predicción alcanza valores superiores más altos en el modelo exponencial,
aunque sus valores bajos son ligeramente menores en el modelo exponencial.

INVERSIÓN GEESTÁSTICA

El petrofísico y el geofísico pueden unir sus ideas y extrapolar los


parámetros del cable en cada ubicación del pozo, implementando los
datos sísmicos 3D, invariablemente los datos migrados posteriores a la
acumulación, como una hoja de ruta para obtener valores creíbles de las
propiedades del yacimiento en todo el campo bajo exploración.
Geostatistical Inversion ofrece un contexto cuantitativo sin restricciones
para esta metodología de extrapolación. La técnica de inversión
geoestadística realiza una extrapolación de las variables petrofísicas
mediante técnicas de simulación estocástica (Haas y Dubrule, 1994) o
métodos de Monte Carlo. Los geocientíficos a menudo recogen la idea
de que Monte Carlo está relacionado con el teorema de Bayes. Y la
metodología Markov Chain Monte Carlo (MCMC) (Geyer, 1992) es un
flujo de trabajo general para estimar distribuciones de muestras e
integrales y promedios relevantes de las propiedades petrofísicas en todo
el yacimiento.
El algoritmo implementado para un flujo de trabajo de inversión
geoestadística utiliza invariablemente un enfoque de recocido simulado
iterativo. Este método nos permite identificar un mínimo local de la función
de desajuste de los datos del estudio. Gráficas tales como histogramas y
variogramas espaciales brindan una apreciación visual y determinista de
la uniformidad lateral de los valores de las propiedades petrofísicas
resultantes entre los pozos existentes.
Machine Translated by Google

230 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Atributo geofísico: impedancia acústica

La metodología analítica se basa en la premisa de que la impedancia acústica


está correlacionada con la variable petrofísica de interés.
Expresamos esta relación estadística como una función de distribución de
probabilidad conjunta (PDF) que se forma a partir de histogramas de las
observaciones del conjunto de datos en estudio. La extrapolación se lleva a cabo
con un intervalo de muestreo vertical que es consistente con la PDF conjunta. El
intervalo de muestreo elegido invariablemente cae entre el registro del pozo y la
resolución vertical de los datos sísmicos.
Cada punto de control en nuestra ventana espaciotemporal del estudio tenía
una medida tanto de la impedancia acústica como de una versión PDF local de
este atributo geofísico.
Al comienzo del algoritmo, la PDF en un punto de control dado se estima a
partir de mediciones globales de impedancia acústica. El primer objetivo es
determinar una PDF local en el punto donde se va a simular un valor de
impedancia acústica.
Este PDF local se determina a partir de los PDF asociados con el

puntos de control disponibles mediante una técnica estándar de kriging.


Una vez estimada la PDF local, podemos usar la PDF acumulativa asociada,
o CDF, para crear una evaluación aleatoria de la impedancia acústica,
implementando una técnica de Monte Carlo.
En general, la solución al problema inverso no es única. Los datos sísmicos
y los datos de cable son respetados por distribuciones múltiples de las mediciones
de impedancia acústica. Todas las ejecuciones de inversión geoestadística
proporcionan una aproximación autónoma de la medición de la impedancia
acústica.

Propiedades Petrofísicas: Densidad y Litología

El poder y la flexibilidad de la inversión geoestadística se aprecian principalmente


cuando los parámetros petrofísicos se correlacionan directa o indirectamente con
la impedancia acústica. Una función de densidad probabilística conjunta describe
dichas correlaciones. Desde el punto de vista de la inversión geoestadística, es
deseable hacer cumplir una
Machine Translated by Google

GEOESTADÍSTICA 231

relación entre la impedancia acústica y las propiedades petrofísicas. La


correlación puede restringir las simulaciones petrofísicas entre pozos
existentes para respetar los datos sísmicos apilados.

Estimamos las PDF de litología a partir de registros de litología. Después


de calcular las PDF de densidad para cada tipo de litología, un flujo de trabajo
de variograma analizó todos los datos de cable y los datos de impedancia
acústica generados a partir de las trazas invertidas. Finalmente, las
ejecuciones de simulación identificaron paquetes de arena individuales
después de que se completaron las inversiones geoestadísticas con una
resolución vertical de 2 milisegundos.
El yacimiento de nuestro estudio estaba poblado por numerosos pozos
ubicados estratégicamente, y este proceso permitió que la metodología de
inversión geoestadística estimara un modelo terrestre preciso.

SÍNTESIS DEL CONOCIMIENTO: MÁXIMO BAYESIANO


ENTROPÍA (BME)

Hagamos referencia a un marco geoestadístico (Christakos et al., 2005)


titulado "Síntesis del conocimiento" como se muestra en la Figura 7.16.
Kolovos et al. adoptó la Síntesis del Conocimiento como un marco
práctico para la predicción espacio-temporal. Implementa principios físicos
en el contexto de un análisis de datos desde una perspectiva continua de
espacio-tiempo. Es fundamental expresar con rigor todas las distancias
espaciotemporales en un continuo tridimensional de dos dimensiones
espaciales y temporales, respetando todas las condiciones de estudio
significativas y la geometría apropiada. En el caso de un yacimiento, el
geofísico y el petrofísico deben describir las variables de espacio y tiempo
aplicables a cada geociencia en el contexto de la geometría estructural y
estratigráfica del subsuelo en todo el campo. La Fundación Teórica abarca
las metodologías lógicas clave de la predicción del espacio-tiempo. Otros
flujos de trabajo críticos incluyen la relajación de todos los supuestos de
modelado restrictivos para determinar un conjunto de principios abstractos.
La apertura inherente al marco
Machine Translated by Google

232 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Teórico
Base

Resumen
Iterativo
Principio

Conocimiento
Síntesis

Didáctico Franqueza

Precisión

Figura 7.16 Base de la síntesis del conocimiento

integra múltiples fuentes de conocimiento a través de diferentes


escalas en el dominio del espacio-tiempo. Un paso importante es
asegurar el rigor y la precisión matemática en las relaciones
funcionales para todas las variables dependientes e independientes
significativas. Es imperativo generar errores de predicción cada vez
menores a lo largo del continuo espacio-tiempo. El aspecto didáctico
aumenta el alcance de las posibles soluciones al aprovechar las
distribuciones como un resultado, en lugar de valores predichos
únicos. Finalmente, la faceta iterativa del marco de Síntesis del
Conocimiento deriva metodologías existentes como sus casos dentro de un marc
Una de las técnicas más comunes en el marco de la síntesis del
conocimiento es la entropía máxima bayesiana (BME).
La metodología BME incluye los métodos geoestadísticos
tradicionales como casos individuales y amplía sus características y
funcionalidad de una manera que libera el análisis de suposiciones
restrictivas y permite integrar información en más formas que
valores de datos muestreados.
Machine Translated by Google

GEOESTADÍSTICA 233

El marco sugerido fomenta metodologías libres para permitir un modelo


físico más realista. La gaussianidad en la distribución de muchos parámetros
petrofísicos es una suposición que puede conducir a un sesgo significativo
en el estudio analítico. Algo que está lejos de la realidad de la Madre
Naturaleza.
La caracterización de un yacimiento de hidrocarburos desde una
perspectiva geoestadística implica invariablemente la adopción de métodos kriging.
Kriging abarca varias técnicas que incorporan datos muestreados y utiliza
las ubicaciones espaciales de las mediciones para determinar una correlación
basada en la distancia entre los valores observados de un atributo. Una
función de covarianza teórica aproxima la correlación empírica. La covarianza
ajustada define nuestro conocimiento actual del campo de petróleo y gas y
se emplea para predecir atributos en ubicaciones no muestreadas entre los
pozos extraídos y registrados. Las variantes de kriging, como kriging simple,
ordinario, universal e indicador, por nombrar solo algunas, se han utilizado
ampliamente en la industria del petróleo y el gas. Las referencias relevantes
para kriging incluyen Journel y Huijbregts (1978), Christakos (1992), Cressie
(1993), Olea (1999) y Chilès y Delfiner (1999). Paralelamente, las
herramientas de software que facilitan el análisis espacial basado en kriging
están disponibles como paquetes independientes como GSLIB (Deutsch y
Journel, 1992).

Esencialmente, el kriging es más preciso que las técnicas de análisis


espacial analíticamente básicas, como los polígonos de Thiessen y la
interpolación de distancia inversa (Tabios y Salas, 1985), así como las
tecnologías de detección remota (Lee et al., 2012). Sin embargo, cuando se
relaciona con el análisis geoestadístico, el kriging considera la covarianza
espacial, los modelos de variograma y los valores de atributos observados.
Al aceptar únicamente valores únicos observados como datos de entrada,
se ignoran otras formas de bases de conocimientos que podrían estar
disponibles para ayudar y mejorar la predicción, como las leyes aplicables o
los modelos conceptuales. Además, es posible que los datos observados no
siempre incluyan mediciones precisas. Kriging ha tenido resultados
imperfectos en la integración de datos inciertos de una manera precisa y
eficaz, por ejemplo, Savelyeva (2010) cuyo enfoque sobre
Machine Translated by Google

234 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

kriging con errores de medición requiere expectativas sobre los errores


de medición en consideración. Tales límites
afectar la precisión de la predicción basada en kriging y su capacidad
para extrapolar (Christakos y Serre, 2000).
Bayesian Maximum Entropy (Christakos, 1990, 2000) postuló una
nueva metodología para abordar estas deficiencias fundamentales de
los métodos clásicos como kriging. Adoptó un marco epistémico más
amplio para el análisis y mapeo geoestadístico. BME cuenta con el
marco teórico de Síntesis de Conocimiento (KS). KS es un método
centrado en el conocimiento que integra diferentes fuentes de diversos
contenidos de información basados en un soporte académico más
general pero riguroso para mejorar la precisión de la predicción
(Christakos 2000, 2010).
Por ejemplo, la evaluación del rendimiento de petróleo en un sitio de
perforación supone la recopilación de datos de pozo para muestrear,
por ejemplo, el rendimiento mensual. La precisión de este análisis se
puede mejorar tentativamente al incluir información útil adicional sobre
el tipo de suelo, la composición y las características en algún lugar, ya
que estos factores podrían influir en el rendimiento. BME proporciona
la base para integrar dichas bases de conocimiento, ya sea como
datos observados adicionales o en formas de conocimiento universal,
como leyes físicas, primeros principios y modelos empíricos (Kolovos
et al. 2012). Esta es una característica atractiva en los entornos
analíticos basados en datos contemporáneos porque BME sirve como
un habilitador para generar e integrar datos de bases de conocimiento
universales que de otro modo podrían quedar sin usar (Kolovos et al.
2002). La Figura 7.17 detalla los flujos de trabajo que implementan
BME en una plataforma Knowledge Synthesis. A diferencia del
conocimiento general, los datos duros observados (observaciones
individuales que se considera que tienen valores exactos en el contexto
de un estudio) y los datos blandos (observaciones con incertidumbres
medidas no triviales) se consideran conocimiento específico del caso
en el marco de BME. BME también está libre de limitaciones y restricciones adiciona
otros métodos geoestadísticos; por ejemplo, el análisis BME es
Machine Translated by Google

GEOESTADÍSTICA 235

Fase anterior
Datos duros

Análisis estadístico

Primeros principios datos blandos


Auxiliar
Conocimiento
Interpretación de Geociencias

Reglas lógicas
Específico
Conocimiento
Universal
Conocimiento Metafase

Entropía máxima PDF anterior

Condicionamiento Bayesiano

Fase Posterior

PDF posterior

Figura 7.17 Síntesis de conocimiento implementando la metodología de máxima


entropía bayesiana

independiente de la distribución de datos. Como tal, por ejemplo, puede


dar cuenta de distribuciones de datos no gaussianas, mientras que
kriging no puede manejar con precisión datos de colas pesadas
(Christakos et al. 2001).
La MetaPhase se refiere a datos observados y datos relevantes.

flujos de trabajo necesarios para transformar los datos. Todos los pasos
de control de calidad de datos (QC) se implementan en MetaPhase.
Los geofísicos y petrofísicos pueden evaluar, identificar y discriminar
todos los datos espaciales y temporales en segmentos duros y blandos.
Los datos blandos se generan a través de un conjunto de flujos de
trabajo de interpretación tradicionales, invariablemente basados en
principios básicos y conceptos de ingeniería.
La Fase Posterior actualiza la Densidad de Probabilidad anterior
Función (PDF) con el conocimiento específico del caso disponible.
Machine Translated by Google

236 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

La metodología BME vincula la teoría de la máxima entropía con la estadística


bayesiana operativa para fortalecer sus fundamentos matemáticos para el análisis
espaciotemporal (Christakos, 1990).
La teoría de la máxima entropía permite la capacidad de gestionar bases de
conocimiento de múltiples fuentes desde una perspectiva general y específica del
caso. BME también crea un apuntalamiento para integrar todas las bases de
conocimiento. La maximización de la entrada de datos ayuda a fusionar el
conocimiento a priori. Podemos especificar un conjunto de reglas lógicas para filtrar,
integrar y optimizar una descripción de las características generales de los atributos.
Además, la regla de Bayes mantiene el conocimiento previo al conectar el conjunto
de datos duros y blandos existentes específicos del caso para generar un modelo
que refleje una verdad fundamental.

El valor central de BME para la exploración de petróleo y gas está en sus


características prestadas de la estadística (regla de Bayes) y la teoría de la
información (maximización de la información a través de la máxima entropía). A
diferencia del paradigma estadístico clásico basado en datos que se basa
únicamente en mediciones observadas, BME amplía sus características analíticas
y su flexibilidad al permitir la integración de una gama mucho más amplia de tipos
de conocimiento y al adoptar contenido informativo en datos inciertos. Estas
características

hacer que el análisis geoestadístico basado en BME sea muy beneficioso.


La discusión anterior sobre BME se presenta en detalle adicional en He y
Kolovos (2017). De interés, He y Kolovos clasifican BME como parte de la familia
más grande de métodos de modelado jerárquico bayesiano (BHM), conocidos como
enfoques de análisis basados en modelos que también pueden manejar varios tipos
de entrada cierta e incierta. En consecuencia, BHM se ha aplicado en muchas
disciplinas y ofrece la base para el análisis tanto espacial como espacio-temporal
(p. ej., Banerjee et al., 2004; Le y Zidek, 2006). Comparado con otros métodos
BHM, BME es un método no paramétrico que utiliza la regla bayesiana
operativamente. La ventaja de BME radica en utilizar la máxima entropía como
principio de condicionalidad, y esto permite a BME evitar suposiciones distributivas.
Machine Translated by Google

GEOESTADÍSTICA 237

REFERENCIAS

Anselin, L., "El diagrama de dispersión de Moran como herramienta ESDA para
evaluar la inestabilidad local en la asociación espacial". En: Fischer, M., H.
Scholten y D. Unwin (eds.), Spatial Analytical Perspectives on GIS, Taylor &
Francis, Londres (1996), págs. 111–125.
Banerjee, S., BP Carlin y AE Gelfand, Modelado y análisis jerárquico para datos
espaciales, Chapman & Hall/CRC, Boca Raton (2004).

Chilès, JP y P. Delfiner, Geoestadística-Modelado de la incertidumbre espacial,


John Wiley & Sons, Nueva York (1999).
Christakos, G. "Una visión bayesiana/de máxima entropía del problema de estimación
espacial", Matemáticas. Geol., 22 (1990): 763–777.
Christakos, G. Random Field Models in Earth Sciences, Academic Press, Nueva
York (1992).
Christakos, G., Geoestadística espaciotemporal moderna, Universidad de Oxford
Prensa, Nueva York (2000).
Christakos, G., Resolución integral de problemas en una época de decadencia,
Springer, Nueva York (2010).
Christakos, G y ML Serre, “BME Analysis of Spatiotemporal Par
ticulate Matter Distributions in North Carolina”, Atmos. Environ., 34 (2000): 3393–
3406.
Christakos, G., ML Serre y JL Kovitz, “BME Representation of Particulate Matter
Distributions in the State of California on
la base de mediciones inciertas”, J. Geophys. Res. Atmos., 106 (2001): 9717–
9731.
Christakos, G., RA Olea, ML Serre, LL Wang y HL Yu, Razonamiento interdisciplinario
de salud pública y modelado de epidemias: el caso de la peste negra, Springer,
Berlín (2005).
Cliff, AD y JK Ord, Procesos espaciales: modelos y aplicaciones, Pion
Ltd., Londres (1981).
Cressie, N., "Ajuste de modelos de variograma por mínimos cuadrados ponderados",
Geología Matemática, 17, núm. 5 (1985): 563–570.
Cressie, N. y DM Hawkins, "Estimación robusta del variograma: I", Geología
matemática, 12, no. 2 (1980): 115–125.
Cressie, NAC, Estadísticas para datos espaciales, John Wiley & Sons, Nueva York
(1993).
Machine Translated by Google

238 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Deutsch, CV y AG Journel, GSLIB: Biblioteca de software geoestadístico


y Guía del usuario, Oxford University Press, Nueva York (1992).
Fergal, P. Casey, Joshua J. Waterfall, Ryan N. Gutenkunst, Christo pher
R. Myers y James P. Sethna, “Método variacional para estimar la
tasa de convergencia de los algoritmos de Monte Carlo de la cadena
de Markov”. Revisión física E 78, 046704, 20 de octubre (2008).
Geyer, CJ, "Sobre la convergencia de los cálculos de máxima verosimilitud
de Monte Carlo", Informe técnico 571, Escuela de Estadística, Univ.
Minesota (1992).
Grijalba-Cuenca, A., C. Torres-Verdín y H. Debeye, “Geostatistical
Inversion of 3D Seismic Data to Extrapolate Wireline Petrophis ical
Variables Laterally Away from the Well,” SPE 63283, artículo
presentado en la Conferencia Técnica Internacional Anual de la SPE ,
Dallas (1 al 4 de octubre de 2000).
Haas, A. y O. Dubrule, "Inversión geoestadística: un método secuencial
de modelado estocástico de yacimientos limitado por datos sísmicos",
First Break, 12, no. 11 (1994): 561–569.
He, Junyu y Alexander Kolovos, “Enfoque de máxima entropía bayesiana
y sus aplicaciones: una revisión”, Stoch. Reinar. Res. Evaluación de
riesgos. DOI: 10.1007/s00477-017-1419-7, Springer-Verlag Berlín,
Heidelberg (2017).
Journel, A. y C. Huijbregts, Mining Geostatistics, Academic Press, Lon
Don (1978).
Kolovos, A, G. Christakos, ML Serre y CT Miller, "Solución BME
computacional de una ecuación estocástica de advección-reacción a
la luz de la información específica del sitio", Water Resour. Res., 38,
n. 12 (2002): 1318–1334.
Le, ND y JV Zidek, Análisis estadístico del espacio/ tiempo ambiental
Procesos. Springer, Berlín (2006).
Lee, S.-J., ML Serre, A. van Donkelaar, RV Martin, RT Burnett y M. Jerrett,
“Comparación de interpolación geoestadística y técnicas de detección
remota para estimar la exposición a largo plazo a concentraciones
ambientales de PM2.5 en los Estados Unidos continentales”,
Reinar. Health Perspect., 120, no.12 (2012): 1727–1732.
Matheron, G., “La teoría de las variables regionalizadas y sus
aplicaciones”, Centre de Geostatistique de l'Ecole des Mines de Paris,
Les Cahiers du Centre de Morphologie Mathematiques, Fasc. 5, 1970.
Machine Translated by Google

GEOESTADÍSTICA 239

Olea, RA, Geoestadística, Publicación Académica Kluwer, Boston (1999).


Savelyeva, E, S. Utkin, S. Kazakov y V. Demyanov, "Modelado de
incertidumbre espacial para datos localmente inciertos", Geoenv. VII Geostato.
Reinar. Appl, 16 (2010): 295–306.
Tabios, GQ y JD Salas, "Un análisis comparativo de técnicas para la
interpolación espacial de la precipitación", JAWRA J. Am. Recurso de
agua. Asoc., 21 (1985): 365–380.
Yu, HL, A. Kolovos, G. Christakos, JC Chen, S. Warmerdam y B. Dev,
"Modelado espaciotemporal interactivo de los sistemas de salud: el
marco SEKS-GUI", Investigación ambiental estocástica y evaluación
de riesgos, 21 (2007) : 555–572.
Yu, H.-L., S.-J. Ku y A. Kolovos, “Advanced Space-Time Predictive Analysis
with STAR-BME”, Actas de la 20.ª Conferencia Internacional sobre
Avances en Sistemas de Información Geográfica, ACM (2012), págs.
593–596.
Yu, HL, SC Ku y A. Kolovos, "Una herramienta GIS para el modelado
espaciotemporal bajo un marco de síntesis de conocimiento",
Investigación ambiental estocástica y evaluación de riesgos, 30 (2016): 665–679.
Zagouras A., A. Kolovos y CFM Coimbra, “Marco de objetivos para la
distribución óptima de redes de monitoreo de radiación solar”
Energía renovable, 80 (2015): 153–165. DOI: http://dx.doi.org/10 .1016/
j.renene.2015.01.046.
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

CAPÍTULO 8

Artificial
Inteligencia:
Máquina y
Aprendizaje profundo

240
Machine Translated by Google

“El lenguaje de la probabilidad nos permite hablar cuantitativamente


sobre alguna situación que puede ser muy variable, pero que tiene
un comportamiento promedio consistente.
Nuestra descripción más precisa de la naturaleza debe ser en términos
de probabilidades”.

ricardo feynman

INTRODUCCIÓN

La inteligencia artificial (IA) ha capturado la imaginación de una audiencia


global. Nos ha obsesionado la idea de simular la inteligencia humana y ver
cómo las máquinas emulan nuestras actividades cotidianas. Hollywood,
por supuesto, ha pintado una representación de celuloide multicolor en la
gran pantalla. Entonces, ¿cuál es la realidad? Aceptamos que la IA se ha
integrado en sistemas expertos, soluciones de reconocimiento de voz y
rostro y automatización de procesos robóticos. John McCarthy, quien nos
presentó el concepto en 1956, lo acuñó como un término general para
reflejar la amplia gama de robótica que podría implementarse para
automatizar nuestras vidas. Hoy, somos testigos de una rápida adopción y
proliferación de IA y aprendizaje automático (ML) en todas las verticales
comerciales.
¿Por qué? La respuesta es el gran volumen de datos. La explosión de
volúmenes, variedades y velocidades de datos en grupos de ingeniería
hasta ahora aislados dentro de E&P ha abierto las puertas a ML, una versión de AI.
En la industria del petróleo y el gas (O&G), buscamos patrones en big data,
tanto espaciales como temporales, así como estructurados y no
estructurados. Y ML enseña a las computadoras cómo aprender sin la
carga de la programación abierta. Allana el camino para resolver problemas
comerciales críticos de exploración y producción (E&P) a través del análisis
de datos. Las metodologías basadas en datos, a menudo ignoradas por los
estadísticos, son el núcleo de ML. Algunas de estas técnicas de computación
suave incluyen el reconocimiento de patrones,

241
Machine Translated by Google

242 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

causalidad, no linealidad, agrupamiento o segmentación y paralelización.


Más allá de las estadísticas simples, seguimos la curva de ML para madurar
problemas algorítmicos con eficacia computacional que optimizan la
ingeniería de datos y abordan, en última instancia, los problemas comerciales.

A menudo se dice que las cifras no mienten, pero los mentirosos sí.
Cuando se trata de encontrar patrones en los datos, las cifras no tienen que
mentir para sugerir cosas que no son ciertas. Dependemos tan profundamente
de los patrones en nuestras rutinas diarias que tendemos a verlos incluso
cuando no existen. Cuando observamos el cielo nocturno, no vemos una
disposición aleatoria de estrellas, sino la Osa Mayor o la Cruz del Sur. La
aceptación generalizada de las teorías de la conspiración es una prueba
más de que el deseo y la necesidad humana de
encontrar patrones.
El desafío es decidir qué patrones son útiles. Describamos la minería
de datos (DM) como un proceso técnico, que pasa de identificar problemas
comerciales a traducir problemas comerciales en problemas DM.

La extracción de datos para transformarlos en información/conocimiento


abarca varios temas, como la prueba de hipótesis, la construcción de
modelos y el descubrimiento de patrones. DM es una forma de aprender del
pasado para tomar mejores decisiones en el futuro.
Evitar:

fi Aprender cosas que no son ciertas fi


Aprender cosas que son verdaderas pero no útiles

La inteligencia artificial (IA) agrega inteligencia a la automatización en


todas las industrias. El negocio vertical de petróleo y gas ha sido testigo de
procesos y metodologías automatizados durante la última década a medida
que la evolución del campo petrolífero digital del futuro (DOFF) ha ganado
terreno en E&P. Pero la automatización no es inteligente.
Hasta que las técnicas de cómputo suave de IA no eduquen las
implementaciones de los DOFF, los geocientíficos no podrán afirmar que
sus soluciones tienen inteligencia. El cerebro ha sido entrenado para pensar con su mente.
La IA constituye un cambio de paradigma. Pasamos de flujos de trabajo
manuales a flujos de trabajo automatizados, y ahora la IA proporciona
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 243

Múltiples posibilidades en E&P para abordar sistemas automatizados complejos. Los


grupos tradicionales de ingeniería de E&P están compartimentados y, aunque los límites
se derrumban gradualmente, la adopción de la IA acelera una ética de trabajo
interdisciplinaria más eficiente. La IA encapsula un enfoque multifacético para obtener
valor empresarial a partir de datos sin procesar en E&P. Los científicos de datos que
juegan en el campo de la IA pueden provenir de diversos orígenes, como el procesamiento
de señales, las estadísticas, las matemáticas, la física y la neurociencia.

GESTIÓN DE DATOS

La gestión de datos es fundamental para ofrecer un conjunto de datos sólido y de calidad


controlada para el análisis basado en datos. Las técnicas de ML son ideales para analizar
conjuntos de datos masivos, y los mismos flujos de trabajo se están implementando poco
a poco en un conjunto de metodologías de calidad de datos en múltiples industrias, como
el desarrollo de fármacos y una variedad de verticales de ingeniería. Mantener la
confiabilidad de los datos en una industria aislada como O&G es una tarea que requiere
muchos recursos y una tarea casi imposible de resolver, sin importar cuán buenas sean
las intenciones. Tendemos a no abordar los problemas de datos hasta que un compromiso
operativo arroje luz sobre la mala calidad de los datos bajo interpretación. La adopción de
big data solo manifiesta los problemas como más críticos e invasivos. El aprendizaje
automático ofrece una forma alternativa de rectificar los problemas de calidad de los datos.
Analicemos tres aspectos de un sistema de gestión de datos en los que el aprendizaje
automático puede desempeñar un papel útil:

1. Cuantificación de la calidad de los

datos 2. Precisión de coincidencia de datos


3. Enriquecimiento de datos

METODOLOGÍAS DE APRENDIZAJE AUTOMÁTICO

En la Figura 8.1, definimos una taxonomía de "algoritmos de aprendizaje automático en


los que se supervisan, no supervisan y semisupervisan
Machine Translated by Google

244 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

sin supervisión Semi-Supervisado


Aprendizaje supervisado
Aprendizaje Aprendizaje

• Regresión • • Reglas a priori • Predicción y


Árbol de decisión • Agrupación • Clasificación
• Redes neuronales Densidad de Kernel • Agrupación •
• Vector de soporte Estimacion Expectativa-
Máquina • Principal Maximización
• Naive Bayes • Componente • Transductivo
Vecinos • Análisis • Vector de soporte
Gaussiano Valor singular Máquina
Procesos Descomposición • • Codificadores automáticos

Autoorganización
mapas

Figura 8.1 Taxonomía de aprendizaje automático

los algoritmos de aprendizaje se encuentran en la intersección de los


campos de Machine Learning y Data Mining” (Hall, Dean, Kabul y Silva,
2014).

Aprendizaje supervisado

Los algoritmos que pertenecen a este grupo se entrenan con conjuntos


de datos etiquetados. Etiquetado se refiere al conocimiento previo de la
salida deseada de una entrada dada. Un ejemplo en petrofísica sería un
parámetro de fluido como la porosidad etiquetado como "H" (Altamente
poroso) o "L" (Baja porosidad). El algoritmo aprendió de un conjunto de
datos de entrada y datos de salida esperados o precisos asociados. Al
equiparar el resultado real con los resultados esperados, podemos
determinar errores en la predicción. Los errores luego ajustan el conjunto
de reglas del modelo. Las técnicas de aprendizaje supervisado, como la
regresión, la clasificación y el aumento de gradiente, adoptan un flujo
de trabajo lógico de identificación de patrones para pronosticar los
valores de la etiqueta en datos sin etiquetar. Invariablemente en
geofísica y petrofísica, hemos almacenado datos históricos que pueden
analizarse en busca de firmas y patrones. Estos eventos pasados son
precursores de eventos futuros. Las técnicas de aprendizaje supervisado conducen a
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 245

tipos de flujos de trabajo. Por ejemplo, un método de aprendizaje supervisado


puede realizar una predicción de muestra a muestra en un cubo sísmico 3D para
identificar cada muestra con un parámetro litológico.

Aprendizaje sin supervisión

Cuando los datos no tienen etiquetas históricas, adoptamos la familia de técnicas


de aprendizaje no supervisado. En tales casos, el algoritmo se queda en la
oscuridad y no sabe las respuestas correctas. En cambio, el algoritmo tiene que
determinar la salida por sí mismo sin una guía a priori. El propósito es descubrir
alguna estructura oculta para todas las observaciones que componen el espacio
de entrada. El aprendizaje no supervisado puede permitir el análisis de facies
sísmicas.
Por lo tanto, proporcionaría un flujo de trabajo muy robusto y eficiente para estimar
las propiedades del yacimiento. Esto resulta de un mapeo preciso de varios
atributos sísmicos a las propiedades del yacimiento a través de algoritmos de
reconocimiento de patrones. Las técnicas modernas incluyen mapas
autoorganizados (SOM), mapeo del vecino más cercano, agrupación de k-medias
y descomposición de valores singulares (SVD).

Aprendizaje semisupervisado

Las técnicas semisupervisadas son candidatas ideales para muchas aplicaciones


que son modeladas por los algoritmos supervisados, la diferencia es que tanto los
conjuntos de datos etiquetados como los no etiquetados son un juego justo como
entrada simultánea. Invariablemente, la dimensión de entrada para los algoritmos
semisupervisados consiste en una pequeña cantidad de datos etiquetados y una
mayor cantidad de datos no etiquetados menos costosos. Las técnicas de
clasificación o agrupación son métodos semisupervisados que se ajustan a la
sopa etiquetada y no etiquetada de datos multivariados. Podemos clasificar las
características aplicando métodos semisupervisados a los perfiles sísmicos del
subsuelo.
DL es una rama innovadora de ML que se esfuerza por acorralar

las complejidades y los matices de todo ML de nuevo en la pluma etiquetada


como inteligencia artificial (IA). DL es esencialmente un conjunto de algoritmos
diseñados para modelar abstracciones de alto nivel ocultas en los datos.
Machine Translated by Google

246 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

La complejidad inherente al número de capas aumenta debido a la


naturaleza iterativa de los algoritmos de DL. Un gran volumen de datos es
un requisito previo para entrenar las redes y, por lo tanto, se requiere
mucha potencia computacional para abordar los problemas comerciales en
E&P desde una perspectiva de aprendizaje profundo.
A los flujos de trabajo de DL se les ha atribuido el sello de una
metodología de caja negra en comparación con los pasos analíticos
tradicionales defendidos por las regresiones lineales y no lineales. Por lo
tanto, es fundamental reservar una parte de los datos para probar y validar
el algoritmo DL utilizado para el análisis. Invariablemente, es un desafío
persuadir a los geofísicos y otros ingenieros upstream aislados para que
aprecien el valor comercial intrínseco y el posible conocimiento que se
puede obtener de los flujos de trabajo de DL. Sin embargo, la naturaleza
dinámica de las metodologías de DL y su capacidad para avanzar
continuamente y adaptarse a las variaciones en los patrones subyacentes
ofrece una increíble conveniencia para abogar por un enfoque menos determinista y
una perspectiva de análisis más basada en datos.
Una imagen se puede expresar como un vector de valores de intensidad
para cada píxel. Mire un perfil sísmico de color e inmediatamente su cerebro
abstrae un espacio de propiedad tridimensional (color) que se superpone al
espacio compartido. Cuando miramos una imagen compuesta de múltiples
píxeles, vemos que hay dos coordenadas espaciales x e y que ubican cada
píxel horizontal y verticalmente en el espacio euclidiano. Si tuviéramos que
ver la imagen como un cuadro de un video animado, podríamos introducir
la variante t o ubicación temporal, determinando así los tres valores x, y y t
para la definición de espacio-tiempo. Pero, ¿qué pasa con el color del píxel?

Si imagina un espacio de propiedad tridimensional (color) encima del


espacio ordinario (Figura 8.2), entonces podemos ampliar las características
de los píxeles introduciendo una forma simétrica como un cubo para la
definición del color. Como nos enseñó James Clerk Maxwell, debemos
especificar las intensidades de tres fuentes de color (rojo, verde y azul) y
estas intensidades se representan como R, G y B. Ahora tenemos seis
números: x, y, t, R , G y B para identificar el píxel.
El cubo de color RGB (Figura 8.3) ilustra las selecciones de color que
tiene en cada píxel en la imagen sísmica para sustancialmente
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 247

Figura 8.2 Concepto de espacio de propiedad concreto y colorido

Figura 8.3 Cubo de color rojo, verde y azul (RGB)

iluminar el elemento de la imagen. El cubo tridimensional es una descripción real


del espacio de propiedades, ya que da crédito al rango de las posibles
intensidades que van de cero a uno.

TÉCNICAS DE APRENDIZAJE PROFUNDO

El aprendizaje profundo (DL) es un subconjunto del aprendizaje automático (ML).


DL implementa grandes redes neuronales que admiten varias capas ocultas para
identificar características en los datos de entrada que tienen
Machine Translated by Google

248 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

robustas capacidades predictivas. Las redes neuronales DL evolucionaron a partir


de las redes neuronales artificiales básicas, aprovechando técnicas no
supervisadas y semisupervisadas. La evolución ha sido testigo de la adopción de
algoritmos de optimización eruditos y plataformas informáticas innovadoras para
lograr una precisión de vanguardia.

Después de un conjunto de preparación de datos de flujos de trabajo


automatizados o semiautomáticos, es esencial adoptar un conjunto de flujos de
trabajo de análisis de datos exploratorios que, a través de visualizaciones
intuitivas, exponga patrones ocultos, correlaciones y tendencias en los conjuntos
de datos subyacentes. En el caso del análisis sísmico, podría agregar múltiples
atributos desde una perspectiva previa o posterior a la acumulación según la
función objetivo o el problema comercial que se esté estudiando, por ejemplo, la
optimización de la producción o la eficacia de una técnica mejorada de
recuperación de petróleo, como la alternancia de agua. -gas (WAG). La
metodología basada en datos complementa la interpretación tradicional de los
flujos de trabajo de visualización inmersiva en 3D. La Figura 8.4 muestra el
método por el cual la construcción posterior al modelo asegura la correcta puesta
en funcionamiento del modelo o modelos considerados apropiados para los
análisis de atributos sísmicos en un estudio de caracterización de yacimientos.

Algunas de las técnicas de aprendizaje profundo bajo consideración


para E&P son:

ÿ Red neuronal directa profunda ÿ Red


neuronal profunda convolucional

Datos Exploratorio operacionalizando


Construcción del modelo
Preparación Datos Análisis Modelos

Figura 8.4 Flujo de trabajo abierto típico basado en atributos sísmicos derivados
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 249

ÿ Red neuronal profunda recurrente ÿ

Codificador automático de eliminación de ruido apilado

Implementaremos algunas de las técnicas de computación suave enumeradas


en la Figura 8.1 bajo los encabezados: Supervisado, No Supervisado y Semi-
Supervisado. La Figura 8.5 proporciona más detalles para cada una de estas
taxonomías.

Aprendizaje semisupervisado

Los científicos de datos en muchas verticales de negocios han descubierto que la


agregación de datos sin etiquetar con una cantidad limitada de datos etiquetados
genera una mejora notable en la precisión de los algoritmos de aprendizaje en la
familia FL.
Use algunos datos etiquetados (difíciles de obtener) y muchos sin etiquetar (más
fáciles de obtener) en combinación con predicciones/clasificación y agrupación.
Solucione el problema del arranque en frío en los motores de recomendación. Se
proponen modelos semi-supervisados.
Algunos algoritmos únicos, como los codificadores automáticos, también son
capaces de realizar un aprendizaje semisupervisado. Notamos que los datos forman
grupos discretos o conglomerados. Los miembros del mismo clúster comparten un

SUPERVISADO SIN SUPERVISIÓN SEMI-SUPERVISADO


APRENDIZAJE APRENDIZAJE APRENDIZAJE

• Capacitado en etiquetado • Datos sin etiquetar (sin • Combinación de datos


Variable de destino) etiquetados y no etiquetados
datos (variable objetivo) •
Clasificación, • Agrupación, Característica
Predicción Extracción • Clasificación,

• Algoritmos: k-means Regresión, Predicción •


• Algoritmos: Logístico
Regresión, aumento de clustering, PCA, etc. Algoritmos: Autoencoders, TSVM,
gradiente, etc. etc.

Figura 8.5 Técnicas de minería de datos supervisada y no supervisada en aprendizaje


profundo
Machine Translated by Google

250 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

etiqueta común, pero por supuesto, esto no es una ley estricta. Cuando una etiqueta
representa un grupo, esencialmente estamos implementando una técnica de
suavizado que produce un método de aprendizaje de características eficiente para
los datos en un estudio. Mientras que las máquinas de vectores de soporte para el
aprendizaje supervisado buscan un límite de decisión con un margen máximo sobre
los datos etiquetados, el objetivo de las TSVM (Transductive Support Vector
Machines) es el etiquetado de los datos no etiquetados. El límite de decisión tiene
un margen máximo sobre todos los datos.

Aprendizaje supervisado

Objetivo:
ÿ Regresión = aprendizaje supervisado simple
ÿ Predicción

ÿ Clasificación

Ejemplos: regresión, regresión LASSO, regresión logística y regresión de cresta

ÿ Árbol de decisiones: aumento de gradientes y bosques aleatorios ÿ

Redes neuronales, bayesiana ingenua, máquinas de vectores de soporte

Aprendizaje sin supervisión

Sin objetivo:
ÿ k-means = aprendizaje primario no supervisado ÿ

Agrupación
ÿ Selección de características

fi Extracción de características (proporcionar alguna organización estructural


en los datos) ÿ

Reglas a priori ÿ

Agrupación ÿ
Agrupación de k-medias ÿ

Agrupación de cambio de media

ÿ Agrupación espectral
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 251

fi Densidad del kernel

fi Análisis de componentes principales: kernel y disperso fi Mapas

autoorganizados

Varias arquitecturas se construyen sobre redes neuronales, y algunas no son


necesariamente profundas en sí mismas, pero se pueden apilar para emular la
profundidad. El aprendizaje profundo es esencialmente un subconjunto del
aprendizaje automático, que en sí mismo es un subcampo de la inteligencia
artificial. Se ha dicho que el aprendizaje profundo es “donde el aprendizaje
automático se da la mano con los grandes datos”. Describiría el aprendizaje
profundo como un cambio de paradigma que se aplica a los conjuntos de datos en
silos de los diversos sectores de exploración y producción aguas arriba:

fi Aprendizaje de la representación de características en lugar de ingeniería


de características (no ingeniere; ¡descubra!). fi Comprender

fundamentalmente el mundo que nos rodea (ver, oír, leer, tocar, gesticular). fi
Aprende a representar el mundo como una jerarquía anidada de con

conceptos

fi Describir los problemas como capas de abstracciones. fi

Realizar una tarea entrenando, no aplicando reglas y políticas


cias

fi Construir ideas complejas a partir de representaciones más simples.

ÿ Mejorar con experiencia y datos.

ARQUITECTURAS DE REDES NEURONALES PROFUNDAS

Red neuronal profunda hacia adelante

La arquitectura de una red neuronal directa profunda, como se muestra en la Figura


8.6, es apropiada para identificar aproximaciones a las mediciones de recuperación
final estimadas y para determinar medidas probabilísticas para las propiedades del
yacimiento entre pozos derivadas de los atributos sísmicos. Es un modelo
discriminativo con un plano archi

tectura adecuada para flujos de trabajo de regresión y clasificación. Sin embargo,


es difícil escalar a matrices de píxeles grandes.
Machine Translated by Google

252 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Capa de salida

Capa de entrada

Capa oculta 1 Capa oculta 2

Figura 8.6 Red neuronal directa profunda

La cantidad de capas ocultas que procesan los datos de entrada excede


de manera consistente la arquitectura de un solo nivel oculto que
implementamos tradicionalmente en una red neuronal artificial vainilla.
En las redes neuronales de aprendizaje profundo, los datos se envían a través
de una secuencia de varios pasos de procesos de reconocimiento de patrones.
Cada capa está entrenada por un conjunto discreto de características que
están influenciadas por la salida de la capa anterior. Por lo tanto, la complejidad
de las características de las funciones es más compatible y reconocible cuanto
más se mueven los datos a través de las capas ocultas apiladas debido al
aprendizaje agregado de las funciones en cada capa de neuronas.
Esta jerarquía de funciones adquiere más complejidad y abstracción a medida
que los datos avanzan hacia la capa de salida. Este tipo de arquitectura
permite el manejo de conjuntos de datos de alta dimensionalidad con
literalmente miles de millones de parámetros.
Otra ventaja inherente a las redes neuronales profundas es la capacidad
de sacar a la superficie estructuras latentes en todos los conjuntos de datos
no etiquetados y no estructurados. La agrupación o agrupación de datos de
entrada para identificar similitudes en datos no etiquetados es el aprendizaje
no supervisado en su forma más efectiva, generando modelos más precisos
proporcionales a la cantidad de datos. A diferencia de la mayoría de los
algoritmos de aprendizaje automático, las redes neuronales de aprendizaje
profundo logran la extracción automática de características sin la intervención
de ingenieros o expertos en el dominio.
Al igual que las máquinas restringidas de Boltzmann (RBM), cada capa
oculta de una red neuronal avanzada profunda que se entrena en
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 253

Los datos no etiquetados aprenden las características de las características


automáticamente mediante la reconstrucción iterativa de la entrada de la que obtienen sus muestras.
Este proceso se esfuerza por minimizar la diferencia entre las estimaciones de la red y
la distribución de probabilidad de los datos de entrada. Entonces podemos identificar
correlaciones entre características definidas a priori como significativas para la solución
de nuestro problema comercial.
El papel de la capa de salida es actuar intuitivamente como un clasificador logístico que
asigna una probabilidad a un resultado o etiqueta.

Red neuronal profunda convolucional


La palabra convolucionar encuentra su etimología en la raíz latina convolvere, que
significa rodar juntos. Desde una perspectiva matemática, una convolución es “la integral”
que cuantifica la superposición entre dos funciones cuando se superponen. Se puede
implementar una red neuronal profunda convolucional (CDNN), como se detalla en la
Figura 8.7, para clasificar imágenes y agruparlas por similitudes. También llevan a cabo
el reconocimiento de objetos dentro de la imagen más grande, de modo que un geofísico
podría identificar un pinch-out sísmico (un tipo de trampa estratigráfica) a lo largo de una
sección sísmica 2D. Estas arquitecturas de red son ideales para encontrar características
estructurales o estratigráficas visuales que son indicadores clave de producción. Las
redes neuronales profundas convolucionales también se cruzan con el análisis de texto
que implementa una secuencia de técnicas de reconocimiento óptico de caracteres
(OCR). Estas son metodologías ideales cuando se integran informes de campo diarios
durante la adquisición sísmica. ¿Se observan anomalías en la superficie de los registros
que impactan en los cambios estáticos en las trazas sísmicas a lo largo de un anticlinal?

profundidad

altura

ancho

Figura 8.7 Red neuronal profunda convolucional


Machine Translated by Google

254 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

El CDNN es ideal para mejorar la relación señal-ruido en imágenes sísmicas y


actuar como un detector de características sísmicas en el espacio de entrada 3D.
La arquitectura característica de la CDNN a menudo se prefiere para mejorar el
procesamiento de imágenes y videos, por lo que existen flujos de trabajo de E&P
adecuados para analizar no solo perfiles sísmicos sino también imágenes y videos
de registro durante la perforación (LWD) y medición durante la perforación (MWD).
La CDNN también es ideal para el procesamiento de lenguaje natural y se ha
aplicado con cierto éxito a los informes de equipos de perforación diarios. Los
algoritmos de aprendizaje de amplio alcance implementados en una CDNN para
NLP se establecen en la inferencia estadística. A los algoritmos se les enseña un
conjunto de reglas a través del análisis de problemas comerciales del mundo real
que ocurren en las plataformas durante las actividades diarias. Los informes diarios
anotados del equipo de perforación sirven como conjuntos de datos de entrada que
se derivan de las reglas basadas en la experiencia de los ingenieros. Por lo tanto,
nos estamos alejando de los árboles de decisión que generaban reglas rígidas si-
entonces a un algoritmo más sofisticado basado en modelos estadísticos que
ofrecen una técnica de computación suave a través del aprendizaje automático
para establecer una gama de hipótesis probabilísticas. Estos métodos proporcionan
la ventaja de estipular la certeza relativa de los múltiples resultados posibles en
oposición a un solo resultado determinista.

Una CDNN, como un perceptrón multicapa (MLP) de una sola capa oculta, es
una arquitectura motivada biológicamente. Piense en el increíble poder de
procesamiento visual inherente a la corteza visual de un animal. El CDNN es un
diseño que se esfuerza por emular la naturaleza desde la perspectiva de identificar
al máximo los patrones similares a los bordes dentro del campo receptivo limitado,
así como imitar las múltiples celdas en un campo receptivo más amplio que
posiciona los patrones exactamente de manera localmente invariable.

Esencialmente, una CDNN es un tipo de red neuronal que implementa muchas


reproducciones duplicadas de la misma neurona. El método de duplicación es una
característica de identificación de CDNN.
Otras redes neuronales como las redes neuronales recurrentes y recursivas

las redes pueden adoptar esta arquitectura. Sin embargo, una de las principales
ventajas de las muchas ofertas de implementación de copias duplicadas es
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 255

la capacidad de definir modelos computacionalmente grandes mientras se


limita el número de variables de entrada reales que describen el
comportamiento de las neuronas. Muchas copias de la misma neurona
equivalen a la abstracción de funciones matemáticas en informática.
La analogía de escribir una función o algoritmo una vez y llamarlo varias
veces en diferentes partes del código describe una CDNN que se enseña
aprendiendo una neurona una vez y luego usándola en varios lugares. Las
CDNN cumplen una amplia gama de propósitos, incluido el reconocimiento
de patrones de imágenes y videos y el procesamiento del lenguaje natural.

En el caso de las imágenes sísmicas, podríamos implementar una CDNN


como una arquitectura eficiente para identificar características geofísicas en
un conjunto 3D de líneas en línea y cruzadas. Podemos identificar trampas
estratigráficas, cambios sutiles de facies, anomalías de velocidad que son
indicativas de las propiedades de las rocas e inclusiones de lutitas. La CDNN
puede recomendar etiquetas pertinentes para estas características.
Exploremos la arquitectura LeNet1 popularizada a fines de la década de 1980
por Yann LeChun, quien fue pionero en la red que inició el campo del
aprendizaje profundo. Los sabores actuales de CDNN son muy parecidos a
la arquitectura LeNet original.
Hay cuatro algoritmos críticos en una CDNN:

1. Convolución

2. No linealidad 3.
Submuestreo
4. Clasificación

Una imagen de perfil sísmico, como todas las imágenes, se puede


representar como una matriz de valores de píxeles. Parte de la nomenclatura
convencional discutida requiere traducción:

ÿ Canal se refiere a un componente particular de una imagen.


Los gráficos en color de las secciones sísmicas tienen tres canales:
rojo, verde y azul (RGB). Estos se representan como matrices 2D
apiladas una sobre otra (una matriz por color) y cada una de ellas
representa valores de píxel en el rango de 0 a 255.
Machine Translated by Google

256 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

ÿ Una imagen en escala de grises de una sección sísmica en color entretiene


solo un canal. Por lo tanto, convertiremos imágenes sísmicas en color a
escala de grises a través de un script de Python para garantizar que solo
tengamos una única matriz 2D representativa de la imagen en estudio.
El valor del píxel en esta matriz también variará de 0 a 255: 0 indica
negro y 255 representa blanco.

Circunvolución

La convolución extrae fundamentalmente las características sísmicas de todas


las imágenes de entrada. También conserva la relación espacial entre píxeles
mediante el aprendizaje de características de imagen que consumen pequeños
cuadrados de datos de entrada. Miremos una imagen de 5 × 5, Figura 8.8, y
consideremos que la matriz de valores de píxeles solo se puede establecer en 0
y 1. Recuerde que una imagen en escala de grises tiene una matriz con valores
de píxeles que van de 0 a 255.
Ahora considere otra matriz, esta vez de una dimensión de 3 × 3.
Se puede calcular la convolución de una imagen sísmica de 5 × 5 que se muestra
en la Figura 8.8 y una matriz de 3 × 3, lo que da como resultado la matriz de 3 ×
3 que está coloreada en rojo en la Figura 8.8. Solo movemos la matriz naranja
desde la parte superior izquierda de la imagen de 5 × 5 y pasamos un píxel a la
vez hacia la derecha, también conocido como deslizamiento. Luego deslizamos
un píxel hacia abajo y nuevamente nos movemos de izquierda a derecha,
convolucionando y calculando la matriz de salida a medida que nos deslizamos
por la imagen como una multiplicación y suma de matrices por elementos entre

Imagen Característica convolucionada

11100
01110
00111 1 10 4 3 4
00110 0 01 2 4 3
01100 1 10 2 43

Figura 8.8 Imagen sísmica de 5 × 5 convolucionada con una matriz de 3 × 3 para generar

otra matriz de valores de píxeles de 3 × 3


Machine Translated by Google

INTELIGENCIA ARTIFICIAL 257

las dos matrices. La matriz naranja de 3 × 3 se considera un filtro o detector


de características, y la función convolucionada o el mapa de activación/
características es el resultado de la multiplicación de la matriz.
Es intuitivo que los diferentes filtros que se deslizan a través de la
imagen sísmica de entrada generarán diferentes mapas de activación que
representan las características desde una perspectiva diferente. Algunas
de las operaciones que se pueden realizar con varios filtros se pueden enumerar:

ÿ Detección de
bordes ÿ Afilar
ÿ Caja o desenfoque gaussiano

ÿ Detección de curvas

La arquitectura CDNN aprende principalmente los valores de los


posibles filtros por sí misma durante la fase de entrenamiento. Podemos
controlar algunos de los parámetros críticos que inician el proceso
convolucional, como la cantidad de filtros, el tamaño del filtro y la arquitectura
general de la CDNN. Por lo tanto, cuantos más filtros implementemos, más
características de la imagen se pueden extraer y esto, a su vez, mejora la
red para distinguir patrones en imágenes sísmicas nunca antes vistas.

Podemos restringir el tamaño del mapa de características usando tres


parámetros invariablemente implementados en el algoritmo de convolución:

1. Profundidad, que se correlaciona con el número de filtros.


2. Stride, que refleja el número de píxeles que impulsan el movimiento
de la matriz de filtro a lo largo de la imagen sísmica.
3. Relleno con ceros, que es la costumbre de rellenar con ceros
alrededor del borde de una imagen de entrada. Esto permite la
aplicación del filtro en todas las ubicaciones extremas de la imagen
sísmica de entrada.

no linealidad

Hay un operador adicional de no linealidad que se aplica a cada píxel.


Esencialmente reemplaza todos los valores de píxeles negativos en el
Machine Translated by Google

258 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

mapa de características con un valor cero. La convolución es una


operación lineal: suma y multiplicación de matrices por elementos.
Por lo tanto, explicamos el hecho de que los datos sísmicos no son
lineales al implementar una función no lineal. Algunas de las funciones
no lineales ejecutadas por el algoritmo incluyen ReLU, tanh y sigmoid.

Sub-Muestreo

Para reducir la dimensionalidad de los mapas de características y, al


mismo tiempo, retener el conocimiento crítico obtenido de dichos
mapas, es importante implementar una función de submuestreo.
Hay varias instancias de submuestreo o agrupación comunes entre
la matriz actual de CDNN: por ejemplo, Max, Average y Sum.

Si aplicáramos la función de agrupación máxima, Figura 8.9,


delinearía una vecindad espacial y obtendría el elemento más grande
del mapa de características rectificado dentro de la ventana debajo

Máx(1, 1, 5, 6) = 6

X 1 124
piscina max con filtros 2×2 y
567 8 zancada 2
68

3210 34

3 12 4

Mapa de funciones rectificado

Figura 8.9 Función Max-pooling aplicada para delimitar una


vecindad espacial
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 259

estudiar. Se ha demostrado que ReLU con max-pooling es más sensible y robusto


al analizar imágenes sísmicas.
La operación de agrupación se implementa discretamente para cada mapa de
características que representa una característica o firma sísmica distinta. Por lo
tanto, la idea detrás de la agrupación es contraer por partes la dimensión espacial
del espacio de entrada y garantizar la viabilidad de administrar las características
con una cantidad menor de parámetros y cálculos de red. Esto a su vez reduce la
posibilidad de sobreajustar el modelo.

Finalmente, la capa totalmente conectada es el perceptrón multicapa tradicional.


Por totalmente conectado, nos referimos a la implicación de que cada neurona en
la capa anterior tiene una conexión con todas las neuronas en la siguiente capa.

Las capas de convolución y agrupación se combinan para actuar como


extractores de características de una imagen de entrada sísmica. Una capa
completamente conectada realiza el proceso de clasificación:

Paso 1: Todos los filtros y parámetros se inicializan con una función de


generador aleatorio.

Paso 2: Entrenamos la CDNN con una imagen sísmica de entrada: ya sea un


perfil 2D en línea o cruzado que detalla algunas de las interesantes
características sísmicas. La red implementa el paso de propagación
hacia adelante (operaciones de convolución, ReLU no lineal y
agrupación máxima combinadas con propagación hacia adelante
en la capa completamente conectada). Las probabilidades de salida
se determinan para cada clasificación.

Paso 3: El error total se calcula en la capa de salida mediante


sumando todas las clasificaciones:

Error total = ÿ 1/2 (probabilidad objetivo

ÿ probabilidad de salida) 2

Paso 4: Se implementa la retropropagación para calcular los gradientes del


error en todos los pesos de la red. El descenso de gradiente se
utiliza para ajustar todos los filtros.
Machine Translated by Google

260 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

valores/pesos y valores de parámetros para reducir el error en la capa


de salida. Los pesos se reestructuran en proporción a su contribución
al error total. La clasificación de una imagen sísmica se considera
correcta cuando la CDNN ha aprendido a

cambie automáticamente los pesos/filtros, lo que da como resultado


un error muy reducido en la capa de salida.
Es importante apreciar que los parámetros clave de la red, como
algunos filtros y tamaños de filtro junto con la arquitectura de la red,
se fijan antes del Paso 1. El proceso de entrenamiento no afecta estos
parámetros; solo ajusta los valores de la matriz del filtro y los pesos.

Paso 5: Repetimos los Pasos 2 a 4 con todas las imágenes sísmicas en la


dirección en línea y transversal para fusionar una perspectiva 3D de
la sísmica activa adquirida en todo el campo. Ejecutar la CDNN
entrenada (Pasos 1 a 5) contra nuevas imágenes sísmicas invisibles
iniciaría el paso de propagación directa y generaría una probabilidad
para cada clasificación. Si el conjunto de datos de entrenamiento es
lo suficientemente grande, la CDNN debería generalizarlos con éxito
y, por lo tanto, clasificarlos en categorías robustas y relacionadas.

Red neuronal profunda recurrente


La red neuronal profunda recurrente (RDNN), como se muestra en la figura 8.10, es
una arquitectura ideal para modelar datos secuenciales.
Tiene la ventaja de recordar información en su estado oculto. Por lo tanto, los RDNN
son excelentes para analizar datos de series temporales, como trazas sísmicas, así
como datos de producción no estacionarios para pronosticar el rendimiento de los
pozos.
Puede haber varios tipos de bucles de retroalimentación en un proceso recurrente.
red neuronal profunda. Implementamos dos ejemplos:

1. Retardos de entrada

2. Retardos de retroalimentación
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 261

uno a uno uno a muchos muchos a uno muchos a muchos muchos a muchos

Figura 8.10 Red neuronal profunda recurrente

La cantidad de nodos de entrada se ve afectada por cada tipo de retraso, principalmente

aumentando el número de nodos. Por lo tanto, la información retrasada se fusiona con cualquier

información actual.

Retrasos de entrada

Hay muchos pasos de tiempo de función consecutivos que se ingresan a la red al mismo tiempo.

Retrasos de retroalimentación

Durante la implementación de los retrasos de retroalimentación, la red entrega la salida del modelo a

los nodos de entrada simultáneamente con los datos anteriores. El proceso de entrega se puede lograr

mediante un circuito cerrado o abierto. El primero conecta la salida directamente a la capa de entrada

y el segundo garantiza que la salida conocida se proporcione como entrada a la red. En el estudio de

caso de recuperación final estimado, entrenamos y pronosticamos un paso adelante con bucles

abiertos. Para hacer una predicción más hacia el futuro, necesitaríamos el uso de bucles cerrados. Sin

embargo, notamos que los circuitos cerrados resultaron en un aumento del 10 por ciento en el error

debido al recorte de la demanda máxima y mínima.


Machine Translated by Google

262 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Codificador automático de eliminación de ruido apilado

Las redes neuronales profundas se crean comúnmente mediante el apilamiento


de codificadores automáticos. Un autocodificador es un tipo de red neuronal
de una sola capa. La versión de eliminación de ruido del codificador automático
se entrena mediante una corrupción aleatoria de la matriz de entrada. Los
codificadores automáticos usan los ejemplos de entrenamiento como variables
objetivo en lugar de las etiquetas de ejemplos de entrenamiento. Este
comportamiento las convierte en técnicas semisupervisadas. La salida de una
capa en la arquitectura del codificador automático entrena la capa subsiguiente.
Las entradas de entrenamiento inician la secuencia de entrenamiento en
capas como material de alimentación para la primera capa en la red neuronal
del codificador automático. La red neuronal se inicializa mediante los factores
de ponderación de cada capa entrenada individualmente. Luego, todas las
capas se vuelven a entrenar simultáneamente con los ejemplos de
entrenamiento originales. Si una gran cantidad de entradas es consumida por
una cantidad menos significativa de capas ocultas, notamos que las
características extraídas de las capas ocultas son una proyección no lineal de
los ejemplos de entrenamiento proyectados en un espacio de menor dimensión.
Estas características tienen tendencias predictivas muy precisas para la
etiqueta de clase de un ejemplo de entrenamiento.
La figura 8.11 muestra un codificador automático de eliminación de ruido
apilado. Cuando entrenamos un codificador automático de eliminación de ruido
apilado, usamos las etiquetas originales, las entradas de entrenamiento sin
etiquetar y copias ligeramente corruptas de las entradas de entrenamiento sin
etiquetar. Cada capa que consta de unidades ocultas se entrena por separado
en la salida de la capa anterior. Finalmente, toda la red se vuelve a entrenar.
Podemos usar esas características de salida de la capa intermedia (capa h3)
como entradas para modelos predictivos posteriores.
La red neuronal artificial (ANN) define y entrena un codificador automático
de eliminación de ruido. Hay cinco capas ocultas. Los píxeles dañados
representan los datos de entrenamiento de entrada y los píxeles originales
son las etiquetas para el entrenamiento de los datos de entrada. Ignoramos
las etiquetas de clase reales. ¿Cómo determinamos una precisión
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 263

Funciones de salida no corruptas Capa de destino

neuronas ocultas
h5
neuronas ocultas
h4
neuronas ocultas Extraíble
h3 Características

h2 neuronas ocultas

h1 neuronas ocultas

Funciones de entrada parcialmente dañadas Capa de entrada

objetivo 1 Objetivo 2 Objetivo 3 Objetivo 4

W51 W52 W53 W54

h51 h52

Figura 8.11 Detalles del codificador automático de eliminación de ruido apilado

o número útil de capas y neuronas ocultas? Algunos de los


Las características clave de influencia son:

ÿ Propiedades de los datos de entrenamiento

ÿ Cantidad de datos de entrenamiento

ÿ Algoritmos de optimización disponibles

ÿ Resultados predictivos anticipados


Machine Translated by Google

264 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

El número impar de capas en la arquitectura del reloj de arena genera una


sola capa intermedia de baja dimensión. Esto mejora la eficiencia de extracción
de características. Invariablemente, vemos un mayor nivel de precisión predictiva
asociado con diseños que exhiben una mayor cantidad de características de
entrada y ejemplos junto con más capas y neuronas. Sin embargo, debemos ser
conscientes del sobreajuste de la red neuronal DL a medida que se agregan más
capas y neuronas a la arquitectura. A veces, un algoritmo de optimización más
sofisticado mitigará este problema. Este estudio determinó que una red neuronal
de cinco capas ocultas logró el mejor equilibrio entre el sobreajuste y las
capacidades de optimización para los perfiles sísmicos de entrada.

Podemos determinar la dimensión del espacio de los pesos porque debe


ser el mismo que los objetivos generados por un diccionario de filtros combinado
con los datos de entrada.
Las características sísmicas de entrada parcialmente corruptas pueden ser:

A. Un conjunto de datos que consta de volúmenes 3D. Suponga que X_i


es un volumen de tamaño (p1 × p2 × p3). Para cada volumen,
necesitamos una etiqueta (variable objetivo Y_i, que es binaria) que
indique si hay una característica de interés. El conjunto de datos es una columna
lección de pares volumen/etiqueta {(X_1, Y_1) . . . (X_n, Y_n)}.
Tenga en cuenta que p1 × p2 × p3 también podría ser un subbloque de
un volumen mayor. Entonces, por ejemplo, si el gran volumen es de 100
× 100 × 100 vóxeles, podríamos hacer que X_i corresponda a 8 × 8 × 8
bloques. Tiene que haber un Y_i para cada X_i.

B. Exactamente como la opción anterior, pero el conjunto de datos consta


de imágenes 2D. Suponga que X_i es una imagen de tamaño (p1 × p2).
El conjunto de datos es una colección de pares de volumen/etiqueta
{(X_1, Y_1) . . . (X_n, Y_n)}. Y nuevamente, p1 × p2 también podría ser
un subbloque de una imagen más grande, y todavía necesitamos un Y_i
para cada X_i.

Por lo tanto, los volúmenes anotados (Opción A) o las imágenes anotadas


(Opción B) se proporcionan como entrada. Los volúmenes anotados podrían
estar en formato CSV mientras que las imágenes podrían estar en
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 265

Figura 8.12 Características sísmicas generadas para la metodología de aprendizaje profundo

ya sea CSV o algún formato de archivo de imagen estándar (TIFF, PNG, etc.)
Sería mejor evitar JPG debido a los artefactos de compresión.
La figura 8.12 ilustra las características sísmicas que se usaron como entrada para
las redes neuronales apiladas implementadas para la metodología de aprendizaje
profundo.
Las anotaciones contienen las etiquetas Y_i . Estas anotaciones pueden estar
en un archivo de texto (por ejemplo, anotaciones.txt) que tiene dos columnas:
<nombre de archivo>, <valor_de_etiqueta>. Cada fila corresponde a uno de los X_i,
que es un (subbloque de un) volumen o (un subbloque de) una imagen.

Alternativamente, si no es práctico crear un archivo annotations.txt, es factible


usar imágenes/volúmenes que tengan las características de interés marcadas en un
color único. Por ejemplo, marque las características/grietas/líneas interesantes con
píxeles rojos en una imagen gris. O márquelos como (-1) valores de vóxel en un
archivo de volumen CSV, siempre que la información se pueda extraer
automáticamente.
Los codificadores automáticos de eliminación de ruido apilados (SdA), como se
muestra en la Figura 8.13, se implementan para extraer características de un gran
conjunto de datos. Es aplicable en la fase de exploración para extraer indicadores
clave de rendimiento que identifiquen indicadores directos de hidrocarburos en un
conjunto de datos sísmicos 4D.

Los componentes básicos para SdA son codificadores automáticos como imple
Mencionado por Bengio et al. 2007.
Machine Translated by Google

266 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Codificar Descodificar

fo ro LH(x,z)

qD

Datos corrompidos Datos crudos Reconstrucción


Capa oculta

Capa de entrada Codificador automático de eliminación de ruido Capa de salida

Figura 8.13 Codificador automático de eliminación de ruido apilado

Un codificador automático toma una entrada x y primero la asigna a una


representación oculta:

y = f (x) = s (Wx + b)
Parametrizado por = W, b

La representación latente resultante y se vuelve a mapear en el espacio


d a un vector reconstruido z ÿ [0, 1] s(Wÿ de entrada z = g ÿ (y) =
ÿ
y + bÿ ). La matriz de pesos W tal que W se puede restringir opcionalmente
ÿ
= W^T, en cuyo caso se dice que el autocodificador tiene
pesos atados. La red está entrenada para minimizar el error de
reconstrucción (el error entre x y z).
Durante el entrenamiento, el algoritmo de autocodificador de eliminación de
corrompe x en xÿ , ruido donde xÿ es una versión parcialmente destruida de x
empleando un mapeo estocástico. Luego y se calcula como antes (usando
xÿ ), y = s(Wxÿ + b) y z como s(W error de estructuraÿyahora sereconocimiento
+ b' ). el mide entre
z y la entrada x no corrompida , que se calcula como la entropía cruzada:

ÿ [xk log zk + (1 ÿ xk)log(1 ÿ zk)]


k=1

Un codificador automático de eliminación de ruido intenta reconstruir la


entrada a partir de una versión corrupta de la misma, proyectándola primero
en un espacio latente y reproyectándola luego en el espacio de entrada
(Vincent et al., 2008). Si x es la entrada, entonces la Ecuación (1) calcula un
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 267

versión parcialmente destruida de x usando un mapeo estocástico q_D.


La ecuación (2) calcula la proyección de la entrada en el espacio latente. La
ecuación (3) calcula la reconstrucción de la entrada mientras que la ecuación (4)
calcula el error de reconstrucción.

xqy
ÿ D=(xÿ|x) (1)

s(Wxÿ + b) x = (2)

s(Wÿ y + bÿ ) (3)
d

L(x,z) = ÿ [xk log zk + (1 ÿ xk)log(1 ÿ zk)] (4)


k=1

Inicializamos la clase dA estipulando la cantidad de unidades visibles (la


dimensión d de la entrada), el número de unidades latentes (la dimensión d del
espacio latente) y el nivel de corrupción. El constructor obtiene parámetros
simbólicos para la entrada, los pesos y el sesgo. Tales variables simbólicas son
útiles cuando, por ejemplo, la entrada es el resultado de algunos cálculos, o
cuando los pesos se comparten entre SdA y una capa MLP. Cuando se trata de
dA, el dA en la capa 2 recibe la salida del dA en la capa 1, y los pesos del dA se
implementan durante la segunda etapa de entrenamiento para construir un MLP.

Principalmente, la arquitectura acomoda un apilamiento de múltiples


codificadores automáticos de eliminación de ruido para formar una red neuronal profunda.
Para crear una red que pudiera apreciar las sutiles complejidades inherentes a los
diversos niveles de abstracción que se encuentran en el

variables de datos petrofísicos, geofísicos y geológicos, tuvimos que implementar


una metodología basada en datos que incorporó un codificador automático de
eliminación de ruido apilado (SDAE) (Vincent, Larochelle, Lajoie, Bengio y
Manzagol, 2010). Para evitar la complejidad y reducir la incertidumbre, se
acostumbra fijar la entrada y los valores de salida preferidos en el mismo conjunto
de datos. Durante el paso de entrenamiento, puede contaminar los datos de
entrada agregando ruido gaussiano y omitiendo ciertas variables. Este
comportamiento obliga a la red a reconstruir los datos originales. Cada nivel de
abstracción se reconstruye.
Los algoritmos codificadores y decodificadores aseguran la deconstrucción
Machine Translated by Google

268 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

de los datos de entrada y la transformación de nuevo en los datos originales,


respectivamente. Consulte la Figura 8.13 para ver una representación pictórica
del método SDAE. El principio detrás del codificador automático de eliminación
de ruido es simple por naturaleza: identificar características sísmicas o
petrofísicas más vigorosas y evitar que las capas ocultas solo aprendan la
identidad de estas características. Esto se logra reconstruyendo la entrada a
partir de una versión degradada de la misma.

FLUJO DE TRABAJO DE IDENTIFICACIÓN DE CARACTERÍSTICAS SÍSMICAS

Enfoque de reconocimiento de patrones eficiente

Recorramos un conjunto simple de pasos de preprocesamiento utilizando


técnicas de DL para identificar características en perfiles sísmicos. Inicialmente,
debemos generar múltiples parches de imágenes pequeñas a partir de las
imágenes más grandes que representan las secciones sísmicas previas o
posteriores al apilamiento que salen de un conjunto de procesamiento
tradicional de ondículas acústicas, como se muestra en las Figuras 8.14 y 8.15.
El conjunto de pequeños parches de imagen nos permite definir un rango
limitado de características geofísicas para representar una imagen. Esto
disminuye la cantidad de tiempo de entrenamiento requerido para aprender sutiles

Figura 8.14 Convertir píxeles de interés a escala de grises


Machine Translated by Google

INTELIGENCIA ARTIFICIAL 269

Figura 8.15 Dividir imágenes en escala de grises en miles de parches superpuestos

patrones dentro de las imágenes. Un clasificador está capacitado para identificar


parches de interés focal cuando se puede acceder a una etiqueta de capacitación.
Los geofísicos pueden implementar una red de codificadores automáticos apilados
para generar un diccionario de parches apropiados si seleccionan una metodología no
supervisada. Este método se puede aplicar a problemas de reconocimiento de patrones
en general, y discutiremos un ejemplo de los yacimientos no convencionales en los
Estados Unidos.

Al analizar perfiles sísmicos mediante la implementación de flujos de trabajo de


DL, construiremos redes neuronales profundas (DNN), que son redes neuronales
artificiales (ANN) con múltiples capas ocultas de neuronas. Las arquitecturas DNN
abarcan modelos de composición donde los objetos se definen como primitivas de
imágenes en capas.
Estas capas adicionales crean características compuestas por partes a partir de capas
inferiores.
Estas diapositivas explican cómo funcionan las DNN para el aprendizaje no
supervisado para generar diccionarios que brinden precisión en la definición de
patrones tenues y no lineales.
Habiendo descompuesto una imagen en escala de grises, en este caso una
sección en línea sísmica posterior al apilamiento, en parches superpuestos, generamos
bloques relevantes de un tamaño adecuadamente pequeño para un procesamiento valioso.
Los parches permiten una reducción convincente de la dimensionalidad y resaltan los
conocimientos locales relevantes en las regiones espaciales de la imagen sísmica en
estudio.
Machine Translated by Google

270 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

También creamos un diccionario que consta de un conjunto de parches


representativos que reflejan una generalización de una base en el espacio vectorial.
El diccionario de parches facilita la extracción de características de forma
determinista que permite estudiar los parches en un flujo de trabajo no supervisado
y sin etiquetas de entrenamiento. El aprendizaje de diccionarios para imágenes es
un tema crítico y sustenta la base de varios métodos de reconstrucción y compresión
de última generación (Lee et al., 2006).

Discutiremos los codificadores automáticos apilados como se detalla en el

literatura (Bengio, Courville y Vincent, 2013) como candidatos adecuados para el


aprendizaje no supervisado de diccionarios. También es importante recomendar
metodologías de clasificación de DNN y agrupamiento de k-medias directas para
los flujos de trabajo analíticos de los parches de imagen sin procesar y las
características de la imagen extraídas por el codificador automático de eliminación
de ruido.

Métodos y tecnologías: descomposición de


imágenes en parches

Estudiemos una imagen sísmica S de tamaño H × W píxeles. El píxel de la i-ésima


fila y la j-ésima columna de la imagen se denominan S (i, j). En el caso de una
imagen en escala de grises, S (i, j) tiene un valor de intensidad, que suele ser un
número entero entre 0 y 255. En el caso de una imagen en color en el sistema de
coordenadas rojo-verde-azul (RGB), S (i, j) es una tupla que consta de tres valores
enteros: S_R(i, j), S_G(i, j), S_B(i, j). Estos valores se encuentran invariablemente
entre 0 y 255. Una imagen en escala de grises con una resolución de 2560 × 1920
consta de casi 5 millones de píxeles, una cantidad desmesurada de características
para que la mayoría de los algoritmos predictivos la usen directamente como
entrada.
Adoptamos una práctica general en el procesamiento de imágenes dividiendo
nuestra imagen en subimágenes cuadradas, también llamadas parches o mosaicos.
Sea P un parche de tamaño B × B. Por ejemplo, si B = 2, entonces P contiene 4
píxeles, que es mucho más adecuado para el análisis. En general, B es un
parámetro de ajuste importante y debe seleccionar B lo suficientemente grande
como para capturar patrones reconocibles en la imagen. parches
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 271

a menudo se permite que se superpongan para evitar artefactos de bloque o


discontinuidades visuales. Estos defectos ocurren a lo largo de los límites de los
parches después de que se procesan. En la figura 8.16, los parches P y Pÿ
tienen un tamaño B × B y se superponen.
Los parches se pueden representar como un conjunto de combinaciones
lineales de los elementos en estudio, también llamados átomos de diccionario.
El número de átomos de diccionario depende del tamaño representado por el
número representado por B. Puede vectorizar un parche reorganizando todos
los píxeles en un vector de fila de tamaño B2, denotado x = vec(B). Consulte la
Figura 8.17 para ver un ejemplo.

Representación de parches con un diccionario

Como cualquier vector de dimensión B2, vec(B) se puede representar como una
combinación lineal B2 de elementos de base ortonormales. Implementamos un
diccionario en lugar de una base en este ejemplo. El diccionario es una
generalización en la que no se requiere que los elementos (llamados átomos)
sean ortonormales. Los diccionarios tienden a ser más eficientes como
representación. La Figura 8.18 muestra un ejemplo de un

i PAGS'

PAGS

S (yo, j)

S
j
Figura 8.16 Ilustración de parches superpuestos en una imagen

Figura 8.17 La vectorización de parches reorganiza los píxeles como un vector de

fila en orden lexicográfico


Machine Translated by Google

272 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Figura 8.18 Ejemplo de un diccionario que tiene 12 átomos

diccionario. Cada átomo es en sí mismo una subimagen que tiene las mismas
dimensiones que las representadas por un parche.
La expresión matemática para la representación de un parche P es

x = vec(P) = ÿ jdj
j
donde cada uno
j es un coeficiente escalar y cada dj es un átomo de diccionario
vectorizado.
Un diccionario completo contiene átomos que son similares a los parches de la
imagen para que los átomos se puedan representar utilizando la menor cantidad
posible de coeficientes distintos de cero. Este tipo de representación se considera
escasa y proporciona un mecanismo estándar para reducir la dimensionalidad y, por lo
tanto, actuar como una técnica de resumen de imágenes.

Codificador automático apilado

Puede entrenar una red neuronal profunda no supervisada para aprender un diccionario
compuesto de algunas imágenes que representan las características más importantes
de los parches. Para entrenar una eliminación de ruido apilada
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 273

autocodificador, las neuronas objetivo deben ser iguales a las neuronas


de entrada originales. Las múltiples capas tienden a adoptar la forma
de un reloj de arena con un cuello de botella en la capa intermedia. Por
lo tanto, se requiere que la red aprenda una representación interna
dimensional más pequeña de las entradas antes de reconstruirlas en
las capas posteriores. Cada capa de unidades ocultas generalmente se
entrena por separado en la salida de la capa anterior y luego se vuelve
a entrenar toda la red. Las características que genera la capa intermedia
(capa h3) se pueden utilizar como entradas para modelos predictivos
posteriores.
Debido a la forma de reloj de arena de la red, los pesos de la capa
superior tendrán la misma dimensión que los parches originales, y esta
configuración forma una sola capa intermedia de baja dimensión
adecuada para la extracción de características. Estos pesos componen
el diccionario de imágenes representativas. La figura 8.19 ilustra una
red neuronal apilada con cinco capas ocultas. Los píxeles corruptos
actúan como entradas de entrenamiento. Los píxeles originales son el entrenamiento.

Objetivo
Capa

Pesos de la capa de salida

Extraíble
Características

Capa de entrada

Figura 8.19 Esquema de un codificador automático apilado. Las salidas se establecen


igual a los patrones de entrada y los pesos aprendidos de la capa de salida del diccionario
Machine Translated by Google

274 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

etiquetas mientras que las etiquetas de clase reales se ignoran. Varios


controladores dictan el número ideal de capas y neuronas ocultas:

ÿ Los datos de

entrenamiento ÿ Rutinas de optimización disponibles


ÿ El resultado deseado

Invariablemente, cuanto mayor sea el número de características de entrada,


más capas ocultas de neuronas son necesarias para una precisión más precisa y
cuantificable. Sin embargo, es importante evitar el sobreajuste durante este
aumento de neuronas.
Consulte la literatura actual que cubre estos temas: DNN y codificadores
automáticos apilados en Bengio, Courville y Vincent (2013) y un algoritmo neuronal
utilizado para entrenar codificadores automáticos en Hall et al. (2014).

Para mejorar el conocimiento obtenido de las imágenes de entrada originales


sin supervisión, a menudo es necesario realizar un paso de análisis de
conglomerados en los parches de imagen mediante la implementación del
algoritmo k-means. Es factible y probablemente más eficiente ejecutar un clúster
con las proyecciones de baja dimensión generadas por la capa oculta intermedia
de un codificador automático.
El número óptimo de grupos, k, se puede estimar mediante el criterio de caja
alineada. Además del entrenamiento no supervisado, también puede resolver
problemas de regresión o clasificación supervisada mediante el uso de DNN
siempre que los objetivos estén disponibles en el conjunto de datos de
entrenamiento.

REFERENCIAS

Bengio, Y., A. Courville y P. Vincent, IEEE Transactions on Pattern Analysis and Machine
Intelligence, 35, no. 8 (agosto de 2013).
Bengio, Yoshua, Pascal Lamblin, Dan Popovici y Hugo Larochelle, “Greedy Layer-Wise
Training of Deep Neural Networks”, Avances en sistemas de procesamiento de
información neuronal 19 (NIPS 2006), MIT Press (2007), págs. 153–160.
Machine Translated by Google

INTELIGENCIA ARTIFICIAL 275

Hall, Patrick, Jared Dean, Ilknur Kaynar Kabul y Jorge Silva, "An Overview of
Machine Learning with SAS® Enterprise Miner™", artículo SAS313-2014, SAS
Institute Inc. (2014).
Hinton, GE y RR Salakhutdinov, "Reducción de la dimensionalidad de los datos con
redes neuronales", Science, 313 (28 de julio de 2006): 504.
DOI: 10.1126/ciencia. 1127647.
Holdaway, Keith R., Aproveche los datos masivos de petróleo y gas con análisis:
optimice la exploración y producción con modelos basados en datos, John Wiley
& Sons, Hoboken (mayo de 2014).
Lee, H., A. Battle, R. Raina y AY Ng, "Algoritmos de codificación dispersa eficientes".
En: Avances en sistemas de procesamiento de información neuronal 19 (NIPS
2006), Actas de la Conferencia anual sobre sistemas de procesamiento de
información neuronal (2006), págs. 801–808.
Vincent, P., H. Larochelle, Y. Bengio y PA Manzagol, "Extracción y composición de
características robustas con codificadores automáticos de eliminación de ruido"
ICML 2008, págs. 1096–1103.
Vincent, P., H. Larochelle, I. Lajoie, Y. Bengio y PA Manzagol, "Codificadores
automáticos de eliminación de ruido apilados: aprendizaje de representaciones
útiles en una red profunda con criterio de eliminación de ruido local", Journal of
Machine Learning Research, 11 (2010) : 3371–3408.
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

CAPÍTULO
9
Estudios de caso:
Aprendizaje profundo
en exploración y producción

276
Machine Translated by Google

“Cuando has excluido lo imposible, lo que queda, por


improbable que sea, debe ser la verdad”.
Sherlock Holmes (Sir Arthur Conan Doyle)

INTRODUCCIÓN

El aprendizaje automático (ML) encapsula una metodología para el análisis


de datos para automatizar la creación de modelos analíticos avanzados
basados en datos. Los algoritmos iteran a través de un ciclo de aprendizaje
proveniente de conjuntos de datos dispares. En última instancia, ML permite
que las computadoras muestren tendencias, conocimientos y patrones ocultos
sin un conocimiento a priori programado en sus directivas. La naturaleza
iterativa de los algoritmos de ML garantiza que los modelos sean capaces de
evolucionar de forma independiente y, por lo tanto, sobrevivir como un medio
válido y confiable para descubrir patrones similares en nuevos datos. La
variedad de algoritmos ML actuales permite a los geofísicos generar
automáticamente modelos contra datos más grandes y complejos, brindando
resultados más rápidos y precisos en una enorme escala de datos de entrada.

Thomas Davenport es una luminaria en el campo académico, centrándose


en técnicas analíticas avanzadas. Fue él quien enfatizó la necesidad de un
modelado predictivo automatizado y rápido, avalando la aplicación de
arquitecturas DL automatizadas.

CARACTERIZACIÓN DEL RESERVORIO

Las características geofísicas del subsuelo interesantes en la exploración de


hidrocarburos son tridimensionales. Los diapiros de sal, las discordancias, los
cinturones plegados y cabalgados, los anticlinales, las arenas deltaicas y los
arrecifes son algunos ejemplos de trampas estratigráficas y estructurales de
petróleo y gas. Las interpretaciones confiables y los modelos geológicos
deterministas del subsuelo se pueden formalizar cuando los geofísicos
experimentados tienen conjuntos de datos 3D migrados adecuados para visualizar. Sísmico

277
Machine Translated by Google

278 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

por lo tanto, los datos son fundamentales para el sector de exploración aguas arriba, así como

para las estrategias y tácticas de redesarrollo de áreas industriales abandonadas para

perfeccionar la caracterización de yacimientos para técnicas mejoradas de recuperación de petróleo.


La caracterización de yacimientos eficiente y robusta es crítica

a la optimización de la producción. Algunas de las propuestas clave de valor


comercial que se pueden abordar al combinar la interpretación sísmica tradicional
y el análisis avanzado de aprendizaje profundo basado en datos se pueden
enumerar de la siguiente manera:

ÿ Lograr el máximo contacto con el reservorio.

fi Identificar patrones de interferencia de pozos.

ÿ Descubre compartimentos satélite adicionales. fi

Implementar metodologías de aprendizaje profundo. ÿ

Análisis avanzado de espacio-tiempo personalizado. fi

Computación escalable en un marco de big data.

Existen muchas aplicaciones modernas para la caracterización de yacimientos.


Por desgracia, no todas las ofertas de software pueden aprovechar el conocimiento
de los principales indicadores de producción. Para obtener información valiosa,
necesita esta comprensión en un contexto espaciotemporal amplio en todo el juego
de hidrocarburos del área.
Para campos maduros, debe considerar grandes conjuntos de datos recopilados
de pruebas de pozos, datos petrofísicos y mapeo de alta resolución de atributos
sísmicos a propiedades de yacimientos. El análisis de datos exploratorios es un
componente importante de esta tarea para garantizar una integración, agregación
y gestión de datos coherentes.
Las herramientas avanzadas de geoestadística y análisis multivariante pueden
impulsar aún más su análisis de espacio-tiempo y la cuantificación de la
incertidumbre; los métodos específicos en el aprendizaje profundo y las redes
neuronales convolucionales y recurrentes pueden ayudarlo a mejorar la relación
señal-ruido y detectar características sutiles en los datos.
La Figura 9.1 ilustra un conjunto de flujos de trabajo de DL iterativos
tomizados para la caracterización de yacimientos. Estamos tratando de:

fi Enriquezca y acelere el conocimiento obtenido de la interpretación tradicional


con principios básicos científicos, investigación de operaciones basada en
datos y análisis avanzado.
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 279

Bucle iterativo de retroalimentación

La detección de características
complementa la interpretación sísmica tradicional

Detección de características

Geofísico
Características y Estructuras

Análisis de registros de pozos de interpretación sísmica Modelado de Yacimientos

Figura 9.1 Flujos de trabajo característicos del yacimiento utilizando tecnologías DL

fi Generar una descripción precisa de las formaciones y su contenido


para identificar unidades de yacimiento económicas.

Los enfoques existentes carecen de base científica o dependen en


gran medida del análisis de datos. No hay nada injusto en utilizar la ciencia
central, el análisis avanzado y las nuevas tecnologías para su mejor
beneficio. Estamos presentando nuestra experiencia de más de 20 años
en estos campos para respaldar una aplicación que lo ayudará a
comprender mejor su yacimiento y, por lo tanto, lo posicionará mejor para
optimizar su rendimiento de por vida.
Los elementos clave de nuestro enfoque son:

Una metodología multidisciplinaria: Operamos a través de


disciplinas para incorporar física de rocas, geopresión y geomecánica.
Aunque existen diferentes métodos para crear modelos mecánicos
terrestres (MEM) empíricos y numéricos, utilizamos nuestra experiencia
particular para agregar conocimientos de campo y tecnologías para
crear por primera vez un MEM integrado e innovador. Nuestro modelo
es una solución única y personalizable que aprovecha los análisis
empíricos bien centrados para restringir los criterios interrelacionados.
En pocas palabras, nuestro MEM es el modelo más robusto que puede
usar para optimizar jugadas no convencionales.
Machine Translated by Google

280 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Flujos de trabajo analíticos enfocados y avanzados: Empleamos


enfoques analíticos personalizados para abordar la variedad de
problemas comerciales centrados en la caracterización de yacimientos.
Nuestros análisis tienen raíces sólidas en una base de síntesis de
conocimiento (KS) basada en la ciencia que va más allá del modelado
estadístico convencional. Mediante la observación de detalles críticos,
como la interpretación basada en la física de las cantidades naturales
y el uso de modelos libres de suposiciones restrictivas, permitimos un
modelado más preciso de las interdependencias y la predicción del
espacio-tiempo.

Algunos de los desafíos que enfrenta una metodología analítica


basada en datos al adoptar técnicas de aprendizaje profundo en datos
sísmicos van desde mapear los rastros hasta una ubicación espacial para
definir características como fallas en su dimensión espaciotemporal
exacta. Estamos tratando principalmente con una relación funcional no
lineal muy compleja en la que se estructura el espacio de salida. Aunque
las redes neuronales profundas abordan estos problemas desde una
perspectiva de modelado, debemos considerar la gran dimensión de
datos de entrada necesaria para entrenar las redes.
Por supuesto, podríamos generar un conjunto de conjuntos de datos de
entrenamiento de tamaño aleatorio que agregaran parámetros y atributos
geofísicos y petrofísicos.
Ilustremos algunos estudios de casos prácticos que implementan ML
y flujos de trabajo de DL en exploración y producción.

ESTUDIO DE CASO: ANÁLISIS DE PERFIL SÍSMICO

Experimentos supervisados y no supervisados

Ejecutamos dos experimentos para validar los aspectos supervisados y


no supervisados de una metodología analítica basada en parches en
imágenes o fotografías. Creamos un diccionario de parches de imagen
representativos, utilizando una de las arquitecturas de redes neuronales
profundas no supervisadas. Las imágenes de entrada eran perfiles
sísmicos de alta resolución a lo largo del yacimiento productor en un yacimiento maduro
Machine Translated by Google

CASOS DE ESTUDIO: APRENDIZAJE PROFUNDO EN E&P 281

Correo
Clasificación
Sísmico Convencional Rasgo Procesando:
de sísmica
Adquisición Segmentación Extracción Generar
Ondículas
Hipótesis

Figura 9.2 Clasificación aplicada a la interpretación de facies sísmicas (Duda et


al., 2000)

campo no convencional. Estas mismas imágenes fueron analizadas por otro


método no supervisado, el análisis de conglomerados de k-medias.
La Figura 9.2 muestra las etapas del flujo de trabajo de DL para segmentar
los datos sísmicos de entrada y clasificar las ondículas. Se utilizó el
agrupamiento de k-medias para segmentar los datos sísmicos de entrada y
clasificar las ondículas sísmicas.
Adoptamos la opción de criterio de caja alineada para automatizar el
número de clústeres. La Figura 9.3 ilustra ejemplos de las imágenes sísmicas
de alta resolución utilizadas en el estudio.

Figura 9.3 Imágenes sísmicas de alta resolución


Machine Translated by Google

282 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Resultados no supervisados

Veinticuatro imágenes sísmicas de alta resolución se convirtieron a escala de grises


y se dividieron en parches de 50 × 50 píxeles utilizando una longitud de zancada
de 25 píxeles. Luego, los parches se remuestrearon a 20 × 20 píxeles para
aumentar la eficiencia del procesamiento. El proceso de aplicación de parches
resultó en un conjunto de entrenamiento que contenía 30 459 subimágenes de
entrada como las de la Figura 9.4.
Se implementó un algoritmo de red neuronal para entrenar un codificador
automático de 5 capas con 50 unidades latentes en la primera capa, 25 unidades
latentes en la segunda capa, 10 unidades latentes en la tercera capa, 25 unidades
latentes en la cuarta capa y 50 unidades latentes en la quinta capa (50-25-10-25-50).
Dado que el codificador automático contenía 50 unidades latentes en la quinta y
superior capa de salida, se crearon 50 imágenes de diccionario.

Siguiendo a Hall et al. (2014) se instigó el codificador automático, empleando


un entrenamiento previo por capas. Todas las capas fueron entrenadas
simultáneamente para la convergencia. Se implementó la optimización del gradiente
conjugado para entrenar todas las capas de la red.
Los parches de entrada también se agruparon para revelar diferentes
segmentos de interés en las imágenes de entrada originales. Se utilizó un algoritmo
de agrupamiento para agrupar los parches de entrada mediante el algoritmo k-
means. El algoritmo de k-medias generalmente da como resultado esféricos

Figura 9.4 Muestra de parches de 20 × 20 píxeles creados a partir de imágenes sísmicas

de alta resolución
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 283

Figura 9.5 Cuatro grupos de parches superpuestos en un único 2D en línea original


imagen sísmica

racimos Sin embargo, los parches de agrupamiento son suficientes para


poblar agrupamientos complejos en la imagen original, como se puede ver en
la Figura 9.5.
En general, aplica algunos filtros y algunas otras técnicas de
preprocesamiento para extraer características útiles de las imágenes. Luego
usa estas características para su modelado. Por lo general, es difícil encontrar
estas características porque no se puede saber qué característica será útil
para el modelado. Por otro lado, utilizando este marco, puede obtener estas
funciones/diccionario sin preocuparse por esto. En este ejemplo, puede ver
que la red neuronal profunda aprendió algunas características sobre las
imágenes de entrada.
Entrene una red neuronal profunda y no supervisada para aprender un
diccionario compuesto de algunas imágenes que representan las características
más importantes de los parches.
Debido a la forma de reloj de arena de la red, los pesos de la capa superior
tendrán la misma dimensión que los parches originales, y esta configuración
forma una sola capa intermedia de baja dimensión.
Machine Translated by Google

284 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

adecuado para la extracción de características. Estos pesos componen el


diccionario de imágenes representativas. Los píxeles corruptos actúan como
entradas de entrenamiento. Los píxeles originales son las etiquetas de
entrenamiento, mientras que las etiquetas de clase reales se ignoran.
Varios controladores dictan el número ideal de capas ocultas y
neuronas:

ÿ Los datos de

entrenamiento ÿ Rutinas de optimización disponibles


ÿ El resultado deseado

Invariablemente, cuanto mayor sea el número de características de entrada,


más capas ocultas de neuronas se requieren para una precisión más precisa y
cuantificable. Sin embargo, es importante evitar el sobreajuste durante este
aumento de neuronas.
El diccionario se puede usar para identificar eficientemente áreas de interés
en nuevas imágenes, como se muestra en la Figura 9.6.
La Figura 9.7 ilustra una muestra de 32 imágenes de diccionario aprendidas
de 100 épocas de descenso de gradiente estocástico (SGD), entradas corruptas
en un 25 por ciento, pérdida de peso aleatorio en un 5 por ciento.
La figura 9.8 ilustra una muestra de 32 imágenes de diccionario aprendidas
de épocas de 200 SGD, entradas corruptas en un 25 por ciento, ponderaciones
por debajo de 1 reducidas y muchos filtros entrenados en ceros.
El aprendizaje profundo (DL) ha evolucionado desde el aprendizaje automático
(ML) para reunir a este último en el ámbito de la inteligencia artificial (IA). DL está
respaldado por una pila de algoritmos que están diseñados para modelar
abstracciones de alto nivel inherentes a los conjuntos de datos. Hay varias
posibilidades arquitectónicas compatibles con DL cuando transcribimos una
observación como una imagen en su representación compuesta como un vector
de valores de intensidad para cada píxel:

1. Redes neuronales directas profundas 2.

Red neuronal profunda convolucional 3. Red

neuronal profunda recurrente 4. Codificador

automático de eliminación de ruido apilado


Machine Translated by Google

Figura 9.6 Diccionario define nuevos indicadores directos de hidrocarburos (DHI)

285
Machine Translated by Google

286 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Gráfico de iteración

58

56

54

52

0 20 40 60 80 100
Época

Figura 9.7 Codificador automático de una sola capa entrenado por descenso de gradiente estocástico

mejoramiento

Gráfico de iteración

60

59

58

57

56

0 50 100 150 300


Época

Figura 9.8 Muestra de las imágenes del diccionario

DL es esencialmente sinónimo de redes neuronales como


la investigación en esta rama de ML se esfuerza por mejorar las representaciones
a través del desarrollo de modelos de computación blanda a partir de grandes
datos no etiquetados. Invariablemente, las redes neuronales constan de muchos
capas ocultas diseñadas para obtener información sobre características específicas
que ofrecen capacidades predictivas sustantivas. DL abraza a dos
principales paradigmas de aprendizaje, semi-supervisado y no supervisado,
que se combinan con enfoques de optimización avanzada.
Esta implementación de redes neuronales permite la extracción de
rasgos característicos de un conjunto de datos de entrenamiento. De una sola mano
lograr el aprendizaje de características es apilar un tipo de capa única
red neuronal artificial (ANN) conocida como autocodificador o
Red Diablo.
Machine Translated by Google

CASOS DE ESTUDIO: APRENDIZAJE PROFUNDO EN E&P 287

Patricio Hall et al. (2014) describen la eliminación de ruido apilada


implementación de autoencoder para la extracción de características:

Los codificadores automáticos se entrenan usando las


mismas entradas sin etiquetar que los ejemplos de entrenamiento y las
etiquetas de destino. Un codificador automático de eliminación de ruido
se entrena corrompiendo aleatoriamente la matriz de entrada del
codificador automático. Debido a que los codificadores automáticos no
usan las etiquetas de ejemplos de entrenamiento como objetivos, sino
que usan los propios ejemplos de entrenamiento, se han categorizado
como una técnica de aprendizaje semisupervisada.
Cada capa de la red profunda generalmente se entrena por
separado usando la salida de la capa anterior, o usando las entradas
de entrenamiento en el caso de la primera capa. Los pesos de las
capas entrenadas individualmente se utilizan luego para inicializar
toda la red profunda, y todas las capas se entrenan de nuevo
simultáneamente en los ejemplos de entrenamiento originales. Cuando
se utilizan muchas entradas junto con un número mucho menor de
unidades ocultas, las características que se extraen como salidas de las
unidades ocultas son una proyección no lineal de los ejemplos de
entrenamiento en un espacio de menor dimensión. Tales características
pueden ser altamente predictivas de la etiqueta de clase de un ejemplo
de entrenamiento.

Las entradas de entrenamiento originales sin etiquetar se utilizan para entrenar


un codificador automático de eliminación de ruido apilado. Un flujo de trabajo de
entrenamiento apilado permite que cada capa de neuronas ocultas aprenda de forma
aislada del resultado de la capa inferior.
El aprendizaje profundo permite a los ingenieros desarrollar modelos de
computación blanda que representan los datos geofísicos en múltiples niveles de
procesamiento que se apilan para determinar las representaciones de dichos datos
con múltiples niveles de abstracción (LeCun, Bengio y Hinton, 2015). Hemos sido
testigos de una comprensión mucho mejor en varias áreas que han adoptado estas
metodologías, como el reconocimiento de voz, la detección de objetos, el
reconocimiento visual de objetos,
Machine Translated by Google

288 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

y descubrimiento de fármacos, así como genómica. Los geofísicos pueden


hacer emerger elementos complejos y ocultos, como trampas estructurales
y estratigráficas, en grandes conjuntos de datos sísmicos 3D mediante la
utilización de un algoritmo de retropropagación. Un flujo de trabajo de
aprendizaje tan profundo puede identificar cómo ajustar los parámetros
internos utilizados para calcular la representación de cada capa en función
de la representación de cada capa anterior. Hemos visto cómo las redes
neuronales profundas (DNN) han llevado a saltos cuánticos en el
procesamiento de video, imágenes de alta resolución y archivos de voz y audio.

ESTUDIO DE CASO: RECUPERACIÓN FINAL ESTIMADA

Presentamos una metodología centrada en datos geofísicos para un


estudio de caracterización de yacimientos que desarrolla un modelo de
predicción para pozos horizontales fracturados hidráulicamente en etapas
múltiples en yacimientos de petróleo y gas de arenas compactas. La
aplicación innovadora de las DNN se puede realizar gracias a los nuevos
avances en el estudio del aprendizaje profundo y, al mismo tiempo, a la
adopción de big data. Se entrenó una DNN para apreciar la relación entre
los atributos geofísicos y la recuperación final promedio estimada (EUR,
estimada mediante el análisis de la curva de declive tradicional).
El modelo es ideal y significativo durante el sector de exploración, ya
que solo necesita datos geofísicos y geológicos. Esto es clave ya que los
segmentos de campo de curva tipo requieren que se analicen los datos de
producción y, por lo tanto, no están fácilmente disponibles hasta que los
pozos han estado produciendo durante un período mínimo.
Podemos desarrollar programáticamente un DNN que refleje la
complejidad inherente a las estructuras y los niveles de abstracción de los
datos geofísicos. Adoptamos una metodología acuñada por los algoritmos
más importantes: codificadores automáticos de eliminación de ruido
apilados. En lugar de pronosticar EUR a partir de los datos geofísicos, el
algoritmo establece tanto la entrada como la salida anticipada de los mismos
datos. Contaminamos los datos de entrada durante la etapa de entrenamiento
del flujo de trabajo eliminando variables o agregando ruido, lo que hace que
la DNN reconstruya el original
Machine Translated by Google

CASOS DE ESTUDIO: APRENDIZAJE PROFUNDO EN E&P 289

datos y en el proceso descubriendo y construyendo todos los niveles de abstracción.


Aparentemente hay dos componentes separados en la DNN: un codificador y un
decodificador. El primero se rompe

los datos geofísicos en la estructura compleja con múltiples niveles de abstracción,


mientras que este último convierte los datos en su

formato original.

Aprendizaje profundo para el modelado de series temporales

Implementamos con éxito una arquitectura de aprendizaje profundo para pronosticar


EUR utilizando atributos sísmicos obtenidos de sísmica activa en un campo de
petróleo y gas. Las técnicas de regresión lineal y kernelizada produjeron resultados
sólidos para nuestros datos dados. Descubrimos que, debido al enorme conjunto de
datos, era factible implementar modelos no lineales complejos sin encontrar muchos
problemas de sobreajuste. Las redes neuronales profundas admitieron una complejidad
significativa en el modelo.

Muchos documentos elogian los beneficios del entrenamiento no supervisado


por capas codicioso para la inicialización de redes neuronales profundas (es decir,
codificadores automáticos apilados y máquinas de Boltzmann restringidas).
Compare esta filosofía con las propiedades de escala extremas de la regresión
polinomial o incluso de los procesos gaussianos no paramétricos, que escalan O (m3)
con los datos.
Este estudio de caso muestra la aplicación de un conjunto de metodologías de
aprendizaje profundo basado en datos para determinar el EUR de un campo que
constituye parte de la región de esquisto de Eagle Ford. Utilizamos las propiedades
del yacimiento, los parámetros geológicos y los atributos sísmicos generados a partir
de datos de reflexión sísmica 3D activos adquiridos por vibroseis. Los atributos se
generaron a partir de datos migrados en profundidad antes de la acumulación. Los
parámetros de datos de entrada incluyeron los que se muestran en la Tabla 9.1.

Es imperativo antes de ejecutar cualquier flujo de trabajo analítico avanzado


basado en datos para garantizar la calidad de los datos de entrada.
Un conjunto de visualizaciones de análisis de datos exploratorios (EDA) (Figura 9.9)
es fundamental para las correlaciones de superficie, las tendencias y los datos ocultos.
Machine Translated by Google

290 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Cuadro 9.1 Datos de entrada para el estudio EUR

Nombre Role Nivel

Impedancia acústica Aporte Intervalo

Índice de fragilidad Aporte Intervalo

Módulo de volumen Aporte Intervalo

Densidad Aporte Intervalo

Líquido Aporte Nominal

FracFluidVol Aporte Intervalo

FracEtapas Aporte Intervalo

Gas_Saturación Aporte Intervalo

Longitud lateral Aporte Intervalo

Nombre Clasificación Nominal

NetThicknessPay Aporte Intervalo

PROD_PROMEDIO Aporte Intervalo

PhiE Aporte Intervalo

phiSH Aporte Intervalo

PhiT Aporte Intervalo

El coeficiente de Poisson Aporte Intervalo

Fecha de producción Hora_ID Intervalo

ProppantVol Aporte Intervalo

Qg100 Objetivo Intervalo

SUMA_de_GAS Aporte Intervalo

Módulo de corte Aporte Intervalo

TOC Aporte Intervalo

T_MON Aporte Intervalo

Escribe Aporte Nominal

VitrinitaRefl Aporte Intervalo

VpV Aporte Intervalo

Water_Saturation Aporte Intervalo

ID de pozo IDENTIFICACIÓN Intervalo

El módulo de Young Aporte Intervalo

mes Aporte Intervalo

Año Aporte Intervalo


Machine Translated by Google

Figura 9.9 Análisis exploratorio de datos visualizando los histogramas de variables clave

291
Machine Translated by Google

292 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

relaciones a medida que nos esforzamos no solo por reducir la


dimensionalidad del espacio de entrada, sino también por identificar las
variables estadísticamente más relevantes que impactan el objetivo o la
variable dependiente. En nuestro estudio, identificamos Qg100 como la
variable objetivo adecuada, ya que representaba la producción de gas
acumulada 100 días después de la fecha de inicio de la recopilación de
datos de la herramienta de registro de producción. Esto nos permitió
normalizar todos los pozos de entrada bajo estudio ya que la fecha de
perforación varió a lo largo de la matriz de pozos. Los histogramas de la
figura 9.9 ilustran la distribución de las variables individuales, lo que nos
permite identificar puntos de datos anómalos, como valores atípicos no
deseados y ruido predominante causado por mediciones mal registradas.
La capacidad de seleccionar una barra en un histograma como un valor
alto de Qg100 y ver simultáneamente los valores correspondientes de las
otras variables es una forma muy eficiente de definir reglas en el contexto
de la creación de perfiles de amplios rangos de valores esperados en este caso para Qg1

Problemas de escalado con grandes conjuntos de datos

Este proceso intensivo de cálculo de creación de características fue un


desperdicio ya que una expansión polinomial completa resultó en múltiples
características que tenían una importancia estadística limitada. Adoptamos
un conjunto de métodos de selección de subconjuntos, como adelante-atrás
metodología paso a paso. Los subconjuntos más pequeños de los datos
sísmicos se adaptaron computacionalmente a este enfoque, potencialmente
a expensas de perder valiosos conocimientos de capacitación.
Implementamos el análisis de conglomerados de k-medias para maximizar
la credibilidad de la información y permitir mediciones más complejas o
cálculos funcionales.

Conclusiones

Fue prohibitivamente lento cuando ejecutamos el algoritmo hasta la


convergencia. Sin embargo, obtuvimos resultados sólidos y útiles con
algunas heurísticas aceleradas. Usando diferentes números de grupos y
realizando un "centroide más cercano" ingenuo
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 293

clasificación vimos mejores resultados a medida que aumentamos la


complejidad del modelo. Implementamos redes neuronales feedforward en
grandes conjuntos de datos para analizar los parámetros del modelo y luego
expandimos estas arquitecturas simples con la arquitectura recurrente para
mejorar la precisión de los pronósticos.
Usando una red de retroalimentación simple, ignoramos algunas de las
estructuras temporales presentes en los datos de la serie temporal. Esta
estructura se puede explotar utilizando redes neuronales recurrentes en las
que construimos explícitamente una representación secuencial de nuestros datos.
Sobre la base de la literatura, entrenamos redes neuronales feedforward
con codificadores automáticos apilados. Se ha demostrado que el
entrenamiento codicioso por capas mejora el rendimiento de la red en
escenarios en los que hay disponibles grandes cantidades de datos sin
etiquetar, pero datos mínimamente etiquetados. Si bien todos los datos
utilizados en este estudio están etiquetados, implementamos el protocolo de
capacitación por capas para determinar si mitigaría los mínimos locales no
globales en el problema de optimización. Sin embargo, los resultados con
esta técnica fueron desalentadores, sin una ganancia significativa en el
rendimiento pero con una complejidad computacional adicional.

ESTUDIO DE CASO: APRENDIZAJE PROFUNDO APLICADO


A DATOS DE POZO

Introducción

Los ingenieros de yacimientos confían en gran medida en metodologías


tradicionales como el análisis empírico de la curva de declinación (DCA) para
pronosticar posibles tasas de flujo de petróleo, gas y agua en campos
maduros. Se hacen varias suposiciones críticas en cuanto a los valores de
los parámetros del yacimiento primario que impactan la producción de hidrocarburos.
Las curvas tipo, como exponencial, hiperbólica y armónica, que se ajustan a
los datos históricos de producción de pozos, son, en el mejor de los casos,
algo útiles pero de naturaleza determinista. Debido a las complejidades
inherentes de un sistema de reservorio heterogéneo, dichas suposiciones
empíricas conducen invariablemente a sobreflujo o desbordamiento.
Machine Translated by Google

294 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

estimación de tasa. Este estudio de caso adopta una metodología


probabilística que implementa un conjunto de arquitecturas de redes
neuronales de aprendizaje profundo. Los algoritmos de DL que se proponen
han sido muy eficientes en el reconocimiento de patrones y la clasificación de característica
El aspecto DL se basa en el concepto de mover información desde la capa
de entrada a la capa de salida a través de múltiples capas ocultas apiladas
que representan las características bajo estudio en matrices. Cada capa se
procesa con diferentes operadores matemáticos. Nuestro objetivo es
determinar la mejor metodología DL para modelar los datos de series de
tiempo de producción secuencial generados en cinco pozos diferentes en un
yacimiento convencional de petróleo y gas de arenisca.
Este estudio de caso describe la aplicabilidad de las redes neuronales
que diseñamos para pronosticar el rendimiento de los pozos. También es
importante aclarar el conjunto de datos y los flujos de trabajo de
preprocesamiento que permitieron las fases de capacitación y prueba de la
metodología. La discusión final reporta los resultados observados y las
conclusiones.
Los datos de producción de petróleo y gas de series temporales
recopilados en varios pozos dentro de un yacimiento se presentan como
conjuntos de datos de entrada para un análisis de aprendizaje profundo para
generar un modelo predictivo. Exploraremos las ventajas y extraeremos las
desventajas de las siguientes técnicas analíticas basadas en datos:

1. Máquinas de Boltzmann restringidas (RBM)


2. Redes neuronales directas profundas (DFNN)
3. Redes neuronales profundas convolucionales (CDNN)
4. Redes neuronales profundas recurrentes (RDNN)

Máquinas Boltzmann restringidas

La máquina restringida de Boltzmann es un modelo gráfico generativo que


representa una distribución de probabilidad. La naturaleza restringida de la
máquina de Boltzmann implica una simplificación del problema de aprendizaje
mediante la imposición de restricciones en el
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 295

topología de red adoptada. La característica del modelo gráfico se refiere a los campos
aleatorios de Markov no dirigidos. La arquitectura

tomamos consta de una capa visible y una capa oculta con conexiones entre estas
dos capas. Los datos se ingieren a través de la capa de entrada o visible y se empujan
hacia arriba, propagándose a la capa oculta. Luego, los datos de entrada se
reconstruyen y se envían de regreso a la capa visible. El objetivo principal del
pensamiento para implementar un RBM es determinar si hay un número discreto de
patrones de características en los datos de la serie temporal de producción. La función
de activación utilizada fue una función sigmoidea que entrenaba al RBM ajustando los
pesos entre las dos capas: visible y oculta. Consulte la Figura 9.10 para ver una
expresión pictórica de la RBM utilizada en el estudio.

Las siguientes columnas representan las variables en cada uno de los 150
conjuntos de datos de pozo agregados para generar un conjunto de datos de entrada
para el estudio.

Fecha: la fecha en que la medición fue el último día del mes

Campo: Nombre de campo anónimo donde se ubican el reservorio y los pozos

Formación: Tope de formación de roca litológica para el reservorio

Entradas Peso Suma Función de activación Producción

yo 0

W0

W1
Una sola neurona en una ÿ ÿ
yo 1 (X) O0
red neuronal:

W2

• Objetivo: ajustar los pesos para acercarse lo más posible al resultado


esperado • Este es esencialmente el modelo matemático de
yo 2
aprendizaje • Construcción del modelo representacional de información

Figura 9.10 Arquitectura RBM implementada para predecir la salida


Machine Translated by Google

296 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

Nombre del pozo: Las dos primeras letras del nombre del campo seguidas de la
formación y el índice

Petróleo: Producción mensual de petróleo

Agua: Producción mensual de agua

Gas: Producción mensual de gas

Los pozos bajo estudio tenían cantidades variables de datos de producción debido a
diferentes fechas de perforación y tiempos de pruebas de pozos (PTA y RTA).

Se tomaron muestras de cada conjunto de datos y se imputaron valores de


producción cero determinando el promedio del mes anterior y publicando el punto de
datos faltante.

fi Transponga los conjuntos de datos de pozos en sectores.


ÿ Normalizar sectores.

fi Divida los conjuntos de datos en conjuntos de datos de entrenamiento, validación y prueba.

Transponer los conjuntos de datos de pozos en sectores

ÿ Algunos algoritmos de aprendizaje automático solo toman tamaño fijo


aporte.

ÿ Ventaja: hay suficientes datos de entrenamiento. fi El estudio

implementó los siguientes criterios de datos: fi Tamaño de entrada: 48


meses (4 años) fi Tamaño de salida: 12 meses (1 año) fi Tamaño del

paso: 6 meses

Adoptamos una metodología supervisada.

Normalizar Sectores

Paso 0: Resta el valor medio y divide por la desviación estándar.

Paso 1: centre los sectores de datos alrededor de 0 y luego distribúyalos por igual.
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 297

Divida los conjuntos de datos en conjuntos de datos de entrenamiento, validación y prueba

Para hacer aprendizaje automático, dividimos nuestros datos en conjuntos de entrenamiento y


validación:

1. Entrenar redes neuronales utilizando el conjunto de entrenamiento.

2. Pruebe qué tan bien funciona en una entrada novedosa usando un conjunto de validación.

3. Reserve el tercer conjunto de datos, el conjunto de prueba, que contiene

predicciones para los pozos en fechas futuras.

Evite el sobreentrenamiento: después de una cierta cantidad de pasos de entrenamiento,

continúa obteniendo mejores predicciones sobre los datos que la red ha visto, pero no sobre los

datos nuevos.

Matemáticas
Las matemáticas detrás de una sola neurona representan la evaluación de las funciones de

activación en el valor producido por el producto escalar del vector de peso y el vector de entrada. ÿ ÿ

ÿ w0 ÿ ÿ ÿ ÿ ÿ ÿ ÿ ÿ

ÿ ÿÿ ÿÿ ÿI0 ÿÿ
ÿ ÿÿw0
ÿ ÿÿ ÿ
ÿÿ
ÿ I0ÿÿ
ÿÿÿÿ yo = ÿÿÿÿÿÿ
ÿÿ ,
ÿ

O0 =
Al = (ÿÿW0 ÿ I ) donde ÿÿW0 =
wn ÿ ÿ wn ÿ ÿ En

Extender esta idea para múltiples nodos de salida, convierte el producto escalar en un producto

matricial de la matriz de ponderación (que consta de los vectores de peso para cada salida apilados

verticalmente como filas) y el vector de entrada.

ÿ ÿ ··· ÿÿW0 ··· ÿ ÿ


ÿÿ

··· ···
O = (Wÿÿ I ) donde W = ÿ ÿ ÿ ÿ ··· ÿÿWn ··· ÿ ÿ ÿ

Entonces, ¿cómo se ajusta la matriz de ponderación para que la salida del algoritmo coincida

con la salida prevista? Primero defina la función de pérdida L(WÿkIÿ,Oÿ) donde Wÿk es el vector de

ponderación en uno de los conjuntos de entrada de los datos de entrenamiento, y Oÿ es la salida


ÿ
iteración k. yo dada I ÿ.

Para la predicción de series temporales, definimos la pérdida como error cuadrático: L(Wÿk, ÿ,

ÿ) = ÿWÿk, Iÿ,ÿOÿÿÿ .
Machine Translated by Google

298 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

CASO DE ESTUDIO: EXTRACCIÓN DE CARACTERÍSTICAS GEOFÍSICAS:


REDES NEURONALES PROFUNDAS

Construyamos por partes una CDNN para considerar una imagen sísmica o
una sola línea 2D a partir de un cubo de datos sísmicos 3D. Queremos
identificar una característica o atributo sísmico como un punto plano como se
visualiza en la Figura 9.11.
Esta característica invariablemente atraviesa la estratigrafía representada
en los perfiles sísmicos de los yacimientos de petróleo y gas. Puede
considerarse como un indicador directo de hidrocarburos debido a su frecuente
presencia en los yacimientos de hidrocarburos. ¿Por qué vemos un punto plano
desde la perspectiva de un geofísico? Un aumento en la impedancia acústica
puede ser característico de un punto plano que aparece cuando los poros de
piedra caliza o arenisca contienen gas sobre una roca llena de líquido que
tiene una mayor impedancia acústica. Si podemos caracterizar un punto plano
sutil ubicado en una imagen sísmica posterior a la perforación, podemos
reconocer otros puntos planos similares en las imágenes 3D en una etapa
anterior y, en última instancia, reducir el riesgo de pozos secos.
Podemos extraer atributos de píxel en cada punto de profundidad y tiempo
comunes a lo largo del punto plano. Podemos agregar estas características de
píxel con los atributos sísmicos en el punto plano: impedancia acústica, Z
(producto de la velocidad sísmica y la densidad), frecuencia y contenido de
amplitud, así como fase instantánea. Estas características de puntos planos en
la extensión lateral, así como en el dominio temporal, se pueden muestrear y
luego clasificar con una red neuronal.

punto plano

Figura 9.11 Flat-spot es una anomalía de atributo sísmico representada como una
reflector
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 299

Desarrollo de capas CDNN


La metodología más simple es conectar los atributos a un
capa totalmente conectada en la red neuronal. como se muestra en
Figura 9.12 tenemos un conjunto de diferentes neuronas y cada entrada
se conecta a cada neurona disponible.
Podemos adoptar un diseño más elegante que reconozca inherentemente una
simetría en las propiedades sísmicas bajo estudio. Como geofísicos, ponemos gran
énfasis y valor en la sísmica localizada.
atributos dentro de los datos. ¿Cuáles son las características del punto plano?
para una ubicación espaciotemporal dada? y cuales son estas caracteristicas
en todos los puntos de las imágenes sísmicas espaciotemporales?
Podemos generar un grupo de neuronas, A, que se centren en un pequeño
ventana de las huellas sísmicas en el espacio y el tiempo. A puede escanear todo
los segmentos o ventanas, características determinantes. la salida de
esta capa convolucional actúa como entrada a una capa F completamente conectada.
A es un conjunto de neuronas que individualmente podrían detectar
diferentes aspectos de un punto plano. Una neurona podría identificar un borde
vertical mientras que la neurona adyacente podría detectar un borde horizontal.
borde hasta el punto plano. Todos los contrastes de color y variaciones de amplitud.
también se puede determinar y distinguir a través de las neuronas en
capa a
En la figura 9.13, A analiza solo segmentos que constan de dos
puntos. Esto obviamente no es suficiente. Invariablemente, en una CDNN, un
la ventana de la capa de convolución sería más extensa.
Los componentes clave de la arquitectura de una CDNN son los
capas convolucionales y su representación como compuesto
capas. Por lo tanto, la salida de una capa convolucional puede alimentar a
otra capa, y la red puede distinguir niveles superiores,
características más abstractas.

X0 X1 X2 X3 X4 X5 X6

Figura 9.12 Arquitectura neuronal simple para la identificación de puntos planos


Machine Translated by Google

300 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

A A

X0 X1 X2 X3 X4 X5 X6

Figura 9.13 Introducción de la capa A enfocada en una pequeña ventana espacio-temporal

B B B

AAAA

X0 X1 X2 X3 X4 X5 X6

Figura 9.14 La capa de neuronas B agrega una capa convolucional para

análisis

En la figura 9.14 representamos otro grupo de neuronas; se usa b


para producir una capa convolucional adicional apilada encima de
el anterior, A.
Las capas de agrupación se entrelazan con frecuencia con convolucional
capas, y hay un tipo de capa llamada max-pooling
capa que ha ganado mucho apoyo para la implementación en
una arquitectura CDNN (Figura 9.15). podemos aprovechar
la capa de agrupación máxima al identificar características sísmicas tales
como puntos planos dentro de una ventana espacio-temporal dentro de una sísmica
imagen. La ventaja ganada radica en el concepto de tomar la
máximo de características dentro de pequeños bloques de una capa anterior.

B B B

máximo máximo máximo máximo

A AAAA

X0 X1 X2 X3 X4 X5 X6

Figura 9.15 Una capa de agrupación máxima ayuda a identificar características sísmicas
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 301

Se nos informa si existía una característica en una sección de la capa anterior,


pero no exactamente dónde. Por lo tanto, hay un tipo de comportamiento de
"zoom" implementado por una capa de agrupación máxima.
Las capas convolucionales subsiguientes pueden manejar secciones mucho
más grandes de los datos sísmicos, ya que un parche pequeño publica la capa
de agrupación en mapas de un parche mucho mayor anterior.
Hemos examinado CDNN construidos con unidimensional con
capas evolutivas. Sin embargo, se pueden abordar dimensiones más altas de
datos. A menudo, se populariza una capa convolucional bidimensional de modo
que la red neuronal puede analizar parches además de pequeñas ventanas en
el espacio y el tiempo.
Si se selecciona un parche de datos de imágenes sísmicas, es factible
ingerirlo en una versión multidimensional de la Figura 9.15 con agrupación
máxima en dos dimensiones. Esto asegura un máximo de características
sísmicas dentro de un parche pequeño.
Esta arquitectura es ideal para interpretar una imagen sísmica 2D completa,
ya sea en línea o en línea cruzada dentro del cubo de datos sísmicos 3D. ¿Por
qué? No es necesario preocuparse por la ubicación exacta de un borde a nivel
de píxel al identificar un punto plano. Es suficiente para apreciar dónde se
encuentra dentro de unos pocos píxeles.

Cuando se piensa en redes neuronales convolucionales, es más fácil


formular la implementación de una CDNN desde una perspectiva matemática.
Hay una operación bien conocida por los geofísicos de procesamiento llamada
convolución. Es un dispositivo potente que se ve a menudo en el aprendizaje de
ecuaciones diferenciales parciales. Los geofísicos a menudo aplican operadores
de deconvolución en los datos sísmicos registrados para revertir los efectos de
la convolución de la Tierra.
firmas El operador convolucional en las CDNN ofrece múltiples beneficios al
buscar características como puntos planos en un cubo sísmico 3D completo. La
primera ventaja permite implementaciones mucho más eficientes de las capas
convolucionales y el segundo valor elimina una gran cantidad de confusión de
nuestra formulación. El tercer beneficio radica en la perspectiva marcadamente
diferente para pensar de manera convincente sobre las capas convolucionales.
Machine Translated by Google

302 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

ESTUDIO DE CASO: EVALUACIÓN BASADA EN DATOS DE REGISTRO DE POZOS


PARA PERSPECTIVAS PETROFÍSICAS

Existen muchas fuentes de datos de registros de pozos cotejados desde una


dimensión espacial, temporal y física (Figura 9.16). Necesitamos unir algunas
de las interpretaciones tradicionales más válidas de estos conjuntos de datos
con un conjunto de metodologías analíticas basadas en datos.
Este enfoque híbrido abarcará un porcentaje mucho mayor de los datos
existentes y proporcionará más información y generará un conocimiento más
eficiente y sólido para la toma de decisiones. Las interpretaciones
predeterminadas y subjetivas inherentes a los flujos de trabajo deterministas
actuales a menudo no alcanzan el requisito de conocimiento crítico para el
desarrollo de campo exitoso. Los modelos de fluidos y rocas fijados por análisis
sesgados limitan a priori el valor obtenido de una dimensión cada vez mayor
de los parámetros multivariados y las medidas tomadas de los registros de
pozos.
Cuando estudiamos formaciones rocosas, no sorprende que haya
problemas de complejidad, heterogeneidad, multivariante y multivariante
simplemente debido a la noción de que el tiempo geológico ha causado
estragos en el primer ambiente sedimentario en el que se estratificaron las
rocas.
Los petrofísicos estudian las cantidades medidas subyacentes (datos
duros) para determinar la litología, los tipos de fluidos, así como la porosidad
y la permeabilidad de la matriz de la roca. Estas mediciones sin procesar
obtenidas en el campo a través de un compendio de registros de pozos
variados actúan como materia prima para el paso de interpretación que se basa principalment

Mediciones sin procesar recopiladas Procesado e Interpretado


en el campo: datos duros Valores – Soft Data

Mediciones petrofísicas en estudio

Figura 9.16 El flujo de trabajo detalla la adquisición de datos duros sin procesar de las

herramientas de registro que se utilizan para determinar las propiedades petrofísicas


Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 303

en los primeros principios y calibrado para entregar un modelo cuantificado por


las leyes establecidas de la física newtoniana y las matemáticas gaussianas.
La combinación de conjuntos de datos duros y blandos en una metodología
basada en datos que implementa técnicas de regresión o aprendizaje
automático proporciona una comprensión más sólida de la complejidad
inherente a la matriz de roca.
Un flujo de trabajo estadístico estándar que está ganando popularidad es
la teoría de probabilidad detrás de la ley de Bayes. Esta técnica de computación
blanda define la probabilidad de que ocurra un evento en función de las
condiciones que se consideran probablemente correlacionadas con el evento.
El teorema de Bayes (Reverendo Thomas Bayes, 1701-1761) se representa
matemáticamente mediante la siguiente ecuación:

P(A |B) = P(B| A)P(A)ÿP(B)

Dónde:

A y B son eventos y P(B) ÿ 0.

P(A) y P(B) son las probabilidades de presenciar A y B independientes


entre sí.

P(A | B) es una probabilidad condicional tal que la probabilidad de ver el


evento A dado que el evento B es verdadero.

P(B | A) es entonces la probabilidad de ver B dado que A es verdadero.

Desde la perspectiva del petrofísico, podemos aplicar la ley de Bayes para


cuantificar la probabilidad de que se presencie una distribución de fluido
particular en base al conocimiento a priori de algunos de los datos concretos
recopilados en los registros de pozos.

Inferencia bayesiana

¿Qué significa exactamente la inferencia bayesiana? Sabemos que la inferencia


es un sinónimo de "conjetura educada". Thomas Bayes fue un ministro
presbiteriano en Londres durante la época colonial, y como inconformista,
Bayes incursionó en la probabilidad.
No hay ningún misterio inherente a la inferencia bayesiana. Las
matemáticas a menudo ofuscan los conceptos simples y bayesianos.
Machine Translated by Google

304 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

la inferencia no es una excepción. En resumen, la inferencia bayesiana permite a los


ingenieros determinar resultados más sólidos a partir de una variedad cada vez mayor
de datos complejos en E&P.
Estamos invadidos por una letanía de diferentes registros de pozos que
actualmente recopilan estos conjuntos de datos duros: nuclear, RMN, acústica (DAS),
registro de lodo, registros de resistividad, registros sónicos, registros geomecánicos,
así como dimensiones espaciales para la profundidad que varían a través de
electromagnéticos 3D. propagación e imágenes 2D. Los conjuntos de datos de series
temporales mejoran estos conjuntos de datos anteriores, especialmente los datos de lapso de tiempo 4
Pasamos rápidamente a escenarios más complejos con múltiples pozos, horizontales
y verticales.
Muchos flujos de trabajo de cómputo suave incorporan metodologías de
aprendizaje automático y aprendizaje profundo, así como el conjunto más comúnmente
reconocido de modelos basados en datos basados en regresión, redes supervisadas
y no supervisadas (ANN y SOM), árboles de decisión y conjuntos de diferentes
modelos. Las dos características críticas que promueven la confianza y la capacidad
de aceptación de la aplicación de estos modelos de minería de datos se pueden definir
como:

1. Escalable

2. idempotente

El primero es importante ya que invariablemente se recopilarán y agregarán más


datos a los modelos. La idea de implementar un flujo de trabajo idempotente es sólida
en el campo de las matemáticas y la informática, ya que garantiza que no importa
cuántas veces se ejecute una relación funcional a través de una metodología basada
en datos, los resultados son siempre los mismos cuando se aplican a la misma.
conjunto de datos

Exploremos las posibilidades de aplicar estas técnicas al conocimiento superficial


de la distribución de fluidos en los poros de una matriz rocosa y determinar los cambios
de facies utilizando registros de resonancia magnética nuclear (RMN). La respuesta
de RMN para una formación permite a los petrofísicos calcular tanto la porosidad como
la
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 305

permeabilidad que son principalmente registros continuos de estas propiedades de la


roca a lo largo de un pozo. Estamos manipulando el momento magnético del hidrógeno
abundante en las rocas como saturación de agua. Por lo tanto, la amplitud de la señal
medida por el registro de RMN refleja el número de núcleos de hidrógeno presentes en la
formación rocosa. Luego, la calibración proporciona lecturas de porosidad sin efectos
litológicos. Los petrofísicos pueden determinar la permeabilidad estudiando la tasa de
disminución de la amplitud de la señal de RMN. Las propiedades de la roca impactan en
la medición bidimensional de un valor de RMN (profundidad y tiempo de relajación T2)
que interesa a los petrofísicos.

El flujo de trabajo

1. Cree un modelo de computación suave específico de datos:

una. Identifique el número de tipos notables en los datos que contienen una
distribución T2 a lo largo de un intervalo de profundidad. b. Encuentre los

tipos únicos y caracterícelos como distribuciones T2 de componentes


fundamentales de poro-fluido.

C. Implemente análisis de datos exploratorios y patrones y tendencias de la


superficie que se correlacionen con la distribución espacial de los
constituyentes del poro-fluido a lo largo de la dimensión de profundidad.
Asigne profundidades a las facies poro-fluidas.

2. Realice una inversión para todas las cantidades en estudio:

una. Calcule los puntos de corte de T2 para todos los componentes de

poro-fluido. b. Invertir para todos los volúmenes de los constituyentes del poro-fluido
para transformadas de permeabilidad.

C. Describa cada facies por su distribución media de T2, presión pseudocapilar


y funciones de altura de saturación.

El momento magnético representa el par experimentado por un imán en un campo


magnético externo. Un electrón orbitando un núcleo atómico es un ejemplo de este
fenómeno.
Machine Translated by Google

306 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

ESTUDIO DE CASO: ANÁLISIS DE DATOS FUNCIONALES


EN LA GESTIÓN DE EMBALSES

Las compañías petroleras siempre se esfuerzan por mejorar la calidad y acelerar el


proceso de toma de decisiones de gestión activa de yacimientos para derivar las
estrategias y tácticas de explotación necesarias.
Debemos considerar los yacimientos complejos y heterogéneos de campos muy
maduros. Dichas decisiones se basan en estudios de datos exploratorios y clásicos
para obtener un conocimiento sólido y confiable de los factores críticos de
incertidumbre dentro de las regiones segmentadas del yacimiento. Es imperativo
evaluar el riesgo inherente a las operaciones de ingeniería de campo y cuantificar la
incertidumbre de las propiedades primarias del yacimiento que se consideran
importantes en los ciclos de toma de decisiones.

El análisis de big data proporciona respuestas potenciales a preguntas


relacionadas con el riesgo y la incertidumbre, además de respaldar la información de
las reservas, lo que garantiza que los planes de explotación se cumplan con los
objetivos predefinidos.
Este estudio de caso proporciona información sobre un proyecto de conducción
de agua en un campo de carbonato gigante de Arabia Saudita utilizando un conjunto
de flujos de trabajo analíticos para clasificar pozos, extraer indicadores originales de
producción y dividir el campo en áreas que exhiben un alto corte de agua o zonas
con drenaje deficiente.

Lo que proponemos en este estudio de caso es un enfoque estadístico no


paramétrico que esencialmente replica algunos de los flujos de trabajo recomendados
en la metodología de análisis funcional de datos (FDA) (Ramsey et al., 2005), como
se ilustra en la Figura 9.17.
FDA es una rama de la estadística ideal para analizar datos y generar conocimiento
sobre curvas y superficies en un espacio-tiempo continuo. El componente funcional
propone que una función matemática represente cada elemento de la muestra en
todo el campo de estudio. El continuo físico se puede establecer simplemente como
tiempo o como una ubicación espacial, longitud de onda o incluso probabilidad
estadística.
Machine Translated by Google

CASOS DE ESTUDIO: APRENDIZAJE PROFUNDO EN E&P 307

Rechazar
Análisis de curvas • Intervalos de Confianza
arranque
Metodología Módulo • Simulación Monte Carlo •
Metodología Estadística

Clasificar pozos a través


Agrupación de • Similitud • Disimilitud
Módulo
• Segmentación de campo

• Indicadores clave de
Procesamiento de datos producción • Factores
flujo de trabajo estadísticos • Pozo bueno/malo
Perfiles de rendimiento

Figura 9.17 Análisis de datos funcionales

En la FDA, los datos de producción (petróleo, gas y agua) se modelan


como datos temporales que consisten en una suma de funciones de base
analítica suave ponderada. En lugar de asumir un modelo, los datos nos
enseñan el modelo ajustando conjuntamente todos los perfiles de producción
en el campo segmentado. El análisis de componentes principales funcionales
(fPCA; Ramsey et al., 2005) transforma los datos variables en el tiempo en
datos de puntuación de menor dimensión. Podemos representar todo el
conjunto de datos de producción mediante 2 o 3 componentes principales
funcionales (PC). Los datos de puntuación dimensional inferior son ideales
para los flujos de trabajo de minería de datos posteriores y los estudios de
sensibilidad para obtener una mejor apreciación de los indicadores clave de
producción (KPI). La construcción de relaciones de regresión entre los
parámetros geológicos y las variables de terminación y las puntuaciones
funcionales de PC permite pronosticar la producción de los diferentes líquidos
en nuevas ubicaciones de pozos con diferentes parámetros geológicos/de terminación.
Se entiende que en un yacimiento fracturado, corte de agua y
la relación del factor de recuperación puede mostrar una característica
significativamente diferente. Por lo tanto, con el objetivo de generar nuevos
Machine Translated by Google

308 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

conocimiento sobre las fracturas del campo saudí comenzamos analizando la


distribución del corte de agua.

El módulo de arranque permite a los ingenieros crear intervalos de confianza


confiables para el pronóstico de la tasa de producción y las estimaciones de reservas
durante el ciclo de vida de los pozos. El módulo de agrupamiento permite a los
ingenieros manejar una plétora de diferentes datos aguas arriba generados a partir
de una amplia cartera de pozos al proporcionar un medio para clasificar los pozos en
función de características similares, tácticas o estratégicas, agregadas con propiedades
del yacimiento y parámetros geomecánicos. El objetivo del paso de minería de datos
es introducir al equipo del yacimiento a un enfoque innovador que analiza cantidades
masivas de datos, saca a la superficie patrones y tendencias ocultos e identifica
correlaciones y relaciones en un sistema subterráneo multivariado complejo. La
intención es subrayar los KPIs a medida que se elaboran nuevos planes de ingeniería
para un campo maduro, reduciendo los ciclos de toma de decisiones cuantificados
bajo incertidumbre.

Existen diferentes comportamientos de corte de agua en yacimientos homogéneos


y altamente fracturados. Por lo tanto, una gráfica de corte de agua contra el factor de
recuperación indica la intensidad de la fractura cerca del pozo.
Los pozos ubicados en varios lugares tienden a exhibir diferentes fracturas.

valores de intensidad de turing y, por lo tanto, pueden exhibir diferentes características


de corte de agua contra el factor de recuperación.
Clasifique los pozos dividiendo el campo en regiones:

fi Modelización de la producción diaria

fi Suavizado del corte de agua y GOR fi

Identificación de indicadores de producción fi

Multivariado (análisis de componentes principales)

Agrupación:

fi Clasifica pozos a indicadores de producción fi Identifica

mecanismos de producción (mejores productores)

El análisis de conglomerados, representado en la figura 9.18, se puede utilizar para


segmentar pozos en distintos grupos según las formas de las curvas tipo (patrones) y
otras propiedades.
Machine Translated by Google

CASOS DE ESTUDIO: APRENDIZAJE PROFUNDO EN E&P 309

Grupo de Pozos
A Baja Porosidad, Alta
Permeabilidad, Baja Producción,
Alta Presión, Flujo, etc.

Pozo Grupo B Pozo Grupo C


Alta Porosidad, Baja Permeabilidad, Baja Porosidad, Baja Permeabilidad,
Baja Producción, Baja Presión, Baja Producción, Alta Presión,
Flujo, etc. Flujo, etc.

Figura 9.18 Análisis de conglomerados para segmentar la cartera de pozos en un brownfield

La agrupación en clústeres es una metodología de minería de datos


para categorizar y analizar particiones de observaciones de datos que
comparten características de atributos comparables. Podemos graficar los
grupos de perfiles de pozos y brindar una perspectiva visual de la distribución
de un campo por características comunes del pozo. ¿Dónde están los pozos
con mejor desempeño? ¿Dónde están los pozos con mayor corte de agua?
El flujo de trabajo de agrupamiento de pozos genera la primera ronda
de pozos similares en función de las características que sustentan el
problema comercial en estudio. El siguiente paso analítico compara el
promedio de los conglomerados con los pozos restantes para generar un
segundo conjunto de conglomerados. Este flujo de trabajo itera hasta que
se logra un punto aceptable de valor empresarial. La técnica de
conglomerados jerárquicos es fiable y produce una mayor resolución de resultados
Machine Translated by Google

310 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

que el método de k-medias. Una salida es un dendrograma mostrado


que proporciona un medio para optimizar el número de grupos para
ejecuciones posteriores.
Es plausible segmentar el campo en áreas discretas para acelerar
las decisiones comerciales para la reingeniería del campo. Estos son
algunos de los pasos analíticos que enriquecen el proceso:

ÿ Algoritmos de interpolación y suavizado ÿ


Regresiones multivariadas no lineales ÿ Análisis
de componentes principales ÿ Análisis de
conglomerados ÿ Análisis de discriminación

El proceso FDA analiza datos que son infinitos desde una perspectiva
dimensional. Los datos de producción de petróleo y gas se muestrean
discretamente a lo largo de la serie de tiempo en estudio. Estas medidas
discretas se toman con una periodicidad regular o irregular en el dominio
del tiempo (t ÿ (l, T)), asumiendo que las medidas se originan a partir de
un proceso fluido corrompido por el ruido.

fobserved(t) = ftrue(t) + ÿ(t) ··· t ÿ (l, T)

Transformamos las medidas discretas en continuas


aproximaciones de la función fundamental precisa. Esencialmente, las
mediciones sin procesar de los datos funcionales se estiman con una
"suma escalada de funciones de base analítica suave"
(Grujic et al., 2015) que cruzan el mismo dominio de tiempo que los datos
originales.
Hay varias formas de sistemas de base o funciones de base lógica.
La selección de la función de base óptima depende del problema
empresarial que se esté estudiando y de las características del conjunto
de datos de entrada. Si se trata de datos temporales periódicos, entonces
es adecuada una función de base de Fourier. Los datos de producción en
nuestro caso de estudio tienen una característica inherente no estacionaria
y aperiódica. Seleccionamos la función base B-spline.
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 311

Ramsey et al. discutió múltiples tipos de funciones de base, recomendando las B-


splines para analizar datos no periódicos. Una señal aperiódica no repite su firma o
patrón después de ciertos períodos de tiempo.

Habiendo seleccionado la función base B-splines, tuvimos que determinar los


coeficientes de escala para minimizar el error cuadrático medio del ajuste. Es
importante evitar el sobreajuste y lograr una variación suave de una función ajustada
(Ramsey et al., 2005; Hastie et al., 2008).

El proceso fPCA proporciona tres pasos de visualización:

1. Un gráfico de sedimentación para identificar la varianza acumulada por el


primeras PC

2. Un diagrama para ilustrar la perturbación de las PC sobre el


función media

3. Un gráfico de puntuación de los componentes principales funcionales

Cada punto del gráfico de puntuación representa un perfil de producción. Las


distancias euclidianas ilustran similitudes y enfatizan las variaciones entre los
diferentes perfiles de producción. Pudimos clasificar visualmente aquellos atributos
geofísicos y petrofísicos que impactaron la producción estadísticamente. Logramos
esta idea coloreando los puntos representados en el gráfico de puntuación por los
valores de los parámetros. Cualquier cambio de color sistemático observado en el
gráfico de puntaje puede representar una tendencia subyacente indicativa de la
sensibilidad e influencia de un parámetro en la producción.

La metodología funcional es un conjunto innovador de flujos de trabajo


analíticos avanzados que amplía la base funcional para representar la disminución
de la producción de petróleo y gas en un yacimiento. No hacemos suposiciones a
priori sobre los mecanismos físicos subyacentes o cualquier modelo de declive
empírico.
Consulte el trabajo realizado por Grujic, Da Silva y Caers en 2015 para obtener un
estudio de caso más detallado que estudió un yacimiento no convencional en
América del Norte.
Machine Translated by Google

312 MEJORAR LA EXPLORACIÓN DE PETRÓLEO Y GAS

REFERENCIAS

Bengio, Y., A. Courville y P. Vincent, "Aprendizaje de representación: una


revisión y nuevas perspectivas", IEEE Transactions on Pattern Analysis
and Machine Intelligence, 35 (2013): 1798–1828.
Bengio, Yoshua, Pascal Lamblin, Dan Popovici y Hugo Larochelle, “Greedy
Layer-Wise Training of Deep Neural Networks”, Avances en sistemas de
procesamiento de información neuronal 19 (NIPS 2006), MIT Press (2007),
págs. 153–160.
Duda, RO, PO Hart y DG Stork, Clasificación de patrones, 2ª ed.,
John Wiley & Sons, Nueva York (2000).
Grujic, Ognjen, Carla Da Silva y Jef Caers, “Functional Approach to Data
Mining, Forecasting, and Uncertainty Quantification in Unconventional
Reservoirs”, artículo de la SPE 174849, Exposición y conferencia técnica
anual de la SPE, Houston (28 al 30 de septiembre de 2015).

Hall, Patrick, Jared Dean, Ilknur Kaynar Kabul y Jorge Silva, "An Overview of
Machine Learning with SAS® Enterprise Miner™", artículo SAS313-2014,
SAS Institute Inc. (2014).
Hall, Patrick, Ilknur Kaynar Kabul, Jorge Silva, Keith Holdaway y Alex Chien,
“An Efficient Pattern Recognition Approach with Applications”, artículo
SAS3100-2016, SAS Institute Inc. (2016).
Hastie, T., R. Tibshirani y J. Friedman, Los elementos del aprendizaje
estadístico, la minería de datos, la inferencia y la predicción, 2.ª ed.,
Springer (2008).
Hinton, GE y RR Salakhutdinov, "Reducción de la dimensionalidad de los datos
con redes neuronales", Science, 313 (28 de julio de 2006): 504.
DOI: 10.1126/ciencia. 1127647.
Krizhevsky, A., I. Sutskever y GE Hinton, "Clasificación de ImageNet con redes
neuronales convolucionales profundas". En: Avances en sistemas de
procesamiento de información neuronal 25 (NIPS 2012), Actas de la
Conferencia anual sobre sistemas de procesamiento de información
neuronal (2012), págs. 1097–1105.
LeCun, Yann, Leon Bottou, Yoshua Bengio y Patrick Haffner, "Aprendizaje
basado en gradientes aplicado al reconocimiento de documentos"
IEEE (noviembre de 1998).
Machine Translated by Google

ESTUDIOS DE CASOS: APRENDIZAJE PROFUNDO EN E&P 313

LeCun, Yann, Yoshua Bengio y Geoffrey Hinton, Nature, 521 (mayo


28, 2015): 436–444. DOI: 10.1038/naturaleza14539.
Lee, H., A. Battle, R. Raina y AY Ng, "Algoritmos de codificación dispersa eficientes". En:
Avances en los sistemas de procesamiento de información neuronal 19 (NIPS
2006), Actas de la Conferencia Anual sobre Sistemas de Procesamiento de
Información Neural (2006), págs. 801–808.
Ramsey, J. y BW Silverman, "Análisis de datos funcionales", Springer
Serie en Estadística (8 de junio de 2005).
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

Glosario

Impedancia Acústica Es la relación de la presión sobre un imaginario


superficie en una onda de sonido a la tasa de flujo de partículas a través de la superficie.

ANN En informática y campos relacionados, redes neuronales artificiales


son modelos computacionales inspirados en el sistema nervioso central de los animales
que son capaces de aprendizaje automático y reconocimiento de patrones. Están
presentados como sistemas de "neuronas" interconectadas que pueden calcular valores
de entradas alimentando información a través de la red.

ARIMA En el análisis de series de tiempo, ARIMA significa Media móvil integrada


autorregresiva y se utiliza para predecir tendencias futuras.

Código estándar estadounidense ASCII para el intercambio de información: el


estándar ampliamente utilizado para codificar caracteres legibles por humanos y
símbolos para el cálculo.

AVO Variación en la amplitud de la reflexión sísmica con un cambio en la distancia


entre el punto de disparo y el receptor que indica diferencias en la litología y
contenido de fluido en las rocas por encima y por debajo del reflector. El análisis AVO es un
técnica mediante la cual los geofísicos intentan determinar el espesor, la porosidad,
densidad, velocidad, litología y contenido de fluidos de las rocas.

Teorema de Bayes Describe la probabilidad de un evento con base en


experiencia o conocimiento de las limitaciones o condiciones que podrían afectar
el evento.

Variable binaria Una variable binaria tiene solo dos valores distintos. un binario
La variable puede ser tratada legítimamente como nominal, ordinal, de intervalo o alguna
razón de tiempo.

CAPEX Los gastos de capital son gastos que crean beneficios futuros.
Se incurre en un gasto de capital cuando una empresa gasta dinero
comprar activos fijos o agregar al valor de un activo fijo existente con un
vida útil que se extienda más allá del año contributivo.

Variable categórica Una variable categórica se utiliza para la exclusividad mutua. No es una
categoría ordenada. Por ejemplo, los geofísicos podrían comparar
diferentes atributos sísmicos. Podemos codificar estos atributos con valores numéricos
Es si el orden es arbitrario y cualquier estimación no tiene valor.

314
Machine Translated by Google

GLOSARIO 315

CDP En la adquisición sísmica multicanal donde los lechos no se inclinan, el punto de reflexión
común en la profundidad de un reflector, o el punto medio cuando
una onda viaja desde una fuente a un reflector a un receptor. En el caso de piso

capas, el punto de profundidad común está verticalmente debajo del punto medio común.

El procesamiento de eventos CEP es un método para rastrear y analizar (procesar) flujos de


información (datos) sobre cosas que suceden (eventos) y derivar una conclusión de ellos. El
procesamiento de eventos complejos (CEP) es un procesamiento de eventos que combina
datos de múltiples fuentes para inferir eventos o patrones que sugieren circunstancias más
complicadas.

Variable de clase Una variable de clase es una variable objetivo categórica y la clasificación
significa asignar casos a categorías de una variable dependiente.
Una variable de clase es una variable categórica, ya sea una entrada o un destino.

CRM La gestión de las relaciones con los clientes es un modelo para gestionar las interacciones
de una empresa con los clientes actuales y futuros. Implica el uso de tecnología para organizar,
automatizar y sincronizar las ventas, el marketing, el servicio al cliente y el soporte técnico.

DAS Los sistemas de detección acústica distribuida (DAS) aprovechan los cables de fibra
óptica que constan de una o varias fibras ópticas que se utilizan para transmitir la luz. Es una
tecnología emergente que encuentra sus raíces en todo el Departamento de Defensa.

Minería de datos La minería de datos es el proceso de descubrir patrones en conjuntos de


datos. El objetivo es crear modelos de computación suave para permitir que los flujos de trabajo
de reconocimiento de patrones aborden problemas comerciales basados solo en datos.

Ciencia de datos La ciencia de datos es una disciplina basada en métodos, procesos y


sistemas científicos que extraen conocimiento procesable de datos sin procesar. Los datos
pueden ser de naturaleza estructurada, no estructurada, espacial y temporal. Implica la
implementación de metodologías basadas en datos utilizando modelos de computación suave.

Análisis de la curva de declinación DCA . Una determinación empírica de las curvas tipo con
base en datos históricos de producción para pronosticar el desempeño del pozo y estimar la
recuperación final.

Deducción El razonamiento deductivo representa el proceso que vincula premisas con


conclusiones lógicamente ciertas.

Árbol de decisión Los árboles de decisión son modelos que permiten la clasificación de obser

vaciones basadas en objetivos nominales, binarios u ordinales. Es una jerarquía con cada
segmento llamado nodo de un árbol.
Machine Translated by Google

316 GLOSARIO

Deep Learning El estudio de las redes neuronales artificiales en una arquitectura multicapa.

DHI En sismología de reflexión, un punto brillante es una anomalía local de atributo sísmico
de gran amplitud que puede indicar la presencia de hidrocarburos y se conoce como
indicador directo de hidrocarburos.

Análisis discriminante El análisis discriminante clasifica filas de datos definidos por valores
de variables continuas en grupos o segmentos discretos.

DOFF Digital Oilfields of the Future se define por la forma en que la industria petrolera
implementa su tecnología, personas y procesos para respaldar la optimización de la
producción de hidrocarburos, mejorar la seguridad operativa, proteger el medio ambiente y
maximizar y descubrir reservas.

DTS Los sistemas de detección de temperatura distribuida (DTS) permiten recopilar


mediciones de temperatura de fondo de pozo en múltiples puntos simultáneamente por
medio de fibra óptica.

Conjunto La metodología de conjunto genera modelos uniendo las probabilidades


posteriores o los valores predichos de múltiples modelos precursores. El modelo de conjunto
se utiliza para puntuar nuevos datos.

E&P Cadena de exploración y producción que cubre todos los pasos del upstream:
exploración, evaluación, desarrollo, producción y
intervención.

EDA En estadística, el análisis exploratorio de datos es un enfoque para analizar conjuntos


de datos para resumir sus características principales, a menudo con métodos visuales.

EOR Recuperación mejorada de petróleo es un término genérico para las técnicas para
aumentar la cantidad de petróleo crudo que se puede extraer de un campo petrolero.

EUR Recuperación final estimada de un campo, yacimiento o pozo.

Aprendizaje automático factorizado Las máquinas factorizadas (FM) pueden modelar toda
la familia de posibles interacciones entre las variables mediante la adopción de parámetros
factorizados. El uso de FM permite a los geofísicos y petrofísicos estimar las interacciones
en conjuntos de datos escasamente poblados.

FFT Una transformada rápida de Fourier es un algoritmo para calcular la transformada


discreta de Fourier (DFT) y la inversa. Una transformada de Fourier convierte el tiempo (o
el espacio) en frecuencia y viceversa; una FFT calcula rápidamente tales transformaciones.

FL La lógica difusa es una forma de lógica de muchos valores; se trata de un razonamiento


que es aproximado en lugar de fijo y exacto. Comparado con el tradicional
Machine Translated by Google

GLOSARIO 317

conjuntos binarios (donde las variables pueden tomar valores verdaderos o falsos) las
variables de lógica difusa pueden tener un valor de verdad que varía en grado entre 0 y 1.

GA En el campo de la informática de la inteligencia artificial, un algoritmo genético es


una búsqueda heurística que imita el proceso de selección natural.

Geofísica El estudio de la física de la tierra. La sismología de reflexión implementa


técnicas geofísicas para mapear la respuesta acústica de los yacimientos de hidrocarburos.

Aumento de gradiente Un ejemplo de una metodología de conjunto es el aumento de


gradiente que genera un modelo resultante a partir de un conjunto de modelos predictivos
débiles en un proceso secuencial y por pasos.

Inducción El razonamiento inductivo proporciona las premisas como fuerte evidencia de


la veracidad de una conclusión.

Los sensores inteligentes de Internet de las cosas en pozos, embalses e instalaciones


de superficie permiten analizar datos de transmisión en tiempo real debido a la
conectividad a través de redes masivas de datos ascendentes. El Internet industrial de
las cosas encapsula este paradigma innovador.

Variable de intervalo Una variable de intervalo refleja una diferencia significativa en la


medición entre dos variables.

LAS Log ASCII Standard es el formato de intercambio de datos para el registro de datos
de pozos. Mantenido aquí: http://www.cwls.org/las/.

Aprendizaje automático Una rama de la inteligencia artificial que brinda a los científicos
de datos la capacidad de desarrollar algoritmos que aprenden de un flujo de trabajo
basado en datos y predicen en función de patrones históricos.

NMO El efecto de la separación entre receptor y fuente en el tiempo de llegada de un


reflejo que no se hunde.

Variable nominal Una variable categórica numérica o de caracteres. Las categorías


están desordenadas. Los valores de cada categoría no contienen información adicional
más allá de la pertenencia a la categoría.

NPT Tiempo improductivo cuando los pozos de petróleo y gas no están produciendo
debido a mantenimiento o cierre para pruebas.

OOIP El petróleo original en el lugar es el contenido total de hidrocarburos de un


yacimiento de petróleo y, a menudo, se abrevia STOOIP, que significa Stock Tank
Original Oil In Place, o STOIIP para Stock Tank Oil Initially In Place, en referencia al
petróleo en el lugar antes del comienzo. de produccion.
Machine Translated by Google

318 GLOSARIO

El gasto operativo OPEX es un costo continuo para ejecutar una estrategia de petróleo y gas
en toda la cadena de valor de exploración y producción.

Variable ordinal El orden es importante, pero cualquier diferencia entre los valores es
irrelevante. Por ejemplo, un petrofísico podría expresar la dureza de una roca utilizando la
escala de Moh del 1 al 10. Sin embargo, una puntuación de 8 significa una roca más dura que
una de 6, y eso es más de 4, pero la
No es lo mismo la diferencia entre 8 y 6 que entre 6 y 4.

OWC El contacto con el agua es un término utilizado en la industria de los hidrocarburos para
describir la elevación por encima de la cual se pueden encontrar fluidos distintos del agua en el

poros de una roca. En la mayoría de las situaciones en la industria de hidrocarburos, el término


se califica como contacto agua-petróleo (OWC) o contacto agua-gas (GWC). A menudo también
hay un contacto gas-petróleo (GOC).

Mínimos cuadrados parciales Los mínimos cuadrados parciales son una metodología útil para
extraer las variables de entrada latentes que explican la mayor variación en el objetivo predicho.

PCA El análisis de componentes principales es un procedimiento estadístico que utiliza la


transformación ortogonal para convertir un conjunto de observaciones de variables posiblemente
correlacionadas en un conjunto de valores de variables linealmente no correlacionadas
denominadas componentes principales.

Petrofísica El estudio de las propiedades físicas y químicas de las rocas y las interacciones
con los hidrocarburos y otros fluidos.

Relación de Poisson Es la relación entre la deformación por contracción transversal y la


deformación por extensión longitudinal en la dirección de la fuerza de estiramiento.

Bosques aleatorios Un bosque aleatorio recopila un grupo de árboles de decisión, cada uno de
los cuales representa un subconjunto asociado aleatoriamente de los datos originales y luego
determina un resultado predictivo a partir de la metodología de conjunto.

Variable de razón Una variable de razón es como una variable de intervalo y tiene un

valor definido de 0.0. El peso del apuntalante en una estrategia hidráulica es una variable de
razón, pero la temperatura no lo es, ya que 100° C no es el doble de caliente que 50° C, sino
1000 lbs. es el doble de 500 libras.

Regresión La regresión lineal se esfuerza por predecir el valor de un objetivo de intervalo como
una función lineal de una o más entradas independientes. Sin embargo, el método de regresión
logística predice la probabilidad de que una variable dependiente ordinal o binaria alcance el
evento en estudio en función de una o más entradas independientes.
Machine Translated by Google

GLOSARIO 319

Basadas en reglas Las técnicas basadas en reglas pertenecen a la misma familia de métodos de
computación blanda que los árboles de decisión. Sin embargo, no existe una partición jerárquica rígida
del conjunto de entrenamiento para los flujos de trabajo basados en reglas.

El drenaje por gravedad asistido por vapor SAGD es una tecnología mejorada de recuperación de
petróleo para producir petróleo crudo pesado y betún.

Técnicas de Soft Computing Los flujos de trabajo y las metodologías que reúnen los pasos
necesarios para construir un modelo probabilístico. La definición permite a los geocientíficos upstream
muestrear datos, explorar los datos en busca de patrones, modificar los datos para el cumplimiento
estadístico y luego generar modelos.

SOM Un mapa autoorganizado o un mapa de características autoorganizadas (SOFM) es un tipo de


red neuronal artificial (ANN) que se entrena mediante el aprendizaje no supervisado para producir una
representación discretizada de baja dimensión (típicamente bidimensional) del espacio de entrada de
las muestras de entrenamiento, llamadas
un mapa.

Máquina de vectores de soporte Las máquinas de vectores de soporte (SVM) utilizan condiciones
lineales para aislar las clases entre sí. La metodología conocida como SVM ejecuta una clasificación
lineal binaria así como una clasificación no lineal. Utiliza un mapeo de los datos geofísicos y
petrofísicos de entrada en un espacio de características de alta dimensión.

TOC El compuesto orgánico total es la cantidad de carbono en un compuesto orgánico como los
hidrocarburos.

UCM El modelo descompone los datos temporales en tendencias, ciclos y efectos de regresión.

WAG El proceso de inyección WAG tiene como objetivo exprimir más petróleo de un yacimiento.
Originalmente tenía la intención de mejorar la eficiencia de barrido durante la inundación de gas, con
gotas intermitentes de agua y gas diseñadas para seguir la misma ruta a través del depósito.

Módulo de Young Una medida de elasticidad, igual a la relación entre la tensión que actúa sobre una
superficie inferior y la deformación producida.
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving. © 2018 por
SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

Índice

A ingeniería de características en
priori 236 Abdul- registros de pozos 95–98
Rahman, A. conocimientos fundamentales 92–95
Modelado de datos espaciales integración con otros
para 3D GIS 23 Controlado con dominios técnicos 90–91
precisión y integración con otra información de
Señal operada rutinariamente pozos 90 integración con datos
Sistema (ACROSS) 103 estratigráficos 87–89 aprendizaje
impedancia acústica 143, 230, 314 automático 98 información
estratigráfica 86 casos de uso 98
A TRAVÉS (Con precisión registro de pozos 78–82 datos de
Controlada y Rutinaria registro de pozos 84–86 agrupamiento
sistema de señal operado) aglomerativo 190–192
103
funciones de activación 53
mapa de activación/características
257 sistemas de lógica neuro-difusa IA (inteligencia artificial) sobre
adaptativa 141 flujos de trabajo 64–65, 241–243 gestión de
analíticos avanzados 280 datos 243 técnicas de
metodologías geofísicas aprendizaje profundo 247–251
avanzadas alrededor de 69–70
estudios de casos 72–78 red neuronal profunda
grupos 70–72 metodologías arquitecturas 251–268
petrofísicas avanzadas alrededor metodologías de aprendizaje
de 69, 99 recopilación de datos automático 243–247 flujo de
82–84 calidad de datos 82–84 tipos trabajo de identificación de
de datos 78–82 extracción de características sísmicas 268–274
información de informes de pozos Información de Akaike
89–90 Criterio (AIC) técnicas 200–204
criterio de caja alineada 274 altitud,
peso, sesgo y 52

323
Machine Translated by Google

324 ÍNDICE

análisis ANN (redes neuronales


Véase también componente principal artificiales) 147–148, 160–
análisis (PCA) 161, 185, 262–263, 269, 314
Ver también análisis de atributos
sísmicos Procesos AR (autoregresivos)
AVO 314 37
grupo 308–310 ARIMA (media móvil integrada
análisis de la curva de declive autorregresiva) 109, 113–
(DCA) 108, 293, 315 116, 165–166, 314 inteligencia
discriminante 46–47, 316 análisis artificial (IA) aproximadamente
exploratorio de datos 64–65, 241–243 gestión de datos
(EDA) 38, 113, 316 243 técnicas de aprendizaje
análisis de datos funcionales profundo 247–251 red neuronal
(FDA) 306–307 profunda
análisis de datos funcionales en el
estudio de caso de gestión de
yacimientos 306–311 arquitecturas 251–268
director funcional metodologías de aprendizaje
análisis de componentes automático 243–247 flujo de
(fPCA) 307 geofísica y trabajo de identificación de
petrofísica 3–4 análisis de características sísmicas 268–274
clase latente (LCA) 185, redes neuronales artificiales
196–198 componente principal de (ANN) 147–148, 160–
ventana móvil 25–26 análisis 161, 185, 262–263, 269, 314
de presión transitoria
ASCII314
Asquith, GB 79 átomos
(PTA) 129 271 atributos
brecha de producción 112–116 coherencia 179, 180
serie temporal 37, 107–116, contextual 107
289–292 wavelet 148–159
bloques de construcción curvatura 176
analíticos, en flujo de trabajo para envolvente 180
conceptos basados en datos 29 frecuencia 180
dominio analítico 12–13 análisis geométrico 177
sobre 5–8 desempeño 10–13 geofísico 230
Transformada de Hilbert sísmica
161
fase 180
Machine Translated by Google

ÍNDICE 325

física 177 roca bosque de arranque


sólida 176 49 metodología de arranque 48–
sísmica 176–180 49 filtro de caja 257
descomposición espectral
159–160, 180 Brent Grupo 88
autocorrelación 37
integrado autorregresivo C
media móvil (ARIMA) 109, 113– Caers, J. 311
116, 165–166, 314 gastos de capital (CAPEX) 314
captura y secuestro de carbono
procesos autorregresivos (AR) (CSS) 103 estudios de casos
37
Análisis AVO 314
geofísica avanzada
B metodologías 72–78
Enfoque de agregación de ensacado aprendizaje profundo 277–
48–49 Ball, W. 30–31 Bayes, T. 311 aprendizaje profundo
303 Teorema de Bayes 46, 314 aplicado a datos de pozos
Jerárquico bayesiano 293–297 recuperación última
estimada 288–293 análisis de
datos funcionales en la gestión
Modelado (BHM) 236 de yacimientos 306–311
Inferencia bayesiana 303–305 extracción de características
Entropía máxima bayesiana geofísicas redes neuronales
(MNE) 231–236 profundas 298–301
cama 88 geoestadística 214–224 facies
atributos de comportamiento 107 sísmicas 189– 190
Bengio, Y. 274
Función de error de distribución análisis de perfil sísmico
de Bernoulli 59 BHM 280–288
(Modelado jerárquico bayesiano) análisis de series de tiempo 129–138
236 sesgo, peso, altitud y 52 evaluación basada en datos de registros
big data 241 variable binaria 43, de pozos para conocimientos
314 error de distribución binomial petrofísicos 302–305

variable categórica 42, 314


función, utilizada para el categoría 42
análisis de regresión logística CCC (agrupación cúbica
45 metodología de impulso 49 criterio) 71
Machine Translated by Google

326 ÍNDICE

CDNN (convolucional profunda procesamiento de eventos complejos


red neuronal) 253–260, 299–301 (CEP) 315
atributos contextuales 107 datos
CDP (punto común de reflexión continuos 107 monitoreo
en profundidad) 315 continuo sobre 103–104
CEP (procesamiento de
eventos complejos) serie de tiempo avanzada
315 canal 255 Chen, J. 25 predicción 108–116
Chilès, JP 233 Christakos, estudios de caso 129–138
G. 233 datos cronológicos, evaluación de terminaciones
en flujo de trabajo para 118–119 teoría del
conceptos basados en datos procesamiento de señales
21–23 variable de clase 42, 315 digitales 117 detección
clasificación, como una acústica distribuida 122–123
clasificación crítica detección de temperatura
distribuida 123–129 monitoreo y
algoritmo en CDNN 255 mapeo de fracturas hidráulicas
tareas de clasificación 45–48 117–118 técnicas de aprendizaje
análisis de conglomerados 308– automático para datos temporales
310 conglomerados aglomerativo 105 en yacimiento 104– 105
190–192 determinar el número monitoreo de yacimientos 119–122
de 70–72 agrupamiento
jerárquico 185, 190–192

k-means agrupamiento 93, 185,


193–194, 282–283 atributo de perspectivas espaciotemporales
coherencia 179, 180 co-kriging 224– 106–107
229 funciones combinadas 52 punto análisis de series de tiempo 107–108
de reflexión común en profundidad convolución, como un crítico
(CDP) 315 algoritmo en CDNN 255, 256–
257
“Competir en Analytics” red neuronal profunda convolucional
(Davenport & Harris) 6 log-log (CDNN) 253–260, 299–301
complementarios, usados para función convolucionada 257
análisis de regresión logística 45 Courville, A. 274 covarianza 211–
evaluación de terminaciones 118– 214 Cressie, N. 233
119
Machine Translated by Google

ÍNDICE 327

CRM (gestión de relaciones con los recopilación de


clientes) 315 metodología de datos calidad de datos y 82–
validación cruzada 49–50 84 extracción de informes de pozos
89–90 dominio de datos 11–13
CSS (captura y secuestro de ingeniería de datos 18–19 gestión de
carbono) 103 datos, inteligencia artificial y 243
Criterio de agrupamiento cúbico minería de datos (DM) 7, 242, 315
(CCC) 71 perfilado de datos, en flujo de
atributos de curvatura 176 filtro trabajo para datos conceptos
de detección de curvas 257 impulsados 26–28
gestión de relaciones con el
cliente (CRM) 315
calidad de
D datos recopilación de datos y 82–
Da Silva, C. 311 84 ciencia de datos en tiempo
DAS (detección acústica real 119–122 alrededor de 5–8
distribuida) 104, 122–123, componentes de upstream
315 datos grandes 241 datos
cronológicos 21–23 continuos 107 equipo 13-15
descripción de 208–209 discretos definido 315
107 primera llegada 160–161 realizando 10–13
maestro 20–21 suavizado de datos 112
tipos de datos petrofísicos
78–82 en flujo de trabajo
para conceptos basados en datos
21 conceptos basados en datos
medida 20–21 aplicando enfoques analíticos 4–5
permeabilidad actividades centrales de 15 enfoques
residual operativa 42 actuales para 2–3 proceso de
216 186–187 cronograma de estudio 15–
imágenes sísmicas 22, 38 18 flujo de trabajo para 19–29
espacial 23–24 estratigráfica conjuntos de datos problemas de
86, 87–89 supervisada 185, escala con grandes 292 facies
280–281 prueba 41 sísmicas 188–189 espacial 36–37
entrenamiento 41 no supervisada temporal 37–38
185, 280–281 validación 41
pozo 36, 90–91
Machine Translated by Google

328 ÍNDICE

Davenport, TH 65, 277 redes neuronales profundas (DNN) 269


“Competir en análisis” 6 Delfinger, P. 233 densidad 230–231
DCA (análisis de curva de declinación) implementaciones, típicas para
108, 293, 315 árboles de decisión
43–44, 315 análisis de curva de
declinación (DCA) 108, 293, 315 monitoreo continuo del subsuelo
descomposición, espectral 159– 75 profundidad 257
160 deducción en comparación con
inducción 29–32 red neuronal DHI (indicador directo de
directa definida 315 profunda 251– 253 hidrocarburos) 298, 316
diccionario, que representa
parches con un 271–272 aspecto
didáctico 232
Yacimiento petrolífero digital del futuro
(DOFF) 242, 316
aprendizaje profundo (DL) procesamiento de señal digital (DSP) 117
alrededor de 30, 40, 64–65, indicador directo de hidrocarburos
247–249
estudios de casos 277–311 (DHI) 298, 316
definido 316 discontinuidad 179 estudio
influencia de 104 estilo descubrimiento, puertas
aprendizaje semisupervisado 249– de enlace de flujo de trabajo
250 para 16–17 datos discretos 107
aprendizaje supervisado 250 transformación de ondas discretas
para modelado de series (DWT) 157 análisis discriminante 46–
temporales 289–292 aprendizaje 47, 316 detección acústica
no supervisado 250–251 distribuida
aprendizaje profundo aplicado
a datos de pozos estudio de caso 293–
297 arquitecturas de redes
neuronales profundas (DAS) 104, 122–123, 315 Detección
de temperatura distribuida (DTS) 104,
red neuronal profunda convolucional 123–129, 316
253–260 red neuronal directa
profunda 251–253 red neuronal DL (aprendizaje profundo)
profunda recurrente 260–261 alrededor de 30, 40, 64–65,
247–249 estudios de
casos 277–311 definido 316
codificador automático de influencia de 104
eliminación de ruido apilado 262–268
Machine Translated by Google

ÍNDICE 329

aprendizaje semisupervisado atributo de sobre 180


249–250 aprendizaje EOR (recuperación mejorada de
supervisado 250 para modelado petróleo) 123, 316
de series temporales 289–292 E&P (exploración y
aprendizaje no supervisado producción) modelo 8, 36–
250–251 DM (minería de datos) 37, 316 funciones de error
7, 242, 315 DML (aprendizaje 52, 58–59 recuperación final
automático dinámico) 105 DNN (redes estimada
neuronales profundas) 269 DOFF (EUR) 251, 288–293, 316
(Digital Oilfield del futuro) 242, 316 computación evolutiva (EC) 62–64
Donoho, DL 152–153 información de variograma experimental 213
perforación 91 DSP (procesamiento exploración y producción
de señal digital) 117 DTS (detección de
temperatura distribuida) 104, 123– (E&P) modelo 8, 36–37, 316
129, 316 análisis de datos exploratorios

(EDA) 38, 113, 316


función exponencial 53
extrapolación 42

F
Duda, RO 186 DWT segmentación de facies 69–70
(transformación wavelet máquina de factorización (FM) 62
discreta) 157 aprendizaje aprendizaje automático factorizado 62,
automático dinámico (DML) 105 316 Fagan, DK 159–160
transformada rápida de Fourier (FFT)
149, 316 volúmenes de fallas 143 fallas
mi 143 FDA (análisis de datos
EC (computación evolutiva) 62–64 funcionales) 306–307 ingeniería de
características en pozo registra 95–98
EDA (datos exploratorios en flujo de trabajo para datos
análisis) 38, 113, 316 filtro
de detección de bordes 257
enfoque de reconocimiento de
patrones eficiente 268–270
recuperación mejorada de petróleo conceptos 28–29
(EOR) 123, 316 metodología de retrasos de retroalimentación
conjunto 48–50, 316 función de error 260–261 redes feedforward 51
de entropía 59 FFT (transformada rápida de Fourier)
149, 316
Machine Translated by Google

330 ÍNDICE

datos de primera llegada 160–161 error de distribución normal 45,


Filtrado FK 163 58
FL (lógica difusa) 316–317 Error de distribución de Poisson 59
FM (máquina de factorización) 62 flujos combinación radial 52 recíproco 53
de trabajo analíticos enfocados 280 error del estimador M redescendente
formación 88 58 valor sigmoide 53 53 lógica difusa
(FL) 316–317
Transformada de Fourier 180
fPCA (principal funcional
análisis de componentes) 307
mapas de fracturas 143 fracturas 143
atributo de frecuencia 180 dominio de GRAMO

número de onda de frecuencia 149 GA (algoritmos genéticos) 62–


capa totalmente conectada 259–260 64, 317
análisis de datos funcionales Función de error de distribución
(FDA) 306–307 gamma 59 Contacto gas-
petróleo (GOC) 318
Filtro de desenfoque gaussiano
análisis de datos funcionales en el 257 algoritmos genéticos (GA)
estudio de caso de gestión de 62–64, 317 geoquímica
yacimientos 306–311 análisis 143 geomecánica 143 atributos
de componentes principales geométricos 177 análisis
funcionales (fPCA) 307 geofísico y petrofísico, crisis en 3–
activación de funciones 53 4 atributos geofísicos 230 extracción de
combinación 52 convolucionado características geofísicas estudio
257 error de entropía 59 de caso de redes neuronales profundas
exponencial 53 298–301 geofísica 317 inversión
geoestadística 229 –231
geoestadística sobre 207–208

Error de distribución gamma 59


Huber M-estimator error 58 tangente
hiperbólica 53 identidad 53 lineal 53
combinación lineal 52 tangente
logística 53 error de Bernoulli múltiple Entropía máxima bayesiana
59 error de entropía múltiple 59 (BME) 231–236
logística múltiple 53 estudio de caso 214–224
covarianza 211–214
descripción de datos 208–209
estimación 210–211
Machine Translated by Google

ÍNDICE 331

inversión geoestadística inducción


229–231 interpretación comparada con deducción 29–
210 kriging/co-kriging 224– 32 definida 317 inferencia
229 variograma 211–214 GOC 303–305 retardos de entrada
(contacto gas-petróleo) 318 260–261 unidades de entrada 51
aumento de gradiente 60, 317
descenso de gradiente 60–62
imagen en escala de grises 256 Organización Internacional para
balance de tierra 163, 165 grupo Normalización (ISO) 22
88 Grujic, O .311 Estratigráfica Internacional
Comisión (ISC) 88
Internet de las cosas (IoT) 317
interpolación 42 variable de
H intervalo 43, 317 interpolación de
Pasillo, P. 274, 282, 287 distancia inversa 233
Harris, JG
“Competir en análisis” 6 He, J. IoT (Internet de las cosas) 317
236 capas ocultas 56–57 unidades ISC (Internacional
ocultas 51 agrupamiento jerárquico Comisión Estratigráfica) 88
185, 190–192 Sísmica transformada
de Hilbert ISO (Internacional
Organización para
estandarización) 22
atributos 161
Holt-Winters 109
Huang, SC 55 J Johnstone, IM 152–153
Huang, YF 55 Huber Diario, A. 233
M-estimator error
función 58 k
Huijbregts, C. 233 riqueza de querógeno
monitoreo y mapeo de fracturas 143 parámetros clave 141–
hidráulicas 117–118, 129–138 147 indicadores clave de
rendimiento (KPI) 72–73,
función tangente hiperbólica 307–308 k-fold cross-validation 49–
53 50 k-means clustering 93, 185, 193–
194, 282–283 síntesis de
I conocimiento (KS) 231–236, 280
funciones de identidad 53 Kohonen, T. 195 Kolovos, AG
función de enlace de identidad, 236
utilizada por regresión lineal 45
Machine Translated by Google

332 ÍNDICE

KPI (indicadores clave de función tangente logística 53 logit,


rendimiento) 72–73, 307– utilizada para logística
308 kriging 224–229 análisis de regresión 45
Krygowski, D. 79 KS (síntesis LWD (registro durante la perforación)
del conocimiento) 231–236, 253
280 Divergencia Kullback-Leibler Compañía de té de Lyon 5

METRO

59 Procesos MA (promedio móvil)


Kuo, AH 72 37 aprendizaje automático
(ML) alrededor de 40, 64–65,
L 98, 243–244, 277 definido
etiquetado 244 317 influencia de 104
LAS (Log ASCII Standard) 317 análisis metodologías 243–247
de clase latente (LCA) 185, 196–198 aprendizaje semisupervisado
extensión lateral 143 Laughlin, K. 245–247
150 LCA (análisis de clase latente) 185,
196–198 paso de aprendizaje, como un
paso crítico al aplicar neural aprendizaje supervisado
244–245
para datos temporales 105
aprendizaje no supervisado 245
redes a datos sísmicos momento magnético 305 hacer que
54 los datos sean utilizables, en
LeChun, Y. 255 flujo de trabajo para conceptos
Sistema informático Leo 5 Li, basados en datos 25–26
Y. 162 funciones de combinación MANN (artificial modular
lineal redes neuronales) 147–148
52 Cadena Markov Montecarlo
método de ajuste lineal, para (MCMC) 124, 229 datos
análisis discriminante 47 maestros, en flujo de trabajo para
funciones lineales 53 regresión lineal conceptos basados en datos 20–
109 litología 230–231 gráfico de 21 madurez 143 Maxwell, JC 246
cargas 200 McCarthy, J. 241 McCormack, MD 161
MCMC (Markov Chain Monte Carlo)
Log ASCII Standard (LAS) 317 registro 124, 229 medición 42
durante la perforación (LWD) 253
regresión logística 46, 47–48
Machine Translated by Google

ÍNDICE 333

datos de medición, en flujo procesos de promedio móvil


de trabajo para conceptos (MA) 37 principio de
basados en datos 20–21 nivel ventana móvil
de medición 43 medición durante la análisis de componentes 25–26
perforación Mueller, DW 71 variables
(MWD) 253 multidimensionales
modelos de tierra mecánica 142, 209
(MEM) 279 metodología
miembro 88 multidisciplinaria 279
MEM (modelos mecánicos de la perceptrón multicapa (MLP) 56, 57–
tierra) 279 metadatos, en 58, 253 función de error de
flujo de trabajo para conceptos Bernoulli múltiple 59 función de error
basados en datos 20–21 de entropía múltiple 59

MetaPhase 235
método de indivisibles 31 función logística múltiple 53 variables
metodologías 180 multivariantes 142, 209 variables
Ver también metodologías multivariantes 142, 209
específicas mineralogía 143
ML (aprendizaje automático)
alrededor de 40, 64–65, 98, MWD (medición durante la
243–244, 277 definido perforación) 253
317 influencia de 104
metodologías 243–247 norte

aprendizaje semisupervisado Naive Bayes 46


245–247 capas de red 53 redes
neuronales
aprendizaje supervisado alrededor de 44

244–245 para datos artificial modular 147–148


temporales 105 aprendizaje redes neuronales, simples
no supervisado 245 sobre 54–55 funciones de
MLP (perceptrón multicapa) 56, 57– error 58–59 capas ocultas
58, 253 56–57 perceptrones multicapa
MNE (máximo bayesiano
Entropía) 231–236 (MLP) 57–58
modelo 40 redes neuronales perceptrones 55–56
artificiales modulares (MANN) redes neuronales, funciones de
147–148 activación tradicionales 53
funciones combinadas 52 capas
Moray, R. 30–31 de red 53
Machine Translated by Google

334 ÍNDICE

redes neuronales, tradicional OOIP (aceite original en el lugar) 317


(Continuación) paso de datos de apertura, en
valores predichos y funciones de flujo de trabajo para conceptos
error 52 basados en datos 19–20 gastos
unidades y conexiones 51 peso, operativos (OPEX) 318 datos
sesgo y altitud 52 operativos 42 información operativa 91
ONM 317
RMN (resonancia magnética
nuclear) 304–305 ruido 41
supresión de ruido 161–171 OPEX (gastos operativos) 318
variable nominal 43, 317 regresión no reconocimiento óptico de
lineal 109 no linealidad, como un caracteres
factor crítico (OCR) 253
variable ordinal 43, 318 aceite
algoritmo en CDNN 255, 257–258 original en su lugar (OOIP) 317

métodos no paramétricos de unidades de salida 51


reducción de dimensiones 93 OWC (contacto agua-aceite) 318
métodos analíticos no paramétricos
de series de tiempo 37 tiempo
improductivo (NPT) 317 PAGS

serie temporal paramétrica


error de distribucion normal métodos analíticos 37 mínimos
función 45, 58 cuadrados parciales (PLS) 50–51,
mezclas normales 185, 195– 318 parches descomposición
196 movimiento normal de imágenes en 270–271
177 representación con un
TNP (tiempo improductivo) 317
resonancia magnética nuclear
diccionario 271–272
(RMN) 304–305 PCA (análisis de componentes
principales) 93, 106–107, 146,
O 165, 169, 185, 198–200, 318
OCR (reconocimiento óptico de
caracteres) 253 Industria PDF (Densidad de probabilidad
del petróleo y el gas alrededor Función) 230, 235
de 8 a 10 sistemas en 36 PEF (filtro de error de predicción) 163
contacto agua-petróleo
(OWC) 318 Olea, RA 233 perceptrones 55–56
permeabilidad 143
Machine Translated by Google

ÍNDICE 335

tipos de datos petrofísicos, registro de información de producción 91


pozos y 78–82 propiedades herramienta de registro de producción
petrofísicas 230–231 petrofísica 318 (PLT) 118
atributo de fase 180 atributos PTA (análisis de transitorios de
físicos 177 Pilouk, M. presión) 129

q
Garantía de calidad (QA) 119–
Modelado de datos espaciales para 122
3D GIS 23 método de ajuste cuadrático, para
información de planificación 91 análisis discriminante 47 método
PLS (mínimos cuadrados de predicción cualitativa 108–109
parciales) 50–51, 318
PLT (herramienta de registro de producción) control de calidad (QA) 119–
118 122
Función de error de distribución método de predicción
de Poisson 59 cuantitativa 108–109
Relación de Poisson (Vp/Vs) 143,
318 porosidad 143 R
funciones de combinacion radial
Fase posterior 235 valores 52
pronosticados, funciones de Rahman, L. 96
error y 52 filtro de error bosques aleatorios 59, 318
de predicción (PEF) 163 modelado relación variable 43, 318
predictivo, herramientas para Ondas de Rayleigh 164 RBM
(máquinas de Boltzmann restringidas)
40 252–253, 294–297 RDNN (red
preprocesamiento 189–190 neuronal profunda recurrente)
análisis de transitorios de presión 260–261 calidad de datos en tiempo
(PTA) 129 real 119–122
análisis de componentes principales
(PCA) 93, 106–107, 146, 165,
169, 185, 198–200, 318 función recíproca 53 mapa
de características rectificadas 258–259
Función de densidad de probabilidad red neuronal profunda recurrente
(PDF) 230, 235 (RDNN) 260–261
dominio del problema 11–13 función de error del estimador M
proceso 180 análisis de brechas redescendente 58
de producción 112–116 parámetros de reflexión 188
regresión 45, 318
Machine Translated by Google

336 ÍNDICE

método de ajuste regularizado, para análisis bosques aleatorios 59

discriminante 47 caracterización de regresión 45 redes


yacimientos de 131–138, neuronales tradicionales
51–53
277–280 Rutledge, J. 159–160
monitoreo continuo en 104–105
geología de 143 monitoreo 119–

122 como un sistema utilizado en S SAGD (drenaje por gravedad asistido


Petróleo y por vapor) 319 Muestrear, explorar,
modificar, modelar y evaluar (SEMMA)
Industria del gas 36 180–182 Sankey, MH 131–138
Datos de permeabilidad residual 216 Diagramas de Sankey 131–132
Residuos, como componente de conjuntos Sarle, WS 71, 72 Savelyeva, E. 233–234
de datos 109–110 Máquinas de Sawitzki, G. 71 SAX (Symbolic Aggregate
Boltzmann restringidas (RBM) 252–253, Parser) 96 problemas de escala, con
294–297 grandes conjuntos de datos 292

RMS (raíz cuadrática media) 203 el


camino hacia la perfección de la ciencia

de datos, en el flujo de trabajo para


conceptos basados en datos 26
atributos sólidos como una roca escalogramas, wavelet 157–159 Schaack,
176 Romeo, G. 54 raíz cuadrada C. 71 gráfica de puntuación 200 puntuación
media (RMS) 203 Royal Society 41 estacionalidad, como componente de
30–31 métodos basados en conjuntos de datos 109–110 análisis de
reglas acerca de 44 inteligencia atributos sísmicos sobre 175–176
artificial 64–65 tareas de clasificación de facies sísmicas 183–
clasificación 45–48 definición 204 tipo de atributos 176–180 flujos de
319 metodología de conjunto 48–50 trabajo 180–182 sísmica clasificación
de facies sobre 183–187 agrupamiento
jerárquico 190–192

computación evolutiva y algoritmos


genéticos 62–64 aprendizaje automático
factorizado
62

aumento de gradiente 60 agrupamiento de k-medias 193–194


descenso de gradiente 60–62 análisis de clases latentes 196–198
mínimos cuadrados parciales 50–51 mezclas normales 195–196
Machine Translated by Google

ÍNDICE 337

análisis de componentes aprendizaje semisupervisado 245–


principales (PCA) 198–200 247, 249–250
Conjunto de datos de facies sísmicas SEMMA (Muestra, Explorar,
188–189 Modificar, modelar y
estudio de facies sísmicas 189–190 evaluar) 180–182
mapas autoorganizados SGD (descenso de gradiente
(SOM) 194–195 estocástico) 284 filtro de
evaluación estadística nitidez 257 funciones sigmoideas
200–204 53 señal 41 relación señal-ruido (S/
identificación de características sísmicas N) 161 redes neuronales simples
método de
reconocimiento de patrones eficiente
en el flujo de trabajo 268–270 Ver redes neuronales, simple
métodos y tecnologías 270–271 conjuntos de aptitudes, requeridos
11–12 datos de suavizado 112
representación de parches con un Relación S/N (señal-ruido) 161 Tecnologías
codificador automático apilado de de computación blanda alrededor de 39–
diccionario 271–272 40 Nomenclatura de minería de datos
272–274 40–43 Árboles de decisión 43–44
datos de imágenes sísmicas 22, 38 Funciones definidas 319 Softmax 53
estudio de caso de análisis de perfil
sísmico 280–288 caracterización
de yacimientos sísmicos sobre 141
datos de primera llegada 160–161 SOM (mapas autoorganizados) 135–
parámetros clave 141–147 redes 138, 146–147, 185, 194–195, 319
neuronales artificiales modulares datos espaciales, en flujo de trabajo
147–148 supresión de ruido 161– para conceptos basados en datos 23–24
171 descomposición espectral 159–
160 análisis de ondas 148 –159
paso de selección, como un paso Modelado de datos espaciales para GIS 3D
crítico al aplicar redes neuronales a (Abdul-Rahman & Pilouk) 23
datos sísmicos conjuntos de datos espaciales 36–37
perspectivas espaciotemporales

106–107
descomposición espectral
54 atributo 159–160, 180 codificador
mapas autoorganizados (SOM) 135– automático apilado 272–274 codificador
138, 146–147, 185, 194–195, 319 automático de eliminación de ruido apilado
262–268
Machine Translated by Google

338 ÍNDICE

metodología de apilamiento Analizador agregado simbólico


49 evaluación estadística (SAXO) 96
200–204 control estadístico
de procesos 25–26 T

gravedad asistida por vapor Taner, MT 161, 177


conjuntos de datos temporales 37–38,
105 datos de prueba 41 datos textuales,
drenaje (SAGD) 319 en flujo de trabajo para conceptos
estocástico 143–146 descenso basados en datos 24–25
de gradiente estocástico Fundamentos teóricos 231
(SGD) 284 extensión de espesor 143 polígonos de
Variables estocásticas 209 Thiessen 233 detalle con umbral 154
Tanque de almacenamiento Aceite original en análisis de series temporales sobre
Lugar (STOOIP) 317 datos 107–108 avanzado predicción 108–116
estratigráficos sobre 86
integración con 87–89 mapas
de estrés 143 regímenes de
estrés 143 zancada 257
submuestreo, como un componentes de conjuntos de datos
109 suavizado de datos 112
aprendizaje profundo para 289–292
algoritmo en CDNN 255, 258– familias de análisis
260 Sui, W. 124 supergrupo 88 métodos 37
datos supervisados 185, 280–281 dominio de compensación de tiempo 149

aprendizaje supervisado 244–245, compuestos organicos totales


250 Máquinas de vectores de soporte (TOC) 143, 319
(SVM) 46, 48, 185, 319 redes neuronales tradicionales
instalaciones de superficie, como un Ver redes neuronales,
sistema utilizado en Eliminación modelo entrenado
de tendencias de superficie de la tradicional 40 entrenamiento
industria del petróleo y el gas 36, 40 datos de entrenamiento 41

Vector de soporte transductivo


Máquinas (TSVM) 250
tendencias y ciclos, como
componente de conjuntos de
análisis con 215–224 datos 109–110
SVM (Vector de soporte TSVM (Máquinas de vectores de
Máquinas) 46, 48, 185, 319 soporte transductivos) 250 Tukey,
J. 131–138
Machine Translated by Google

ÍNDICE 339

Diagramas de Tukey 131–138 variograma 211–214


Sistemas de lógica difusa tipo 2 141 vector autorregresivo (VAR) 109

tu Veezhinathan, J. 161
UCM (modelo de Vincent, P. 274 Vp/Vs
componentes no (relación de Poisson) 143, 318
observados) 113–116, 165–166, 319
aproximadores universales 58
componentes no W
observados WAG (agua-gas alternante) 182, 248,
modelo (UCM) 113–116, 165– 319 contacto con agua 318
166, 319 datos no supervisados agua-gas alternante (WAG) 182, 248,
185, 319 análisis de ondículas alrededor
280–281 de 148–156 escalogramas de
aprendizaje no supervisado 245, ondículas 157–159
250–251 resultados no
supervisados 282–288 equipo de
ciencia de datos aguas arriba, escalogramas wavelet 157–159
componentes de 13–15 casos de sesgo de pesos, altitud y 52 datos
uso 98 definidos de 40 pozos integración
con otros

V
datos de validación 41 dominios técnicos 90–91
función de valor 53 integración con otra información
van Wijk, K. 159–160 VAR del pozo 90
(vector autorregresivo) 109 variables utilizado en la industria del petróleo y el gas
binario 43, 314 categórico 42, 36
314 clase 42, 315 intervalo 43, 317 evaluación basada en datos
multidimensional 142, 209 de registros de pozos
multivariante 142, 209 para obtener conocimientos
multivariante 142, 209 nominal petrofísicos estudio de caso 302–305
43, 317 ordinal 43, 318 ratio 43, ingeniería de características de registro
318 estocástico 209 de pozos en 95–98 tipos de datos
petrofísicos y

78–82
usos para datos 84–86
informes de pozos, extracción de
datos de 89–90
Machine Translated by Google

340 ÍNDICE

método de ajuste lineal ancho, identificación de características sísmicas


para análisis discriminante 47 268–274

Wong, MA 71 flujos Y
de trabajo analíticos Módulo de Young 143, 319
avanzados 280 para
conceptos basados en datos Z
19–29 relleno con ceros
atributo sísmico 280 257 Zhang, X. 162
analítico enfocado 180–182 Zhuoyi, L. 124
Machine Translated by Google
Mejorar Aceite & Gas Exploración con geofísicos basados en datos y Modelos petrofísicos , Primera edición., Keith R.
Holdaway y Duncan HB Irving.
© 2018 por SAS Institute Inc. Publicado en 2018 por John Wiley & Sons, Inc.

Sobre los autores

Keith R. Holdaway es consultor de la industria de asesoría y


principal arquitecto de soluciones en SAS, donde ayuda a impulsar la
implementación de soluciones y productos innovadores para petróleo y gas.
También desarrolla oportunidades de negocio para la petrolera mundial SAS
y unidad de negocio de gas que alinean los análisis avanzados de SAS de
análisis exploratorio de datos y modelos predictivos al subsuelo
caracterización de yacimientos y optimización de perforación/producción
en campos convencionales y no convencionales.

Antes de unirse a SAS, Holdaway era geofísico senior


con Shell Oil, donde realizó procesamiento sísmico y
interpretación y atributos sísmicos determinados en cubos 3D
para la minería de datos estadísticos de computación blanda.
***

Dr. Duncan HB Irving ha sido un consultor líder en


petróleo y gas para Teradata desde 2010. Antes de eso, investigó
e instruido en geociencias del petróleo en la Universidad de
Manchester, y brindó consultoría independiente de gestión de datos upstream.
A lo largo de su carrera ha trabajado en
adquisición, integración y análisis de datos en torno a datos de sensores,
subsuperficies y yacimientos de petróleo en centros de datos, en casos extremos
condiciones de campo y, en general, flujo de trabajo y datos aguas arriba
administración.
Duncan ha dirigido y apoyado proyectos en los sectores del petróleo y el gas
industrias manufactureras más amplias, consultoría a nivel estratégico y
niveles operativos. Los proyectos en estas industrias abarcan proyectos científicos,
dominios técnicos y comerciales, y Duncan se mantiene amplio en
sus enfoques, por ejemplo, unir la ciencia de datos moderna
paradigmas a los flujos de trabajo impulsados por la supercomputación de larga data.

320
Machine Translated by Google

SOBRE LOS AUTORES 321

Lentamente ha cambiado Perl por Python y PowerPoint por arte de datos.


Tiene un doctorado en geofísica glacial, publica y da conferencias
regularmente sobre los desafíos de análisis y datos de la industria
petrolera, y disfruta estar a la vanguardia del ecosistema analítico
emergente en la exploración y producción de petróleo y gas.

También podría gustarte