Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Aceite de
arnés y
Gas Big Data
con análisis
Machine Translated by Google
La serie de negocios de Wiley & SAS presenta libros que ayudan a los gerentes de alto nivel con sus
decisiones de gestión críticas.
Los títulos de Wiley & SAS Business Series incluyen:
Gestión basada en actividades para instituciones financieras: impulsando los resultados finales
por Brent Bahnub
Fraude bancario: Uso de la tecnología para combatir las pérdidas por Revathi Subramanian
Análisis de Big Data: convertir Big Data en mucho dinero por Frank Ohlhorst
¡Marcado! Cómo los minoristas involucran a los consumidores con las redes sociales y la movilidad
por Bernie Brennan y Lori Schafer
Business Analytics para gerentes: llevar la inteligencia comercial más allá de los informes por
Gert Laursen y Jesper Thorlund
El acuerdo de pronóstico empresarial: exponer las malas prácticas y brindar información práctica
Soluciones de Michael Gilliland
Mejores prácticas del CIO: habilitar el valor estratégico con la tecnología de la información, segundo
Edición de Joe Stenzel
Evaluación del riesgo crediticio: el nuevo sistema de préstamos para prestatarios, prestamistas y
Inversores por Clark Abrahams y Mingyuan Zhang
El activo de datos: cómo las empresas inteligentes gobiernan sus datos para el éxito empresarial por
tony pescador
Entrega de Business Analytics: Directrices prácticas para las mejores prácticas por Evan Stubbs
Machine Translated by Google
Pronóstico impulsado por la demanda: un enfoque estructurado para el pronóstico, segunda edición
por Charles Chase
La guía del ejecutivo para la estrategia empresarial de redes sociales: cómo las redes sociales
están transformando radicalmente su negocio por David Thomas y Mike Barlow
Guía para ejecutivos de Solvencia II por David Buckham, Jason Wahl y Stuart
Rosa
Cumplimiento de préstamos justos: inteligencia e implicaciones para la gestión del riesgo crediticio
por Clark R. Abrahams y Mingyuan Zhang
Informes financieros en moneda extranjera de euros a yenes a yuanes: una guía para
Conceptos fundamentales y aplicaciones prácticas de Robert Rowan
Análisis de la salud: obtener información para transformar la atención médica por Jason Burke
Revolución de la información: uso del modelo de evolución de la información para hacer crecer su
negocio por Jim Davis, Gloria J. Miller y Allan Russell
Killer Analytics: las 20 métricas principales que faltan en su balance general por Mark Brown
Automatización de marketing: pasos prácticos para un marketing directo más efectivo por Jeff
LeSueur
Domar el maremoto de Big Data: encontrar oportunidades en grandes flujos de datos con
Analítica avanzada de Bill Franks
Demasiado grande para ignorar: el caso comercial de Big Data por Phil Simon
El valor de Business Analytics: identificación del camino hacia la rentabilidad por Evan
talones
Visual Six Sigma: cómo hacer que el análisis de datos sea eficiente por Ian Cox, Marie A. Gaudard,
Philip J. Ramsey, Mia L. Stephens y Leo Wright
Gane con el análisis comercial avanzado: creación de valor comercial a partir de sus datos por
Jean Paul Isson y Jesse Harriot
Para obtener más información sobre cualquiera de los títulos anteriores, visite www.wiley.com.
Machine Translated by Google
Aceite de
arnés y
Gas Big Data
con análisis
Optimice la exploración y la producción
con modelos basados en datos
Keith R. Holdaway
Machine Translated by Google
Copyright © 2014 por SAS Institute Inc. Todos los derechos reservados.
Publicado por John Wiley & Sons, Inc., Hoboken, Nueva Jersey.
Publicado simultáneamente en Canadá.
Ninguna parte de esta publicación puede reproducirse, almacenarse en un sistema de recuperación o transmitirse
de ninguna forma ni por ningún medio, ya sea electrónico, mecánico, fotocopiado, grabado, escaneado o cualquier
otro, excepto según lo permita la Sección 107 o 108 de la Ley de Estados Unidos de 1976. Ley de derechos de
autor de los Estados Unidos, sin el permiso previo por escrito del editor o la autorización mediante el pago de la
tarifa correspondiente por copia a Copyright Clearance Center, Inc., 222 Rosewood Drive, Danvers, MA 01923,
(978) 750-8400, fax (978) 646-8600, o en la Web en www.copyright.com. Las solicitudes de permiso al editor deben
dirigirse al Departamento de permisos, John Wiley & Sons, Inc., 111 River Street, Hoboken, NJ 07030, (201)
748-6011, fax (201) 748-6008, o en línea en http ://www.wiley.com/go/permissions.
Para obtener información general sobre nuestros otros productos y servicios o para obtener asistencia
técnica, comuníquese con nuestro Departamento de atención al cliente dentro de los Estados Unidos al (800) 762-
2974, fuera de los Estados Unidos al (317) 572-3993 o al fax (317) 572-4002.
Wiley publica en una variedad de formatos impresos y electrónicos y por impresión bajo demanda.
Es posible que parte del material incluido con las versiones impresas estándar de este libro no se
incluya en los libros electrónicos o en la impresión bajo demanda. Si este libro hace referencia a
medios como un CD o DVD que no está incluido en la versión que compró, puede descargar este
material en http://booksupport.wiley.com. Para obtener más información sobre los productos Wiley,
visite www.wiley.com.
10 9 8 7 6 5 4 3 2 1
Machine Translated by Google
Contenido
Prefacio xi
ix
Machine Translated by Google
x ÿ CONTENIDO
Glosario 343
Índice 351
Machine Translated by Google
Prefacio
Mi motivación para escribir este libro proviene de los problemas acumulados que he presenciado
durante los últimos siete años que ahora prevalecen en la industria del petróleo y el gas aguas
arriba. Los tres temas más destacados son la gestión de datos, la cuantificación de la
incertidumbre en el subsuelo y la evaluación de riesgos en torno a las estrategias de ingeniería
de campo. Con la llegada del tsunami de datos a través de los silos de ingeniería dispares, es
evidente que los modelos basados en datos ofrecen una perspectiva increíble, convirtiendo Big
Data sin procesar en conocimiento procesable. Veo a los geocientíficos adoptando poco a poco
metodologías analíticas que incorporan técnicas informáticas blandas a medida que llegan a la
conclusión inevitable de que los estudios interpretativos y deterministas tradicionales ya no son
viables como enfoques monolíticos para obtener el máximo valor de Big Data en toda la cadena
de valor de exploración y producción.
La perspectiva estocástica y no determinista ya no es un pasatiempo profesional, ya que
la variedad de técnicas informáticas blandas gana credibilidad con el inicio crítico de artículos
técnicos que detallan el uso de modelos predictivos y basados en datos. La Sociedad de
Ingenieros de Petróleo ha sido testigo de una publicación increíble de artículos en conferencias
a nivel mundial que brindan evidencia beneficiosa de la aplicación de redes neuronales, lógica
difusa y algoritmos genéticos a las disciplinas de modelado y simulación de yacimientos. A
medida que la vieja escuela se retire de la industria del petróleo y la nueva generación de
geocientíficos se gradúe con una apreciación avanzada de las estadísticas y las metodologías
informáticas, desarrollaremos una aplicación aún mayor en el upstream. La era del campo
petrolero digital plagado de pozos inteligentes genera una plétora de datos que, cuando se
extraen, revelan patrones ocultos para mejorar los estudios convencionales. Unir los primeros
principios con el modelado basado en datos se está volviendo más popular entre los científicos
e ingenieros de la tierra.
Este libro llega en un momento muy oportuno para la industria del petróleo y el gas, ya que
nos enfrentamos a una explosión de datos. Hemos visto un aumento en el análisis previo a la
acumulación de datos sísmicos 3D junto con la derivación de múltiples atributos sísmicos para
la caracterización de yacimientos. Con la llegada de sensores permanentemente instalados en
el lecho oceánico y en los múltiples pozos perforados en yacimientos no convencionales en
formaciones de esquisto, gas de vetas de carbón, drenaje por gravedad asistido por vapor y
activos en alta mar, estamos observando una proliferación de datos intensivos. actividad.
xi
Machine Translated by Google
xiii ÿ PREFACIO
CAPÍTULO
1
Fundamentos de
Informática blanda
última década para adoptar técnicas de computación blanda como problemas aguas arriba
L a industria
volverse del petróleocomplejo
demasiado y el gas ha sido
para testigo
confiar de un argumento
disciplinas convincente
en silos con sobre la
métodos de
análisis de interpretación y deterministas. Nos encontramos en medio de una avalancha
de datos a lo largo de la cadena de valor de exploración y producción que está
transformando los modelos basados en datos de una curiosidad profesional a un imperativo de la industria.
En el centro de las metodologías analíticas multidisciplinarias se encuentran las
técnicas de minería de datos que brindan modelos descriptivos y predictivos para
complementar el análisis de ingeniería convencional basado en los primeros
principios. Los avances en la agregación de datos, la integración, la cuantificación
de incertidumbres y los métodos de computación suave están permitiendo
perspectivas adicionales sobre los datos dispares aguas arriba para crear modelos
de yacimientos más precisos de manera más oportuna. La computación blanda es
manejable, eficiente y robusta, además de requerir menos recursos que la
interpretación tradicional basada en matemáticas, física y la experiencia de expertos.
Exploraremos los beneficios multifacéticos obtenidos de la aplicación de la rica
variedad de técnicas informáticas en la industria del petróleo.
1
Machine Translated by Google
¿Qué es la inteligencia artificial a nivel humano? Las definiciones precisas son importantes,
pero muchos expertos responden razonablemente a esta pregunta afirmando que tales frases
aún no se han definido exactamente. Bertrand Russell comentó:
La afirmación del conocimiento obtenido a partir de datos sin procesar, que incluye
impartir definiciones precisas, invariablemente resulta de una investigación exhaustiva en un
campo particular, como las disciplinas upstream de petróleo y gas (O&G). Estamos viendo
cuatro tendencias principales que afectan la cadena de valor de exploración y producción
(E&P): Big Data, la nube, las redes sociales y los dispositivos móviles; y estos impulsores
están dirigiendo a los geocientíficos a ritmos variables hacia la implementación de técnicas
informáticas blandas.
La visualización de Big Data a lo largo de la cadena de valor de E&P requiere el uso del
conjunto de tablas, mapas y gráficos2 de análisis de datos exploratorios de Tukey para
descubrir patrones y relaciones ocultos en un conjunto de sistemas upstream multivariado y
complejo. Detallaremos estas técnicas visuales en los Capítulos 3, 4 y 9, ya que son críticas
en las metodologías basadas en datos implementadas en O&G.
Las redes neuronales artificiales (ANN), la lógica difusa (FL) y los algoritmos genéticos
(GA) son técnicas de inteligencia artificial a nivel humano que actualmente se practican en la
gestión y simulación de yacimientos de petróleo y gas, optimización de producción y
perforación, automatización de perforación en tiempo real e instalación. mantenimiento. Las
metodologías de minería de datos que sustentan los modelos basados en datos son
omnipresentes en muchas industrias y, en los últimos años, las actitudes arraigadas y
anacrónicas de los ingenieros upstream en O&G se están diluyendo por las presiones
comerciales existentes para explorar y producir más hidrocarburos para abordar la creciente
demanda. demanda mundial de energía.
Los campos petrolíferos digitales del futuro (DOFF, por sus siglas en inglés) y los pozos
inteligentes con múltiples sensores y medidores están generando a alta velocidad una plétora
de datos dispares que definen un paisaje complejo y heterogéneo, como un sistema integrado
de instalaciones de pozos y depósitos. Estos datos de alta dimensionalidad se complementan
con datos no estructurados que se originan en la actividad de las redes sociales, y con los
dispositivos móviles que han demostrado ser valiosos en las operaciones de campo y la
computación en la nube que brindan una mayor flexibilidad y un mayor rendimiento en la
administración de redes y datos, estamos en una posición ideal para casarnos con software
metodologías informáticas a los enfoques deterministas e interpretativos tradicionales.
La intención a lo largo de las siguientes páginas es abordar los desafíos inherentes al análisis
de Big Data en toda la cadena de valor de E&P. Por definición,
Machine Translated by Google
Big Data es una expresión acuñada para representar una agregación de conjuntos de datos
que son voluminosos, complejos, dispares y/o cotejados con frecuencias muy altas, lo que
genera dificultades analíticas sustanciales que no pueden ser abordadas por las aplicaciones
y herramientas de procesamiento de datos tradicionales. Existen limitaciones obvias al
trabajar con Big Data en un sistema de administración de bases de datos relacionales
(DBMS), implementando estadísticas de escritorio y software de visualización. El término Big
Data es relativo, dependiendo de la arquitectura existente de una organización y las
capacidades de software; invariablemente, la definición es un objetivo en movimiento a
medida que los terabytes se convierten en abytes domésticos e inexorablemente en exabytes.
Business Intelligence (BI) adopta estadísticas descriptivas para abordar datos para descubrir
tendencias e iniciar mediciones fundamentales; mientras que Big Data tiende a encontrar
recreación en los campos de juego de la estadística inductiva y los conceptos de la
identificación de sistemas no lineales. Esto permite que los profesionales de E&P administren
Big Data, identifiquen correlaciones, muestren relaciones y dependencias ocultas, y apliquen
flujos de trabajo analíticos avanzados basados en datos para predecir comportamientos en
un sistema complejo, heterogéneo y multivariable como un yacimiento. El Capítulo 2 analiza
Big Data con más detalle y los estudios de casos a lo largo del libro se esforzarán por definir
metodologías para aprovechar Big Data a través de un conjunto de flujos de trabajo analíticos.
La intención es resaltar los beneficios de casar los modelos basados en datos y los primeros principios en E&P.
Primeros principios
¿Qué son los primeros principios? La respuesta depende de su perspectiva como espectador
inquisitivo. En el campo de las matemáticas, los primeros principios hacen referencia a
axiomas o postulados, mientras que en filosofía, un primer principio es una proposición o
suposición evidente que no puede derivarse de ninguna otra proposición o suposición. Un
primer principio es, pues, aquel que no puede deducirse de ningún otro. El ejemplo clásico
es el de la geometría de Euclides que demuestra que las muchas proposiciones que contiene
pueden deducirse de un conjunto de definiciones, postulados y nociones comunes: los tres
tipos constituyen primeros principios. Estos fundamentos se acuñan a menudo como
verdades a priori . Más apropiado para el mensaje central de este libro, los primeros principios
sustentan el trabajo teórico que se deriva directamente de la ciencia establecida sin hacer
suposiciones. Los geocientíficos han implementado invariablemente técnicas analíticas y
numéricas para derivar una solución a un problema, las cuales se han visto comprometidas
por la aproximación.
Hemos recorrido la historia desde hace miles de años, cuando los modelos empíricos
adoptaron nuestro pensamiento, hasta hace solo unos siglos, cuando el paisaje estaba
poblado por intelectuales teóricos que defendían modelos basados en generalizaciones.
Luminarias como Sir Isaac Newton, Johannes Kepler y James Clerk Maxwell hicieron
enormes contribuciones a nuestra comprensión de los secretos de la Madre Naturaleza y,
por extensión, permitieron a la comunidad geocientífica comprender los fundamentos que
sustentan la física y las matemáticas. Estos fundamentos reflejan la heterogénea complejidad
inherente a los hidrocarburos.
Machine Translated by Google
embalses Solo han pasado unas pocas décadas desde que paseamos por la rama de la
ciencia computacional que fue testigo de la simulación de sistemas complejos, avanzando
hacia el panorama actual esculpido por un análisis exploratorio intensivo en datos, construyendo
modelos basados en datos. Deje que los datos relacionen la historia. Los datos de producción,
por ejemplo, reflejan el movimiento de los fluidos a medida que avanzan inexorablemente a
través de las rocas del yacimiento a través de poros interconectados para ser empujados bajo
presiones naturales o posteriormente fabricadas hacia los pozos productores. No se puede
argumentar que estos datos de producción son una enciclopedia que alberga el conocimiento
de la caracterización de los yacimientos, incluso si su utilidad está directamente relacionada
con áreas localizadas adyacentes a los pozos. Por lo tanto, saquemos a la luz las sutiles
tendencias y relaciones ocultas que correlacionan el rendimiento de un pozo con un conjunto
de propiedades de la roca y parámetros operativos influyentes en un sistema multivariado
complejo. Huellas dactilares geomecánicas lavadas en primeros principios han tocado las
rocas porosas de nuestros yacimientos, empujando los hidrocarburos hacia sus conductos
artificiales. No nos divorciemos de los primeros principios, sino que casemos el enfoque
interpretativo y determinista subrayado por nuestras enseñanzas científicas con una
metodología no determinista o estocástica mejorada por datos sin procesar que se convierten
en conocimiento a través de modelos basados en datos.
ÿ Inteligencia artificial (IA), que es la contemplación de gran alcance de cómo la inteligencia humana
puede incorporarse a las computadoras.
ÿ Inteligencia computacional (CI), que abarca la familia de redes neuronales, sistemas difusos y
computación evolutiva, además de otros campos dentro de la IA y el aprendizaje automático.
ÿ Soft computing (SC), que se acerca a CI, pero con especial énfasis en
sistemas basados en reglas difusas postulados a partir de datos.
Por lo tanto, el modelado basado en datos se centra en los métodos de CI y ML que se pueden
implementar para construir modelos que complementen o reemplacen los modelos basados en los
primeros principios. Se utiliza un algoritmo de aprendizaje automático, como una red neuronal, para
determinar la relación entre las entradas y salidas de un sistema empleando un conjunto de datos de
entrenamiento que refleja por excelencia el comportamiento completo inherente al sistema.
Las ANN muestran un gran potencial para generar análisis y predicciones precisos a partir de conjuntos
de datos históricos de E&P. Las redes neuronales deben utilizarse en los casos en que
el modelado matemático no es una opción práctica. Esto puede deberse a que no se conocen todos los
parámetros involucrados en un proceso en particular y/o a que
Machine Translated by Google
Algoritmos genéticos
La teoría de Darwin de la supervivencia del más apto,5 junto con el seleccionismo de Weismann6 y
la genética de Mendel, han formado el conjunto de argumentos universalmente aceptado conocido
como la teoría de la evolución.
La computación evolutiva representa mecanismos de evolución como elementos clave en el
diseño e implementación algorítmica. Uno de los principales tipos de computación evolutiva es el
algoritmo genético (GA), que es un método de optimización global eficiente para resolver problemas
de mal comportamiento, no lineales, discontinuos y de criterios múltiples.
Podríamos aplicar una ANN para proporcionar intervalos de salida (p. ej., producción acumulada
de 3, 6, 9 y 12 meses) en función de la entrada a la red, es decir, el diseño de estimulación, la
información del pozo y la calidad del yacimiento para cada pozo en particular.
Obviamente, solo los parámetros de diseño de estimulación están bajo control de ingeniería.
La información de pozos y la calidad de los yacimientos son parte del dominio de la Madre
Naturaleza. Es esencial implementar flujos de trabajo de calidad de datos auxiliares y un conjunto
de técnicas de análisis exploratorio de datos (EDA) para descubrir patrones y tendencias ocultos.
Luego implementamos el algoritmo genético como un árbitro potencial para evaluar todas las
combinaciones posibles de esos parámetros de estimulación para identificar la combinación más
óptima. Dicho conjunto combinado de parámetros de estimulación está diseñado para cualquier
pozo en particular (basado en la información del pozo y la calidad del yacimiento) que proporciona
la producción más alta (3, 6, 9 y 12 meses de producción acumulada). La diferencia entre estos
valores acumulativos del tratamiento de estimulación óptimo y los valores acumulativos reales
producidos por el pozo se interpreta como el potencial de producción que puede recuperarse
mediante la (re)estimulación de ese pozo.
¿Cómo resuena contigo la palabra fuzzy ? La mayoría de la gente le asigna una connotación
negativa a su significado. El término lógica difusa en la cultura occidental parece tanto realinear el
pensamiento como un proceso obtuso y confuso como implicar una
Machine Translated by Google
estado mental de la niebla de la mañana. Por otro lado, la cultura oriental promueve el concepto
de coexistencia de contradicciones tal como aparece en el símbolo Yin-Yang, tal como lo observa
Mohaghegh.7
El pensamiento humano, la lógica y los procesos de toma de decisiones no están empapados
de pureza booleana. Tendemos a usar palabras vagas e imprecisas para explicar nuestros
pensamientos o comunicarnos entre nosotros. Existe un conflicto aparente entre el proceso
impreciso y vago del razonamiento humano, el pensamiento y la toma de decisiones y el
razonamiento científico y nítido de la lógica informática booleana.
Este conflicto ha intensificado el uso de computadoras para ayudar a los ingenieros en el proceso
de toma de decisiones, lo que ha llevado inexorablemente a la inadecuación experimentada por la
inteligencia artificial tradicional o los sistemas convencionales basados en reglas, también
conocidos como sistemas expertos.
La incertidumbre representada por la teoría de conjuntos borrosos se debe invariablemente
a la naturaleza aleatoria de los eventos o a la imprecisión y ambigüedad de la información que
analizamos para resolver el problema. El resultado de un evento en un proceso aleatorio es
estrictamente el resultado de la casualidad. La teoría de la probabilidad es la herramienta ideal
para adoptar cuando la incertidumbre es producto de la aleatoriedad de los eventos. La
incertidumbre estadística o aleatoria puede determinarse mediante observaciones y mediciones
agudas. Por ejemplo, una vez que se lanza una moneda, no queda más incertidumbre aleatoria o estadística.
Cuando se trata de sistemas complejos como los yacimientos de hidrocarburos, encontramos
que la mayoría de las incertidumbres son el resultado de la falta de información. El tipo de
la incertidumbre que es el resultado de la complejidad del sistema surge de nuestra ineptitud para
realizar mediciones satisfactorias, de la imprecisión, de la falta de experiencia o de la borrosidad
inherente al lenguaje natural. La teoría de conjuntos borrosos es un medio plausible y efectivo
para modelar el tipo de incertidumbre asociada con la imprecisión.
Tenga en cuenta que la información proporcionada al sistema experto difuso puede ser diferente
de una formación a otra y de una empresa a otra. Esta parte de la metodología proporciona los
medios para capturar, mantener y utilizar algunos conocimientos valiosos que permanecerán en la
empresa incluso si los ingenieros son transferidos a otras secciones de la empresa donde su
experiencia ya no está disponible. El sistema experto difuso es capaz de incorporar lenguaje
natural para procesar información. Esta capacidad proporciona la máxima eficiencia en el uso de
información imprecisa en situaciones menos seguras. Una regla típica en el sistema experto difuso
que ayudará a los ingenieros a clasificar a los candidatos a la (re)estimulación puede expresarse
de la siguiente manera:
Un valor de verdad está asociado con cada regla en el sistema experto difuso desarrollado
para esta metodología. El proceso de tomar decisiones a partir de subconjuntos borrosos usando
los parámetros y los valores de verdad funcionales relativos como reglas proporciona los medios
para usar un razonamiento aproximado. Se sabe que este proceso es uno de los métodos más
sólidos para desarrollar sistemas expertos de alto nivel en muchas industrias. Por lo tanto, es
factible incorporar reglas lingüísticas difusas, análisis de riesgo y soporte de decisiones en un
entorno impreciso e incierto.
Las ciencias físicas de toda la Europa medieval se vieron profundamente moldeadas por las
opiniones de Aristóteles, extendiendo su influencia hasta el Renacimiento, para ser finalmente
revisadas por la física newtoniana. Al igual que su maestro Platón, la filosofía de Aristóteles apunta
a lo universal. Aristóteles, sin embargo, encuentra lo universal en cosas particulares, a las que
llama la esencia de las cosas, mientras que Platón encuentra que lo universal existe aparte de las
cosas particulares, y se relaciona con ellas como su prototipo o ejemplo. Para Aristóteles, por
tanto, el método filosófico implica el ascenso
Machine Translated by Google
del estudio de los fenómenos particulares al conocimiento de las esencias, mientras que para
Platón el método filosófico significa el descenso del conocimiento de las formas (o ideas)
universales a la contemplación de las imitaciones particulares de éstas. En cierto sentido, el
método de Aristóteles es tanto inductivo como deductivo, mientras que el de Platón es
esencialmente deductivo a partir de principios a priori .
Si estudias detenidamente el centro del fresco de Rafael titulado La Escuela de Atenas en
el Palacio Apostólico del Vaticano, notarás que Platón, a la izquierda, y Aristóteles son los dos
sujetos indiscutibles de atención. La interpretación popular sugiere que sus gestos a lo largo
de diferentes dimensiones son indicativos de sus respectivas filosofías. Platón apunta
verticalmente, haciéndose eco de su Teoría de las Formas, mientras que Aristóteles extiende
su brazo a lo largo del plano horizontal, representando su creencia en el conocimiento a través
de la observación empírica y la experiencia.
La ciencia está sobrecargada por las leyes de la lógica de Aristóteles, que está
profundamente arraigada en el fecundo paisaje griego cultivado diligentemente por científicos
y filósofos del mundo antiguo. Sus leyes están firmemente asentadas en el terreno fundamental
de “X o no-X”; algo es o no es. La lógica booleana convencional influye en nuestros procesos
de pensamiento a medida que clasificamos las cosas o hacemos juicios sobre las cosas,
perdiendo así los detalles finos o la plétora de posibilidades que oscilan entre los extremos
empíricos de 0 y 1 o verdadero y falso.
Hay dos ramas distintas de la minería de datos, predictiva y descriptiva/ exploratoria (Figura
1.2), que pueden convertir datos sin procesar en conocimiento procesable. A veces escucha
estas dos categorías llamadas dirigidas (predictivas) y no dirigidas (descriptivas). Los modelos
predictivos usan resultados conocidos para desarrollar (o entrenar o estimar) un modelo que
se puede usar para predecir valores para diferentes datos. Los modelos descriptivos describen
patrones en los datos existentes que pueden encontrarse en datos nuevos. Con los modelos
descriptivos, no hay una variable objetivo para la que se esfuerce por predecir el valor. La
mayor parte de la gran recompensa ha sido en el modelado predictivo cuando los modelos se
ponen en funcionamiento en un entorno del mundo real.
El modelado descriptivo implica la agrupación o segmentación, que es esencialmente la
agrupación de cosas similares, como pozos, mecánica de rocas o estrategias de fractura
hidráulica. Una asociación es una relación entre dos cantidades medidas que exhibe
dependencia estadística.
Las técnicas de modelado descriptivo cubren dos áreas principales:
1. Agrupación
2. Asociaciones y secuencias
Análisis predictivo
• ¿Que es lo que va a pasar? • Mayor
conocimiento sobre el futuro basado en correlaciones en
datos históricos
alarmas
¿Qué acciones son necesarias?
Consultas/Profundizar Análisis descriptivo •
¿Exactamente dónde está el problema?
Información retrospectiva •
Informes ad hoc
¿Cuanto? ¿Cuándo? ¿Dónde? Patrones y tendencias ocultos • Análisis Informes
¿Qué sucedió?
estándar
Grado de perspicacia
Figura 1.2 Ciclo de vida de Analytics Convertir datos sin procesar en conocimiento
11
Machine Translated by Google
tienden a ser diferentes. El término asociación insinúa una relación expansiva en oposición a la correlación
más limitada que se refiere a una relación lineal entre dos cantidades. Así, al cuantificar los valores de
los parámetros en O&G, el término asociación se adopta invariablemente para subrayar la no causalidad
en una relación aparente.
Hay cuatro técnicas principales de modelado predictivo detalladas en este libro como
importantes metodologías analíticas upstream basadas en datos de petróleo y gas:
1. Árboles de decisión
2. Regresión
b. Regresión logística
3. Redes neuronales
4. Agrupamiento de K-medias
En la regresión logística, nuestra variable de respuesta es categórica, lo que significa que solo
puede asumir un número limitado de valores. Entonces, si estamos hablando de regresión logística
binaria, nuestra variable de respuesta tiene solo dos valores, como 0 o 1, activado o desactivado.
En el caso de regresiones logísticas múltiples, nuestra variable de respuesta puede tener muchos
niveles, como bajo, medio y alto o 1, 2 y 3.
Las redes neuronales artificiales fueron desarrolladas originalmente por investigadores que
intentaban imitar la neurofisiología del cerebro humano. Combinando
Machine Translated by Google
Las aplicaciones comunes de las redes neuronales en la cadena de valor de E&P incluyen el
mapeo de los atributos sísmicos de las propiedades del yacimiento, el cálculo de la estática sísmica
de superficie y la determinación de una estrategia optimizada de tratamiento de fracturas hidráulicas
en la explotación de los yacimientos no convencionales.
EL PROCESO SEMMA
ÿ Muestree los datos extrayendo y preparando una muestra de datos para la construcción de
modelos usando una o más tablas de datos. El muestreo incluye operaciones que definen
o dividen filas de datos. Las muestras deben ser lo suficientemente grandes para contener
eficientemente la información significativa. Es óptimo incluir el conjunto de datos completo
y completo para el paso Explorar debido a patrones ocultos y tendencias que solo se
descubren cuando se analizan todos los datos. Las restricciones de software pueden
impedir tal ideal.
ÿ Modifique los datos creando, seleccionando y transformando las variables para enfocar el
proceso de selección del modelo en los atributos más valiosos. Esto enfoca el proceso
de selección del modelo en aquellas variables que muestran atributos significativos con
respecto a la función objetivo o la(s) variable(s) objetivo.
Machine Translated by Google
ÿ Modele los datos utilizando las técnicas analíticas para buscar una combinación de datos que
prediga de manera confiable un resultado deseado.
ÿ Evaluar los datos evaluando la utilidad y confiabilidad de los hallazgos del proceso de extracción
de datos. Compare diferentes modelos y diferencie y califique estadísticamente esos modelos
para determinar el rango óptimo de resultados probabilísticos, entregados bajo incertidumbre.
Es importante recordar que SEMMA (Figura 1.3) es un proceso, no una metodología. Como tal,
SEMMA es totalmente compatible con varias metodologías de minería de datos en la industria de TI.
Los análisis de alto rendimiento permiten a las empresas de O&G ser más ágiles y seguras en sus ciclos
de toma de decisiones a medida que se involucran en nuevas empresas, generando nuevo valor a partir
de un tsunami de datos. Los campos más desafiantes se pueden evaluar rápidamente, generando
conocimientos de alto impacto para transformar sus operaciones.
Con análisis de alto rendimiento puede lograr lo siguiente:
ÿ Obtener conocimientos oportunos necesarios para tomar decisiones en un número cada vez menor
ventana de oportunidad.
ÿ Revelar conocimientos que antes tomaban semanas o meses en solo horas o días para acelerar la
innovación.
En la era de Big Data, las empresas de petróleo y gas dependen de análisis cada vez más
sofisticados del crecimiento exponencial en volúmenes y variedades de datos recopilados a tasas aún
más frecuentes en la comunidad geocientífica aislada.
Las velocidades de los datos, provenientes de pozos inteligentes equipados con fondo de pozo
Machine Translated by Google
sensores, están agregando enormes presiones sobre el pensamiento aguas arriba. ¿Cómo
podemos extraer el máximo conocimiento y cultivar información optimizada a partir de datos sin
procesar? ¿Cómo podemos imponer flujos de trabajo de control de calidad que filtren el ruido y los
valores atípicos, imputen los valores faltantes y normalicen y transformen los valores de los datos?
Debemos esforzarnos por generar una colección robusta de datos dispares que esté lista para los
flujos de trabajo deterministas y estocásticos. Es importante comprender que las enseñanzas que
sustentan la filosofía de este libro no desvían las interpretaciones tradicionales tan arraigadas en
nuestras instituciones de geofísica, geología, petróleo e ingeniería de yacimientos, sino que
simplemente enfatizan un importante complemento basado en los datos que arrojan sus secretos
ocultos. . Un enfoque híbrido es óptimo, casando ambas escuelas de pensamiento.
Análisis en memoria
Los análisis en memoria permiten flujos de trabajo analíticos en Big Data para resolver problemas
complejos de E&P upstream sin restricciones. También puede explorar soluciones a problemas
que ni siquiera ha considerado debido a las limitaciones del entorno informático.
Cuando se trata de los cálculos de estadísticas descriptivas más comunes, las soluciones
basadas en SQL tienen una serie de limitaciones, que incluyen límites de columna, restricciones
de almacenamiento y compatibilidad limitada con el tipo de datos. Además, la naturaleza iterativa
de EDA y las operaciones de minería de datos, como la selección de variables, la reducción de
dimensiones, la visualización, las transformaciones de datos analíticos complejos y el entrenamiento
de modelos, requieren múltiples pases simultáneos a través de los datos: operaciones para las que
SQL y la tecnología relacional son necesarias. no es adecuado.11
Como ejemplo del poder detrás de una arquitectura analítica en memoria, mire el mapa de
calor simple en la Figura 1.4. Invariablemente, enviaría datos a las herramientas de generación de
informes frontales para realizar cálculos complejos en serie. Pero cuando se necesitan grandes
cantidades de cómputos para analizar y producir información, pueden ocurrir cuellos de botella. La
implementación de la tecnología en memoria realiza los cálculos en el servidor, sobre la marcha y
en paralelo. Como resultado, los cálculos son muy rápidos porque no se mueven grandes
cantidades de datos a otra parte para su procesamiento. El procesamiento puede tener lugar en el
Machine Translated by Google
Figura 1.4 Mapa de calor que destaca las plantas de separación de gas y petróleo (GOSP) y el corte de agua asociado
servidor analítico con los resultados delgados enviados al cliente para su presentación, en lugar de para el
cálculo.
El análisis en la base de datos puede ejecutarse dentro de los motores de la base de datos utilizando código
de base de datos nativo. El procesamiento tradicional puede incluir la copia de datos a una ubicación
secundaria, y luego los datos se procesan utilizando productos upstream de E&P. Los beneficios del
procesamiento en la base de datos incluyen un movimiento de datos reducido, tiempos de ejecución más
rápidos y la capacidad de aprovechar las inversiones existentes en almacenamiento de datos.12
Los análisis en la base de datos cubren invariablemente dos áreas clave:
El procesamiento en la base de datos es una forma flexible y eficiente de aprovechar cantidades cada
vez mayores de datos mediante la integración de tecnología upstream selecta en bases de datos o almacenes
de datos. Utiliza la arquitectura de procesamiento paralelo masivo (MPP) de la base de datos o del almacén
de datos para lograr escalabilidad y un mejor rendimiento. Mover las tareas relevantes de administración de
datos, análisis e informes al lugar donde residen los datos es beneficioso en términos de velocidad, reduce el
movimiento de datos innecesario y promueve una mejor gobernanza de datos. Para los responsables de la
toma de decisiones aguas arriba, esto significa un acceso más rápido a los resultados analíticos y decisiones
más ágiles y precisas.
Las compañías petroleras operan en una economía global competitiva y cambiante, y cada problema
tiene una oportunidad adjunta. La mayoría de las organizaciones luchan por administrar y obtener información
de los datos y utilizar los resultados analíticos para mejorar el rendimiento. A menudo encuentran el desarrollo,
la implementación y la implementación de modelos analíticos
Machine Translated by Google
administración sea un proceso laborioso y que consuma mucho tiempo, especialmente cuando se
combina con un movimiento excesivo de datos y redundancia.
El procesamiento en la base de datos es ideal para dos escenarios clave. El primer escenario
es para el análisis empresarial de Big Data, donde el gran volumen de los datos involucrados hace
que sea poco práctico copiarlos repetitivamente a través de la red. El segundo escenario es en
entornos complejos y organizacionalmente diversos, donde las distintas comunidades empresariales
necesitan compartir fuentes de datos comunes, lo que impulsa la necesidad de un almacén de
datos empresarial centralizado. Las compañías petroleras deben implementar políticas de gobierno
de datos corporativos para promover una única versión de la verdad, minimizando la inconsistencia
y la redundancia de los datos, y alineando las necesidades de acceso a los datos con el uso
comercial común.
computación en red
A medida que las capacidades de integración de datos, análisis e informes crecen en importancia
estratégica y abarcan un número cada vez mayor de usuarios y mayores cantidades de datos, la
capacidad de escalar de manera rentable un sistema de análisis empresarial para obtener
flexibilidad operativa, mejorar el rendimiento y satisfacer las demandas máximas utilizando grid la
informática se convierte en una ventaja competitiva.
Grid computing permite a las empresas de petróleo y gas crear un entorno compartido y
administrado para procesar grandes volúmenes de datos y programas analíticos de manera más
eficiente. Brinda capacidades críticas que son necesarias para los entornos analíticos comerciales
de hoy en día, incluido el equilibrio de carga de trabajo, la priorización de trabajos, la alta
disponibilidad y la conmutación por error integrada, el procesamiento paralelo y la asignación de
recursos, y la supervisión.
Un administrador de cuadrícula proporciona un punto central para administrar políticas,
programas, colas y priorización de trabajos para lograr objetivos comerciales en múltiples tipos de
usuarios y aplicaciones bajo un conjunto determinado de restricciones. TI puede ganar flexibilidad
y cumplir con los niveles de servicio al reasignar fácilmente los recursos informáticos para cumplir
con las cargas de trabajo pico o las cambiantes demandas comerciales.
La presencia de varios servidores en un entorno de red permite que los trabajos se ejecuten
en el mejor recurso disponible y, si un servidor falla, sus trabajos pueden transferirse sin problemas
a otro servidor; proporcionando un entorno de análisis empresarial de alta disponibilidad. La alta
disponibilidad también permite al personal de TI realizar tareas de mantenimiento en servidores
específicos sin interrumpir los trabajos de análisis, así como introducir recursos informáticos
adicionales sin interrumpir el negocio.
Grid Computing proporciona capacidades críticas que son necesarias para los entornos de
análisis de negocios de O&G, que incluyen:
ÿ Alta disponibilidad
La gestión de la carga de trabajo permite a los usuarios compartir recursos para equilibrar la carga de
trabajo de la manera más eficaz y cumplir con los niveles de servicio en toda la empresa.
Los trabajos de análisis de negocios se benefician al tener flujos de trabajo que se ejecutan en el recurso más
apropiado y la carga de trabajo de múltiples usuarios se equilibra dentro de la cuadrícula para permitir el uso
óptimo de los recursos. Grid Computing proporciona la capacidad de priorizar trabajos, lo que permite que los
trabajos críticos comiencen de inmediato en lugar de esperar en una cola. Los trabajos de baja prioridad se
pueden suspender temporalmente para permitir que los trabajos críticos se procesen inmediatamente.
Grid Computing proporciona una gestión de carga de trabajo estandarizada para procesar de manera óptima
Además, la computación en malla puede analizar grandes trabajos de análisis en tareas más pequeñas que se
pueden ejecutar, en paralelo, en servidores más pequeños y rentables con un rendimiento igual o mejor que el
La paralelización de los trabajos de análisis upstream permite a las empresas de O&G mejorar las velocidades
Los programas de simulación de yacimientos son los más adecuados para el procesamiento paralelo debido
computación en red acelera el rendimiento y brinda a las empresas más control y utilización de su entorno de
análisis empresarial.
1. Gestión de datos
2. Cuantificación de la incertidumbre
3. Evaluación de riesgos
Estos son temas clave en la exploración y el desarrollo de petróleo. Las compañías petroleras se ven
obligadas a explorar en áreas geológicamente más complejas y remotas para explotar depósitos de hidrocarburos
más profundos o no convencionales. A medida que los problemas se vuelven demasiado complejos en áreas de
calidad de datos intrínsecamente deficiente y aumenta el costo asociado con predicciones deficientes (agujeros
secos), la necesidad de una integración adecuada de disciplinas, fusión de datos, reducción de riesgos y gestión
de la incertidumbre se vuelve muy importante. Los métodos de computación blanda ofrecen una excelente
oportunidad para abordar problemas, como la integración de información de varias fuentes con diversos grados
de incertidumbre, el establecimiento de relaciones entre las mediciones y las propiedades del yacimiento, y la
Gestión de datos
Discutimos en el Capítulo 2 las metodologías que sustentan la gestión de datos en el upstream. Es fundamental
enfatizar los beneficios corporativos detrás de los flujos de trabajo automatizados y semiautomatizados que
permiten la agregación de datos sin problemas, la integración de conjuntos de datos dispares de disciplinas de
ingeniería en silos y la generación de almacenes de datos analíticos (ADW) en preparación para procesos
analíticos avanzados.
Con la llegada de Big Data en upstream, estamos presenciando una explosión de datos de sensores de
fondo de pozo en pozos inteligentes distribuidos en DOFF. Cada vez es más esencial implementar un marco de
gestión de datos empresariales concreto para abordar algunos de los problemas comerciales actuales generados
Cuantificación de la incertidumbre
¿Cree que la cuantificación de la incertidumbre en la cadena de valor de E&P ha mejorado en los últimos años?
¿Y este progreso se ha traducido en ciclos de toma de decisiones condensados y más efectivos? La respuesta a
¿Lo que está sucediendo? La cuantificación de la incertidumbre no es un fin en sí mismo; eliminar o incluso
reducir la incertidumbre no es el objetivo. Más bien el objetivo es tomar una buena decisión, lo que en muchos
casos requiere la evaluación de las incertidumbres relevantes. La industria de petróleo y gas parece haber perdido
de vista este objetivo en su esfuerzo de buena fe por brindar a los tomadores de decisiones una mejor
comprensión de los posibles resultados que se derivan de las decisiones más importantes. La industria cree
implícitamente que tomar buenas decisiones simplemente requiere más información. Para contrarrestar esto,
de la incertidumbre como un tema común entrelazado a través de varios estudios de casos que describen análisis
Evaluación de riesgos
La evaluación de riesgos permite que las decisiones bajo incertidumbre publiquen un análisis de riesgos, ya sea
a través de una clasificación de riesgos de las estrategias de reducción de peligros o mediante la comparación con
Machine Translated by Google
niveles de riesgo objetivo y análisis de costo-beneficio. El riesgo se puede definir como el producto
de las consecuencias del peligro potencial por la probabilidad de ocurrencia de los escenarios.
Después de calcular el riesgo, los resultados deben compararse con los criterios gubernamentales
o de la empresa para determinar si el riesgo es tolerable. Esto significa que el riesgo está en un
nivel que la gente generalmente está dispuesta a aceptar.
Si imagina los algoritmos o técnicas analíticas como los átomos en una estructura molecular (Figura
1.5) unidos por metodologías o flujos de trabajo analíticos covalentes, tendrá una idea de cómo la
analogía enfatiza la conectividad perfecta de la computación blanda y los enfoques no deterministas
para agregar la funciones a lo largo de la cadena de valor de E&P que invariablemente se realizan
en silos geocientíficos.
Las compañías petroleras se esfuerzan por obtener el conocimiento oculto en su activo clave:
los datos. Estos datos están explotando en volumen, velocidad y variedad a medida que los datos
en tiempo real de pozos inteligentes a través de DOFF complementan las interpretaciones históricas
y los conjuntos de datos generados. Es fundamental obtener información de estos múltiples
conjuntos de datos y permitir que los ingenieros y las partes interesadas tomen decisiones más
rápidas y precisas en condiciones de incertidumbre. Al combinar los flujos de trabajo interpretativos
y deterministas tradicionales con un conjunto de análisis probabilístico basado en datos, es posible
predecir eventos que resultan en un desempeño deficiente del yacimiento o del pozo o fallas en las instalaciones.
Construyendo modelos predictivos basados en datos históricos limpios y analizando flujos de datos
en tiempo real, ahora es factible optimizar la producción. El control de costos y la garantía de
procesos eficientes que tengan un impacto positivo en HSE y el uso de recursos son beneficios
clave que quedan fuera de las metodologías analíticas.
Cuando pensamos en el ciclo de vida de un activo, un campo o un pozo, hay una decisión
comercial que debe tomarse para cada fase. Esa decisión debe tener valor comercial y ese valor
intrínseco se puede lograr enriqueciendo la interpretación de los flujos de trabajo de visualización
inmersiva en 3D con modelos basados en datos.
Exploración
Podría estar ingresando a un nuevo campo y explorando para generar prospectos, esforzándose
por obtener información de los datos sísmicos y ubicar pozos exploratorios en yacimientos cada
vez más complejos.
Evaluación
La fase de evaluación de las operaciones petroleras sigue inmediatamente a la perforación
exploratoria exitosa. Debe evaluar las cantidades comerciales de hidrocarburos y mitigar los
riesgos mientras perfora pozos de delineación para determinar el tipo, la forma y el tamaño del
campo y las estrategias para un desarrollo óptimo.
Desarrollo
La fase de desarrollo de las operaciones petroleras ocurre después de que la exploración ha
demostrado ser exitosa y antes de la producción a gran escala. El campo de petróleo o gas
recién descubierto se evalúa durante una fase de evaluación, se crea un plan para explotarlo
total y eficientemente y, por lo general, se perforan pozos adicionales. Durante la etapa de
desarrollo, se implementa un programa de perforación con estrategias de terminación optimizadas
a medida que se ubican pozos adicionales para la etapa de producción. Las instalaciones de
superficie están diseñadas para una explotación eficiente de petróleo y gas. ¿Tenemos que
considerar la producción de agua? ¿Qué producciones líquidas acumuladas anticipamos? Estas
son algunas de las preguntas que debemos responder a medida que diseñamos esas instalaciones de superficie.
Producción
La fase de producción ocurre después de una exploración y desarrollo exitosos durante los
cuales se explotan hidrocarburos de un campo de petróleo o gas. La fase de producción requiere
una explotación eficiente de los hidrocarburos. Tenemos que considerar HSE y los programas
de mantenimiento. ¿Se maximiza la producción de hidrocarburos para cada pozo? ¿Qué tan
confiables son los pronósticos a corto y largo plazo?
Mejora
Por último, la mejora mantiene una producción óptima en función de una decisión comercial
sobre si un activo es económicamente viable. ¿Cómo identificamos los pozos que son candidatos
ideales para el levantamiento artificial? ¿Cuándo y cómo estimulamos bien a un candidato?
Machine Translated by Google
Una mejora de pozo es cualquier operación realizada en un pozo de petróleo o gas, durante o
al final de su vida productiva, que altera el estado del pozo y/o
o la geometría del pozo, proporciona diagnósticos de pozos o gestiona la producción del pozo. Hay
varias técnicas implementadas tradicionalmente para mejorar la producción de pozos que se
denominan categóricamente recuperación mejorada de petróleo (EOR) o procesos de levantamiento
artificial de recuperación mejorada de petróleo (IOR).
El marco de análisis de campos petroleros (OA) (Figura 1.6) propone una estructura simple y
flexible para posicionar metodologías basadas en datos en toda la cadena de valor de E&P.
Los perfiles de los principales actores/partes interesadas se asocian fácilmente con los siguientes
principios.
Los datos sísmicos ahora se están volviendo fundamentales a medida que los levantamientos 3D
y 4D se aceleran en áreas verdes y abandonadas. Además del procesamiento habitual de datos
sísmicos wavelet, se está volviendo más importante apreciar completamente los atributos sísmicos
de los cuales hay cientos y construir un mercado de datos sísmicos para
análisis de avance. Las metodologías de computación blanda que asignan atributos sísmicos a las
propiedades de los yacimientos son increíblemente importantes como un medio para definir
definiciones de caracterización de yacimientos más creíbles y confiables que sustentan el campo (re)
desarrollo, complementación e integración de registros de pozos. La integridad espacial de los
yacimientos de grandes áreas requiere sísmica de alta resolución y una comprensión más profunda
de los atributos sísmicos que pueden identificar tanto las trampas estratigráficas como las
estructurales. Es esencial lograr precisión, fidelidad e integridad para un cubo de datos sísmicos
que contiene trazas previas y/o posteriores al apilamiento que se han procesado con flujos de
trabajo y algoritmos tradicionales, como la recuperación de amplitud real, la deconvolución, la
migración, el filtrado y el escalado. como estático y
Machine Translated by Google
Procesamiento de datos
Gestión de yacimientos petrolíferos
Integración y análisis
Gestión y gobierno de Datos empresariales Modelo
Calidad de datos de datos
datos Acceso administración
Servicio
23
Machine Translated by Google
análisis de velocidad Esto es así porque estos rastros son los precursores del análisis de rastro
único y las metodologías derivadas de atributos descritas en el Capítulo 3.
La perforación exploratoria es el siguiente paso, utilizando equipos de perforación adecuados
para el entorno respectivo (es decir, tierra, aguas poco profundas o aguas profundas). Cubrimos
la optimización de perforación y terminación en el Capítulo 5.
ÿ Evitar el tiempo improductivo potencial (NPT), al predecir una falla, como una falla del motor de
desplazamiento positivo (PDM) debido a una vibración excesiva, o en entornos de alta presión y
temperatura donde se puede predecir la longevidad de la herramienta/equipo.
ÿ Geodirección: Capaz de realizar ajustes en tiempo real en la trayectoria del pozo para lograr el máximo
contacto con el yacimiento en función de las actualizaciones en tiempo real de los datos de
geomodelado.
ÿ Capaz de realizar cambios en los parámetros de perforación en tiempo real (es decir, peso en la broca)
[WOB], par en la broca [TOB] y caudal).
ÿ Prevenir reventones: proceso iterativo multivariable para analizar presiones como la formación, el lodo
y las presiones del fluido de perforación.
las empresas tienen nuevas oportunidades para convertir esta información en conocimientos prácticos a partir de
estos esfuerzos. Si bien las herramientas analíticas tradicionales adecuadas para el propósito funcionan muy bien
para el propósito para el que fueron diseñadas originalmente, estas herramientas tienen dificultades para administrar
el crecimiento total de los datos. Y los activos más inteligentes generan desafíos sobre cómo administrar el
tremendo crecimiento en los volúmenes de datos, tanto estructurados como no estructurados. Sin embargo, las
nuevas tecnologías en el procesamiento analítico en tiempo real, el procesamiento de eventos complejos (CEP), el
reconocimiento de patrones y la extracción de datos se pueden aplicar para generar valor a partir del activo. La
sección del Capítulo 9 sobre el sistema de detección de alerta temprana estudia el procesamiento de flujo de
La optimización de intervención repara pozos que tienen problemas mecánicos o de formación. Es importante
desarrollar un conjunto de flujos de trabajo de minería de datos analíticos avanzados que implementen técnicas
informáticas blandas, como análisis de componentes principales (PCA), análisis multivariados, agrupamiento,
mapas autoorganizados (SOM) y árboles de decisión para generar modelos descriptivos y predictivos. que
pronóstico del desempeño de campos petroleros para determinar pronósticos probabilísticos sólidos y confiables
para la cartera completa de pozos en un activo es un paso esencial. Luego de este paso, los datos de producción
en tiempo real se pueden comparar con las curvas tipo determinadas con límites de confianza del 90 por ciento
para identificar los pozos aptos para la intervención. El Capítulo 7 cubre un conjunto de metodologías probabilísticas
Los flujos de trabajo analíticos pueden incorporar un paso de análisis de curva de declive (DCA) que implementa
un flujo de trabajo de pronóstico de producción de yacimientos petrolíferos para identificar pronósticos a corto y
largo plazo para la producción de petróleo, gas y agua. Al implementar modelos de pronóstico maduros y principios
básicos como los algoritmos empíricos Arps14, puede estimar el rendimiento del pozo con precisión y la recuperación
final estimada (EUR) y medir el impacto, positivo o negativo, de las técnicas de remediación de pozos.
Al comparar las tasas de datos de producción en tiempo real y las curvas tipo con las tendencias
pronosticadas, puede:
ÿ Ratificar desde la perspectiva de un campo, yacimiento o pozo si la producción actual se encuentra dentro
Las metodologías analíticas avanzadas son aplicables para realizar análisis multivariados en
conjuntos de datos aguas arriba dispares, tanto operativos como no operativos, para evaluar y
determinar aquellas variables que inhiben o mejoran el rendimiento del pozo. Los flujos de trabajo
analíticos predictivos y descriptivos se combinan para explorar los datos para descubrir patrones
ocultos e identificar tendencias en un sistema complejo.
La adopción de modelos basados en datos en las siguientes áreas permite una comprensión amplia
y eficiente y un descubrimiento significativo de parámetros influyentes para abordar los problemas
que afectan negativamente a la producción, sin depender únicamente de los primeros principios.
Hay muchos inhibidores de la producción, como el daño de la piel y el lijado, que se pueden
predecir mediante la generación de modelos inferidos por EDA. Agregar e integrar conjuntos de
datos de todos los silos geocientíficos para producir un conjunto de datos robusto diseñado para
estudios analíticos específicos es la base de todos esos estudios.
Se pueden implementar flujos de trabajo analíticos para lograr los siguientes objetivos:
ÿ Identificar la función objetivo (es decir, la variable objetivo, como el factor de recuperación,
el remanente de líquido o la producción acumulada distinta de cero durante un cierto
período) y determinar los estudios de sensibilidad para identificar los impulsores clave.
Dichos flujos de trabajo pueden identificar impulsores de rendimiento clave y ofrecer estrategias
y tácticas para métodos de terminación de pozos y diseños optimizados de tratamiento de fractura
hidráulica. Un enfoque probabilístico ayuda a cuantificar la incertidumbre y evaluar el riesgo de los
planes de desarrollo de campos individuales.
Los resultados importantes de los estudios de rendimiento de producción que adoptan los
flujos de trabajo mencionados anteriormente adoptan una metodología automática para caracterizar
el deterioro, clasificar los pozos como buenos o malos candidatos para la estimulación de pozos,
predecir los resultados de rendimiento de parámetros operativos particulares y aumentar la
producción con ciclos de decisión más rápidos. El Capítulo 8 detalla los flujos de trabajo analíticos
avanzados para aumentar la producción, mientras que los Capítulos 9 y 10 abordan la gama de
modelos y flujos de trabajo de Big Data, respectivamente.
SOY UN . . .
geofísico
Los geofísicos invierten invariablemente una gran parte de su tiempo procesando e interpretando
datos sísmicos para delinear la estructura del subsuelo y evaluar la calidad del yacimiento
implementando flujos de trabajo analíticos en datos derivados antes y después del apilamiento.
Machine Translated by Google
Geólogo
La geología tiene sus raíces firmemente plantadas en la ciencia, pero el geólogo alberga un
talento artístico latente que puede orquestar la riqueza del conocimiento del subsuelo para
recrear los procesos geológicos de deposición, erosión y compactación que predisponen a los
yacimientos de hidrocarburos. Es posible que esté abordando desafíos en toda la gama de la
cadena de valor de E&P, por lo que necesita la flexibilidad para aprovechar metodologías
analíticas avanzadas con visualización inmersiva en 3D para satisfacer las necesidades
comerciales apremiantes. El Capítulo 4, Caracterización y simulación de yacimientos, el
Capítulo 6, Gestión de yacimientos, el Capítulo 7, Pronósticos de producción y el Capítulo 8,
Optimización de la producción, muestran varios estudios de casos que ilustran un conjunto de
flujos de trabajo no deterministas que generan modelos basados en datos.
petrofísico
Los datos complejos adquiridos de pozos inteligentes representan una inversión importante.
Es esencial capitalizar esa inversión y obtener un conocimiento significativo que conduzca a
una caracterización precisa del yacimiento. El Capítulo 4, Caracterización y simulación de
yacimientos, y el Capítulo 9, Análisis de datos exploratorios y predictivos, ofrecen estudios de
casos y enumeran flujos de trabajo para permitir a los petrofísicos determinar el volumen de
hidrocarburos presentes en un yacimiento y los regímenes de flujo potenciales desde la roca
del yacimiento hasta el pozo.
Ingeniero en perforación
Los pozos son caros y complejos, especialmente con la llegada de los yacimientos no
convencionales. Es esencial integrar las geociencias y los conocimientos de perforación para
garantizar la optimización de la perforación y la terminación, lo que conduce a pozos más
inteligentes y de mayor calidad, una mejor gestión de riesgos y una reducción del tiempo
improductivo.
El control de pozos es crucial en ambientes desafiantes, particularmente en alta presión-
alta temperatura (HPHT) y aguas profundas, para evitar riesgos operativos
Machine Translated by Google
Ingeniero de depósitos
La industria de petróleo y gas está inundada de software de simulación de yacimientos para generar
un conjunto de soluciones numéricas que se esfuerzan por proporcionar una predicción rápida y
precisa del comportamiento dinámico. Debido a la variedad de yacimientos y su complejidad inherente
en estructura, geología, fluidos y estrategias de desarrollo, es fundamental adoptar un flujo de trabajo
de arriba hacia abajo que incorpore inteligencia artificial y modelos basados en datos. La sabiduría
convencional asume que las características del reservorio definidas en un modelo estático pueden no
ser precisas y, por lo tanto, en un flujo de trabajo de coincidencia histórica se puede modificar para
lograr una coincidencia. Las relaciones funcionales entre esas características se consideran
constantes derivadas de primeros principios. Sin embargo, un ingeniero de yacimientos puede
cuestionar la constancia de las relaciones funcionales y adoptar una metodología de IA y DM que no
haga suposiciones a priori sobre cómo se relacionan entre sí las características del yacimiento y los
datos de producción. El Capítulo 4, Caracterización y simulación de yacimientos, el Capítulo 6,
Gestión de yacimientos y el Capítulo 9, Análisis de datos exploratorios y predictivos, ofrecen algunos
estudios de casos de apoyo y puntos de discusión destacados para enriquecer la caja de herramientas
de un ingeniero de yacimientos. El Capítulo 8, Optimización de la producción, analiza las metodologías
en un estudio de caso para optimizar la producción de hidrocarburos a través de estrategias de
ubicación de pozos maximizadas que implementan flujos de trabajo basados en datos.
ingeniero de produccion
Los modelos basados en datos son metodologías complementarias ideales que brindan mejoras de
rendimiento significativas en el panorama actual de E&P que está densamente poblado por campos
petroleros digitales y pozos inteligentes que generan una gran cantidad de datos sin procesar
dispares. La gestión de datos (capítulo 2), las operaciones de producción integradas y la optimización
del rendimiento son objetivos clave para cualquier activo.
Los ingenieros de producción pueden aprovechar las capacidades tecnológicas innovadoras que son
escalables y adaptadas a los activos individuales. Combine las técnicas de computación blanda y
basadas en datos con los modelos tradicionales para explotar al máximo las riquezas de un activo.
El Capítulo 6, Gestión de yacimientos, el Capítulo 7, Pronóstico de producción y el Capítulo 8,
Optimización de la producción, ofrecen flujos de trabajo no deterministas para respaldar la metodología
de computación blanda.
Machine Translated by Google
Ingeniero petrolero
Como ingeniero petrolero, le interesan todas las actividades relacionadas con la producción de
petróleo y gas. Es imperativo aprovechar al máximo todos los datos del subsuelo disponibles para
estimar el volumen recuperable de hidrocarburos y comprender una apreciación detallada del
comportamiento físico del petróleo, el agua y el gas dentro de las rocas porosas. Los frutos al
alcance de la mano de los yacimientos petrolíferos mundiales se han descubierto y se han
agotado gradualmente. Corresponde a los ingenieros petroleros aprovechar las mejoras en el
modelado por computadora, las estadísticas y el análisis de probabilidad a medida que la llegada
de Big Data a lo largo de la cadena de valor de E&P y la complejidad de los sistemas subterráneos
obligan a la industria a adoptar un análisis basado en datos. El Capítulo 4, Caracterización y
simulación de yacimientos, el Capítulo 7, Pronóstico de la producción y el Capítulo 8, Optimización
de la producción, ofrecen metodologías basadas en datos centradas en la optimización de la
producción. El Capítulo 9, Análisis de datos exploratorios y predictivos, analiza las técnicas
informáticas blandas que son parte integral del desarrollo de modelos basados en datos del
subsuelo, impulsando la solución analítica.
Economista de Petróleo
Es esencial aprovechar las habilidades técnicas de los ingenieros petroleros con la previsión de
los economistas para empoderar mejores decisiones comerciales en la industria de E&P.
El Capítulo 7, Pronósticos de producción, analiza una metodología integrada de análisis de
curvas de declive que brinda pronósticos sólidos a corto y largo plazo del desempeño de los pozos.
La industria de O&G continúa evolucionando hacia múltiples bases de datos, gestión de datos
estructurados (datos) y no estructurados (documentos), servicios web y portales, así como
dispositivos portátiles y computación en la nube. Se trata de aprovechar los avances tecnológicos
para brindar una solución integrada e innovadora que tenga un valor real y medible para el
negocio de E&P. Ahora deben resolverse los nuevos problemas de los clientes, incluida la gestión
de aplicaciones disruptivas y la creciente complejidad, frecuencia y volumen de los datos. Este
capítulo aborda varios temas que impactan al profesional de TI, particularmente las secciones
sobre análisis de alto rendimiento. El Capítulo 2, Gestión de datos, detalla parte del pensamiento
crítico detrás de la aprobación de que los datos son un activo clave, especialmente en la esfera
de los modelos basados en datos.
Analista de datos
¿Qué es un analista de datos? El análisis de datos es una tarea multifacética que incorpora
inspección, limpieza, transformación y modelado de datos. En el
Machine Translated by Google
En el mundo de las empresas de O&G, tal persona adopta técnicas de inteligencia artificial
y minería de datos en datos de E&P para buscar el descubrimiento de conocimiento.
Esencialmente, todo este libro complementa el perfil de los analistas de datos a medida
que implementan análisis de datos exploratorios, modelos descriptivos y predictivos a
través de técnicas de visualización de datos (Capítulo 9) e integran análisis de texto
(Capítulo 10) para obtener inteligencia empresarial.
NOTAS
14. JJ Arps, Análisis de las curvas de declinación, Transacciones del Instituto Estadounidense de Ingenieros de Minas 160
(1945): 228–247.
Machine Translated by Google
Machine Translated by Google
CAPÍTULO
2
Gestión de datos
33
Machine Translated by Google
Gestión de datos╇ ÿ 35
ÿ Buena administración
Los datos erróneos y duplicados reducen su eficiencia, aumentan sus costos de mantenimiento
y contribuyen a mayores costos de desarrollo para cada proyecto de TI. Cada
Machine Translated by Google
El proyecto debe navegar a través de datos heredados mal documentados para determinar qué
datos usar para un proyecto específico. A menudo, se desarrolla una "solución" única para un
proyecto en particular y se vuelve a desarrollar en proyectos posteriores. Estos "arreglos" se
revisan continuamente con el tiempo a medida que los sistemas de origen o de destino cambian
o se actualizan, lo que genera costos e ineficiencias adicionales. A menudo, los cambios
realizados en un sistema desencadenan fallas imprevistas en los procesos posteriores. La falta
de metadatos unificados sobre la creación, manipulación y uso de datos es la razón por la que
ocurren estos eventos.
Las empresas de E&P más exitosas contarán con una estrategia clara y precisa que
reconozca los datos como un pilar fundamental de su diferenciación competitiva. Aquellos que
tengan éxito al abordar los datos como un activo estratégico serán los líderes que puedan
abordar todas sus necesidades mediante el uso de una oferta integrada y, por lo tanto, tendrán
la flexibilidad para reaccionar rápidamente a los nuevos desafíos.
Una única oferta integrada acortará las curvas de aprendizaje y brindará a los tomadores de
decisiones la información y la confianza en los datos que realmente necesitan para respaldar las
decisiones. Los datos correctos se entregarán donde y cuando se necesiten con gran confianza.
Cualquier pregunta sobre el linaje de los datos se responderá con herramientas que identifican
el origen de los datos y todas las transformaciones aplicadas a esos datos. Eliminar el enfoque
fragmentado de vincular y administrar tecnologías de diferentes proveedores garantiza la
credibilidad de los datos, reduce el riesgo y acelera los resultados. Los clientes de O&G que
adopten esta estrategia se beneficiarán de mejores decisiones que se medirán como un tiempo
más rápido para generar ingresos, menos pozos secos, menos tiempo de inactividad y mayor
confiabilidad.
La oferta integrada única debe respaldar las necesidades de la empresa, abarcando tanto
las necesidades operativas como las analíticas. El uso de datos para operaciones puede abarcar
prácticamente todos los departamentos y todos los flujos de trabajo dentro de esos departamentos.
Las necesidades de calidad de datos de cada uno de estos flujos de trabajo deben identificarse
e incluirse en los requisitos mínimos de la solución de calidad de datos.
Especialmente importante en este análisis es captar las necesidades únicas de las ciencias
para las empresas de petróleo y gas. Mejorar la calidad de los datos sísmicos, de registros de
pozos y de procesos implica procesos estadísticos e interpretaciones manuales que no están
disponibles en la mayoría de las soluciones de calidad de datos.
Con una plataforma de administración de datos (DM), puede crear flujos de trabajo automatizados
y semiautomáticos para procesos de calidad de datos, integración de datos y administración de
datos maestros (MDM). Dicho marco libera un tiempo valioso para que los geocientíficos dediquen
su energía a las tareas de interpretación para las que están altamente capacitados, liberándolos
de la onerosa y tediosa tarea de cotejar los conjuntos de datos pertinentes.
Machine Translated by Google
Gestión de datos╇ ÿ 37
ÿ Verifique y controle la integridad de los datos a lo largo del tiempo con monitoreo de datos en
tiempo real, paneles y cuadros de mando.
ÿ Escriba reglas comerciales una vez y reutilícelas fácilmente en otros flujos de trabajo.
ÿ Haga coincidir, concilie y consolide múltiples fuentes de datos para crear la mejor vista posible de
un pozo, yacimiento, campo, activo, planta de separación de gas y petróleo (GOSP), operador,
instalación o ubicación geográfica.
ÿ Obtenga acceso a las fuentes de datos correctas en el momento adecuado para estimular una
mejor toma de decisiones.
ÿ Asegúrese de que la información de alta calidad llegue a nuevos objetivos de datos durante
esfuerzos de consolidación o migración de datos.
MDM es la creación de una vista única, precisa y unificada de datos corporativos, integrando
información de varias fuentes de datos en un registro maestro.
Estos datos maestros luego se usan para enviar información a las aplicaciones, creando una vista
consistente de los datos en toda la empresa.
En un entorno económico desafiante, la toma de decisiones reactivas no es suficiente para mantener
una ventaja competitiva. Las empresas de petróleo y gas están recopilando más datos, lidiando con
problemas comerciales más complejos y experimentando una mayor competencia global. Nunca ha
habido una mayor necesidad de transformar los activos de datos en innovación y maximizar la
productividad de los recursos para impulsar el crecimiento sostenible. Es plausible combinar computación
grid y
Machine Translated by Google
procesamiento en la base de datos para impulsar decisiones comerciales proactivas basadas en evidencia y promover
Los grandes conjuntos de datos anteriores, la complejidad de las relaciones de datos y el modelado de tal
complejidad hacían imposible resolver los cálculos analíticos comerciales de mayor valor de manera rápida y eficiente.
La computación de alto rendimiento, que combina el procesamiento en la base de datos y la computación grid, resuelve
problemas comerciales que antes se creían irresolubles. Con la computación de alto rendimiento, los usuarios
sus procesos de análisis. Juntos, el procesamiento en la base de datos y la computación en red permiten una revolución
en el análisis de negocios y ofrecen a los clientes una diferenciación competitiva inmediata y ahorros de costos.
Desde sistemas heredados hasta aplicaciones de planificación de recursos empresariales (ERP), se puede
acceder, limpiar y procesar datos de prácticamente cualquier plataforma de hardware o sistema operativo. Se pueden
agregar fácilmente nuevos sistemas de origen y la seguridad se administra de forma centralizada. Esto ahorra tiempo,
acorta las curvas de aprendizaje y brinda a los tomadores de decisiones la información completa que necesitan.
Los datos son el factor común que permite tomar las mejores decisiones de negocio.
Tanto si es un ejecutivo como un ingeniero, la mejor decisión que tomará es la que se base en los datos. Pero los
tomadores de decisiones a menudo no confían en que los datos sean correctos, actuales, completos y utilizados
correctamente. La falta de confianza es el resultado directo de las dificultades de trabajar con datos, el crecimiento
explosivo de los datos provenientes de numerosas fuentes (yacimiento petrolífero digital) y la forma irregular en que se
utilizan normalmente en la empresa. Para ser efectivos, los datos deben considerarse un activo corporativo que debe
nutrirse y administrarse para que sean útiles para la creación de valor para la empresa.
Los problemas con la calidad de los datos existen desde hace más tiempo que las computadoras. Inicialmente
considerado como un irritante que podría corregirse con White-Out, el problema de la calidad de los datos ha seguido
creciendo con la proliferación de sistemas y la aplicación de la automatización en más y más áreas de operación.
La ola de ERP que barrió la industria del petróleo y el gas en la década de 1990 prometía corregir los problemas de
datos con una sola instancia de datos empresariales. Esa promesa nunca se cumplió, ya que los sistemas ERP rara
vez contenían todos los datos de la empresa, y las fusiones, adquisiciones y requisitos comerciales dieron como
resultado múltiples instancias de aplicaciones ERP. Además de la duplicidad, los datos incorrectos provienen de una
ÿ Procesos de entrada de datos defectuosos que utilizan datos mal entendidos o inexactos
campos
Gestión de datos╇ ÿ 39
ÿ Antigüedad de los datos debido a la falta de uso de los registros de pozos más recientes
ÿ Precisión numérica
ÿ Transcripción de medios mal supervisada o ejecutada con la intención de extender los ciclos de vida
de los datos, corrompiendo los metadatos
El análisis de los requisitos de gestión de datos arroja luz sobre el estado actual de las cosas. El
siguiente modelo de gobierno de datos proporciona orientación para el viaje hacia el gobierno de datos de
clase mundial.
ÿ Indisciplinado
ÿ Duplicación desenfrenada
ÿ Proyectos de calidad de datos solo de TI que abordan aspectos básicos como pozos, yacimientos y campos
ÿ Reactivo
ÿ Proactivo
ÿ Gobernado
Para abordar los problemas emergentes relacionados con la gestión, el control y la utilización de
datos, las organizaciones han estado adquiriendo una gran caja de herramientas y tecnologías de
integración de datos. Uno de los principales impulsores de estos y de la caja de herramientas de
integración de datos ensamblada posteriormente ha sido el mundo en constante evolución del almacén
de datos.
Las organizaciones necesitan herramientas y tecnologías que puedan abordar los nuevos
requisitos y permitir que los empleados se concentren en el trabajo que tienen entre manos en lugar
de dedicar su tiempo a integrar constantemente tecnologías dispares en la caja de herramientas. La
necesidad de una única plataforma de gestión de datos integrada que pueda abordar todos los aspectos
de la integración de datos, la calidad de los datos y la gestión de datos maestros podría estar sonando
la sentencia de muerte para la caja de herramientas de integración de datos. Estas áreas clave estarán
respaldadas por adaptadores y una capacidad de federación, y compartirán metadatos técnicos y
comerciales que ayuden en la colaboración. En última instancia, una sola interfaz de usuario debería
mostrar todas las capacidades de esta plataforma en lugar de un conjunto dispar de interfaces de
usuario. Enumeremos las funciones que debe proporcionar un único modelo de gobierno para llevar a
una empresa a un entorno controlado y propicio para la calidad:
ÿ Movimiento e integración
ÿ Sincronización
ÿ Garantizar la coherencia entre los sistemas donde los datos no se pueden mover o
conjunto.
ÿ Calidad
ÿ Monitoreo y alerta de incidencias.
ÿ Gestión
ÿ Los administradores de calidad de datos están facultados para controlar los activos de datos.
Gestión de datos╇ ÿ 41
ÿ Servicios
ÿ Mantener enlaces de metadatos para mostrar los datos maestros según sea necesario.
En resumen, las empresas de petróleo y gas deben adoptar una estrategia de gestión de la
información (IM) para respaldar una base analítica que proporcione la inteligencia necesaria, una que
se base en datos operativos históricos y "en vivo":
de ahí el concepto de lo que ahora se considera un almacén de datos "activo". Un almacén de datos
activo alinea la inteligencia empresarial, "Qué ha sucedido", y la inteligencia operativa, "Qué está
sucediendo", creando inteligencia activa que permite obtener información procesable, lo que permite
a una empresa decidir "Qué va a suceder". Los análisis sustentan estas estrategias en la gestión de
datos.
Mantendremos un hilo consistente de discutir el concepto de análisis .
a través del libro. Los análisis abarcan una amplia gama de técnicas y procesos para recopilar,
clasificar e interpretar datos para revelar patrones, anomalías, variables clave y relaciones. El objetivo
es obtener nuevos conocimientos que impulsen mejores decisiones y procesos operativos más
efectivos.
Para muchos usuarios, el análisis significa poco más que rebanar, dividir, clasificar, filtrar,
profundizar y visualizar datos para investigar eventos pasados. Sin embargo, un número creciente de
compañías de petróleo y gas están adoptando formas de análisis más avanzadas en una búsqueda
para predecir el futuro y adaptarse a cambios rápidos.
capacidades especialmente importantes en una economía implacable con fluctuaciones impredecibles
en el precio del petróleo y el gas.
La táctica inicial para todo análisis es una plataforma de gestión de datos como
la arquitectura de cuatro niveles discutida en la siguiente sección.
Para transformar los datos sin procesar en un activo viable y efectivo, las organizaciones de E&P
buscan la implementación de una arquitectura de plataforma de cuatro niveles (Figura 2.2):
1. Plataforma de información
2. Plataforma de conocimiento
4. Plataforma de rendimiento
Plataforma de Información
Actuación
Plataforma Supervisión y gestión del rendimiento
Planificación Integrada
Colaboración y
Analítica
Estructura Colaboración a
Subsuperficie Operacional
través de Siled
Inteligencia Excelencia
Geociencias
Revoluciones
agacharse
por minuto
poco (BOB)
(RPM)
Tasa de
Penetración Tasa de flujo
(ROP)
Gestión de datos╇ ÿ 43
Porosidad
Módulo de Young •
• Volumen de vacío
Tensión • Deformación
espacio
• Volumen a granel
El coeficiente de Poisson
Presión: BHP
• +/– Deformación transversal
• Volumen de lodo •
Tasa de flujo de lodo • • Compresión/tensión axial • +/–
Deformación axial • Tensión/compresión
Longitud del hoyo
axial
Vibración
Permeabilidad •
• Axial • multivariante
Horizontal •
Lateral • Multidimensional
Vertical
Tangencial
Escenario
Tasa de producción •
Productividad •
Saturación de gas • Longitud lateral • Total
de apuntalante • Total
Porosidad • H neta
de fluido de fractura • Etapas
de fractura
ROP Acumulativo
multivariante Producción
• WOB •
Multidimensional
RPM • •
multivariado
Torque Profundidad • Gravedad API
Transporte de Corte
Porosidad
• Viscosidad aparente
• Profundidad
• Velocidades anulares
• Mecánica de rocas
• Reología de fluidos
propiedades
Plataforma de conocimiento
Esta capa contiene una colección estructurada de reglas para los datos, criterios de toma de decisiones,
mejores prácticas, estándares corporativos, patrones de eventos, etc. La plataforma de conocimiento
monitorea procesos, flujos y toma de decisiones. Asegura que estos cumplan no solo con la política
corporativa y las mejores prácticas, sino también con la legislación gubernamental. Los geocientíficos
pueden implementar primeros principios y conceptos de ingeniería, lo que permite que la base obtenga
un rico conjunto de datos ideal para soluciones híbridas que combinan modelos basados en datos con un
sistema experto basado en la interpretación y los flujos de trabajo deterministas. La esencia de esta capa
es un conjunto de conocimientos capturados y formalizados, accesible en cualquier momento por la
organización. Con la introducción rigurosa de las dos capas desde arriba, la organización puede evitar
procesos tediosos e ineficaces que resultan en tareas de manejo de datos obtusas y confusas. La base
de los procesos comerciales a partir de este momento se convierte en información precisa y conocimiento
formalizado.
El marco analítico y de colaboración utiliza la información y el conocimiento tomados de las dos primeras
capas para preparar y automatizar decisiones. Esto le permite a su organización obtener una comprensión
completa del pasado y el presente, así como vislumbrar el futuro, mediante la creación de posibles
escenarios futuros y
Machine Translated by Google
Gestión de datos╇ ÿ 45
luego analizándolos y clasificándolos. Esta plataforma incluye elementos analíticos con capacidades
como predicción, pronóstico y optimización. Forma el punto de decisión en el proceso, proporcionando
el entorno necesario para integrar y vincular varios procesos dispares, como comunicaciones y directivas.
Además, esta capa brinda la capacidad de transformar la toma de decisiones en todas las jerarquías
y disciplinas de una organización en una práctica eficiente que involucra la alineación total de los
participantes.
Plataforma de rendimiento
Esta capa se asegura de que la estrategia sea consistente, que los profesionales y la gerencia de
E&P estén alineados, y que todas las actividades operativas estén capturadas y enfocadas en los
objetivos y esfuerzos de mejora. También asegura que el plan de negocios y las operaciones se adapten
continuamente a los cambios del entorno empresarial.
La buena noticia es que este desafío se puede superar al tratar los datos como un activo crítico y
al implementar las estrategias y tecnologías adecuadas que permitan a las organizaciones tomar
decisiones comerciales sólidas basadas en datos confiables. Cada vez se está dando más cuenta de
que las empresas de petróleo y gas requieren un conjunto de software dedicado para respaldar una
infraestructura de gestión de la información que ofrezca a los geocientíficos un parque infantil propicio
para agregar e integrar fuentes de datos clave.
Un enfoque en la gestión de datos empresariales puede proporcionar información sin precedentes
sobre las eficiencias y deficiencias de E&P al tiempo que identifica la posible reducción de costos de
CAPEX y OPEX, mitigando así los riesgos y maximizando el rendimiento.
Los datos sólidos conducen a una mejor toma de decisiones, lo que, en última instancia, conduce a
cartera de activos mejorada.
Distingamos entre un almacén de datos, un mercado de datos y una base de datos analítica. Las
empresas de petróleo y gas deben aclarar las definiciones de cada uno de estos repositorios, debido a
su inherente variabilidad y adecuación para admitir análisis avanzados. Estos repositorios de datos
tienen propósitos fundamentalmente diferentes:
ÿ Un almacén de datos empresarial es una plataforma integral que administra datos para múltiples
departamentos geocientíficos y sus funciones autónomas. Está diseñado para ser la única
versión de la verdad y un historiador complementario del desempeño empresarial.
Machine Translated by Google
ÿ Los data marts tienden a tener una definición más estrecha y, por lo general, abordan un solo
tema, como datos sísmicos o datos de registros de pozos.
ÿ “Una base de datos analítica es un término confuso”, dijo Russom.3 “Puede significar muchas cosas
para diferentes personas. Como colección de datos analíticos, puede ubicarse físicamente dentro de
un almacén de datos empresarial. Para algunos, puede parecer un data mart. Cada vez más, he visto
a personas armar una base de datos separada fuera de su almacén de datos o data marts que
contiene datos analíticos específicamente para fines analíticos.
Dondequiera que resida físicamente, una base de datos analítica no se considera un registro
permanente del desempeño de la empresa, sino más bien un banco de pruebas para explorar el
cambio y la oportunidad”.
Los tres tipos de repositorios de datos están optimizados por diferentes procesos.
“Por ejemplo, muchos almacenes de datos empresariales están optimizados para que pueda introducir datos
en ellos a diferentes velocidades de actualización y realizar consultas de alta velocidad con esos datos”, dijo
Russom.
Los data marts tienen atributos muy similares, excepto que son más pequeños. Por el contrario,
las bases de datos analíticas están optimizadas para conjuntos de datos bastante impredecibles,
porque los datos no son tan estables como en un almacén de datos o un mercado. Cuando
intenta averiguar el cambio comercial, los datos cambiarán bastante.
“Algunas herramientas o algoritmos predictivos necesitan estructuras de datos específicas”, dijo Russom.
Gestión de datos╇ ÿ 47
datos esparcidos en varias tablas, tal vez relacionados a través de claves, es posible que desee
combinarlos en registros únicos pero muy amplios. La herramienta analítica puede preferir campos de
rango, por lo que es posible que ciertos valores de datos deban transformarse en rangos en un
proceso llamado agrupamiento. Algunos algoritmos exigen un archivo plano (a diferencia del
procesamiento en la base de datos), por lo que generar un archivo plano muy grande es fundamental
para la preparación de datos.
El descubrimiento analítico depende de los fragmentos de datos que se encuentran en los datos de origen sin procesar.
“Tanto el análisis predictivo como el basado en consultas dependen de grandes cantidades de datos de origen sin
procesar”, dijo Russom. “No es solo el hecho de que se trata de una muestra de gran tamaño, sino que también son
datos bastante crudos, que brindan detalles que son esenciales para descubrir hechos, relaciones, grupos y anomalías”.
Los datos analíticos también pueden no estar estructurados. Las herramientas de minería de texto o análisis de
texto a menudo introducen datos en análisis predictivos, herramientas de minería de datos y herramientas estadísticas.
La minería de texto proporciona una rica fuente adicional de datos para los flujos de trabajo de análisis predictivo. Si
aprovecha los recursos de datos no estructurados, como los informes de perforación diarios, puede tener modelos
Los datos de un almacén de datos empresarial también pueden ser analíticos. “Aunque los análisis avanzados
tienden a necesitar nuevos conjuntos de datos, también pueden aprovechar el contenido de un almacén de datos”,
dijo Russom. “Los datos del almacén proporcionan un contexto histórico para los hechos recién descubiertos, además
de dimensiones adicionales y otros detalles útiles. Los conocimientos de análisis deben incorporarse al registro
Un concepto erróneo común es que preparar datos para análisis es lo mismo que prepararlos para el
almacenamiento de datos. Pero, como se mencionó anteriormente, hay peligros en "mejorar" demasiado los datos
“A menudo, desea hacer un descubrimiento con datos de origen bastante crudos”, dijo Russom.
“Estandarizar y limpiar los datos demasiado o demasiado pronto puede inhibir los conocimientos que se extraen de
ellos”. Por ejemplo, la anisotropía de permeabilidad a menudo se revela en datos no estándar o atípicos, por lo que no
desea eliminar o estandarizar demasiado los datos, como lo haríamos con el almacenamiento de datos, porque eso
¿Qué pasa con la remodelación de datos para acelerar las consultas y habilitar multidimen
puntos de vista sionales? “No es aconsejable para análisis avanzados”, dijo Russom.
También puede perder detalles de los datos y limitar el alcance de las consultas. Es el tipo de cosa
que haría eventualmente, pero no al comienzo de un proyecto analítico. Haga solo lo que se requiere
para las herramientas analíticas, como aplanar y agrupar.
Desea que los analistas y administradores de datos trabajen con los datos analíticos rápidamente,
cuando los datos todavía están bastante crudos. Luego regresa más tarde y comienza a limpiar los
datos y tal vez a remodelarlos. Es posible que realice un trabajo de preparación de datos similar al del
almacenamiento de software de datos, pero en una fase posterior, después de que los analistas hayan
trabajado con los datos durante un tiempo.
Machine Translated by Google
ÿ Incorporar las mejores prácticas de los expertos en gestión de datos de la organización en una mejor
práctica compartida, estandarizada y reutilizable.
ÿ Programe las etapas de preparación de datos antes ad-hoc para análisis, como actualizaciones
incrementales, carga de datos transaccionales o actualizaciones más frecuentes de datos de cubos
OLAP.
ÿ Automatice el proceso de llevar los resultados del análisis a las operaciones, ya sea directamente en
las bases de datos o para respaldar decisiones de acción rápida en la organización.
ÿ Marque los datos sospechosos, los datos faltantes y los valores atípicos (según lo determinen las
variables de rango o categoría predefinidas), sin cambiar necesariamente los datos antes del
análisis.
ÿ Configure alertas en vivo sobre el gobierno de datos analíticos que sean consistentes en toda la
empresa, como, "Si el BHP promedio de alto riesgo del pozo cambia por x o y, entregue una alerta".
La excelencia operativa comienza con la comprensión de sus datos. Necesita capturar, almacenar,
contextualizar y visualizar información en tiempo real y ponerla a disposición de las personas adecuadas en
el momento adecuado para permitir las decisiones correctas.
La industria del petróleo y el gas tiene un apetito voraz por los datos. Las cadenas de valor de
exploración y producción adquieren terabytes de datos sísmicos que se procesan para producir nuevos
proyectos, creando un crecimiento exponencial de la información.
Además, estos datos se adquieren cada vez más en tres o cuatro dimensiones, lo que crea algunos de los
escenarios de gestión de datos de respaldo y archivado más desafiantes de cualquier industria.
Con el auge de los yacimientos petrolíferos digitales, la industria del petróleo y el gas recopila más
datos, con mayor frecuencia, en cada etapa del ciclo de vida empresarial. Su empresa está invirtiendo
millones de dólares para recopilar, analizar e interpretar esos datos sin ninguna garantía de que los datos
sean completos, correctos y contextuales.
Machine Translated by Google
Gestión de datos╇ ÿ 49
ÿ Proyectos retrasados
ÿ Incumplimiento normativo
Podemos identificar firmas apropiadas mediante el uso de algoritmos para analizar información
de múltiples sistemas de control e historiadores de datos. Estos algoritmos luego se implementan en
sistemas de control en tiempo real apropiados para actuar automáticamente o respaldar procesos
manuales para intervención o cambio de proceso.
Es factible optimizar resultados como el tiempo de actividad con técnicas de mantenimiento
basadas en la condición que implican la vinculación y el análisis de datos operativos en tiempo real
con datos de inspección y mantenimiento de activos. El mayor uso de soluciones de movilidad, ya
sea que se basen en dispositivos móviles comunes o en sofisticados sistemas de máquina a máquina,
proporciona otro conjunto de flujos de datos potenciales para actividades de análisis o monitoreo
basado en condiciones.
En apoyo de esto, la tendencia hacia un modelo de operaciones integradas que proporciona
datos comunes y estandarizados para mejorar los procesos y mejorar la capacidad de detectar,
analizar y mostrar tendencias en las aberraciones de datos operativos ayuda a facilitar
significativamente la optimización del tiempo de actividad. Por ejemplo, al aprovechar un modelo
predictivo/preventivo, las compañías de petróleo y gas pueden determinar mejor si un equipo se está
degradando o requiere inspección o mantenimiento, o si debe cambiar su función principal en función
de la fatiga o los ciclos de potencia.
La creciente red de regulaciones locales, estatales y federales que cambian y maduran con el
aumento de la actividad de los activos no convencionales ha incrementado los requisitos de
cumplimiento a lo largo del ciclo de vida del petróleo y el gas. La documentación y la capacidad de
mostrar la trazabilidad a través de la información estructurada y no estructurada ayudan a demostrar
qué actividad ocurrió y cuándo, de modo que quede claro cuándo la empresa de energía ha
completado los pasos necesarios para evitar incidentes, mitigar impactos, resolver problemas y
prevenir incidentes similares en el futuro.
La carga de data warehouses y data marts dentro de las ventanas de tiempo asignadas, la
construcción rápida de marts analíticos para proyectos especiales y la creación de archivos de
extracción para aplicaciones de informes y análisis son tareas que las organizaciones de TI enfrentan cada día.
Es necesario construir flujos de trabajo de procesos lógicos, identificar rápidamente los almacenes
de datos de entrada y salida y crear reglas comerciales en los metadatos. Esto permite la generación
rápida de almacenes de datos, data marts y flujos de datos. Los usuarios también pueden elegir que
se lleven a cabo muchas transformaciones y procesos dentro de una base de datos conectada, un
almacén de datos o un sistema de almacenamiento. Esto se conoce como ETL, pushdown o
procesamiento en la base de datos, y puede acelerar sustancialmente los tiempos de procesamiento
generales al reducir el movimiento de datos innecesario.
Los flujos de trabajo que sustentan el procesamiento de datos en preparación para las metodologías
analíticas estocásticas se dividen en cinco categorías principales:
Machine Translated by Google
Gestión de datos╇ ÿ 51
1. Limpieza de datos para imputar valores faltantes, suavizar datos ruidosos, identificar y
elimine los valores atípicos y resuelva las inconsistencias
4. Reducción de datos para obtener una representación mínima en dimensión y volumen, así como
mantener una varianza y entropía constantes para resultados analíticos similares
5. Discretización de datos para aplicar técnicas de reducción de datos para datos numéricos
tipos
Algunos de los pasos importantes que definen la limpieza de datos requieren centrarse en la
adquisición de datos con énfasis en los metadatos. ¿Qué son los metadatos? Son esencialmente datos
que describen datos. El término conlleva cierta ambigüedad ya que hay dos tipos fundamentales o
variaciones sobre un tema. Los metadatos estructurales se refieren al diseño y la especificación de
estructuras de datos y se acuñan de manera más sucinta como "datos sobre los contenedores de datos",
mientras que los metadatos descriptivos se refieren más a instancias individuales de datos de aplicación
(es decir, contenido de datos).
La imputación es el cálculo de los valores de reemplazo para los valores de entrada que faltan.
Esto se puede lograr adoptando la media del atributo para todas las muestras que pertenecen a la misma
clase. El valor más probable podría inducirse mediante la adopción de un enfoque basado en la inferencia,
como una fórmula bayesiana o un árbol de decisión. También es fundamental unificar los formatos de
datos, como las fechas, y convertir el tipo nominal en numérico para que sea propicio para las metodologías
informáticas blandas, como las redes neuronales artificiales, la regresión y el vecino más cercano. Una
vez que se identifican los valores atípicos, es un proceso interpretativo determinar si dichos valores deben
eliminarse o integrarse en los datos de la muestra en estudio. Habiendo eliminado el ruido de los datos
mediante la aplicación de algoritmos de suavizado o técnicas de filtrado, podemos obtener datos correctos,
consistentes y sólidos en preparación para los flujos de trabajo analíticos.
La integración de datos de múltiples conjuntos de datos de diferentes bases de datos o data marts
podría resultar en redundancia ya que el mismo atributo puede tener diferentes nombres.
Los flujos de trabajo de correlación pueden ayudar a reducir este exceso de atributos.
La transformación de datos también puede eliminar el ruido inherente a los datos.
como realizar resúmenes y construcción de cubos de datos y desarrollo de una jerarquía de conceptos. La
normalización se esfuerza por garantizar que los atributos, cuando se comparan en diferentes ejes
temporales o espaciales, conserven información y tendencias válidas y plausibles. Quizás los datos de la
herramienta de registro de producción (PLT) se recopilan en diferentes momentos en una cartera de
pozos. Es esencial generar un nuevo atributo, como QgN, que represente la producción de gas acumulada
medida N días después de que se iniciaron los datos PLT en cada pozo, lo que garantiza un parámetro
comparativo en todos los pozos del estudio.
Machine Translated by Google
Normalización mín-máx:
Los flujos de trabajo analíticos basados en datos incorporan "datos duros" denominados datos de campo
reales o medidos, como registros de pozos (rayos gamma, densidad, sónicos, etc.), tipo de fluido y tasas
de producción, así como "datos blandos" que se refieren a parámetros interpretados o estimados.
En exploración, los conjuntos de datos sísmicos que se generan pueden resultar en una plétora
de datos blandos por medio de atributos sísmicos.
ÿ Volumen
ÿ Velocidad
ÿ Variedad
ÿ Valor
ÿ Producción maximizada
La industria del petróleo no es ajena a los grandes volúmenes de datos. Operando posiblemente en la
industria original basada en sensores, las compañías de petróleo y gas han utilizado durante décadas
decenas de miles de sensores de recolección de datos instalados en pozos subterráneos e instalaciones
de superficie para proporcionar un monitoreo continuo y en tiempo real de activos y condiciones ambientales.
Estas empresas monitorean de cerca el desempeño de sus activos operativos. También llevan a cabo
modelos y simulaciones avanzados basados en la física para respaldar el análisis y la optimización
operativos y comerciales.
Las organizaciones están capturando un mayor volumen y variedad de datos, a una velocidad más
rápida que nunca. Además de los datos de los sensores, estos Big Data incluyen grandes volúmenes de
datos semiestructurados y no estructurados, que van desde
Machine Translated by Google
Gestión de datos╇ ÿ 53
repositorios para ayudar a las empresas de petróleo y gas a identificar y visualizar rápidamente
información entre grandes cantidades de datos estructurados y no estructurados, y entregar resultados
para respaldar procesos sensibles al tiempo.
Hay varios organismos de estándares cruciales en la industria de E&P que identifican áreas de
intersección para evitar la duplicidad o el conflicto al determinar los estándares de O&G en los datos.
ÿ WITSML
ÿ PRODML
ÿ REQML
Estos puntos focales abordan la transferencia de datos y, por lo tanto, de conocimientos entre las
geociencias, las perforaciones, las terminaciones, las intervenciones, la producción y las organizaciones
de yacimientos.
PPDM es la asociación Professional Petroleum Data Management que proporciona un modelo
de datos que cubre múltiples áreas temáticas que esencialmente podrían actuar como un MDM. El
organismo se esfuerza por evangelizar el uso de taxonomías facetadas para ayudar a controlar las
olas de Big Data en evolución a través de los silos de ingeniería dispares dentro de E&P.
PODS es un acrónimo de Pipeline Open Data Standard, que proporciona una arquitectura de
base de datos escalable para integrar registros críticos y datos de análisis con ubicación geoespacial
para cada componente de un sistema de tubería.
PCA significa POSC Caesar Association y, bajo sus auspicios, desarrolla especificaciones
abiertas para permitir la interoperabilidad de datos y software. Como organismo, participa en proyectos
industriales conjuntos y de investigación para desarrollar datos de referencia y tecnología semántica.
Datos semánticos
Los estándares de datos semánticos existen en la industria del petróleo y el gas para permitirle
integrar diferentes tipos de datos. La industria de O&G se esfuerza por agregar significado a los datos.
En el Capítulo 10, profundizamos en el análisis de texto para identificar la gestión de ontologías de los
datos aguas arriba. Dicho sistema de gestión es una lente organizativa en su contenido ascendente,
proporcionando interfaces para definir las relaciones
Machine Translated by Google
Gestión de datos╇ ÿ 55
entre entidades de petróleo y gas, como pozos en una cartera, yacimientos y campos en un activo, y
caracterización global de cuencas. Podemos generar términos semánticos que codifiquen la experiencia en
temas de ingeniería en geología, geofísica, petróleo e ingeniería de yacimientos, así como perforación y
terminación.
Los datos semánticos relacionan los almacenes de contenido y los silos informativos con definidos
términos para ayudar a propagar el valor de los expertos en dominios. Es esencial enfatizar que el análisis
basado en datos, que es el tema central de este libro, debe estar casado con los primeros principios o, al
menos, estar limitado por las metodologías empíricas e interpretativas. Este enfoque promueve la adopción
ahora rápida de soluciones híbridas en el upstream donde vemos la combinación de un sistema experto
dirigido por el usuario y un sistema de captura de conocimiento basado en datos calibrado con datos
históricos.
Los datos de producción en ingeniería petrolera a menudo se ven afectados por errores que ocurren durante
la adquisición y el registro de datos. Como las intervenciones en el pozo alteran el decaimiento exponencial
natural de la curva de producción, se ocultan los errores cometidos durante la adquisición y registro de
datos. Las técnicas de validación automática de datos pueden ayudar a limpiar los datos de producción.
La validación de datos se ocupa de encontrar datos erróneos en una serie de tiempo y, cuando
corresponda, sugerir un valor alternativo plausible. La validación de datos se puede definir como un proceso
sistemático en el que los datos se comparan con un conjunto de reglas de aceptación que definen su
validez. En ingeniería petrolera, las causas de datos erróneos incluyen ruido, fallas de sensores y errores
de manipulación de datos.
Los valores atípicos son observaciones numéricamente distantes del resto de los datos.
Sorprendentemente, no existe un método estándar para identificarlos. A menudo se supone que los datos
cumplen con una distribución gaussiana y un criterio de distancia (p. ej., la desviación del descriptor de
distribución determina la condición atípica de una muestra de datos). Los datos de producción de pozos de
petróleo son un proceso no estacionario y, por lo tanto, el enfoque ingenuo no es suficiente. Sin embargo,
al observar un vecindario de muestra, se puede asumir la estacionariedad. Aquí proponemos una solución
local para la identificación de valores atípicos.
Los cambios repentinos atípicos que se desvían de la tendencia natural de la señal a menudo
corresponden a ruido o fallas en la grabación de datos. El ruido en el contexto de la producción de pozos
petroleros a menudo se puede asociar a intervenciones en pozos. Ahí
Machine Translated by Google
Ya existen una serie de enfoques para la detección de cambios repentinos como, por ejemplo, el uso
del operador laplaciano o gaussiano. Aquí usamos wavelets de Haar para la detección de cambios
repentinos en la señal, proponiendo una variante de un enfoque existente desarrollado para datos de
neuroimagen.
El problema de validación final que se aborda aquí es la detección de valores sospechosos que
pueden estar dentro del rango y estar de acuerdo con la tendencia de la señal pero que contradicen
la tendencia en las variables estadísticamente dependientes. Para detectar estos valores maliciosos,
recomendamos un enfoque basado en redes bayesianas. El uso de una red bayesiana para validar
datos por variables relacionadas capitaliza la siguiente idea: la tendencia de las variables
estadísticamente relacionadas debe seguirse entre sí. Cuando se viola esta premisa, es probable que
la observación sea un valor deshonesto.
valores atípicos
Quizás la forma más sencilla de detección de valores atípicos consiste en imponer un rango de datos
válido dentro del cual se permiten datos variables y etiquetar los valores fuera del rango como valores
atípicos. A menudo, este rango se establece a partir de la distribución de datos definida por las
ecuaciones 1 y 2:
Cambio abrupto
La transformada wavelet descompone una señal en sus componentes de escala de tiempo y expresa
la función original en términos de la base de la familia wavelet. La transformada wavelet continua
(CWT) de una señal x(t) se define mediante la ecuación 3.
1 ÿ ÿ
ÿ
ÿ
* ÿ
tuberculosis
CWT ab( , ) = X()ÿt
ÿ
ÿ
ÿ
ÿ
dt Ecuación (3)
,
abdominales
ÿ ÿÿ
a
ÿ
ÿ
ÿ a ÿ
Entre las familias de funciones de wavelets, las wavelets de Haar son especialmente adecuadas
capaz de detectar discontinuidades.
Para cada par de escalas de tiempo representado por (a, b), un coeficiente wavelet capta la
similitud de la señal x(t) y una versión extendida y desplazada de ÿ(t). Estas
Machine Translated by Google
Gestión de datos╇ ÿ 57
coeficientes discriminan cambios repentinos en la señal. La aplicación del filtro de la mediana a los
coeficientes de forma independiente en cada escala refrenda las características de los cambios
repentinos además de minimizar la influencia del ruido blanco.
Determinando el límite entre cambios aceptables e inaceptables, se impone un umbral T en la matriz
de coeficientes. Por lo tanto, establecemos el umbral automáticamente utilizando el umbral universal
de acuerdo con la ecuación 4:
T I =s * 2* nn Ecuación (4)
MEJORES PRÁCTICAS
Es imperativo adoptar una metodología que respalde todo el ciclo de vida de la integración de datos
a través de un enfoque integrado por fases (Figura 2.8). Estas fases incluyen perfiles de datos, calidad
de datos, integración de datos, enriquecimiento de datos y monitoreo de datos. La metodología puede
implementarse como un proceso continuo para controlar la calidad de la información que se carga en
los sistemas de información objetivo.
Además, esta metodología se ajusta a un enfoque de metodología empresarial global de tres
fases: analizar, mejorar y controlar. La primera fase de esta metodología se enfoca únicamente en el
descubrimiento o evaluación de datos para identificar con precisión la consistencia, exactitud y validez
de los datos de origen. Durante esta fase, se identifican y documentan los problemas de calidad de los
datos y se crean reglas comerciales para corregir los problemas. La segunda fase, mejorar, respalda
la corrección flexible de los problemas de calidad de datos identificados y, si corresponde, la mejora de
los procesos comerciales centrales. La última fase, el control, admite el monitoreo continuo y las
tendencias de los datos de origen para garantizar la precisión de la información y detectar y alertar
automáticamente a los usuarios si los datos violan las reglas comerciales definidas o los estándares
de calidad de datos corporativos.
perfilado
conjuntos de datos
En curso Calidad
Vigilancia Análisis
Perfilado de datos
ÿ Planifique con precisión la estrategia de integración teniendo en cuenta todos los datos anom
aliados al frente.
ÿ Integre con éxito los datos de origen utilizando una calidad de datos automatizada
proceso.
Calidad de datos
La segunda fase, la calidad de los datos, admite la corrección de todos los problemas de calidad
descubiertos durante la fase de creación de perfiles. Esto a menudo incluye la eliminación de las diferencias
semánticas que se encuentran dentro de los datos de origen, la división de campos de valores múltiples
en elementos discretos, el traslado de la información a la ubicación adecuada, la normalización de
patrones, etc.
Por ejemplo, durante la fase de elaboración de perfiles, se puede descubrir un problema de calidad
de los datos, como múltiples versiones del mismo nombre de cuenca.
Este tipo de análisis avanzado es difícil de descubrir utilizando procesos manuales, y la creación de
reglas para corregir las versiones no estándar requiere mucho tiempo y requiere un proceso muy
dependiente de los datos. Otros problemas, como nombres de pozos o nomenclatura de yacimientos en el
campo incorrecto, versiones múltiples de descripciones de estrategias de fracturas hidráulicas e información
geomecánica faltante, pueden corregirse de inmediato utilizando rutinas de estandarización, análisis,
identificación y validación de datos listas para usar. .
Una solución de calidad de datos propuesta para proporcionar datos agregados y sólidos en
un entorno de exploración y producción aguas arriba debe cumplir algunos objetivos rudimentarios:
1. Interactuar sin inconvenientes con todas las fuentes de datos identificadas en E&P.
b. Realiza transformaciones.
Gestión de datos╇ ÿ 59
d. Limpiar datos.
5. Generar metadatos.
La regla del 80/205 (Figura 2.9) significa que en cualquier cosa unos pocos (20%) son vitales y muchos
(80%) son triviales. En el caso de Pareto, significaba que el 20 por ciento de la gente poseía el 80 por ciento
de la riqueza. Después de que Pareto hizo su observación y creó su fórmula, muchos otros observaron
fenómenos similares en sus propias áreas de especialización. Ostensiblemente, podemos aplicar este
principio al tiempo consumido al resolver un problema comercial en E&P, agotando el 80 por ciento de
nuestro tiempo en la gestión y preparación de datos antes de abordar el problema a través de un conjunto de
flujos de trabajo invariablemente deterministas o interpretaciones visuales.
La solución de gestión de datos debe revertir este paradigma y garantizar que el 80 por ciento del
tiempo de los geocientíficos se consuma interpretando los datos y combinando los primeros principios con
metodologías estocásticas y basadas en datos.
Integración de datos
La tercera fase, la integración de datos, incluye procesos para identificar automáticamente información
relacionada dentro de una sola fuente de datos o en múltiples fuentes de datos dispares. Una vez que se
identifican estos registros, la fase de integración requiere que los registros se vinculen o se consoliden en un
solo "mejor" registro. Las estrategias de integración de datos pueden variar desde la simple detección y
eliminación de duplicados hasta la resolución avanzada de entidades en entornos tanto en tiempo real como
por lotes. Durante esta fase, la organización comienza a construir una vista unificada de sus activos,
reservorios, estrategias y tácticas de pozos o cualquier otro tipo de entidad que se encuentre dentro de los
sistemas fuente.
Enriquecimiento de datos
La cuarta fase, el enriquecimiento de datos, abarca técnicas para mejorar el valor de los datos de origen
utilizando otras fuentes de información de referencia. Al enriquecer la información de origen, las
organizaciones pueden completar campos incompletos, así como agregar información valiosa que
identificará mejor los atributos del pozo.
El enriquecimiento puede incluir la mejora de la nomenclatura de pozos, la mejora de códigos geográficos,
actualizaciones de códigos de activos, información de sedimentología de cuencas y otros datos que
agregan valor a la información existente.
Monitoreo de datos
La fase final de la metodología, el monitoreo de datos, respalda el análisis continuo de la calidad de los
datos y el seguimiento/tendencia de la calidad de los datos a lo largo del tiempo. Esta fase de la
metodología amplía los procesos de calidad de datos más allá de la aplicación tradicional basada en
proyectos y garantiza la precisión y confiabilidad de las fuentes de información a lo largo del tiempo. El
monitoreo puede incluir análisis de tendencias de perfiles de datos simples a lo largo del tiempo, o puede
incluir análisis de reglas comerciales específicas. Al configurar reglas que definen valores de calidad de
datos aceptables, el monitoreo se puede usar para identificar automáticamente los registros que violan
los estándares de calidad y alertar a los usuarios de las violaciones. El monitoreo permite que el equipo
tome medidas mucho antes de que la anomalía de los datos afecte las decisiones comerciales, los
procesos o los proyectos.
Comprender y aprovechar los datos en el segmento comercial upstream permite a las empresas
seguir siendo competitivas durante la planificación, la exploración, la delineación y el desarrollo del
campo. El segmento downstream depende de los datos para maximizar la producción con respecto al
mantenimiento y la previsión.
Afortunadamente, las compañías de petróleo y gas tienen acceso a una gran cantidad de datos valiosos
tanto en operaciones upstream como downstream. Desafortunadamente, esta información viene en
formas diversas y cada vez más complejas, lo que hace que sea un desafío para las empresas de energía
recopilar, interpretar y aprovechar los datos dispares.
Es de suma importancia integrar conjuntos de datos comunes y dispares para entregar la información
correcta en el momento apropiado al tomador de decisiones correcto. Estas capacidades ayudan a las
empresas a actuar sobre grandes volúmenes de datos, transformando la toma de decisiones de reactiva
a proactiva y optimizando todas las fases de exploración, desarrollo y producción.
Beneficios:
ÿ Asegurar que la información correcta esté disponible para la fuerza laboral en el momento correcto
La Figura 2.10 representa una matriz de madurez que encapsula todos los pasos necesarios en la
gestión de datos, la cuantificación de la incertidumbre en los datos y el riesgo
Machine Translated by Google
Matriz de vencimientos
Cerca de Real
Tiempo real modelado
Tiempo
baja frecuencia Filtrado,
estructurado
no
61
Machine Translated by Google
evaluación resultante de flujos de trabajo analíticos y metodologías basadas en datos almacenados en repositorios
ascendentes.
NOTAS
1. J. Cruise y U. Algan, "Gestión de la información de exploración y producción: más allá de los portales web", First Break
24 (enero de 2006).
2. Sarbanes-Oxley (2002) legisló cambios estrictos a la regulación de la práctica financiera y
gobierno corporativo
3. Philip Russom, gerente sénior de TDWI Research, el Instituto de almacenamiento de datos, "Preparación de datos
analíticos 101: mejores prácticas para administrar datos para análisis avanzados", ideas de un seminario web, mayo
de 2010.
4. Edward Evans, director general de NDB Ltd., “Controlling the Applications Portfolio: A Beach Head for IM Strategy”,
Finding Petroleum, Londres, abril de 2011.
5. R. Koch, El principio 80/20: El secreto para lograr más con menos, (Londres: Nicholas Brealey, 2001).
Machine Translated by Google
CAPÍTULO 3
Atributo sísmico
Análisis
63
Machine Translated by Google
Las metodologías informáticas que asignan los atributos sísmicos a las propiedades de los yacimientos
son increíblemente importantes como un medio para definir definiciones de caracterización de yacimientos
más creíbles y confiables que sustentan el (re)desarrollo del campo. La integridad espacial de los
yacimientos de grandes áreas requiere sísmica de alta resolución y una comprensión más profunda de los
atributos sísmicos que pueden reflejar patrones o firmas indicativas de hidrocarburos.
Las técnicas de interpretación sísmica siempre han trabajado para ser aceptadas a lo largo de las
décadas, comenzando con la introducción del color en el análisis sísmico unido a la idea de la representación
sísmica temporal convertida a una perspectiva de profundidad dominada digitalmente en la década de
1970. El término red neuronal fue menospreciado en las décadas de 1980 y 1990 debido a una propuesta
de valor distorsionada y tergiversada.
El análisis de atributos y los levantamientos sísmicos 3D también encontraron resistencia por parte de los
geofísicos tradicionales atrincherados. Resaltaremos cómo una combinación de análisis de componentes
principales (PCA) y redes neuronales (supervisadas y no supervisadas) puede forjar una metodología
analítica que forma un poderoso flujo de trabajo de reconocimiento de patrones para identificar aquellos
atributos que inherentemente tienen la mayor capacidad predictiva para determinar datos geológicos y
estratigráficos. características, gradientes de presión intersticial e indicadores directos de hidrocarburos
(DHI).
Cuantifiquemos el valor de integrar flujos de trabajo de análisis de atributos sísmicos en el
procesamiento sísmico 4D tradicional para construir modelos geológicos estáticos y dinámicos más ricos.
¿Cómo podemos mejorar el mapeo del flujo de fluidos a través de reservorios heterogéneos complejos e
identificar la efectividad de las estrategias de recuperación mejorada de petróleo (EOR) como agua-
alternancia-gas (WAG)?
Las modificaciones en la fuerza de la reflexión sísmica en la parte superior del yacimiento están
relacionadas no solo con el cambio de saturación, sino también con la altura original de la columna de
petróleo. Cuando el agua reemplaza al petróleo, la impedancia acústica en el yacimiento aumenta,
provocando un efecto de atenuación en lo que solía ser una fuerte respuesta desde la parte superior del
yacimiento. La fuerte respuesta sísmica del contacto agua-petróleo (OWC) también puede atenuarse debido
a la producción.
La vigilancia sísmica de yacimientos de lapso de tiempo se basa en el hecho de que la producción o
inyección cambia significativamente las saturaciones, presiones y condiciones de los fluidos del yacimiento.
Machine Translated by Google
ATRIBUTOS SÍSMICOS
Un atributo sísmico se define como una medida cuantitativa de una característica sísmica
que refleja un punto de interés o enfoque para explicar una característica geológica. Hemos
estado estudiando atributos sísmicos desde la década de 1930 cuando los geofísicos eligieron
tiempos de viaje para reflexiones sísmicas coherentes a través de registros de disparos de
campo. Pero esencialmente, la génesis del análisis complejo de atributos de trazas sísmicas
tiene sus raíces a principios de la década de 1970. Se ha escrito un vasto compendio de
documentos técnicos para describir la metodología popular de utilizar atributos sísmicos como
discriminadores efectivos para clasificaciones de caracterización geológica. Los atributos se
generan a partir de conjuntos de datos previos y posteriores al apilamiento, así como de la
implementación previa y posterior a la migración. Las tablas 3.1 y 3.2 enumeran muchos de
los atributos actuales más populares.
Energía
Curvatura Aderezo
Hay varias escuelas de pensamiento que clasifican los atributos sísmicos de manera
diferente. Estudiemos los atributos en base a una clasificación determinada por características
de dominio inherentes a los atributos.
Atributos instantáneos
Cuando una traza sísmica se estudia como una señal analítica en el sentido matemático, se
puede representar como una función de valor complejo. La parte real es la propia señal
sísmica registrada. La parte imaginaria es la cuadratura que es la versión desfasada de 90
grados de la parte real. La transformada de Hilbert de la parte real es la traza en cuadratura.
Es un proceso simple para calcular los atributos instantáneos de la señal sísmica una vez
que se establece la traza sísmica compleja.
Los atributos denominados envolvente de amplitud (o amplitud instantánea), fase instantánea
y frecuencia instantánea se calculan comúnmente a partir de la traza sísmica compleja y se
muestran como secciones coloreadas o superpuestas con fines interpretativos. Estos
atributos pueden denominarse colectivamente atributos instantáneos ya que describen de
manera concisa y cuantitativa la forma de onda sísmica (o carácter) en cualquier punto de
muestra. Como tales, pueden ser extremadamente útiles para correlacionar eventos sísmicos.
La amplitud instantánea mide la fuerza de la reflectividad que es proporcional a la raíz
cuadrada de la energía total de la señal sísmica en un instante particular de tiempo. La
continuidad de los eventos en un perfil sísmico es una medida reflejada por la fase
instantánea y la tasa de cambio temporal de la fase instantánea se representa como la
frecuencia instantánea.
La amplitud instantánea que refleja la fuerza de la reflectividad es un buen indicador de
puntos brillantes y oscuros. El atributo de fase suele ser un delineador robusto de pinch-outs,
fallas y on-laps, mientras que el atributo de frecuencia puede ayudar a describir algunos
yacimientos de condensado que tienen tendencia a atenuar las altas frecuencias.
Una vez que estos atributos instantáneos se han generado a través de un cubo sísmico
3D, por lo general posterior a la atenuación múltiple y la supresión de ruido aleatorio, es
factible implementar un conjunto de flujos de trabajo de análisis de datos exploratorios para
descubrir patrones ocultos y correlaciones explicadas por estos atributos como el espacio
de entrada. La función objetivo podría ser identificar todos los pinch-outs estratigráficos
potenciales que no son fáciles de discernir en una sección sísmica de resolución baja a
media con una relación señal-ruido deficiente. Esas variables independientes representadas
por los atributos sísmicos generados pueden correlacionarse estadísticamente con la función
objetivo para clasificar las más influyentes en la identificación de características tales como pinch-outs.
Media cuadrática
La raíz cuadrada media (RMS), o media cuadrática, es una medida estadística popular de
la magnitud de la variación en un conjunto de datos. El RMS demuestra particularmente
Machine Translated by Google
útil cuando los valores pasan por el dominio positivo y negativo, como en los sinusoides o las
trazas sísmicas. El atributo RMS enfatiza las variaciones en la impedancia acústica sobre un
intervalo de muestra seleccionado. En general, cuanto mayor sea la variación de la impedancia
acústica de las litologías apiladas (con espesores de lecho por encima de la resolución sísmica),
mayores serán los valores RMS. Por ejemplo, un RMS alto en un canal resulta de un alto
contraste de impedancia acústica del relleno del canal con la litología circundante o contrastes
de impedancia acústica dentro del relleno.
Diferencia
Atributos de preapilado
Norman Neidell1 sugirió el uso de una transformada de Hilbert como punto de partida para el
análisis de trazas complejas. Posteriormente, Taner y Koehler2 desarrollaron un marco matemático
único para el cálculo de atributos. Por lo tanto, podemos determinar la amplitud de la traza sísmica
como la parte real de la señal analítica compleja, mientras que la parte imaginaria de la señal se
calcula tomando su transformada de Hilbert.
Enumeremos ahora los atributos sísmicos que son más propicios para
caracterización de yacimientos. Una metodología para clasificar los atributos sísmicos es agruparlos
en las siguientes cuatro categorías:
3. Los atributos de intervalo son aquellos que cuantifican una lente en los datos sísmicos que
muestran más de un pico o valle. La mayoría de los atributos sísmicos se pueden categorizar
de esta manera. Los atributos de intervalo incluyen el número de cruces por cero, la energía
promedio y la frecuencia dominante.
Estos atributos se adoptan invariablemente cuando la reflexión sísmica de un yacimiento es
discontinua como para evitar un "punto" obvio en el mismo pico o valle en todas las trazas.
Un atributo de intervalo es análogo a la sección transversal de un registro de pozo con varias
arenas delgadas y discontinuas que no se pueden correlacionar con certeza.
Machine Translated by Google
4. Los atributos AVO son aquellos que se generan utilizando las amplitudes previas al
apilamiento de un reflejo. Ejemplos de atributos preapilados son gradiente AVO, intercepción
AVO, amplitud cercana y amplitud lejana. Los atributos de preapilado en 3D solo han estado
disponibles recientemente con la llegada de migraciones de tiempo de preapilado asequibles.
GESTIÓN DE EMBALSES
Los análisis de procesamiento de ondículas y atributos sísmicos han evolucionado hasta convertirse
en una de las piedras angulares de la gestión de yacimientos, proporcionando una fuente de
conocimiento muy importante que arroja luz sobre la identificación de metodologías para reducir el
riesgo de oportunidades. Fundamental para obtener el valor intrínseco de la dimensión temporal en
los datos sísmicos 4D es el oficio de enumerar metodologías analíticas combinadas con estrategias
de interpretación. Con la llegada de Big Data, Big Analytics en la industria de petróleo y gas, es
fundamental adoptar una visión más amplia hacia el análisis de datos sísmicos, complementando la
interpretación tradicional de cubos de datos sísmicos 3D con un conjunto de metodologías basadas
en datos estocásticos o no deterministas.
Los geocientíficos están atrincherados en sus distritos aguas arriba mientras continúan
trabajando en forma aislada, ahogándose en un mar de rastros sísmicos y atributos concomitantes.
Es cierto que la multitud de trazos de ondulación con sus picos y valles son una perspectiva
desalentadora con firmas sutiles no solo influenciadas por cambios de presión y fluidos en los poros
de las rocas, sino también manchadas por respuestas convolucionadas ancladas en primeros
principios.
El estudio de las amplitudes sísmicas y los cambios de tiempo entre conjuntos de datos 3D
puede constituir un flujo de trabajo que sustenta una interpretación importante, pero tales enfoques
deterministas a menudo necesitan apoyo en una combinación con una metodología analítica basada
en datos que pueda enfocarse muy rápidamente en esas correlaciones y patrones ocultos en el
vasto conjunto de firmas sísmicas. Las respuestas 3D no son únicas y es imperativo respaldar una
interpretación con conjuntos de datos adicionales, como datos de producción e inyección,
herramienta de registro de producción (PLT) e información de seguimiento.
El Capítulo 6 explora los campos petroleros digitales y los flujos de trabajo analíticos para
mejorar la gestión de yacimientos.
correlacionado con el aumento de la saturación de agua y gas, respectivamente. Además, un cambio de tiempo
positivo refleja una disminución de la presión y, por el contrario, un cambio de tiempo negativo implica un aumento
de la presión.
Estudiemos un flujo de trabajo analítico que integra un conjunto de atributos sísmicos y puntos de datos
adicionales del subsuelo obtenidos de registros de pozos y tasas de inyección y producción existentes de pozos
existentes. La figura 3.1 describe una metodología pictórica que implementa técnicas de computación blanda a
agrupación. Los entregables de tal estudio no se limitan a los resultados representados en la Figura 3.1, ya que
solo la limitación en la arquitectura de software existente y las restricciones para pensar fuera de la caja pueden
ÿ Análisis espectral
ÿ Descomposición wavelet
ÿ Transformada de Hilbert
Análisis espectral
La identificación de fallas subterráneas individuales en un sistema de fallas más grande es importante para
caracterizar y comprender la relación entre la microsismicidad y los procesos del subsuelo. Esta información puede
ayudar potencialmente a impulsar la gestión de yacimientos y mitigar los riesgos de sismicidad natural o inducida.
asociados con una operación de recuperación mejorada de petróleo. Específicamente, pudimos proporcionar una
distinción clara dentro de un conjunto de eventos originalmente designados en el dominio del tiempo como un grupo
único e identificar evidencia de fallas en escalón . Las sutiles diferencias en el dominio del tiempo entre eventos se
Fourier de la función de autocorrelación en el dominio del tiempo, ya que esta formulación da como resultado
intensidades estadísticamente independientes y está respaldada por un cuerpo completo de teoría estadística sobre
la cual se pueden desarrollar marcos de decisión.
Hay muchas formas de implementar un flujo de trabajo de análisis espectral. Algunos que son particularmente
adecuados para datos de trazas sísmicas se presentarán aquí junto con ejemplos para ilustrar cómo se pueden
Todos los resultados aquí se basan en un conjunto de datos SEG-Y con 390 seguimientos posteriores a la pila
Sísmico Atributo
Seguimiento único
Datos Generación
Análisis
Bien
Registros
Minería de datos
y patrones
Núcleos Reconocimiento
y
Traza sísmica
mapas
Rasgo
Reservorio Identificación
Mapa de calor
Caracterización de yacimientos
Tiempo Datos sísmicos 3D SOM y análisis de conglomerados
Lapso comparaciones
Sísmico
Analítico
contra
Nuevo 3D
pronosticado
Sísmico
Resultados Optimización de la Producción
Estrategias y Tácticas: Fluido
Saturación y Reservorio
Caracterización Evolución
Producción
Flujos de trabajo analíticos de datos en tiempo real e
Flujos de trabajo analíticos indicadores clave de rendimiento
Figura 3.1 Pasos clave del flujo de trabajo en un análisis integral de datos sísmicos
71
Machine Translated by Google
ÿ Modelos estadísticos para encontrar/agrupar atributos que comprenden los de mayor interés
caracteristicas
Tres gráficos en la Figura 3.3 ilustran cómo se puede aplicar la técnica de cepillado para comprender
mejor la relación entre los trazos. Marcar puntos en un gráfico resalta los puntos respectivos en otros gráficos.
Otra manera fácil de encontrar dependencias en los datos de seguimiento es modelar o seleccionar
seguimientos sistemáticamente y compararlos con cualquier otro seguimiento. Un ejemplo, ilustrado en las
Figuras 3.4 y 3.5, se basa en una comparación de este tipo realizada en un flujo de trabajo de minería de datos
donde al hacer clic en el botón Reproducir se muestra la comparación a medida que itera a través de todos los
rastros. También ilustra un polinomio de tercer grado ajustado a cada traza. Las trazas con el ajuste más
análisis histórico.
Figura 3.5 Gráfico de dispersión de amplitudes que compara las trazas 101 y 224
Descomposición Wavelet
El análisis wavelet es una técnica matemática utilizada para representar datos o funciones. Las wavelets
utilizadas en el análisis son funciones que poseen ciertas propiedades matemáticas y descomponen los
datos en diferentes escalas o resoluciones.
Las wavelets son más capaces de manejar picos y discontinuidades que el análisis de Fourier tradicional,
lo que las convierte en una herramienta perfecta para eliminar el ruido de los datos.
Las aplicaciones tradicionales del análisis wavelet se han centrado en la compresión de imágenes,
pero también se utilizan para analizar series temporales, procesos biológicos,
Machine Translated by Google
Escalado uniforme
Tamaño de datos
9
norte: 1001
Nivel superior: 10
Nivel de inicio: 0
Especificación de ondícula
Familia: Symmlet 10
7
Límite: extensión cero
Sin umbral
ÿ Scalograma Wavelet con o sin reducción y umbralización, utilizando tres tipos diferentes de
algoritmos de umbralización
La Figura 3.8 detalla los gráficos que son representativos de los resultados después de aplicar
algoritmos de reducción y puesta a cero para limpiar coeficientes insignificantes.
El módulo de escalograma amplifica los coeficientes de pequeñas ondículas escalando las
magnitudes de todos los coeficientes para que se encuentren en el intervalo [0, 1] y luego elevando las
magnitudes escaladas a una potencia predeterminada de 1/3. El escalograma de la izquierda representa
los coeficientes de wavelet sin umbral aplicado. La barra de la izquierda muestra la energía total de
cada nivel, que se define como la suma de los cuadrados de los coeficientes de wavelet. La energía
total es más alta en los niveles 6, 7 y 8, lo que es coherente con los resultados del gráfico de coeficientes
detallado. los
Machine Translated by Google
Tamaño de datos
10
norte: 1001
Nivel superior: 10
Escalado de nivel independiente Nivel de inicio: 0
9 Especificación de ondícula
Familia: Symmlet 10
Sin umbral
Tamaño de datos
Nivel superior: 10
Nivel de inicio: 0
9 Especificación de ondícula
Familia: Symmlet 10
Límite: extensión cero
Detalles de umbral
8
Política: Difícil
Método: Minimax
Niveles: 0 – 9
7
La transformada discreta de Fourier se usa principalmente para transformar datos del dominio del tiempo al
dominio de la frecuencia, como en la gráfica del espectro unilateral de la figura 3.9. La Figura 3.10 es el
resultado de limpiar el espectro trazando solo las 10 frecuencias más dominantes.
Machine Translated by Google
150 0.8
0.6
10
0.4
50
0.2
0 0.0
0 5 10 15 0 5 10 15
Acumulativo
Proporción
herramienta de clasificación para un mayor análisis de agrupamiento y correlación. Aquí, los valores de
amplitud sin procesar están en bucle, pero incluso los resultados de la wavelet, el escalograma o las
densidades/frecuencias espectrales también pueden someterse al mismo proceso analítico y evaluarse
juntos, dando alguna medida probabilística de las porosidades.
Primero vemos que 14 componentes principales construidos sobre casi 1000 disparos explican casi
el 90 por ciento de la varianza, debido a los diagramas de sedimentación en la Figura 3.11. El perfil del
patrón del componente muestra los valores de los parámetros de carga para todas las trazas. Estos
pueden usarse para representar las amplitudes más dominantes en los datos y, por lo tanto, usarse como filtro.
A continuación, se investiga el espectro de nuestros datos. El gráfico de puntuación para los 39
rastros se presenta en la Figura 3.13.
Machine Translated by Google
Vemos que muestra una apariencia típica de gusano. Los componentes 1 y 2 producen
los rastros 1 y 39 como los menos importantes, ya que se encuentran cerca del punto [0, 0]
en comparación con el valor opuesto visto en el componente 3. Los valores de puntuación
para estos 39 rastros se pueden usar para discriminar entre patrones de grupos de trazas con
atributos de amplitud similares o totalmente diferentes.
La Figura 3.14 muestra los gráficos Hotteling T2 basados en 14 PC. Vemos que todas
las trazas, excepto las de los extremos, no se desvían de los valores medios del modelo PCA.
2 2
21 21
20 20
22 22
19 19
23 23
18 18
24 24
25 25
17 17
1 1
26 26
PRIN1 PRIN1
dieciséis dieciséis
27 27
28
28 15 15
29 29
0 0
30 14 30 14 35 38
39
31 3638 31
13 35
333435 37 13 32 33 36
32 34 37
12 12
234 11 21 4 11
4 1 4
6 10 356 10
5
7 9 87 9
8
–1 0 1 2 –1 0 1 2
PRN2 PRN3
Gráfico T2 de Hotteling
PCA con 14 componentes principales
Intervalo de observación 1:39 ÿ = .05 Límites
35 Para n = 1:
99 × LCC = 31
30
LCC = 26,0
25
cuadrado
Hotteling
de
T-
20
15
Mediana
10
5 LCL = 5,7
1.1
1.0
0.9
0.8
0.7
0 10 20 30 40
En la Figura 3.15, el valor de Distancia al modelo muestra que todas las trazas están bien
ajustadas al modelo.
Con base en este análisis de PCA, si esos rastros se ubicaron en las ubicaciones de los
pozos, están construyendo un buen modelo de PCA que puede formar un patrón o grupo para
correlacionar con otros grupos de rastros.
Transformada de Hilbert
Posteriormente, a principios del siglo XX, el científico alemán David Hilbert (1862-1943)
demostró que la función sin() es la transformada de Hilbert de cos(). Esto nos dio el operador
de cambio de fase, que es una propiedad básica de la transformada de Hilbert.
Una función real a(t) y su transformada de Hilbert están relacionadas entre sí de tal manera
que juntas crean una señal analítica fuerte, como se ve en la figura 3.16. La señal analítica
fuerte se puede escribir con amplitud y una fase donde la derivada de la fase se puede
identificar como la frecuencia instantánea. La transformada de Fourier de la señal analítica
fuerte nos da un espectro unilateral en el dominio de la frecuencia.
Transformada de Hilbert
ÿ
1 1
H un =[ (=)] att ( )
ÿ ÿ a( ) t ÿ
ÿ
ÿ
dÿ
ÿ
1 1
= ( )*
a las
ÿ
t
Machine Translated by Google
Magnitud
ÿ
a () = 2
atat
() 2 + ()
Fase Instantánea
un( 1t)
) =
ÿ
ÿ (bronceado
a)
Instantáneo
Frecuencia
1 reÿ (t)
f i(t) =
2 ÿ dt
Las figuras 3.17, 3.18 y 3.19 presentan gráficos de descriptores de señal de una traza
derivado con una transformada de Hilbert.
conjuntos de datos subyacentes. En el caso del análisis sísmico, podría agregar múltiples
atributos desde una perspectiva anterior o posterior al apilamiento según la función objetivo
o el problema comercial que se esté estudiando, por ejemplo, la optimización de la
producción o la efectividad de una técnica de recuperación mejorada de petróleo como WAG.
La metodología basada en datos complementa la interpretación tradicional de los flujos de
trabajo de visualización inmersiva en 3D. La clave es asegurarse de que la informática blanda
Machine Translated by Google
La zona de presión anómala parecía estar asociada con una facies de pendiente, un tipo
de relleno de depósito marino que suele ser un objetivo para la exploración de hidrocarburos.
Las facies de taludes se asocian típicamente con un entorno de taludes en el que ha habido
cambios rápidos en la deposición, incluidos lechos discontinuos de limolitas y lutitas y, en
ocasiones, arenas canalizadas con lutitas entre canales.
Esta acción es para hacer coincidir los parámetros de datos del pozo con la firma de la traza para identificar las
características de la traza relevantes reflejadas en los atributos y patrones.
Casi todos los pozos se registran con registros convencionales como SP, rayos gamma, densidad e inducción
al perforar y completar. Algunos pozos pueden tener registros de resonancia magnética que tienen la capacidad
de medir in situ la porosidad efectiva, la saturación de fluidos y la permeabilidad. Los métodos de identificación
y extracción de características son esenciales para vincular las firmas sísmicas con los registros de pozos en
puntos focales locales a lo largo de un yacimiento.
Dado que los datos de series temporales tienen una estructura de datos única, no es fácil aplicar algunas
herramientas de minería de datos existentes directamente a los datos. Por ejemplo, cada punto de tiempo a
menudo se considera una variable y cada serie de tiempo a menudo se considera una observación en el
problema de clasificación. A medida que aumenta la dimensión temporal, el número de variables también
aumenta proporcionalmente. Por lo tanto, para clasificar grandes cantidades de series temporales de manera
eficiente, es fundamental aplicar algunas técnicas de extracción de características para hacer más concisa cada
serie temporal en una forma de dimensión significativamente menor. Las técnicas más comunes para la
reducción de dimensiones en series de tiempo son la descomposición de valores singulares, la transformación
discreta de Fourier, la transformación discreta de ondículas y las aproximaciones de segmentos de línea.
Dada una dimensión de tiempo de tamaño T, el método del segmento de línea divide la dimensión de
tiempo en d segmentos de igual tamaño (o intervalos de tiempo). Después de la segmentación, se puede
calcular la suma, la media u otra estadística de agregación para cada segmento. Por ejemplo, supongamos que
tenemos una serie de tiempo con 12 puntos de tiempo, digamos {1, 2, 5, 7, 8, 5, 5, 7, 8, 2, 5, 3}, y queremos
tener un tiempo reducido Serie con 3 puntos. En este caso podemos transformar la serie original en una serie
reducida {3.75, 6.25, 4.5} con el estadístico medio de cada segmento. La figura 3.21 muestra la serie original y
la serie transformada con tres medias. keogh y lin4
propuso este método primero con una estadística media. Lo llaman aproximación agregada por partes. La
mayor ventaja de este enfoque es que es simple de entender e implementar.
0
1 2 3 4 5 6 7 8 9 10 11 12
Algunos análisis clásicos de series de tiempo para la extracción de características, tales como
la estacionalidad, la tendencia, la descomposición y los ajustes estacionales, y el análisis de
correlación conducen a identificar características críticas de trazas sísmicas.
Agrupación jerárquica
La opción jerárquica agrupa filas que agrupan los puntos (filas) de una tabla en grupos cuyos valores
están cerca entre sí en relación con los de otros
racimos El agrupamiento jerárquico es un proceso que comienza con cada punto en su propio grupo.
En cada paso, los dos grupos que están más cerca se combinan en un solo grupo. Este proceso
continúa hasta que solo hay un grupo que contiene todos los puntos. Este tipo de agrupamiento es
bueno para conjuntos de datos más pequeños (algunos cientos de observaciones).
1. Vinculación media
2. Método del centroide
3. Método de Ward
4. Enlace único
5. Vinculación completa
Machine Translated by Google
cuadrado
sísmico
parcial
R-
FRKY
Z1
1- FRKY
Z3
1- FRKY
Z7
1- FRKY
Z9
1- FRKY
Z2
1- FRKY
Z4
1- FRKY
Z5
1- FRKY
Z6
1- FRKY
Z8
1-
FRKY
Z13
1- FRKY
Z11
1- FRKY
Z16
1- FRKY
Z17
1- FRKY
Z18
1- FRKY
Z19
1- FRKY
Z20
1- FRKY
Z12
1- FRKY
Z14
1- FRKY
Z15
1- FRKY
Z21
1- FRKY
Z10
1- FRKY
Z22
1- FRKY
Z23
1-
FRKY
Z210
1-
Vinculación promedio
En el enlace promedio, la distancia entre dos conglomerados es la distancia promedio entre pares
de observaciones, o una en cada conglomerado. El enlace promedio tiende a unir conglomerados
con pequeñas varianzas y está levemente sesgado hacia la producción de conglomerados con la
misma varianza.
Método centroide
En el método del centroide, la distancia entre dos grupos se define como la distancia euclidiana al
cuadrado entre sus medias. El método del centroide es más resistente a los valores atípicos que la
mayoría de los otros métodos jerárquicos, pero en otros aspectos podría no funcionar tan bien
como el método de Ward o el vínculo promedio.
método de Ward
En el método de varianza mínima de Ward, la distancia entre dos conglomerados es la suma de
cuadrados ANOVA entre los dos conglomerados sumados sobre todas las variables.
En cada generación, la suma de cuadrados dentro del grupo se minimiza en todas las particiones
que se pueden obtener fusionando dos grupos de la generación anterior. Las sumas de cuadrados
son más fáciles de interpretar cuando se dividen por la suma total de cuadrados para dar las
proporciones de varianza (correlaciones semiparciales al cuadrado).
El método de Ward une grupos para maximizar la probabilidad en cada nivel de la jerarquía
bajo los supuestos de mezclas normales multivariadas, matrices de covarianza esférica y
probabilidades de muestreo iguales.
El método de Ward tiende a unir conglomerados con un pequeño número de observaciones y
está fuertemente sesgado hacia la producción de conglomerados con aproximadamente el mismo
número de observaciones. También es muy sensible a los valores atípicos.
Machine Translated by Google
Enlace único
En el enlace simple, la distancia entre dos conglomerados es la distancia mínima entre una observación
en un conglomerado y una observación en el otro conglomerado.
El enlace único tiene muchas propiedades teóricas deseables.5 Sin embargo, el enlace único no ha
obtenido resultados satisfactorios en los estudios de Monte Carlo.6 Al no imponer restricciones sobre
la forma de los grupos, el enlace único sacrifica el rendimiento en la recuperación de grupos compactos
a cambio de la capacidad de detectar racimos alargados e irregulares. El enlace único tiende a cortar
las colas de las distribuciones antes de separar el grupo principal.
Vinculación completa
En el enlace completo, la distancia entre dos conglomerados es la distancia máxima entre una
observación en un conglomerado y una observación en el otro conglomerado.
El enlace completo está fuertemente sesgado hacia la producción de agrupaciones con diámetros
aproximadamente iguales y puede verse gravemente distorsionado por valores atípicos moderados.
Agrupación de K-Means
El enfoque de K-medias para el agrupamiento realiza un proceso de ajuste alternativo iterativo para
formar el número de agrupamientos especificados, como se muestra en la figura 3.23. El método de K-
medias primero selecciona un conjunto de n puntos llamados semillas de conglomerados como una
primera suposición de las medias de los conglomerados. Cada observación se asigna a la semilla más
cercana para formar un conjunto de grupos temporales. Las semillas luego son reemplazadas por el racimo.
Bueno Grupo A
Baja porosidad, alta permeabilidad, baja
Producción, Alta Presión, Caudal, etc.
significa que los puntos se reasignan y el proceso continúa hasta que no se produzcan más
cambios en los grupos. Cuando finaliza el proceso de agrupación, verá tablas que muestran
breves resúmenes de las agrupaciones. El enfoque de K-medias es un caso especial de un
enfoque general llamado algoritmo EM; E significa expectativa
(el clúster significa en este caso), y M significa maximización, lo que significa asignar puntos a
los clústeres más cercanos en este caso.
El método de K-medias está diseñado para usarse con tablas de datos más grandes, de
aproximadamente 200 a 100 000 observaciones. Con tablas de datos más pequeñas, los
resultados pueden ser muy sensibles al orden de las observaciones en la tabla de datos.
La agrupación en clústeres de K-Means solo admite columnas numéricas. El agrupamiento
de K-Means ignora los tipos de modelo (nominal y ordinal) y trata todas las columnas numéricas
como columnas continuas.
Una vez que se ha implementado la metodología de agrupamiento, es factible segmentar el
yacimiento o campo en función de los resultados. Por ejemplo, al agrupar los atributos sísmicos
y las propiedades de las rocas que se pueden mapear a través de redes neuronales artificiales a
partir de los atributos, puede identificar los pozos que son buenos y malos desde la perspectiva
de un productor o un inyector.
A partir de las características de rastreo combinadas con los datos de producción, ahora
es posible generar un modelo analítico que se puede visualizar en un mapa e identificar el punto
ideal para asesorar sobre futuros pozos de exploración/evaluación y reducir la probabilidad de
pozos secos.
La magia del 3D se transmite mejor al considerar cómo capturamos las mediciones de un campo
de ondas que regresa. Cuando introducimos energía acústica en la tierra, es como dejar caer
una gran bolsa de pelotas de ping-pong desde el techo de una habitación grande.
Las pelotas rebotarán de manera errática debido a la falta de homogeneidad en la habitación
(sillas, escritorios y personas). Muchas de las bolas regresarán al techo donde se podrá observar
y medir su retorno. Al analizar el tiempo y la posición de las bolas que regresan, podemos inferir
qué irregularidades pueden existir en la sala.
En la exploración de petróleo y gas, estamos tratando de obtener imágenes de reservorios y
trampas. Nuestra imagen y reconstrucción del subsuelo se verá limitada si solo recibimos las
“pelotas de Ping-Pong” en distintas líneas 2D. Sin embargo, si observamos el campo de ondas
reflejado (pelotas de ping-pong) sobre un área grande, tendremos información mucho más útil
para construir nuestras imágenes del subsuelo. Por lo tanto, si tenemos dos campos de ondas
3D separados por el tiempo, es concebible restar uno del otro y notar la diferencia en los patrones
de atributos sísmicos como la amplitud y la fase.
Tenga en cuenta los cambios sutiles en los cambios de tiempo a medida que las firmas de trazas
sísmicas difieren entre los dos conjuntos de datos 3D. Estas comparaciones muestran patrones
y relaciones que son indicativos de los movimientos de hidrocarburos a través del yacimiento.
Preguntas como, ¿Qué tan efectiva es mi estrategia WAG?, pueden medirse y cuantificarse.
Machine Translated by Google
Al comparar nuevos datos sísmicos de lapso de tiempo con trazas/modelo originales, pudimos
evaluar la eficiencia de los pozos de inyección/producción, ubicar dónde fluye la inyección y
cuantificar los cambios en la saturación de fluidos durante la vida del yacimiento. Al comparar
nuevos datos sísmicos (de una ubicación diferente) con el modelo de yacimiento/
expectativas de trazas sísmicas, pudimos identificar la desviación del modelo y, por lo tanto, lograr
la calidad de los datos en tiempo real durante la adquisición sísmica.
Es crítico durante la fase de exploración sísmica de la cadena de valor de E&P capturar tanto
conocimiento como sea posible que sea relevante para comprender la deposición, generación,
migración y atrapamiento de hidrocarburos en el subsuelo. Por lo tanto, una de las tareas más
importantes para los geofísicos es identificar las características geológicas que se pueden mapear
en el ciclo de vida del petróleo y el gas. Tanto las características estáticas como las dinámicas
inherentes a los yacimientos deben emerger de la plétora de trazas de movimiento sísmico. Estas
características son enumeradas por Cosentino a modo de léxico de parámetros:7
Capacidad para comprender las propiedades del yacimiento en un yacimiento de arena con muchas
fallas con inclusiones de lutita.
Como estamos aplicando PCA a un solo atributo sísmico, a saber, la amplitud, debemos muestrear
el volumen 3D con una ventana deslizante que encapsula muchas muestras de amplitud contiguas de
trazas sísmicas adyacentes. Esto nos permite poblar vectores de valores de amplitud muestreados
para múltiples ventanas a través del volumen sísmico 3D. Estos vectores actúan como un espacio de
entrada para el algoritmo estadístico PCA, produciendo un espacio de salida que consta de un cubo
de componentes principales (PC) agrupados que actúan como una variable categórica cuando se
predicen las propiedades del yacimiento distantes de los núcleos de control de pozos localizados y los
registros con cable.
En áreas de variación estratigráfica lateral acelerada dentro del yacimiento, esta metodología
demuestra ser un flujo de trabajo predictivo eficiente y preciso que permite a los geocientíficos construir
modelos de yacimiento rigurosos. Las geoestadísticas tradicionales adoptan un flujo de trabajo basado
en variogramas que implementan un conjunto de kriging
y pasos de simulación. Sin embargo, dichos flujos de trabajo no pueden capturar en detalle las
distribuciones de las litofacies debido a las limitaciones inherentes al sesgo de muestreo de los datos
duros en cada ubicación de control.
más expedito que la adopción de la implementación de técnicas de computación blanda que abarquen
dichos atributos para determinar las propiedades del yacimiento areal fuera de los procesos
deterministas.
Por supuesto, los primeros principios que vinculan de manera invisible los atributos con las
propiedades específicas del yacimiento están bien definidos, pero las relaciones desde una perspectiva
basada en datos están rodeadas de incertidumbre. Esa incertidumbre debe cuantificarse para limitar la
confianza en los resultados. Sin embargo, es posible que nunca se logre la falta de ambigüedad; pero
para equilibrar el argumento, ¿podemos afirmar que los científicos no han probado de manera
demostrable más allá de toda duda esos procesos físicos ahora acuñados como verdades empíricas?
También están las viejas preguntas al profundizar en el ámbito de las estadísticas que encuentran
sus raíces en la lógica de la caja negra. ¿Podemos confiar en los resultados basados en empujar un
espacio de entrada de alta dimensionalidad a través de un algoritmo que
Machine Translated by Google
¿Se puede engañar fácilmente si se entrena demasiado? Se ha demostrado que existe una
clara posibilidad de que una correlación falsa sea factible, si no anticipada, cuando el número
de atributos en el espacio de entrada alcanza un cierto límite, invitando a invitados no deseados:
redundancia y colinealidad.
Lendzionowski, Walden y White sugieren que el número máximo de atributos independientes
para representar integralmente un segmento de traza puede designarse mediante una ecuación
simple:8
El primer paso en el flujo de trabajo de PCA es calcular todas las covarianzas para los
componentes de entrada N. El segundo paso proporciona la inversión de la matriz de covarianza
para crear un conjunto de vectores propios N-ortogonales y valores propios correspondientes.
Cada par vector propio-valor propio representa un componente principal distinto (PC). Todos
los N-PC se calculan de forma solitaria y concurrente a partir del conjunto de vectores de
entrada. La inversión de la matriz de covarianza garantiza la identificación única del componente
de "variante máxima" (PC de valor propio más alto).
Todas las PC secundarias, clasificadas en orden de valor propio decreciente, son mutuamente
ortogonales (el vector propio garantiza esto).
Luego derivamos un conjunto completo de atributos sísmicos representados como PC y
este proceso alcanza las siguientes características importantes para los atributos bajo estudio:
PCA requiere múltiples (N) entradas, aunque estamos aplicando PCA contra un solo atributo
sísmico: amplitud. Pero recuerde que estamos analizando muchos valores de amplitud adyacentes
simultáneamente a través de una ventana de muestreo.
La metodología sísmica inherentemente dispersa el conocimiento del reflector del subsuelo a
través de un volumen más grande de datos de amplitud registrados fuera del alcance inmediato de
un reflector localizado. La wavelet sísmica tiene un ancho de banda limitado de componentes
espectrales y está dominada por longitudes de onda largas (frecuencias bajas), lo que da como
resultado su naturaleza dispersiva. Por lo tanto, la wavelet representa de manera ambigua cualquier
característica localizada y agrupada estrechamente.
Es necesario diseñar una ventana de muestreo para encapsular la señal dispersa resultante de
una característica de pequeña escala en el subsuelo, pero asegurando la exclusión de la mayor
cantidad posible de señales no relacionadas.
La ventana de muestreo selecciona todos los valores de amplitud (N-muestras) como un vector
N-dimensional ordenado que actúa como entrada al algoritmo PCA. Al muestrear todo el volumen
de datos sísmicos en 3D con múltiples ventanas de tamaño uniforme, generamos la matriz estadística
de muestras vectoriales necesarias para el cálculo de las covarianzas. Este paso precede
inmediatamente a la inversión de la matriz de covarianza. El tamaño de la ventana de muestreo se
calcula identificando el número de muestras de cuadrícula por encima y por debajo de un punto de
referencia relativo que se encuentra en el centro de cada ventana. Se decidió limitar el tamaño de la
ventana en la dimensión vertical a aproximadamente el período medio de la wavelet sísmica, ~34
Determinado
por las dimensiones
de la ventana de
muestreo • N Salidas rangos
transformadas • Total PC
PC • Mutuamente
norte
Piedra
Gráfico
3
94
Machine Translated by Google
representado por cada PC. Los PC están ordenados y, por definición, se les asigna una
etiqueta numérica, por orden decreciente de contribución a la varianza total.
La PC con la contribución de fracción más grande se etiqueta con el nombre de la etiqueta
del archivo de preferencias. Tal gráfico, cuando se lee de izquierda a derecha a lo largo de la
abscisa, a menudo puede mostrar una clara separación en fracción de la varianza total donde
cesan los componentes "más importantes" y comienzan los componentes "menos importantes".
El punto de separación a menudo se llama "codo".
La característica totalmente independiente se adopta como premisa para agrupar y
clasificar la población de vectores de entrada transformados.
La dimensionalidad del espacio de entrada no se redujo mediante el análisis factorial,
sino que se logró mediante el uso de un enfoque de agrupación. El agrupamiento nos permite
producir un volumen de clases discretas que se calculan directamente, utilizando todas las
PC significativas de manera objetiva. Esta estrategia combina la información significativa
contenida en todas las PC con la compacidad de una descripción categórica.
inversión de
covarianza
matriz a
Calcular todo generar N K-medias Nube
covarianza para
ortogonal transformar
agrupamiento
N-entrada vectores propios
algoritmo y SGS
componentes y
correspondiente
valores propios
2. Para calibrar los conglomerados con mayor peso estadístico es necesario capturar tantos
puntos de datos de pozo dentro de cada conglomerado como sea posible.
Este objetivo resulta en seleccionar menos conglomerados, aumentando el volumen
muestreado por conglomerado.
Se decidió elegir 50 clústeres como óptimos para lograr un equilibrio entre estos dos objetivos
competitivos. Se requiere experimentación y algún análisis subjetivo para llegar a la elección óptima
del número de conglomerados y, por lo general, retener múltiples opciones de números de
conglomerados servirá para capturar la incertidumbre impuesta por este paso.
Vinculado
Matriz Arcilla Agua Petróleo Gas
Agua
efectivo Porosidad
Sólidos PHI
Porosidad Total
PHIT
Una transformación de nube es una técnica de estimación estocástica que permite a los
geocientíficos simular una variable a partir de otra variable utilizando el diagrama de dispersión entre
ellas y se basa en hacer coincidir una gráfica cruzada (nube) de puntos que relacionan las dos
variables. La nube es simplemente el gráfico bivariado físico de datos blandos versus datos duros en
las ubicaciones de muestreo de los pozos. Para aplicar la transformación de manera ubicua, los
datos blandos deben estar ubicados en todas partes. Los datos duros deben existir en las ubicaciones
de los pozos muestreados y están destinados a la estimación en toda la cuadrícula, guiados por los
datos blandos. Aquí, los grupos de PCA son los datos blandos y los valores PHIE son los datos duros.
SGS crea una estimación de la propiedad mediante los siguientes cinco pasos, como se muestra
en la Figura 3.27:
Paso 1. Se determina una ruta de viaje aleatoria para pasar a través de las celdas despobladas
de la cuadrícula. Una vez establecida, la primera celda se puede llenar.
Paso 2. Calcule la solución de kriging local restringida por los valores de PHIE y complete la
primera celda de la ruta.
Paso 3. Se realiza una selección aleatoria de la población gaussiana univariante limitada por la
media y la varianza para esa ubicación del paso 2.
Paso 5. Luego, el algoritmo avanza a la siguiente ubicación de ruta aleatoria, repitiendo los
pasos 1 a 4 hasta que se llena toda la cuadrícula.
Debe señalarse que dado que los puntos previamente simulados influyen en los valores
simulados posteriormente, cada elección de ruta aleatoria generará esencialmente una realización
de la propiedad claramente única, pero igualmente válida.
Sinopsis
Las anomalías de amplitud asociadas tanto con el gas libre como con el petróleo ligero en las secciones de
arenisca se pueden observar dentro de los datos. Estos efectos se muestran como valores de gran amplitud
en el lado derecho de las amplitudes en los contactos. La presencia de efectos de amplitud relacionados con
los hidrocarburos presenta un problema para el análisis de atributos convencional, ya que el PHIE
generalmente varía independientemente de la saturación de hidrocarburos. Una caracterización de PHIE que
se ve afectada por la saturación de hidrocarburos suele ser poco fiable. Nuestros resultados que utilizan
grupos de PCA parecen no verse afectados en gran medida por estas anomalías de hidrocarburos gracias al
método de calibración que se utiliza.
El análisis de espectro singular (SSA) es un enfoque relativamente nuevo para modelar datos de series
temporales. El método SSA de análisis de series de tiempo aplica técnicas no paramétricas para descomponer
series de tiempo en componentes principales. SSA es particularmente valioso para series de tiempo largas,
para las cuales los patrones (como tendencias y ciclos) son difíciles de visualizar y analizar.
Los datos de series de tiempo a menudo contienen tendencias, ciclos, anomalías y otros componentes.
Para series temporales largas, estos patrones suelen ser difíciles de visualizar y descubrir. El análisis de
espectro singular (SSA) aplica técnicas no paramétricas que adaptan el análisis de componentes principales
(PCA) comúnmente utilizado para descomponer datos de series temporales. Estos componentes pueden
ayudar al analista a descubrir y comprender los diversos patrones contenidos en la serie temporal. Una vez
que el analista entiende estos componentes, cada serie de componentes se puede modelar y pronosticar por
separado; luego, los pronósticos de las series componentes pueden agregarse para pronosticar la serie
original bajo investigación.
Los datos de la serie temporal sísmica posterior a la acumulación son representativos de una línea cruzada
con 390 trazas tomadas en un período de muestra de 4 milisegundos durante 4 segundos.
A continuación, se aplica un análisis de espectro singular utilizando un valor de umbral para el espectro propio.
La serie de tiempo se analiza utilizando el procedimiento TIMESERIES de la siguiente manera:
amplitud var;
correr;
OUTSSA=SSA;
amplitud var;
correr;
10
0.1
100
80
60
40
20
0
2 4 6 8 10 12
Índice de ventana
Como puede ver en la gráfica, el primer grupo representa el ciclo de corto plazo
dominante en la serie de anomalías de amplitud. A partir de este gráfico, parece que la
variación de amplitud es pequeña para la ventana de tiempo de 2400 milisegundos a
3000 milisegundos.
La Figura 3.29 ilustra el primer y segundo grupo. En el primer gráfico, la línea negra
representa la serie original y la línea azul representa el primer grupo. En el segundo
gráfico, la línea azul representa el segundo grupo.
La Figura 3.30 ilustra el primer grupo. En el primer gráfico, la línea negra representa
la serie original y la línea azul representa el primer grupo. En el segundo gráfico, la línea
azul representa el primer grupo.
Como puede ver en la Figura 3.30, el segundo grupo representa el ciclo de mediano plazo
dominante en la serie de anomalías de amplitud. A partir de este gráfico, parece que la variación de
amplitud es muy grande para la ventana de tiempo de 1600 ms a 2400 ms.
La Figura 3.31 muestra el periodograma y la densidad espectral de las 390 trazas.
El análisis anterior descompuso la serie de tiempo en componentes aditivos. Los componentes
multiplicativos se pueden lograr tomando la transformación logarítmica de la serie temporal (de valor
positivo).
modelo GRUPO1;
NIVEL;
PARCELA DE PENDIENTE=SUAVE;
correr;
Distribución de F_SLOPE
12
10
0
–0.0023 –0,0017 –0,0011 –0,0005 0,0002 0,0009 0,0014 0,0020 0,0026 0,0032
el componente de pendiente filtrado es (-0,0031) grados por milisegundo (alrededor de -3 grados por
segundo).
Se pueden aplicar otros análisis a cada uno de los grupos espectrales: análisis en el dominio del
tiempo, análisis en el dominio de la frecuencia, análisis de componentes, análisis de distribución,
pronósticos y otros.
El análisis de espectro singular (SSA) es una herramienta muy poderosa para detectar patrones
en series de tiempo largas con pocas suposiciones del modelo. SSA descompone efectivamente las
series de tiempo en agrupaciones espectrales. Estas agrupaciones espectrales se pueden analizar
individualmente utilizando técnicas de análisis de series temporales, como la previsión y el análisis de
componentes de espacio de estado.
Estimar las propiedades del yacimiento lejos del control de pozo localizado es una tarea peligrosa e
invariablemente ardua. Sin embargo, la adopción de un flujo de trabajo que se basa en atributos
sísmicos derivados que se analizan a través de algoritmos de reconocimiento de patrones permite que
una metodología basada en datos complemente la interpretación determinista tradicional de los
geofísicos.
Debido a la escasez de conocimientos geológicos, a menudo nos encontramos andando a tientas
en la oscuridad, ya que dependemos en gran medida de suposiciones empíricas para determinar los
cambios de facies y las asociaciones de atributos sísmicos con nuestros objetivos.
Propongamos dos metodologías basadas en técnicas de computación blanda. Los mapas de
autoorganización de Kohonen (SOM) permiten a los geofísicos crear mapas de facies, y las
transformaciones wavelet ayudan en la identificación de singularidades de trazas sísmicas.
Sabemos que las variaciones en la litología y los fluidos dan como resultado cambios en la
amplitud, la fase y la frecuencia instantáneas, la coherencia lateral y otros atributos sísmicos. Por lo
tanto, los atributos sísmicos juegan un papel auxiliar en la construcción de modelos de yacimientos. Es
factible detectar cambios laterales en el yacimiento a través de flujos de trabajo analíticos de atributos
sísmicos, con una calibración posterior con información del pozo y la experiencia obtenida de los
intérpretes geofísicos.
La implementación de datos sísmicos y técnicas de reconocimiento de patrones ha sido posicionada
por varias publicaciones científicas.9
La segmentación temporal y espacial del yacimiento está plagada de incertidumbres inherentes.
La estratigrafía sísmica permite a los geofísicos identificar y evaluar las facies sísmicas frente a la
heterogeneidad geológica.10 El análisis se lleva a cabo mediante el estudio de las trazas sísmicas para
mostrar las características de una ventana o grupo de reflexiones sísmicas compuestas de amplitudes,
fases, frecuencias, continuidad y configuración de dichos reflejos. ¿Podemos predecir bajo incertidumbre
la estratigrafía y el ambiente depositacional?
NOTAS
4. J. Lin, E. Keogh, S. Lonardi, JP Lankford y DM Nystrom, "Visually Mining and Monitoring Massive Time
Series", en Actas de la Décima Conferencia Internacional ACM SIGKDD sobre Descubrimiento de
Conocimiento y Minería de Datos, Seattle, WA , 22–25 de agosto de 2004, KDD '04, Nueva York, ACM
Press, págs. 460–469.
5. Véase N. Jardine y R. Sibson, Mathematical Taxonomy, Londres, Wiley, 1971; L. Fisher y JW Van Ness,
"Procedimientos de agrupación admisibles", Biometrika 58 (1971): 91–104; y J. Hartigan, Clustering
Algorithms (Nueva York: John Wiley & Sons, 1975).
6. Véase GW Milligan, “An Examination of the Effect of Six Types of Error Perturbation on Fifteen
Algoritmos de agrupamiento”, Psychometika 45 (1980): 325–342.
7. L. Cosentino, Integrated Reservoir Studies (París: Editions Technip, 2001).
8. V. Lendzionowski, A. Walden y R. White, “Mapeo de caracteres sísmicos sobre depósitos
Intervalos”, Prospección Geofísica 38 (1990): 951.
9. J. Dumay y F. Fournier, "Análisis estadísticos multivariantes aplicados al reconocimiento de facies sísmicas",
Geofísica 53, no. 9 (1988): 1151-1159; F. Fournier y J. Derain, "Una metodología estadística para derivar
propiedades de yacimientos a partir de datos sísmicos", Geofísica 60, no. 5 (1995): 1437; y MM Saggaf, MN
Toksöz y MI Marhoon, "Clasificación e identificación de facies sísmicas mediante redes neuronales
competitivas", Geofísica 68 (2003): 1984–1999.
10. J. Dumay y F. Fournier, “Análisis estadísticos multivariantes aplicados a las facies sísmicas
Reconocimiento”, Geofísica 63, no. 9 (1988): 1151–1159.
11. EC Rankey y JC Mitchell, "Por eso se llama interpretación: el papel de la incertidumbre del horizonte en el
análisis de atributos sísmicos", The Leading Edge (2003): 820–828.
12. M. Poupon, T. Coléou y K. Azbel, "Clasificación de facies sísmicas no supervisadas: revisión y comparación
de técnicas e implementación", The Leading Edge (2003), 22: 942–953.
Machine Translated by Google
CAPÍTULO
4
Reservorio
Caracterización y
Simulación
107
Machine Translated by Google
15
10
0
1965 1970 1975 1980 1985 1990 1995 2000 2005 2010 2015
–5
Año
A menudo, los datos de pozos son deficientes en cantidad regular y los datos sísmicos exhiben
una resolución deficiente debido a reservorios fracturados, intrusiones de basalto y domos de sal.
El petróleo fácil es cosa del pasado y nos vemos obligados a explorar fronteras inexploradas,
como entornos de aguas profundas y yacimientos no convencionales que albergan gas de
arenas compactas y lutitas petrolíferas. Durante las fases de exploración, desarrollo y producción
de dichos recursos, es evidente que las estrategias comerciales se vuelven más problemáticas
y que quizás el enfoque tradicional que implica un estudio determinista necesita una metodología
complementaria. La cadena de valor de E&P (Figura 4.2) abre múltiples oportunidades para
obtener conocimiento de conjuntos de datos dispares al promover un conjunto de flujos de
trabajo basados en datos basados en modelos analíticos avanzados y al establecer modelos de
yacimientos más sólidos. Por lo tanto, es vital adoptar una postura híbrida que combine la
interpretación y las metodologías informáticas blandas para abordar problemas comerciales
como la cuantificación de la precisión de los modelos de yacimientos y la mejora del rendimiento
de la producción, así como la maximización de la ubicación de los pozos inyectores y de
producción.
La industria del petróleo y el gas dedica una gran cantidad de recursos y gastos al dominio
upstream de E&P. Cuando pensamos en el ciclo de vida de un activo, como un pozo o un
yacimiento, hay una decisión comercial que debe tomarse durante cada fase. Esa decisión debe
tener valor comercial.
Podría estar ingresando a un nuevo campo y explorando para generar prospectos, esforzándose
por obtener información de la sísmica y ubicar pozos exploratorios en yacimientos cada vez más
complejos. Necesitas tasar el comercial
Machine Translated by Google
Primario
prospecto Reservorio Perforación y Producción Mejorado
Generación Delineación Terminación Mantenimiento y Recuperación
HSE
cantidades de hidrocarburos y mitigar los riesgos mientras se perforan pozos de delineación para
determinar el tipo, la forma y el tamaño del yacimiento y las estrategias para un desarrollo óptimo.
La fase de producción requiere una explotación eficiente de los hidrocarburos. Tenemos que
considerar los compromisos de salud, seguridad y medio ambiente (HSE) y los programas de
mantenimiento. ¿Se maximiza la producción de hidrocarburos para cada pozo? ¿Qué tan
confiables son los pronósticos a corto y largo plazo?
Mantener una producción de campo óptima requiere decisiones comerciales que determinen
si un activo es económicamente viable. ¿Cómo identificamos los pozos que son candidatos ideales
para el levantamiento artificial? ¿Cuándo y cómo estimulamos bien a un candidato?
Debemos ser conscientes de los tres principales desafíos en la cadena de valor de E&P:
Estos tres principios se han abordado recientemente al enfocar una enorme cantidad de
esfuerzo para descubrir metodologías innovadoras que puedan remediar los problemas inherentes
a los ejercicios tradicionales de construcción de modelos deterministas. la exploración y producción
Machine Translated by Google
La metodología analítica siempre debe comenzar con un paso de análisis exploratorio de datos (EDA)
que revela tendencias y relaciones ocultas en el sistema complejo multivariante que es un yacimiento de
hidrocarburos. No modele datos sin procesar; determine un conjunto de hipótesis que valga la pena modelar
a través de una exploración de su activo clave: los datos.
Concentrémonos en las técnicas informáticas blandas a nuestra disposición para comprender cómo se
puede mejorar la caracterización de yacimientos a medida que nos esforzamos por
cuantificar la incertidumbre en las propiedades de la roca. En última instancia, debemos mitigar los riesgos
asociados con las tácticas y estrategias de ingeniería de campo que se desarrollan a partir de un ciclo
comprimido de toma de decisiones. Podemos acelerar este proceso mediante metodologías basadas en
datos que emplean análisis avanzados.
A medida que un campo madura con el tiempo y el rendimiento de la producción disminuye debido a
los cambios naturales de presión en el yacimiento, corresponde un paso de reevaluación que estudie
nuevamente el ciclo de vida de los hidrocarburos a través de un cuerpo dinámico que es el yacimiento. La
caracterización de reservorios calibrada por comparación histórica ofrece un modelo geológico más sustancial
para respaldar ese paso de reevaluación.
La caracterización de yacimientos de una zona contaminada que ha estado produciendo durante
décadas requiere el análisis de conjuntos de datos invariablemente muy grandes agregados a partir de
registros de pozos, historial de producción y resultados de análisis de núcleos mejorados por mapeo de alta
resolución de atributos sísmicos a propiedades de yacimientos. Es imperativo sacar a la superficie las
relaciones más sutiles inherentes a estos conjuntos de datos, comprender la estructura de los datos e
identificar las correlaciones en un sistema multivariado complejo.
Para cuantificar con precisión la incertidumbre en las variables del subsuelo es necesario apreciar la
heterogeneidad de un sistema complejo como un reservorio de hidrocarburos. ¿Cuál es la mejor manera de
lograr este objetivo? Necesitamos alejarnos del modelo determinista tradicional singular de datos que son
invariablemente crudos con poco o ningún control de calidad. Entre el 50 y el 70 por ciento del tiempo
atribuido a un estudio de caracterización de yacimientos debe invertirse en una metodología analítica que
comience con un conjunto de flujos de trabajo de gestión de datos. Luego, diseña un proceso iterativo que
implementa una exploración de datos para descubrir patrones ocultos y comprender las correlaciones,
tendencias y relaciones entre esas variables.
Machine Translated by Google
tanto operativos como no operativos, que tienen la mayor influencia estadística en una función
objetivo.
Datos exploratorios
analisis implementando
procesamiento de datos
Análisis de incertidumbre
Continuidad espacial
análisis y modelado—
el variograma
y, en consecuencia, formular modelos más realistas mediante la adopción de un conjunto de flujos de trabajo
EDA1 es una filosofía para el análisis de datos que emplea una variedad de técnicas (principalmente gráficas)
La percepción significativa y concreta de un conjunto de datos surge a medida que el analista examina y explora
adecuadamente los diversos matices de los datos. Cualquier apreciación de los datos se deriva casi exclusivamente
del uso de varias técnicas gráficas que producen la esencia de los datos. Por lo tanto, los gráficos bien elegidos no
solo son insustituibles, sino que también están en el centro de todas las determinaciones perspicaces, ya que no
se adoptan análogos cuantitativos en un enfoque más clásico. Es esencial aprovechar su propio reconocimiento
de patrones y habilidades correlativas mientras estudia las representaciones gráficas de los datos en estudio, y
alejarse de las técnicas cuantitativas que son de naturaleza clásica. Sin embargo, la EDA y las escuelas de
pensamiento clásicas no se excluyen mutuamente y, por lo tanto, pueden complementarse durante un proyecto de
caracterización de yacimientos.
En un EDA, la recopilación de datos de flujo de trabajo no va seguida de una imposición de modelo; más
bien es seguido inmediatamente por el análisis y el objetivo de inferir qué modelo sería apropiado. La atención se
centra en los datos, su estructura, los valores atípicos y los modelos sugeridos por los datos y, por lo tanto, en las
hipótesis que vale la pena seguir. Estas técnicas son generalmente gráficas. Incluyen diagramas de dispersión,
diagramas de medias. Las técnicas EDA no comparten la exactitud o formalidad que se observa en las técnicas
clásicas de estimación que tienden a modelar los datos antes del análisis. Las técnicas EDA compensan cualquier
falta de rigor al adoptar una perspectiva muy significativa, característica y perspicaz sobre cuál debería ser el
modelo aplicable. Hay dos protocolos que se imponen a los datos del yacimiento y están dirigidos por modelos:
modelado determinista, como modelos de regresión y modelos de análisis de varianza (ANOVA), y modelos
probabilísticos que tienden a suponer que los errores inherentes a los modelos deterministas se distribuyen
metodología que no impone modelos deterministas o probabilísticos sobre los datos, prefiriendo que los
datos sugieran modelos aceptables que revelen un ajuste óptimo a esos datos.
Por lo tanto, las técnicas EDA son instintivas y se basan en interpretaciones que pueden variar en
un amplio espectro de análisis individuales, aunque los analistas experimentados invariablemente llegan
a conclusiones idénticas. En lugar de adoptar un proceso de filtrado clásico que tiende a centrarse solo
en unas pocas características importantes dentro de una población mediante la determinación de
estimaciones, EDA explota todos los datos disponibles para garantizar que las características inherentes
de los datos, como la asimetría, la curtosis y la relación de autocor, no se pierdan. población. Además,
a diferencia de cualquier suposición intrínseca como la normalidad que se hace en un enfoque clásico,
las técnicas EDA hacen pocas o ninguna conjetura sobre los datos aguas arriba, en lugar de mostrar
todos los datos. EDA se esfuerza por perseguir como objetivo cualquier conocimiento sobre el proceso
de ingeniería o científico detrás de los datos. Mientras que las estadísticas de resumen, como la
desviación estándar y la media, son pasivas e históricas, la EDA es activa y futurista. Para comprender
el proceso y mejorarlo en el futuro, EDA implementa los datos como una apertura para profundizar en
el núcleo del proceso que entregó los datos.
El análisis exploratorio de datos se utiliza para identificar relaciones sistemáticas entre variables
cuando no hay (o están incompletas) expectativas a priori en cuanto a la naturaleza de esas relaciones.
En un proceso típico de análisis exploratorio de datos, se tienen en cuenta y comparan muchas
variables, utilizando una variedad de técnicas en la búsqueda de patrones sistemáticos.
ÿ Análisis de conglomerados
ÿ Análisis factorial
ÿ Escalado multidimensional
ÿ Análisis log-lineal
ÿ Correlación canónica
ÿ Análisis de correspondencia
ÿ Árboles de clasificación
Machine Translated by Google
Es esencial analizar la plétora de datos en todos los dominios aguas arriba, integrando datos
limpios de los campos de geofísica, geología e ingeniería de yacimientos. El esfuerzo dedicado a
esta tarea es crítico para el éxito final del análisis de incertidumbre, y es apropiado adoptar flujos
de trabajo para optimizar el EDA requerido. La recopilación de muchos tipos diferentes de datos
en todos los dominios y aplicaciones geocientíficos puede estar contenida en un marco analítico.
Paso 4. Discretización
El análisis univariante perfila los datos y detalla los descriptores tradicionales, como la media,
la mediana, la moda y la desviación estándar. El análisis multivariado examina las relaciones
entre dos o más variables, implementando algoritmos como regresión lineal o múltiple, coeficiente
de correlación, análisis de conglomerados y análisis discriminante. La metodología de
transformación de datos abarca la conveniencia de colocar los datos temporalmente en un
formato aplicable a tipos particulares de análisis; por ejemplo, la permeabilidad a menudo se
transfiere al espacio logarítmico para respetar su relación con la porosidad.
EDA es un enfoque de análisis de datos. ¿Qué otros enfoques de análisis de datos existen y en
qué se diferencia EDA de estos otros enfoques?
Tres enfoques populares de análisis de datos son:
1. Clásico
2. Exploratorio (EDA)
3. bayesiano
Estos tres enfoques son similares en el sentido de que todos comienzan con un problema general
de ciencia e ingeniería y todos producen conclusiones de ciencia e ingeniería. La diferencia está
en la secuencia y el enfoque de los pasos intermedios.
Machine Translated by Google
Previo
Problema Datos Modelo Análisis Conclusiones
Distribución
El propósito de EDA es generar hipótesis o pistas que nos guíen en la mejora de la calidad
o el desempeño del proceso. El análisis exploratorio está diseñado para descubrir “lo que nos
dicen los datos”. Su intención básica es buscar relaciones y estructuras interesantes en un
cuerpo de datos y exhibir los resultados de tal manera que sean reconocibles. Este proceso
implica resúmenes, quizás en forma de algunas estadísticas simples (p. ej., media y varianza
de un conjunto de datos) o quizás en forma de un diagrama simple (como un diagrama de
dispersión). También implica la exposición, es decir, la presentación de los datos para permitir
ver las características anticipadas e inesperadas de los datos. Descubrir lo inesperado antes
de confirmar lo sospechado para dilucidar conocimientos que conduzcan a decisiones de
desarrollo de campo.
ÿ Se debe entretener a un modelo en cada paso de EDA, pero no se le debe atribuir demasiada
responsabilidad. Mantenga una mente abierta y coquetee con el escepticismo con respecto a cualquier
ÿ Mire los datos desde varias perspectivas. No descarte el paso EDA en el ciclo de caracterización del
de los yacimientos con miras a pronosticar el desempeño futuro. Debido a las complejidades del sistema
multivariante que es el yacimiento, una simulación de campo completo que integre mediciones tanto estáticas
como dinámicas produce un modelo plausible en manos de ingenieros expertos. Sin embargo, este enfoque de
abajo hacia arriba que comienza con un modelo geocelular que conduce a un modelo de yacimiento dinámico está
arraigado en los primeros principios y conceptos de flujo de fluidos que se resuelven numéricamente a pesar de la
histórica. .
El modelado inteligente de yacimientos de arriba hacia abajo (TDIRM), como postula Shahab Mohaghegh2
en varios artículos y comentarios de SPE, ofrece una metodología alternativa que se esfuerza por obtener
información sobre la complejidad heterogénea al iniciar flujos de trabajo con mediciones de campo reales. Este
enfoque es tanto complementario como eficiente, especialmente en escenarios con costos prohibitivos donde la
simulación tradicional de la industria exige una inversión inmensa de tiempo y recursos para generar simulaciones
de campo gigantes. En resumen, TDIRM y flujos de trabajo filosóficos similares implementan técnicas de minería
de datos e inteligencia artificial que son los temas que unen este libro a lo largo de la cadena de valor de E&P.
Una gran variedad de análisis avanzados proporciona enfoques eficientes y simples para flujos de trabajo
flexibles para abordar el análisis de datos exploratorios, el análisis de incertidumbre y la evaluación de riesgos en
proyectos típicos de caracterización de yacimientos. La adopción de una visualización de análisis reduce el tiempo
para apreciar la estructura subyacente de los datos dispares aguas arriba que son requisitos previos para elaborar
Las ricas soluciones basadas en la web también permiten una distribución eficiente a la toma de decisiones.
ers de la información vital y el conocimiento extraído de las enormes cantidades de datos: registros de pozos,
Exploremos un conjunto lógico de procesos para permitir una mayor comprensión de la simulación
de yacimientos.
segmentos puede brindar una perspectiva adicional de las diferencias entre las ejecuciones de simulación
de coincidencias históricas.
ÿ Análisis de la curva de declinación: En lugar de usar ciegamente todos los atributos de las
entradas para el modelado, es necesario realizar un análisis para determinar aquellos
atributos que aportan una cantidad significativa de información útil del problema.
La reingeniería de campo también se puede optimizar al identificar aquellos pozos donde se puede mejorar la
productividad.
La siguiente lista proporciona un breve resumen de los pasos en el proceso de clasificación de pozos:
ÿ Implementación de métodos de suavizado que sean más aplicables a los datos disponibles. Por
ejemplo, en el caso de datos que no estén igualmente espaciados, puede utilizar la metodología de
suavizado LOWESS (mínimos cuadrados ponderados localmente). Utilice las curvas suavizadas
resultantes para interpolar puntos de datos faltantes para cortes de agua y curvas GOR.
ÿ Agrupación de pozos:
ÿ Se utiliza para crear una aproximación de baja dimensión al conjunto de datos de producción.
ÿ Análisis de conglomerados:
ÿ Puede ser útil para estudios posteriores tener solo un conjunto limitado de
ÿ Análisis discriminante:
El proceso de comparación histórica se lleva a cabo para reducir la incertidumbre con respecto a las
características del yacimiento. Esto se hace haciendo coincidir los resultados de la simulación con los datos
históricos observados (presiones, cortes de agua, etc.) por medio de variables variables de la matriz de
incertidumbre. La calidad de la coincidencia es una medida estadística que identifica qué tan cerca coincidió la
ejecución de la simulación con el historial (el valor cero significaría una coincidencia ideal). Es beneficioso
proceso de búsqueda de solución (Calidad = 0) en un espacio multidimensional definido por los rangos de
variables de la matriz de incertidumbre. Definimos tres pasos principales para este proceso:
Paso 1. Realice ejecuciones de alcance: para explorar las relaciones entre las variables de la matriz de
incertidumbre y los resultados de la simulación (variables de respuesta) y entrenar estimaciones
iniciales basadas en la información. Emplear un Estimador, también llamado proxy o modelo de
superficie de respuesta.
Paso 2. Realice las ejecuciones más informativas: intente mejorar la calidad de la coincidencia
explorando el espacio de soluciones en los lugares que son más prometedores según la información
actualmente disponible en el Estimador.
Paso 3. Realice las mejores ejecuciones de coincidencia: Optimización global por todas las variables
de la matriz de incertidumbre para ajustar el Estimador (modelo de superficie de respuesta) a los datos
de producción históricos.
Es plausible suponer que la calidad convergerá a algún valor cercano a cero, lo que no siempre es
cierto durante un proceso de comparación de historial. Mediante el análisis de ejecuciones (usando
convergencia de calidad, horquillado y otros tipos de análisis de ejecuciones) podemos determinar si las
simulaciones se movieron en la dirección incorrecta y buscaron en el lugar equivocado. En tal caso, la matriz
de incertidumbre se ajustará de acuerdo con el conocimiento de las características del yacimiento ya surgido
y el proceso de comparación histórica se reiniciará desde el principio (recorridos de alcance).
1. Identificar los factores críticos de incertidumbre: qué variables tienen mayor impacto
en la convergencia de la calidad?
Rango aceptable
dieciséis
14
12
10
8
Tolerancia
6
de mín. 2
0
123456 X 8 9 10 11 12
mínimo
máx.
Variable de incertidumbre
Filtrado dieciséis
Decisión 14 X
Variable 12
10
8
6
4
2 X
0
12345678 9 10 11 12
Variable de incertidumbre
Supongamos que se conocen todas las variables de entrada excepto una, por lo que la función
objetivo (OF) depende entonces de una sola variable de incertidumbre. Considerando todo el rango
posible de valores que podría representar la variable de incertidumbre, buscaríamos el valor mínimo
de OF y luego identificaríamos el valor “óptimo” x. En la figura 4.4, el valor x se correlaciona con el
valor y de la variable de decisión (p. ej., VPN). Sin embargo, este es el mejor modelo (valor de la
variable de incertidumbre) para la información disponible, pero este modelo no es necesariamente
cierto. En lugar de obtener el mejor modelo, se debe investigar un conjunto de modelos para análisis
posteriores. Este conjunto de modelos probabilísticos se encuentran dentro de un rango aceptable
limitado por la función objetivo y corresponden a valores de OF por encima del mínimo de acuerdo
con un umbral de tolerancia previamente establecido por los ingenieros de yacimientos.
Existen varias herramientas que pueden ayudar a resolver el problema de identificar los factores
críticos desde diferentes perspectivas:
Machine Translated by Google
Estas técnicas se aplican a datos de producción, datos de registros de pozos y datos de núcleos.
Es importante apreciar los supuestos de estacionariedad tanto en el plano espacial como en el eje
temporal. Durante el análisis de los datos de producción, es necesario filtrar los datos para identificar
y clasificar las áreas de mejora potencial de la producción.
Un árbol de decisión representa una segmentación de los datos que se crea al aplicar una serie
de reglas simples. Cada regla asigna una ejecución de simulación a un segmento en función del valor
de una variable de entrada. Se aplica una regla tras otra, lo que da como resultado una jerarquía de
segmentos dentro de segmentos. La jerarquía se llama árbol y cada segmento se llama nodo. El
segmento original contiene todo el conjunto de datos y se denomina nodo raíz del árbol. La
implementación de una técnica de este tipo identifica aquellas propiedades del yacimiento que tienen
mayor poder predictivo y, por lo tanto, mayor influencia en un factor determinante o variable de objeto,
como OOIP o corte de agua.
Una matriz de incertidumbre puede tener cientos de variables potenciales que corresponden a la
respuesta de calidad de coincidencia histórica (mediante un modelo de simulador). Hay una serie de
enfoques estadísticos para reducir el número de variables, que pueden considerarse como
determinantes de la importancia de las variables en su poder de predecir la calidad del partido.
Desde un punto de vista estadístico, esto se puede hacer usando R-cuadrado o Chi
criterio de selección de variable cuadrada (o su combinación).
Los modelos proxy tradicionales, como el rango de superficies de respuesta o los modelos reducidos,
están siendo reemplazados poco a poco por modelos de reservorios sustitutos (SRM) que se basan en
las competencias de reconocimiento de patrones inherentes a una escuela de pensamiento de
inteligencia artificial y minería de datos. El modelo numérico de simulación de yacimientos es un tutor
del SRM, que lo entrena para apreciar la física y los primeros principios del flujo de fluidos a través de
medios porosos de un yacimiento específico, así como la naturaleza heterogénea y compleja de las
características del yacimiento, tal como se representa en la geología estática. modelo. La producción
de fluidos y los gradientes de presión a través del yacimiento se inculcan en la educación del SRM que
se define como un sistema inteligente
Los SRM ofrecen una alternativa factible a las metodologías geoestadísticas convencionales
reflejadas en los modelos proxy y de superficie de respuesta. Como función objetivo en el análisis de
incertidumbre, los SRM son efectivos para generar simulaciones estocásticas del yacimiento, cuantificar
la incertidumbre y, por lo tanto, mitigar
Machine Translated by Google
algunos de los riesgos en la predicción del rendimiento y las estrategias de reingeniería de campo.
Se pueden observar beneficios adicionales en la optimización en tiempo real y la toma de
decisiones basadas en respuestas en tiempo real de la función objetivo.
Esforzarse por resolver un problema inverso es una metodología que es un denominador
común en la construcción de modelos de E&P que tienen una solución analítica ostensible. Las
soluciones numéricas asociadas con la simulación tradicional de yacimientos
prácticas no son candidatas ideales para resolver el problema inverso. Los SRM brindan las
herramientas necesarias para abordar el problema inverso, además de proporcionar un conjunto
clasificado de características del yacimiento determinado por indicadores clave de rendimiento.
que miden o cuantifican la influencia o el impacto estadístico que tiene cada característica del
yacimiento en el resultado de la simulación, como el GOR o el corte de agua.
ESTUDIOS DE CASO
Estudiemos una metodología analítica multivariante que incorpora un conjunto de flujos de trabajo
de computación suave que conducen a una solución para el problema inverso de predecir las
propiedades del yacimiento en las capas geológicas en ausencia de datos de núcleo en pozos
localizados.
Después de las gráficas QQ, podemos usar componentes principales, análisis factorial y
conceptos de lógica difusa para identificar las variables dominantes y el número óptimo de
variables independientes de los registros de núcleos y pozos que están disponibles. Es imperativo
reducir la dimensionalidad del espacio de entrada para reducir las variables irrelevantes que harán
que el modelo se comporte mal. el neural
Machine Translated by Google
0.35
–0.671.28–1.64 0.610.0 1.28 1.64
* *
0.3
escala
normal de
cuantiles
0.25
* *
Límites
0.2
***** de confianza
***
******* de Lilliefors
****
0.15 ****
*******
*****
******* *****
* * ***** escala de
0.1 probabilidad
*
0.05
Figura 4.6 Gráficos QQ con histogramas y CDF para tres registros de rayos gamma
Machine Translated by Google
La red, por ejemplo, se ve algo socavada al abordar un espacio de entrada de alta dimensionalidad, ya que
deseamos evitar que la red neuronal use casi todos sus recursos para representar secciones irrelevantes
del espacio.
En el subsuelo, la mayoría de los algoritmos de caracterización de yacimientos son no lineales. Las
técnicas de computación suave han evolucionado exponencialmente durante la última década para permitir
la identificación de sistemas no lineales, temporales y no estacionarios, como los yacimientos de
hidrocarburos.
Si estamos estudiando más de una variable regresora, es plausible escalar los datos de entrada antes
de crear los coeficientes del modelo de regresión múltiple, ya que la escala garantizará que todos los
regresores de entrada tengan la misma varianza y media. Por lo tanto, las diferencias sutiles en los
coeficientes de regresión múltiple correspondientes serán indicativos del valor determinado para cada
regresor en el modelo. Consideremos, por ejemplo, el valor logarítmico de la permeabilidad dentro de una
formación particular. Suponga que este logaritmo es una función de la porosidad y la lectura de rayos
gamma (litología) que refleja una influencia alta y baja en la permeabilidad, respectivamente.
¿Qué significa esto? Sugiere que la porosidad tiene un papel más crítico que desempeñar en un
modelo de regresión múltiple que la lectura de rayos gamma que refleja las diferencias de litología.
Definamos un algoritmo (ecuación 1) que refleje un modelo inoperativo:
No hay escalado de entrada ni de salida y el rayo gamma en unidades API tiene más influencia en la
permeabilidad debido a la escala del rayo gamma y la porosidad, esta última definida como una fracción.
Ahora vemos ambas variables, rayos gamma y porosidad, a la misma escala. Debido al coeficiente de
porosidad, tiene una influencia más crítica sobre la permeabilidad. Al escalar tanto los regresores como los
objetivos en el rango [–1, 1] implementando la ecuación 3, estamos adoptando el principio de igualdad de
varianza y media:
En la ecuación 3, X representa cualquier variable y refleja la importancia de escalar para modelar con
precisión en un sistema complejo y multivariante como un reservorio de hidrocarburos.
Modelando cualquier variable objetivo que sea representativa de una función objetivo
Machine Translated by Google
como la tasa de producción o la duración de la meseta, podemos implementar un flujo de trabajo analítico
que incorpore como variables de entrada aquellas que tienen una alta correlación con el objetivo
identificado o la variable dependiente.
Si desea ver la disposición de los puntos en muchas variables correlacionadas, puede utilizar el
análisis de componentes principales (PCA) para mostrar las direcciones más destacadas de los datos de
alta dimensión. El uso de PCA reduce la dimensionalidad de un conjunto de datos y es una forma de
representar la estructura de los datos de la manera más completa posible utilizando la menor cantidad de
variables posible.
Para n variables originales, n componentes principales se forman de la siguiente manera:
ÿ Cada componente principal posterior es la combinación lineal de las variables que tiene la mayor
varianza posible y no está correlacionada con todos los componentes definidos anteriormente.
Cada componente principal se calcula tomando una combinación lineal de un vector propio de la
matriz de correlación (o matriz de covarianza) con una variable.
Los valores propios muestran la varianza de cada componente y dado que los componentes principales
son ortogonales entre sí, no hay redundancia.
La representación de los componentes principales es importante para visualizar datos multivariados
al reducirlos a dimensiones que se pueden graficar ya que la varianza total representada por las variables
originales es igual a la varianza total explicada por los componentes principales.
Una vez reducido así el espacio de entrada, podemos implementar un proceso de lógica difusa.
Recuerde del Capítulo 1 la lógica detrás del pensamiento confuso y el comentario histórico sobre
Aristóteles y Platón.
Aristóteles formuló la Ley del Tercero Excluido. Establece que para cualquier proposición, o esa
proposición es verdadera, o su negación es verdadera. El principio fue enunciado como un teorema de
lógica proposicional por Russell y Whitehead en Principia Mathematica. 3 No hay término medio ni nada
entre las dos partes de una contradicción donde una proposición debe ser verdadera y la otra debe ser
falsa.
Sin embargo, los procesos de pensamiento humanos sugieren lo contrario, donde el mundo real se
aleja del blanco y negro bivalente hacia el área que es algo gris. ¿Es por eso que nos referimos a los
cerebros humanos como materia gris? ¿Cómo explicamos la variación en una curva que refleja una
función del volumen mineral en una roca específica basada en lecturas de rayos gamma? La lógica difusa
nos rescata de las cadenas aristotélicas de la lógica booleana. Esencialmente, el mundo de la lógica
difusa abarca cuatro componentes constitucionales:
3. Factores de ponderación
4. Desfuzzificación
Pero piense en las restricciones impuestas por la lógica booleana en nuestro pensamiento a medida
que nos esforzamos por establecer metodologías analíticas para ayudar a resolver los problemas
comerciales en la cadena de valor de exploración y producción aguas arriba. La evolución continua del
yacimiento multivariante, dinámico y complejo, por ejemplo, sólo puede describirse en una aproximación
aproximada. Por lo tanto, estamos desprovistos de los detalles esenciales necesarios para comprender las
posibles soluciones a un sistema no determinista. No descartemos el rango de probabilidades establecido
bajo incertidumbre y descrito por los límites de confianza cuando evaluamos las respuestas a las preguntas
del subsuelo. La verdad no solo existe fundamentalmente en una escala móvil, sino que también se percibe
que cambia poco a poco por las incertidumbres en las medidas e interpretaciones. Irónicamente, los
ingenieros de E&P deben pasar del mundo de blanco y negro a las “sombras” donde predomina el gris.
Esta es la matemática de la lógica difusa.
La multitud de posibilidades que caracterizan este terreno gris debe ser domesticada por la
cuantificación de la grisura o borrosidad. La teoría probabilística es la rama de las matemáticas que se
ocupa de la probabilidad, el análisis de los fenómenos aleatorios. Los objetos centrales de la teoría de la
probabilidad son variables aleatorias, procesos estocásticos y eventos: abstracciones matemáticas de
eventos no deterministas o cantidades medidas que pueden ser ocurrencias únicas o evolucionar con el
tiempo de manera aparentemente aleatoria. Un evento aleatorio se puede describir como el lanzamiento
individual de una moneda o de dados, y si se repite muchas veces, la secuencia de estos eventos
aleatorios exhibirá ciertos patrones que se pueden estudiar y predecir.
Adoptando conjuntos difusos aplicables controlados por funciones de pertenencia, podemos determinar el
grado de afiliación de cada variable.
El cálculo del volumen de arcilla en una roca específica, como la piedra caliza, por ejemplo, se puede
representar mediante una curva basada en lecturas de rayos gamma para identificar las ocurrencias entre
capas. Dicho cálculo puede explicarse mediante lógica difusa como los valores de rayos gamma (z) en el
volumen de arcilla (Z) en la ecuación 4, donde la función de membresía asigna cada lectura de rayos
gamma a un valor de membresía entre 0 y 1.
Las reglas son esencialmente declaraciones de expresión para abarcar la imprecisión inherente al proceso
de pensamiento humano. Aquí hay un ejemplo de tal
declaración:
Nótese la articulación lingual de rayos gamma y arcilla-volumen asociada con etiquetas altas y grandes.
Por supuesto, podríamos adoptar varias partes del antecedente y aplicar los operadores de lógica difusa
AND, OR y NOT para describir los valores de pertenencia mínimos, máximos y complementarios de una
variable.
Factores de ponderación
Si una sola regla es inadecuada, entonces se pueden adoptar múltiples reglas, una contra la otra. El
conjunto borroso que es una salida de cada regla se puede fusionar con otros conjuntos borrosos de salida
en un solo conjunto borroso de salida. En cuanto a las contribuciones relativas de cada conjunto borroso
de salida en el conjunto borroso combinado, se puede asignar un conjunto de factores de ponderación
para dictar el conjunto borroso de salida combinado.
La pericia y la experiencia en ingeniería son diseños sobresalientes en los factores de ponderación para
cumplir con las diferentes situaciones en un sistema de inferencia difusa.
Defuzzificación
El conjunto borroso o conjunto borroso agregado se ingresa a un proceso de desborrosificación que genera
un valor sucinto.
El siguiente paso en la metodología es la aplicación de una red neuronal. El cerebro humano consiste
en una multitud de neuronas conectadas. Las redes neuronales artificiales son sistemas de procesamiento
de información paralelos y adaptativos que pueden desarrollar asociaciones, transformaciones o mapeos
entre objetos o datos. Por lo tanto, son técnicas eficientes y populares para resolver problemas de regresión
y clasificación en la industria upstream del petróleo y el gas. Los elementos básicos de una neurona
Machine Translated by Google
Nueva Hampshire
I1
Ni
O1
Nueva Hampshire No
I2
Ni
O2
Nueva Hampshire No
I3
Ni
Nueva Hampshire
red son las neuronas y sus fuerzas o pesos de conexión. En un escenario de aprendizaje
supervisado, se implementa un conjunto de patrones de datos de entrada y salida conocidos
para entrenar la red. El algoritmo de aprendizaje toma un modelo inicial con algunos pesos de
conexión previos (números aleatorios) y aplica un algoritmo de actualización para producir
pesos finales a través de un proceso iterativo. Las redes neuronales artificiales (Figura 4.7) se
utilizan para construir un modelo representativo de predicción de las propiedades del
yacimiento. Los datos se utilizan como pares de entrada y salida para entrenar la red neuronal.
La información del pozo, los datos de calidad del yacimiento y los datos relacionados se
utilizan como entrada y se combinan con otra categoría, los datos de producción, como salida.
Dado que los primeros principios para modelar un proceso tan complejo utilizando las técnicas
convencionales de modelado matemático son tenues en el mejor de los casos, las redes
neuronales pueden proporcionar una visión explícita de las complejidades observadas en la
caracterización de las propiedades del yacimiento en una dimensión espaciotemporal. Una
vez que se ha completado un neuromodelo razonablemente preciso y representativo de los
procesos del yacimiento para la formación en estudio, se pueden realizar más análisis. Estos
análisis pueden incluir el uso del modelo para responder a muchas preguntas hipotéticas que
puedan surgir.
Los estudios de caracterización de yacimientos requieren que se defina una función objetiva
que impulse la agregación de conjuntos de datos apropiados y, en última instancia, sustente
las metodologías analíticas para lograr modelos precisos. Es un problema continuo de la
industria pronosticar con precisión el desempeño de los yacimientos y clasificar los activos
como probados, probables o posibles. Las reservas están directamente ligadas al factor de recuperación.
Examinemos un enfoque probabilístico para calificar y cuantificar aquellas variables que tienen
una mayor influencia en el factor de recuperación. El factor de recuperación promedio mundial
actual de los campos de petróleo es del 30 al 35 por ciento (frente al 20 por ciento en 1980).
Machine Translated by Google
Este parámetro varía desde un promedio del 10 por ciento de los crudos extrapesados hasta un promedio
del 50 por ciento de los campos más avanzados del Mar del Norte. El aumento del factor de recuperación
aumenta las reservas incluso sin el descubrimiento de nuevos campos.
Aumentar solo un 1 por ciento la tasa de recuperación puede aumentar las reservas entre 35 000 millones
y 55 000 millones de barriles, aproximadamente uno o dos años de producción mundial de petróleo.
Para aumentar el factor de recuperación de hidrocarburos es necesario mejorar el conocimiento de los
campos petroleros y utilizar tecnologías avanzadas para perforar pozos y producir hidrocarburos.
Las ganancias futuras se basan en los barriles de petróleo y/o gas recuperables descritos como una
fracción del tamaño del yacimiento, y esto se denomina factor de recuperación. Sin embargo, existe un
La mayoría de las técnicas EDA son de naturaleza gráfica con algunas técnicas cuantitativas. Los
gráficos o las visualizaciones brindan un poder sin precedentes para atraer a los datos para que revelen
sus secretos estructurales y las correlaciones y tendencias de la superficie que
Para ayudar a visualizar las correlaciones, se muestra un diagrama de dispersión para cada par de
variables de respuesta en un arreglo matricial, como se muestra en la Figura 4.9. De forma predeterminada,
se impone una elipse de densidad normal bivariada del 95 por ciento en cada diagrama de dispersión.
Machine Translated by Google
Figura 4.8 Diagrama de dispersión 3D Relación de superficies entre porosidad, permeabilidad y el factor de recuperación
de la función objetivo
Figura 4.9 Matriz de diagrama de dispersión que ilustra los grados de correlación con el factor de recuperación
Si las variables tienen una distribución normal bivariada, esta elipse encierra
aproximadamente el 95 por ciento de los puntos. La correlación de las variables se ve por
el colapso de la elipse a lo largo del eje diagonal. Si la elipse es bastante redonda y no
está orientada en diagonal, las variables no están correlacionadas.
Por lo tanto, se puede notar que el factor de recuperación tiene una fuerte correlación
con el aceite original en el lugar (OOIP)—obsérvese la elipse estrecha y angulada, una
correlación más débil con la porosidad, la permeabilidad y una distribución lognormal de la
saturación de agua—e incluso menos correlación con la temperatura del yacimiento, T.
Machine Translated by Google
Figura 4.11 Mapa de colores que representa las correlaciones y el análisis de un PCA
El estudio PCA calcula valores propios y vectores propios a partir de la matriz de covarianza
no corregida, la matriz de covarianza corregida o la matriz de correlación de las variables de
entrada. Los componentes principales se calculan a partir de los vectores propios y se pueden
utilizar como entradas para nodos de modelado sucesores en un flujo de proceso. Dado que
interpretar los componentes principales suele ser problemático o imposible, es mucho más
seguro verlos simplemente como una transformación matemática del conjunto de variables originales.
Machine Translated by Google
Figura 4.13 Análisis de valores atípicos con límite de control superior (UCL) definido
el estadístico T2 calculado, así como su límite de control superior (UCL). Los valores que
quedan fuera de este límite pueden ser atípicos.
La figura 4.14 ilustra tres posibles distribuciones de porosidad: normal, log normal y
Weibull. La opción de ajuste normal estima los parámetros de la distribución normal en función
de la muestra de análisis. Los parámetros para la distribución normal son ÿ (media), que define
la ubicación de la distribución en el eje X, y ÿ (desviación estándar), que define la dispersión o
extensión de la distribución. La distribución normal estándar ocurre cuando ÿ = 0 y ÿ = 1. La
tabla de estimaciones de parámetros para el ajuste de distribución normal muestra
mu (estimación de ÿ) y sigma (estimación de ÿ), con límites de confianza superior e inferior del
95 por ciento.
La Figura 4.14 también muestra una superposición de la curva de densidad en el
histograma de porosidad utilizando las estimaciones de parámetros de los datos. El ajuste
lognormal estima los parámetros ÿ (escala) y ÿ (forma) para la distribución lognormal de dos
parámetros para una variable Y donde Y es lognormal si y solo si X = ln(Y) es normal. La
distribución de Weibull tiene diferentes formas dependiendo de los valores de ÿ (escala) y ÿ
(forma). A menudo proporciona un buen modelo para estimar la duración de la vida,
especialmente para dispositivos mecánicos y en biología.
Machine Translated by Google
Figura 4.14 Distribuciones de espesor y porosidad que exhiben poderes predictivos para el
factor de recuperación
El Weibull de dos parámetros es lo mismo que el Weibull de tres parámetros con un parámetro
de umbral (ÿ) de cero.
La opción Curva suave ajusta una curva suave al histograma de variable continua
mediante la estimación de densidad no paramétrica. La curva suave se muestra con un control
deslizante debajo del gráfico. Se puede usar el control deslizante para establecer la desviación
estándar del núcleo. La estimación se forma sumando las densidades normales de la
desviación estándar del kernel ubicadas en cada punto de datos.
Al cambiar la desviación estándar del kernel, puede controlar la cantidad de suavizado.
Por lo tanto, los resultados representados gráficamente en las Figuras 4.14 y 4.15 brindan
una idea de la distribución de cada propiedad del yacimiento y la estructura asociada de los
datos de población subyacentes que deben modelarse. Es un paso necesario para identificar
un modelo apropiado para el yacimiento.
Machine Translated by Google
La plataforma de partición divide recursivamente los datos del yacimiento según una relación
entre los valores X e Y , creando un árbol de particiones. Encuentra un conjunto de cortes o
agrupaciones de valores X que predicen mejor un valor Y. Lo hace buscando exhaustivamente
todos los posibles cortes o agrupaciones. Estas divisiones de los datos se realizan de forma
recursiva, formando un árbol de reglas de decisión hasta que se alcanza el ajuste deseado.
Las variaciones de esta técnica tienen muchos nombres y marcas comerciales: árbol de
decisiones, CARTTM, CHAIDTM, C4.5, C5 y otros. La técnica a menudo se enseña como una
técnica de minería de datos, porque
Cada paso de un análisis de árbol de partición representado en la Figura 4.16 intenta dividir
los datos del yacimiento en dos partes: una parte con un valor medio alto de REC (factor de
recuperación) y una parte con un valor medio bajo. En el primer paso, el valor medio alto de REC
es “todas las observaciones tales que OOIP tiene un valor mayor o igual a 1032”. Las demás
observaciones forman un conjunto con valores medios bajos de REC.
En el segundo paso, cada uno de los conjuntos del primer paso se subdivide aún más. El grupo
de “valor medio bajo” se divide en un grupo donde la porosidad es < 0,282 y un segundo grupo
donde la porosidad es > 0,282. El grupo de “valor medio alto” se divide en un grupo donde Sw <
0,28 y el complemento de ese grupo.
Este proceso continúa. La interpretación es un conjunto de reglas que predicen valores altos
o bajos de la variable REC o factor de recuperación. Para encontrar los valores más grandes
Machine Translated by Google
de REC, primero elija observaciones donde OOIP >= 1032. Dentro de ellas, elija observaciones
donde Sw < 0.28. Continúe por tantas divisiones como desee.
Este modelo de árbol de partición subraya la importancia de dichos parámetros, OOIP y Sw,
al determinar una ecuación para el factor de recuperación del yacimiento.
Por lo tanto, se puede concluir del análisis del árbol de partición que los parámetros del
yacimiento más influyentes y sus valores asociados son: OOIP >= 1032, saturación de agua
connata < 0,28, factor de volumen de formación de petróleo a la presión de abandono >=
1,234 y porosidad > 0,256.
Un árbol empírico representa una segmentación de los datos que se crea aplicando una
serie de reglas simples. Cada regla asigna una observación a un segmento en función del
valor de una entrada. Se aplica una regla tras otra, lo que da como resultado una jerarquía de
segmentos dentro de segmentos. La jerarquía se llama árbol y cada segmento se llama nodo.
El segmento original contiene todo el conjunto de datos y se denomina nodo raíz del árbol. Un
nodo con todos sus sucesores forma una rama.
del nodo que lo creó. Los nodos finales se llaman hojas. Para cada hoja, se toma una decisión
y se aplica a todas las observaciones de la hoja. El tipo de decisión depende del contexto. En
el modelado predictivo, la decisión es simplemente el valor predicho.
Machine Translated by Google
Una ventaja del árbol de decisión es que produce un modelo que puede representar reglas
inglesas interpretables o enunciados lógicos. Otra ventaja es el tratamiento de los datos faltantes. La
búsqueda de una regla de división utiliza los valores faltantes de una entrada. Las reglas sustitutas
están disponibles como respaldo cuando faltan datos que impiden la aplicación de una regla de división.
Los árboles de decisión producen un conjunto de reglas que se pueden usar para generar predicciones
para un nuevo conjunto de datos. Esta información se puede utilizar para impulsar decisiones
comerciales.
Otra técnica de imputación reemplaza los valores faltantes con la media de todas las demás
respuestas proporcionadas por esa fuente de datos. Esto supone que la entrada de esa fuente de
datos específica se ajusta a una distribución normal. Otra técnica estudia los datos para ver si los
valores faltantes ocurren solo en unas pocas variables. Si se determina que esas variables son
insignificantes, las variables pueden rechazarse del análisis. Los nodos de modelado aún pueden
utilizar las observaciones.
Por lo tanto, el análisis de datos exploratorios debe adoptar una técnica para identificar los datos
faltantes, a fin de manejar diligentemente tales ocurrencias a la luz del objetivo final del proyecto de
caracterización de yacimientos.
NOTAS
CAPÍTULO 5
Perforación y
Terminación
Mejoramiento
ciones en la industria del petróleo y el gas. Si bien los costos de perforación representan casi la mitad
La perforación es una
de los gastos de las operaciones
de pozos, más
solo el 42 por críticas,
ciento peligrosas,
del tiempo complejas
se atribuye a la yperforación.
costosas.
El 58 por ciento restante se divide entre problemas de perforación, movimiento de la plataforma,
defectos y períodos de latencia.
Algunos equipos de perforación no están completamente automatizados y ninguna compañía
de servicios brinda el conjunto completo de datos que los operadores necesitan para comprender
de manera integral el rendimiento de la perforación. Desafortunadamente, los errores cometidos
durante el proceso de perforación son muy costosos. Ocasionalmente, dañan la reputación y dan
lugar a fuertes demandas civiles y gubernamentales y sanciones financieras (considere el incendio
en aguas profundas y el derrame de petróleo de BP Horizon en 2010 en el Golfo de México). Los
programas de perforación ineficientes pueden tener un impacto financiero agregado aún mayor,
provocando retrasos en la terminación o abandono de pozos, paradas inesperadas, derrames de
hidrocarburos y otros accidentes. Existe una necesidad apremiante no solo de mejorar la eficiencia
de la perforación, sino también de predecir situaciones peligrosas que podrían tener un impacto
negativo en la salud, la seguridad y el medio ambiente.
Las terminaciones inteligentes obtienen datos de temperatura y presión de fondo de
pozo en tiempo real para identificar problemas en el yacimiento o en el pozo y optimizar
la producción sin una costosa intervención en el pozo. Detección, transmisión de datos y
139
Machine Translated by Google
Alertas
sentencias
Perforación
Actuación
Métodos
Propuestas
el control remoto del flujo zonal para aislar la formación de los fluidos de terminación ayuda a los
operadores a minimizar la pérdida de fluidos, administrar el yacimiento, mantener la integridad del
pozo y maximizar la producción.
Es imperativo que el personal de perforación comprenda los aspectos técnicos de las
operaciones de perforación y terminación de un pozo, para mejorar aún más la productividad de los
proyectos de perforación y reacondicionamiento, dada la creciente demanda de petróleo y gas
natural.
El proceso de ingeniería de perforación en tiempo real consta de cuatro etapas clave para
mitigar los riesgos y evitar problemas importantes, mejorar la eficiencia y establecer las mejores
prácticas, como se muestra en la Figura 5.1. Es fundamental integrar la experiencia de los
ingenieros y las tecnologías avanzadas existentes para generar valor comercial dentro de estas etapas:
Etapa 2. Juicios: Brindar sugerencias sobre hidráulica, torque y arrastre, y direccional para
mejorar el desempeño de perforación del pozo.
Etapa 3. Propuestas: proponer cambios significativos en el diseño del pozo, como desvío de
trayectoria, opciones de pesca, análisis inesperado de alta presión de formación, pérdida total
de circulación y correlación de puntos de revestimiento.
Etapa 4. Métodos: Ajustar el programa del pozo para mejorar el desempeño de la perforación.
Requiere una solución que proporcione una visión holística de todo el sistema de perforación y
brinde información casi en tiempo real sobre los parámetros que pueden mejorar la eficiencia de la
perforación, desde la planificación hasta la ejecución y la finalización.
ÿ Descubra patrones ocultos en los datos. Vincular datos de variables no operativas (propiedades
de la roca, características del yacimiento) con parámetros operativos de perforación (peso sobre
la barrena y revoluciones por minuto) y diseños de sistemas de perforación (modelos de
barrenas).
ÿ Confíe en el análisis de causa raíz para guiar las decisiones. Las técnicas analíticas avanzadas
miden cómo analizar los datos en tiempo real en relación con el desempeño o los eventos
pasados para que pueda predecir las fallas de las herramientas de fondo de pozo y determinar
de inmediato qué parámetros operativos ajustar.
ÿ Multivariante: Múltiples variables dependientes que deben predecirse para alcanzar un objetivo en
una singularidad. Estas son típicamente variables que tienen interdependencias que pueden
afectar el resultado de la singularidad. Por ejemplo, el torque afecta las RPM, el peso afecta el
torque y las RPM, y los tres afectan la tasa de penetración (el resultado).
Las métricas de cuantificación del desempeño más comunes de la industria—costo por pie (CPF), pie
por día (FPD) y tasa de penetración (ROP)—están fuertemente influenciadas por la energía mecánica
específica (MSE), pero MSE no debe equipararse a solo la eficiencia de perforación. Es solo uno de
varios parámetros que influyen en la productividad de la perforación.
El objetivo final debe orientarse a confirmar que el menor costo por tramo y la construcción de
pozos utilizables son los factores más críticos en el desempeño de la perforación y, en su caso, definir
las iniciativas estratégicas y soluciones operativas que lo conduzcan. En este sentido, las fuentes del
tiempo improductivo (NPT), a saber, el tiempo perdido visible (VLT) y el tiempo perdido invisible (ILT),
deben analizarse en detalle. Su contribución al rendimiento de la perforación debe describirse
analíticamente. La identificación de otros posibles contribuyentes críticos a la reducción del rendimiento
de la perforación debe realizarse de forma analítica. En última instancia, se deben identificar las causas
de estos parámetros críticos a lo largo del proceso de perforación, y también se debe describir la
eliminación de esas causas primarias de ineficiencia.
Machine Translated by Google
RPM
Esfuerzo de torsión
HKLD
multivariante
Vibración
Multidimensional
multivariado
ROP • Axial •
estocástico
Tangencial •
Lateral
MSE
143
Machine Translated by Google
Para lograr este objetivo, se deben definir tanto la eficiencia de perforación como la ROP,
y se deben identificar los factores que influyen en la ROP y la eficiencia de perforación. Lo que
es más importante, los diferentes factores que influyen en la eficiencia de la perforación, que
incluyen pero no se limitan a la ROP, deben analizarse en función de los objetivos específicos
del proyecto.
La eficiencia de perforación tendrá los efectos deseados en los costos cuando se
identifiquen y evalúen todos los parámetros operativos críticos. Estos parámetros, denominados
calificadores de rendimiento (PQ), deben analizarse y cuantificarse a través de una metodología
de análisis exploratorio de datos (EDA) que descubre patrones ocultos e identifica tendencias
y correlaciones en un sistema complejo multivariado. Se enumerarán hipótesis que vale la
pena modelar como resultado de los procesos de EDA. Los resultados conducirán a una base
fáctica para permitir la gobernanza sobre el proceso de perforación, con una lógica de
evaluación del desempeño establecida como reglas comerciales. La normalización y la limpieza
de los parámetros de perforación clave proporcionarán una base sólida para EDA, lo que
conducirá a la definición de eficiencia operativa a través de reglas comerciales basadas en
observaciones de escala y variabilidad de patrones.
Para mejorar la eficiencia de la perforación, las PQ no deben analizarse de forma aislada
porque están interrelacionadas. En consecuencia, la maximización de cualquier PQ en
particular, sin identificar y abordar los efectos que el esfuerzo tiene sobre los otros PQ, siempre
compromete la eficiencia de la perforación.
La implementación de un Centro de operaciones en tiempo real (RTOC, por sus siglas en
inglés) aborda la mayor complejidad inherente al volumen y la variedad de datos de perforación
actualmente recopilados de sensores en el pozo, así como parámetros de superficie, LWD,
MWD, PWD y lodo de terceros. -registro de datos. La Figura 5.3 ilustra algunas de las etapas
clave en un flujo de trabajo de ingeniería de perforación en tiempo real que se esfuerza por
lograr las mejores prácticas. El marco de gestión de datos que encapsula el flujo de trabajo de
la información y garantiza la calidad de la información generada en tiempo real respalda un
ciclo de toma de decisiones eficaz.
La información en tiempo real se hace eco de la condición existente del pozo bajo estudio.
Entonces es una formalidad integrar las aplicaciones técnicas de perforación en el proceso en
tiempo real.
Los flujos de trabajo/procesos analíticos avanzados pueden establecer y evaluar los
impulsores de rendimiento clave que son fundamentales para la identificación y reducción del
tiempo improductivo (NPT) y el tiempo perdido invisible (ILT) durante la perforación. Al realizar
un análisis multivariante en fuentes de datos discretas, los flujos de trabajo analítico pueden
determinar patrones desconocidos para identificar tendencias en un sistema de perforación.
A través de un conjunto de metodologías de limpieza, transformación y análisis exploratorio
de datos (EDA) empaquetadas en un nuevo proceso operativo para la identificación, selección,
diagnóstico y búsqueda de soluciones de problemas, crearemos modelos que definen las
correlaciones, tendencias y firmas que prediga tubería atascada en un formato operacionalizado
que mejorará el proceso de vigilancia y control de perforación.
Machine Translated by Google
• ingenio
• Equipo diario
Informes
Datos
Recopilación
Hay múltiples variables y componentes que componen un sistema de perforación y, por lo tanto,
muchas áreas potenciales que pueden crear desafíos desde una perspectiva de optimización. Al agregar
todos los datos relevantes (p. ej., información de compensación, mecánica de rocas, propiedades del lodo,
diseño de BHA, capacidades de la plataforma, etc.) podemos generar modelos que pueden predecir puntos
potenciales dentro del sistema de perforación que podrían optimizarse. Luego se pueden desarrollar flujos
de trabajo/procesos analíticos para lograr muchos objetivos, que incluyen:
ÿ Análisis de causa raíz para identificar indicadores clave de desempeño y su rango de valores
operativos que cubren diferentes funciones en el proceso de perforación, incluyendo lo siguiente:
ÿ Calidad del pozo: evite posibles problemas, como tuberías atascadas asociadas con las actividades
de limpieza del pozo.
ÿ Rendimiento de la plataforma: por qué las plataformas específicas funcionan mejor que otras en
el mismo activo/jugada.
Machine Translated by Google
ÿ Flujos de trabajo de pronóstico que encapsulan los parámetros de perforación para evitar
diseños de pozos inestables.
Además de un sistema basado en datos que traduce los datos sin procesar en conocimiento
tangible y efectivo, vemos que la yuxtaposición de un sistema dirigido por el usuario respaldado por
el conocimiento experto obtenido a través de la experiencia completa un enfoque híbrido. Esta
composición de fuentes de datos diferentes o incongruentes sustenta una técnica informática basada
en una metodología basada en flujos de trabajo analíticos avanzados que implementan mapas de
autoorganización (SOM), agrupamiento y enfoques bayesianos. El enfoque basado en datos requiere
un flujo de datos sólido y de calidad garantizada.
En la Figura 5.4 se ilustra una arquitectura de solución para realizar y estimar eventos que
conducen a NPT. Debemos analizar la frecuencia histórica y la probabilidad de ocurrencia, cruzando
las fallas con las empresas de servicios y los recursos para mejorar la toma de decisiones temprana.
Es necesario establecer un flujo de trabajo para identificar pozos críticos con mayor probabilidad de
experimentar NPT como candidatos para remediación y clasificar una comparación de eventos de
NPT entre pozos.
La solución de identificación de NPT puede iterar a través de varias capas de flujos de trabajo
lógicos e integrados que forman una metodología de arriba hacia abajo (Figura 5.5) que finalmente
se transforma en un catálogo de eventos históricos con diagnósticos asociados y mejores prácticas
para la remediación.
Segmente los pozos de acuerdo con las tácticas/estrategias y los eventos NPT, como se ilustra
en la Figura 5.6. Los objetivos de negocio determinan una segmentación de pozos
Sistema de elevación
Sistema Rotativo
PERSPECTIVA DE CONSISTENCIA
Sistema circulatorio
Equipo Sarta de perforación Nivel 1
Sistema de poder
BHA
Broca
Espera en espera
Logística de suministro
EFICIENCIA AGILIDAD
Clima
Sin equipo Información Nivel 2
administración
Respuesta de emergencia
COSTO VELOCIDAD
Circulación Perdida
Tubería atascada
Cementación
ILT
Operaciones Nivel 3
TNP
Pescar
Quitar
COLABORACIÓN DE PRECISIÓN
Vibración
147
Machine Translated by Google
a través de un módulo de agrupamiento para caracterizar sobre una base geográfica. Relacionar las NPT
con empresas y cuadrillas de perforación específicas.
Los diagramas de Pareto ayudan a identificar las NPT más importantes por pozo y/o campo,
considerando su impacto por la duración de los retrasos. Avalan la definición de prioridades para las
actividades de mejora de la calidad mediante la identificación de los problemas que requieren mayor
atención. Y los gráficos de control por pozo y categoría de falla permiten la identificación de fallas críticas y
su impacto en la profundidad de perforación y los tiempos de desempeño, así como el reconocimiento de
fallas fuera de control. Ambas formas de visualización sustentan la metodología NPT representada en la
Figura 5.7.
Figura 5.6 Análisis de conglomerados para identificar clases similares por tácticas/estrategias y NPT
Desarrollemos un flujo de trabajo basado en una metodología de mejores prácticas para reducir el NPT
al minimizar la ocurrencia de eventos de tubería atascada.
¿Qué es una tubería atascada y cuáles son los beneficios para obviar los efectos de tal ocurrencia? Durante
la operación de perforación, la sarta de perforación se atasca al perforar, hacer una conexión, realizar un
registro o cualquier operación que implique dejar el equipo en el pozo. Los problemas de tuberías atascadas
invariablemente se dividen en dos categorías: mecánicas y diferenciales. Lo primero ocurre mientras la sarta
de perforación es móvil y una obstrucción o restricción física da como resultado el evento de atascamiento.
Estas condiciones se dan en situaciones de inestabilidad del pozo, como una limpieza deficiente del pozo que
desencadena un par alto, un arrastre excesivo en la sarta de perforación y el taponamiento del pozo, lo que
lleva a un atascamiento de la tubería. Esto último ocurre debido a una mayor presión en el lodo que en el fluido
de formación. El atascamiento del diferencial se observa cuando el collar de perforación descansa contra la
pared del pozo, hundiéndose en el revoque de lodo.
El área del collar de perforación que no está incrustada en el revoque de lodo tiene una presión que es igual
a la presión hidrostática (Ph) en el lodo de perforación, mientras que el área incrustada exhibe una presión
igual a la presión de formación de roca ( Pf) actuando sobre él. La Figura 5.8 ilustra que la presión hidrostática
en el pozo es más alta que la presión de formación, lo que da como resultado una fuerza neta que empuja el
collar hacia la pared del pozo.
Por lo tanto, un incidente de tubería atascada es un desafío técnico generalizado que invariablemente
da como resultado una cantidad significativa de tiempo de inactividad y un aumento en los costos de reparación.
Figura 5.8 Adhesión diferencial: Ph (presión hidrostática) que exhibe un valor más alto que Pf (presión
intersticial de una formación permeable)
Machine Translated by Google
Figura 5.9 La inestabilidad del pozo es propensa a un evento de tubería atascada, lo que conduce a NPT
Machine Translated by Google
¿Cómo identificamos la aparición de atascamientos en todas sus formas, encontramos los escenarios
de atascamientos más críticos y frecuentes, los diagnosticamos y encontramos una solución operativa que
prevenga o mitigue su ocurrencia? Para hacer esto, es necesario analizar y cuantificar los parámetros más
influyentes para todos los mecanismos de tubería atascada, segmentar escenarios por firma de comportamiento
de grupos de parámetros, clasificar estos escenarios por frecuencia y criticidad, seleccionar los pocos
escenarios de mayor rango, realizar análisis causales para detectar indicadores tempranos, y al mismo tiempo
emitir un modelo predictivo para ser utilizado operativamente. Al final de este proceso, y bajo el supuesto de
que los indicadores predictivos ofrecen un tiempo de anticipación suficiente para que los operadores actúen,
es necesario tomar una decisión sobre las acciones operativas a realizar para prevenir o mitigar
significativamente el escenario analizado.
Por lo tanto, el objetivo a largo plazo es identificar medidas preventivas o mitigadoras a la luz de las
señales de advertencia ocultas en los parámetros operativos y no operativos apropiados que se consideren
necesarios para cada mecanismo de tubería atascada.
Los principales datos requeridos son:
ÿ Datos de fluidos
ÿ Datos litológicos
ÿ Datos de vibración
ÿ Datos MWD/LWD
Con el fin de lograr un costo mínimo por pie con una comprensión de la cuantificación de la incertidumbre y la
evaluación de riesgos controlados, una metodología de optimización de brocas identifica la broca óptima para
el intervalo perforado. Incorpore datos de pozos vecinos para seleccionar la broca de perforación adecuada y
las características críticas asociadas.
Los flujos de trabajo analíticos avanzados abarcan un análisis exhaustivo de los datos de pozos vecinos,
incluidos registros de pozos, topes de formación, registros de lodo, análisis de núcleos, mecánica de rocas,
parámetros de perforación, registros de barrenas y condiciones de barrenas desafiladas.
Al adoptar flujos de trabajo analíticos personalizados que incorporan conjuntos de datos dispares, es
factible lograr un costo mínimo por pie con una comprensión de la cuantificación de la incertidumbre y la
evaluación de riesgos controlados en una metodología de optimización de brocas. Tal proceso de evaluación
incluiría pasos tales como:
Buen control
La metodología generalmente requiere múltiples iteraciones de ciclos analíticos para monitorear las
diversas presiones en tiempo real: presión del fluido de perforación en el pozo, gas, petróleo y agua
bajo presión (presión de formación) y presión del lodo. Si la presión de la formación es mayor que la
presión del lodo, existe la posibilidad de una explosión.
ÿ Un proceso automatizado para medir tanto la broca real como la teórica por
rendimiento y detectar desviaciones anormales.
ÿ Conocimiento de las funciones de rendimiento y sus impulsores uno por uno y en combinación:
esto permite a los ingenieros de vigilancia, confiabilidad, procesos y operaciones comprender
la importancia de los impulsores en estados de rendimiento anormales, detectar patrones de
desviación del rendimiento y sus indicadores, encontrar causas, mejorar los patrones con
indicadores analíticos de causa, determinar el desempeño a corto plazo y los riesgos de
confiabilidad a largo plazo, y desarrollar medidas de prevención.
Al agregar todos los datos relevantes (como información de compensación, mecánica de rocas,
propiedades del lodo, diseño de BHA, capacidades de la plataforma, etc.) podemos generar modelos
que pueden predecir puntos potenciales dentro del sistema de perforación que podrían optimizarse.
Se pueden desarrollar flujos de trabajo/procesos analíticos para lograr muchos objetivos, entre ellos:
ÿ Análisis de causa raíz para identificar indicadores clave de desempeño y su rango de valores operativos
que cubren diferentes funciones en el proceso de perforación, incluyendo lo siguiente:
ÿ Integridad/ calidad del pozo: evite posibles problemas, como tuberías atascadas,
asociados con las actividades de limpieza de pozos.
ÿ Rendimiento de la plataforma o detección del estado de la plataforma: examine por qué las
plataformas específicas funcionan mejor que otras en el mismo activo/jugada. Optimice las
operaciones de perforación recopilando y analizando datos de perforación estáticos y en tiempo
real durante la ejecución y las operaciones posteriores a la perforación.
Al adoptar una visión holística de todo el sistema de perforación, los modelos analíticos pueden
determinar los atributos de rendimiento clave dentro de cada componente discreto y determinar la correlación
entre múltiples variables.
Se pueden aplicar técnicas analíticas avanzadas para medir cómo se analizan los datos en tiempo real en
relación con el desempeño/eventos pasados para predecir fallas en las herramientas de fondo de pozo y la
capacidad de realizar actividades causales inmediatas e implementar soluciones en tiempo real.
La comparación de datos de perforación en tiempo real con tendencias anteriores permite lo siguiente:
ÿ Evite NPT potenciales al predecir una falla, como un PDM debido a un exceso
vibración pasiva.
ÿ Capaz de realizar cambios de parámetros de perforación en tiempo real (es decir, WOB, TOB, flujo
Velocidad).
ÿ Prevenir reventones: proceso iterativo multivariable para analizar presiones como la formación, el lodo
y las presiones del fluido de perforación.
camino a la verdad. Luego construimos un modelo con los datos de perforación y, por lo tanto, no
comenzamos con un modelo. Los patrones en los datos se utilizan para construir un modelo y descubrir
ÿ Gestión de datos
ÿ Informe de resultados
Es necesario desarrollar flujos de trabajo para cada una de las capacidades anteriores para
evitar cantidades significativas de intervención manual y proporcionar procesos eficientes y
optimizados que sean consistentes y repetibles en múltiples activos globales dispares. A medida que
sus problemas de perforación se vuelven demasiado complejos para depender de una sola disciplina
y se encuentran en medio de una explosión de información, los métodos de análisis multidisciplinarios
y los enfoques de minería de datos se vuelven más una necesidad que una curiosidad profesional.
Para abordar problemas difíciles en la perforación de áreas no convencionales, debe derribar los
muros construidos alrededor de las disciplinas tradicionales y embarcarse en verdaderas soluciones
multidisciplinarias respaldadas por flujos de trabajo analíticos avanzados.
ESTUDIOS DE CASO
Una medida clave de la eficiencia de las operaciones que utilizan la tecnología SAGD es la
cantidad de vapor necesaria para producir un barril de petróleo, denominada relación vapor-petróleo.
(SO). Un SOR bajo nos permite crecer y mantener la producción con plantas comparativamente más
pequeñas y un uso de energía y emisiones más bajos, todo lo cual da como resultado una huella
ambiental más pequeña.
La metodología basada en datos se esfuerza por determinar los valores óptimos para aquellas
variables de control que conducen a la máxima producción de petróleo:
ÿ Velocidad de la bomba
ÿ Gas de revestimiento
Hay tres flujos de trabajo potenciales que constituyen una metodología multivariante:
i. Variables dependientes:
1. agua
2. Aceite
Machine Translated by Google
3. Velocidad de la bomba
i. Variables de salida:
1. agua
2. Aceite
3. Velocidad de la bomba
Flujo de trabajo 3: no asume ningún comportamiento predeterminado en los datos y no asume ninguna
formulación de modelo.
Los flujos de trabajo analíticos agregaron datos de dos plataformas de pozos con enfoque en dos pares
de pozos: P1 y P3. Separamos las variables dependientes, agua y petróleo, de la emulsión de producción en
función de los valores de corte de agua en el dominio de entrada. Los datos de entrada no incluyeron ningún
parámetro no operativo, como las propiedades del yacimiento o la geomecánica. Reservamos el 75 por ciento
de los datos existentes con fines de capacitación para construir los modelos; el 25 por ciento restante se utilizó
con fines de validación.
El lado izquierdo de la Figura 5.10 detalla el modelo de regresión lineal para la producción de agua, mientras
que el lado derecho representa los resultados aplicados a los datos de producción de petróleo. Tenga en cuenta
que el petróleo se sobredijo y, por el contrario, el agua se subestimó. Los valores de R-cuadrado para agua y
aceite son 0.7188 y
Machine Translated by Google
Figura 5.11 Modelos de redes neuronales para agua y petróleo para el par de pozos 3
0,3411, respectivamente. El valor R-cuadrado es el coeficiente de determinación y refleja qué tan bien se
ajustan los puntos de datos a la línea de regresión.
La red neuronal implementada fue una adaptación de alimentación hacia adelante con un modo de
aprendizaje supervisado con propagación hacia atrás para realizar un análisis de sensibilidad que determina
cómo cada parámetro de entrada influye en la salida (producción de agua y petróleo; consulte la Figura 5.11).
Por lo tanto, había cinco variables de entrada para cada red neuronal que modelaba la producción de agua y
petróleo. Los nodos ocultos se restringieron a dos o tres.
Machine Translated by Google
Los valores de R-cuadrado para el agua y el aceite son comparables, cada uno alrededor de
0,7, lo que ilustra una correlación bastante buena. Parece que el flujo de trabajo de análisis
multivariado que implementa la red neuronal artificial proporciona una muy buena metodología
para predecir la producción de agua o petróleo.
El enfoque final utilizó cinco reglas de asociación como se detalla en las Figuras 5.12 y 5.13 para
los pares de pozos 1 y 3, respectivamente.
Figura 5.12 Reglas de asociación implementadas en el conjunto de datos SAGD para el par de pozos 1
Figura 5.13 Reglas de asociación implementadas en el conjunto de datos SAGD para el par de pozos 3
Machine Translated by Google
Conclusiones
Al seleccionar las variables de control óptimas para los pares de pozos 1 y 3, concluimos que
era aplicable un diagnóstico de tres pasos:
Paso 1. Implemente los coeficientes estimados del flujo de trabajo 1 o los pesos
determinados en el flujo de trabajo 2.
Paso 2. Adopte los rangos sugeridos para las variables de control por las reglas de
asociación en el flujo de trabajo 3 e impleméntelos como restricciones para un modelo de
programación no lineal.
Examinando los resultados de los tres flujos de trabajo, derivamos las siguientes
relaciones funcionales para cada par de pozos que posteriormente podrían ponerse en
funcionamiento en un proceso de circuito cerrado para maximizar la producción de
hidrocarburos a través de un conjunto de parámetros operativos controlados en la terminación SAGD.
Bueno Par 1:
0.000117*Pozo_Producción_a_Cabeza_Presión
– 0.000732*Presión_de_gas_de_revestimiento_de_pozo_a_cabezal +
0,0976*Referencia_velocidad_bomba_en_hercios
– 0.000034*Vapor_a_tubo_corto –
0.000299*Vapor_a_tubo_largo
Well_Production_to_Header_Pressure 2403
Well_Casing_Gas_to_Header_Pressure 626.5
Pump_Speed_Reference_in_Hertz 63
Steam_to_Short_Tubing 98.15
Steam_to_Long_Tubing 0
Bueno Par 3:
0.003300*Pozo_Producción_a_presión_del_cabezal
+ 0.001091*Presión_del_gas_del_revestimiento_del_pozo_al_cabezal +
0,2674*Referencia_velocidad_bomba_en_hercios
– 0.000226*Vapor_a_tubo_corto +
0.0000133*Vapor_a_tubo_largo
64 <Referencia_velocidad_bomba_en_hercios <= 65
Well_Production_to_Header_Pressure 2289
Well_Casing_Gas_to_Header_Pressure 1211
Steam_to_Short_Tubing 10969
Steam_to_Long_Tubing 4524
Figura 5.15 Valores óptimos de las variables de control para el par de pozos 3
Machine Translated by Google
En resumen, notamos heterogeneidades inherentes entre los pares de pozos y se necesitaban diferentes
enfoques analíticos para predecir con precisión la producción de petróleo y agua. El enfoque de red neuronal
fue más preciso para predecir la producción de petróleo y agua que el flujo de trabajo de regresión lineal. Las
reglas de asociación pueden agregar más información y guiar los ajustes operativos en las variables de
control.
La programación no lineal puede ayudar a sugerir opciones de variables de control óptimas para maximizar
la producción de petróleo para los datos analizados.
La mejora del proceso de perforación se basa en el análisis de rendimiento que se basa principalmente en
los desgloses de la actividad diaria. La perforación de un pozo puede dividirse en varias operaciones distintas,
como la perforación, la rotación y la realización de una conexión. Cada operación genera información
detallada sobre el estado en el sitio de perforación. Los datos de series temporales de perforación son
inherentemente multidimensionales, lo que lleva a tiempos de acceso muy lentos y cálculos costosos. La
aplicación de técnicas de aprendizaje automático en datos de series temporales sin procesar no es una
solución práctica. Lo que se necesita es una representación de nivel superior de los datos sin procesar que
permita un cálculo eficiente y extraiga características de orden superior.
Los datos sin procesar generados por sensores se utilizan como entrada. Los sistemas de registro de
lodo proporcionan flujos de datos de series temporales que identifican parámetros mecánicos importantes.
La Tabla 5.1 enumera los parámetros de datos comúnmente utilizados.
En otras palabras, la entrada es una serie temporal multivariante con nueve variables:
{T1 , T2 , . . . T9 }
donde Ti es una serie de números reales {X1 , X2, . . . Xn } registrado secuencialmente durante un
período de tiempo específico.
Los datos generados por sensores no están directamente listos para construir los modelos de
clasificación. Estos datos contienen, en la mayoría de los casos, valores atípicos y faltantes que influirán en
la precisión del cálculo de características.
Machine Translated by Google
Datos Descripción
La limpieza de datos es una fase elemental que debe preceder a todas las demás fases
de aprendizaje automático. En la tarea de limpieza de datos se ejecutaron dos subtareas que
son:
Un valor atípico es un valor numérico que tiene una desviación inusualmente alta del valor
medio o de la mediana. Aunque existen numerosos algoritmos sofisticados para la detección
de valores atípicos, en este trabajo se utiliza un método estadístico simple. Este método se
basa en el rango intercuartílico (RIC), que es una medida de la variabilidad de los datos. IQR
fue calculado por esta ecuación:
IRQ = Q3 ÿ Q1 . . . 1
Aquí, Q1 y Q3 son los valores medios en la primera y tercera mitad del conjunto de datos,
respectivamente. Un valor atípico es cualquier valor X que esté al menos 1,5 rangos
intercuartílicos por debajo del primer cuartil
encima
Q1 , odel
al menos
tercer cuartil
1,5 rangos
Q3 . Una
intercuartílicos
de estas ecuaciones
por
debe ser satisfecha:
Los diagramas de caja y bigotes se implementaron como una representación gráfica para
mostrar la dispersión de los datos, resaltando los valores considerados atípicos.
La Figura 5.16 muestra que no hay valores atípicos en los datos de "mdbit" tomados de
un escenario de perforación e ilustra los valores atípicos en los datos de "mdhole" y "carga de
gancho" tomados del mismo escenario de perforación.
Machine Translated by Google
0
1 2 3
La longitud de la caja equivale a la diferencia entre Q3 y Q1 , que es IRQ. La línea dibujada dentro
de la caja es el valor de la mediana. Todos los puntos de datos por encima de la línea horizontal superior
o por debajo de la línea horizontal inferior se tratan como valores atípicos.
Los datos se normalizaron para reducir la variación no deseada entre conjuntos de datos.
La normalización también permite comparar los datos representados en diferentes escalas al convertirlos
a una escala común.
Como la profundidad total de cada pozo perforado varía en la cartera de pozos, todos los
parámetros relacionados con la profundidad (p. ej., "hkldav", "mdbit" y "mdhole") se normalizaron
dividiéndolos por la profundidad total del pozo elegido. . Los parámetros no relacionados (p. ej., "ropav")
no se normalizaron.
El segundo paso del enfoque es la extracción de características, que es la transformación de
patrones en características que se consideran como una representación comprimida.
Dado que los datos de series temporales de perforación representan un espacio de entrada
multidimensional, es difícil analizarlos debido a la gran cantidad de características que se pueden extraer
de los datos sin procesar.3 Para reducir la dimensionalidad de los datos, se construye una representación
de alto nivel donde se calcula un conjunto de características significativas.
Estas características proporcionan una aproximación de los datos originales de la serie temporal.
Los datos de alta dimensión pueden contener un alto grado de redundancia que
impacte negativamente en el rendimiento de los algoritmos de aprendizaje.4 Por lo tanto,
la selección de características es un paso importante en el flujo de trabajo. El paso inicial
en la fase de selección de características es eliminar las características correlacionadas
(colinealidad) para reducir la dimensionalidad de los datos y aumentar la eficiencia
computacional. El método más eficiente para la selección de características es clasificar
las características con alguna prueba estadística y luego seleccionar las k características
con la puntuación más alta o aquellas con una puntuación superior a un umbral t. Dichos
filtros univariados no toman en cuenta la interacción de las características, pero permiten
una primera inspección de los datos y lo más probable es que brinden resultados razonables.5
Aunque los algoritmos de la Tabla 5.2 no produjeron resultados idénticos, hubo
alrededor del 70 por ciento de similitud entre estos resultados. Por ejemplo, la mayoría
Algoritmo Descripción
PCA Utiliza los factores de uno de los análisis de componentes principales como
ponderaciones de características
MVS Utiliza los coeficientes del vector normal de una máquina de vectores de soporte
de Gini
Los algoritmos colocan las funciones de flujo en p90, asimetría de wobav, varianza de rpm y rango de
presumppav en la parte superior de la lista de clasificación.
La pregunta resultante ahora es: ¿Cuántas funciones se deben usar para obtener el mejor modelo
en términos de precisión? Para responder a esta pregunta, era imperativo realizar múltiples pruebas. Se
desarrollaron muchos modelos con diferentes números de características y, posteriormente, se determinó
un indicador de precisión para cada modelo.
El objetivo del estudio es identificar una estrategia de terminación para un plan de tratamiento de fractura
hidráulica optimizado. ¿Qué variables jugarán el papel más importante e impondrán un impacto en los
volúmenes de producción de hidrocarburos y el desempeño posterior al tratamiento?
Los objetivos de un modelo basado en datos son comunes tanto para la planificación
y fases operativas de una estrategia de tratamiento de fractura hidráulica:
Durante las fases de planificación y operación, estamos estudiando aquellos parámetros geológicos
que caracterizan la optimización de la ubicación de un pozo para un máximo contacto con el yacimiento
y drenaje de hidrocarburos:
ÿ Número de etapas
ÿ Segunda derivada de LaPlacian
ÿ inmersión
Además, la fase de planificación debe considerar la geomecánica del yacimiento y las propiedades
de la roca, como la permeabilidad y la porosidad. Sin embargo, el estudio se centra principalmente en
identificar aquellos parámetros controlables que pueden medirse y entenderse como efectivos para
lograr los objetivos enumerados anteriormente.
Machine Translated by Google
Perforación
• Determinación de las propiedades del yacimiento
operación
• Reducción de piel
• Limpieza del área cercana al pozo posterior a la perforación
Acidificante
Metodología
Altura de la fractura, ancho y Tasa de fluido ácido Optimice el volumen de líquido de fracturación
Longitud
Espesor bruto real de Startigraphic Volumen de fluido de la almohadilla de fracturamiento Optimice el volumen de fluido ácido
Permeabilidad promedio del yacimiento Flujo de retorno/volumen de sobretensión Optimice la producción acumulada
Porosidad promedio del yacimiento Tasa de reflujo/oleada Optimizar el rendimiento del escenario
Número de etapas
Escenario
laplaciano
Aderezo
El módulo de Young
El coeficiente de Poisson
cubos: entradas estáticas, controlables operativamente y salidas objetivas, como se ilustra en la Figura 5.18. Cada
ÿ Generalidades
ÿ Información de perforación
ÿ Información acidificante
ÿ Información de fracturamiento
Durante el primer paso, diferenciamos entre parámetros de entrada y salida y filtramos aquellos
que tienen una influencia menor o nula en el conjunto.
éxito del tratamiento. Las pruebas de frecuencia escalonada y minifractura son esenciales para planificar
el tratamiento, pero no afectan directamente a la función objetivo.
Los SOM se llevan a cabo con cinco variables a la vez para investigar cómo los parámetros del
yacimiento influyen en la geometría de la fractura. Las variables examinadas son la permeabilidad del
yacimiento, la porosidad, la longitud de la fractura, el ancho de la fractura y la altura de la fractura. El
objetivo era averiguar qué tipo de relación existe entre el yacimiento y las propiedades de la fractura.
Con base en la ontología, se crearon matrices de correlación para encontrar una asociación entre
varias variables de entrada y salida, y también entre las variables de salida. La única correlación fuerte
que se encontró fue entre la eficiencia del flujo y la piel total, que resultó del hecho de que los ingenieros
de campo calcularon la eficiencia del flujo a partir de la piel total. En la Figura 5.19 se representa la
matriz de correlación de las variables de salida más importantes.
Para reducir la complejidad y la varianza solo se tomaron en cuenta los tratamientos en los pozos
productores de petróleo. Todo el análisis PCA se realizó para 77 pocillos con 86 variables. Con las
primeras nueve PC, se pudo explicar el 71 por ciento del comportamiento total de los datos y la
complejidad de los datos se redujo en un 88 por ciento. Sin embargo, las variables no están ordenadas
por los criterios de la ontología.
Durante el primer paso se normalizaron las variables para que fueran comparables entre sí. El
flujo de trabajo de importancia variable predice aquellas variables que juegan un papel importante
mediante la evaluación de los componentes principales.
Se crearon indicadores para hacer que las observaciones sean comparables entre diferentes
embalses a fin de permitir la extracción de patrones y reglas. Primero distinguimos entre variables
controlables, no controlables y de salida o funciones objetivo.
Machine Translated by Google
Para cada etapa de la estrategia de finalización hay indicadores de entrada, que son los parámetros de
diseño normalizados. Los indicadores de salida se dividen en dos grupos principales indicados por el código de
color. Representan la respuesta normalizada del reservorio en cada etapa de tratamiento y en el total (total)
éxito.
1. Indicadores de entrada:
una. Perforación
b. Acidificante
C. Fractura
2. Indicadores de productos:
una. Perforación
b. Acidificante
C. Fractura
d. Total
El PCA se repitió para calificar las correlaciones entre los indicadores. Los primeros ocho componentes
principales se consideraron una representación adecuada de la variabilidad. En este punto, los dos primeros
componentes principales derivados del PCA sobre los indicadores se tomaron para construir los clústeres de
modo que la
172
Machine Translated by Google
del que está en el lado inferior izquierdo. En el lado superior derecho hay indicadores que están
influenciados principalmente por los parámetros de diseño de fracturamiento. En el lado inferior
izquierdo, el grupo principal se puede dividir en otras dos subclases. El de los Clusters 3 y 5
incluye los indicadores que son principalmente indicadores relacionados con el volumen y los
otros (Clusters 1 y 4) son principalmente relacionados con la presión.
A continuación, se repitió el agrupamiento oblicuo, pero ahora también se tienen en cuenta
los tratamientos para ver qué tratamiento se describe mejor con qué indicador.
Después de analizar el resultado, se pudieron descubrir los mismos tipos de dominación que en
el primer agrupamiento oblicuo. Sin embargo, hay algunos pozos que no podrían agruparse en
estos tipos de dominación de acuerdo con los dos primeros componentes principales. Son los
valores atípicos y se pasan por alto durante la investigación subsiguiente y la construcción del
modelo.
Se construyó un árbol de decisión de clasificación para cuantificar los tipos de dominación.
El árbol de decisión indica que solo se requieren tres indicadores (en ácido A, en fractura E y en
fractura A) para diferenciar entre los tipos de dominación.
En Acid 1, vemos la regla más fuerte. Muestra que si el volumen relativo de ácido
bombeado es superior a 1,6, entonces el pozo reflejará un tipo de dominancia de volumen.
Después de eso, In Fracture E e In Fracture B diferencian entre los tratamientos dominados
por el diseño y los dominados por la presión. Tenga en cuenta que hay dos subgrupos de
tratamientos dominados por el diseño y tres subgrupos de tratamientos dominados por la presión.
Luego de analizar los datos y fusionarlos con el conocimiento experto de la industria
petrolera, se construyó un modelo que clasifica los tratamientos existentes en varias categorías
según su diseño y desempeño. El resultado es una lista de tipos de pozos para cada categoría.
Este modelo se puede utilizar para planificar pozos futuros comparando sus propiedades de
yacimiento con las de la base de datos existente. Luego puede generar la lista de los pozos más
similares (basados en las variables no controlables) con el mejor desempeño. El esquema del
tipo de pozos puede ser utilizado como esquema de diseño por los ingenieros de planificación.
El "Activo de Pinedale" del Capítulo 8 detalla otro ejemplo de una estrategia de optimización
de la finalización determinada a través de una metodología analítica avanzada.
Este examen se realizó en el activo no convencional conocido como
Pinedale en el oeste de Wyoming.
NOTAS
1. Tom Keyser, “Roger Butler: Padre de SAGD”, Business Edge (2 de mayo de 2005).
2. T. Lambrou y P. Kudumakis, “Clasificación de señales de audio usando características estadísticas en
Tiempo y dominios de transformación de wavelet”, IEEE, 2002.
3. A. Arnaout, B. Esmael, RK Fruhwirth, G. Thonhauser, "Diagnóstico de problemas de perforación mediante análisis
visual de mediciones de sensores", 2012 In Proc. de la Conferencia Internacional de Tecnología de Medición e
Instrumentación IEEE I2MTC, Graz, Austria, 2012.
4. CA Ratanamahatana, J. Lin, D. Gunopulos, E. Keogh, M. Vlachos y G. Das, "Mining Time Series Data", en Data
Mining and Knowledge Discovery Handbook, 2.ª ed., ed. O. Maimon y L. Rokach (Nueva York: Springer, 2010),
1049–1077.
Machine Translated by Google
5. L. Yu y H. Liu, "Selección de características para datos de alta dimensión: una solución de filtro basada en
correlación rápida", Vigésima Conferencia Internacional sobre Aprendizaje Automático (ICML-2003), 2003.
6. B. Schowe, "Selección de características para datos de alta dimensión con RapidMiner", Technical
Universidad de Dortmund, 2010.
7. Adriane BS Serapiao, Rogerio M. Tavares, Jose Ricardo P. Mendes e Ivan R. Guilherme, "Clasificación de
las operaciones de perforación de pozos de petróleo mediante la máquina de vectores de soporte (SVM)",
en Actas de la Conferencia internacional sobre inteligencia computacional para modelado , Control y
Automatización (CIMCA 2006), IEEE Computer Society, Sydney, Australia, 2006.
8. R. Fruhwirth y G. Thonhauser, “Hybrid Simulation Using Neural Networks to Predict Drilling Hydraulics in Real
Time”, Exposición y conferencia técnica anual de la SPE, San Antonio, TX, 24 al 27 de septiembre de 2006.
Machine Translated by Google
CAPÍTULO 6
Reservorio
administración
1. Clasificación
2. Estimación
3. Segmentación
4. Descripción
175
Machine Translated by Google
Es fundamental casar los flujos de trabajo basados en datos con los primeros principios
en la gestión de yacimientos. Existe una variedad de modelos deterministas o paramétricos,
como la simulación de yacimientos, que se basan en parámetros de entrada determinados a priori.
A continuación, los datos blandos generados se evalúan y comparan con los datos medidos. El
conocimiento del dominio aparentemente controla la complejidad inherente a los cambios
determinísticos del modelo, suponiendo que la complejidad es demasiado compleja para confiar
en el ajuste automático del modelo para que coincida con los datos medidos.
En la gestión de yacimientos, se pueden producir modelos multivariantes arbitrariamente
complejos mediante una metodología basada en datos, mientras que los modelos paramétricos
tienden a estar limitados por la comprensión humana. ¿Los administradores de yacimientos
dependen demasiado de las observaciones empíricas? A medida que la industria genera más
variedades de datos y trata con una avalancha de datos en tiempo real de sensores en pozos
inteligentes, está evolucionando hacia un entorno que requiere un conjunto de técnicas
informáticas basadas en datos.
Halbouty3 declaró en 1977: “Es deber y responsabilidad de los gerentes de la industria
alentar la coordinación total de geólogos, geofísicos e ingenieros petroleros para avanzar en la
exploración, el desarrollo y la producción de petróleo”.
Sin embargo, la adopción de los procesos integrados y colaborativos de los que se hace eco
este sentimiento se ha hecho al azar y a un ritmo muy lento. Haldorsen y Van Golf-Raachtl4
presentaron una filosofía de gestión de yacimientos desde la exploración hasta el abandono.
El proceso de diseño económicamente óptimo
Machine Translated by Google
ÿ Análisis de fluidos
ÿ Estudios sísmicos 4D
ÿ Vigilancia de embalses:
ÿ Gestión de pozos
EOR
Delineación
Exploración & Abandono
Producción
Descubrimiento
Desarrollo Estrategias
PRIMARIO TERCIARIO
SECUNDARIO
ÿ Gestión de campo
ÿ Modelado de yacimientos
ÿ Mantenimiento de la presión
ÿ Eficiencia de barrido
Cada uno de estos flujos de trabajo seleccionados tiene actividades que podrían categorizarse
como actividades basadas en datos y/o actividades basadas en modelos. Las actividades basadas en datos
Los lazos están íntimamente involucrados en las áreas de monitoreo y detección de eventos, y parcialmente
en diagnóstico y análisis. Las actividades basadas en modelos están más relacionadas con los aspectos de
optimización de los diversos flujos de trabajo e involucran modelos de yacimientos y algoritmos de optimización.
Los análisis automatizados, ya sean univariados o multivariados, son esenciales para que los datos
sean sólidos para los flujos de trabajo que combinan los primeros principios con las técnicas informáticas para
garantizar una cuantificación confiable de la incertidumbre y la evaluación de riesgos a lo largo del ciclo de
vida del yacimiento.
La caracterización y simulación de yacimientos, como se analiza en el Capítulo 4, desempeña un papel
fundamental en el desarrollo de campos y la gestión moderna de yacimientos. Ayuda a tomar decisiones de
reservorio acertadas y mejora el valor de los activos de las compañías de petróleo y gas. Maximiza la
integración de datos y conocimientos multidisciplinarios y mejora la confiabilidad de la predicción del
desempeño del yacimiento. El producto final es un modelo de yacimiento con tolerancia realista a la
imprecisión y la incertidumbre.
La computación blanda es una colección de varias técnicas inteligentes que ahora juega un papel crucial
en la mejora del rendimiento. El objetivo de la computación blanda, en comparación con la computación “dura”
tradicional, es explotar la tolerancia a la imprecisión, la incertidumbre, el razonamiento aproximado y la verdad
parcial. Por lo tanto, la construcción e interpretación de modelos deterministas debe complementarse con
métodos estocásticos y basados en computación suave.
El sector upstream de petróleo y gas tiene algunos de los repositorios no administrados más grandes
de datos verticalmente especializados de cualquier industria. Los principales obstáculos de TI que enfrentan
las empresas de exploración y producción en el camino hacia el campo petrolero digital son la integración y
validación de datos.
Los análisis ayudan a las empresas a tomar mejores decisiones; Los análisis en la base de datos ayudan
a las empresas a tomar esas decisiones más rápidamente, brindando información en segundos y minutos en
lugar de semanas y meses. En un entorno tradicional, los datos se copian del almacén de datos de la empresa
(EDW) y se convierten para que los productos de nicho los analicen y procesen. Con las cantidades masivas
de datos que las empresas de O&G manejan hoy en día, los procesos analíticos pueden requerir una gran
Machine Translated by Google
movimiento de datos que consume mucho tiempo dentro de la organización. La ejecución de esos
procesos dentro del EDW reduce en gran medida la cantidad de datos que se deben copiar, mover y
convertir.
Como resultado, los problemas de redundancia y latencia disminuyen, la calidad de los datos y
la consistencia de los datos mejoran, y el costo total se reduce, ya que la empresa ya no tiene que
hacer toda esa administración de datos adicional.
Además de la tecnología, hay otras dos áreas importantes para alinear:
El yacimiento petrolífero digital es una estrategia para mejorar un área específica del negocio de
una compañía petrolera mediante el despliegue efectivo de personas, tecnología y conocimientos.
Sin embargo, la iniciativa del campo petrolífero digital está transformando la forma en que trabaja la
gente. Un ingrediente clave del yacimiento petrolífero digital es el acceso rápido, fácil y oportuno a
datos de calidad: las empresas deben cambiar la carga de organizar los datos de las personas a los sistemas.
Lograr el yacimiento petrolífero digital requiere innovación en software y hardware informáticos
y en telecomunicaciones para "educar" y "equipar" de manera efectiva casi todos los aspectos de la
actividad de exploración y producción de petróleo y gas en una operación integrada en tiempo real.
Y esta innovación impacta a los expertos del dominio y la tecnología para sacar a la luz una
perspectiva colaborativa sobre el conocimiento acumulado de todas las facetas de los datos upstream.
Al igual que los londinenses que se preocupan por la brecha del metro, ¿por qué no nos
preocupamos por la brecha en el despliegue de inteligencia, ese abismo que debe salvarse para
hacer las preguntas correctas y determinar respuestas más oportunas y estratégicas? A medida que
aumenta la demanda de inteligencia y conocimiento, uno tiene que extraer los exabytes o los que
pronto serán petabytes de datos existentes en los silos aguas arriba para obtener valor de los activos,
tomando decisiones y estrategias casi en tiempo real para explotar las reservas en los reservorios. .
La industria del petróleo y el gas necesita cerrar la brecha de capacidad con tecnología pertinente
que adopte las tendencias actuales para mejorar la productividad. El costo que implican las
predicciones deficientes debe mitigarse mediante una mejor integración de las disciplinas y la fusión
de datos mediante la adopción de métodos informáticos suaves como redes neuronales, lógica difusa
y razonamiento probabilístico inculcado en flujos de trabajo eficientes.
Machine Translated by Google
ÿ Datos relacionados con la profundidad (registros de pozos, parámetros de perforación, datos de núcleos, etc.)
Estas clases de datos difieren en cuanto al "patrón" que se introduce en una red neuronal para el
entrenamiento y la calibración de un modelo listo para la predicción.
Un patrón podría ser:
ÿ Datos relacionados con la profundidad: todos los datos recopilados a cierta profundidad
ÿ Propiedades de pozos: todos los datos recopilados con una periodicidad específica (diaria o mensual)
Hay cinco obstáculos principales que superar en la gestión de datos para lograr el verdadero campo petrolero
digital del futuro:
1. Disponibilidad de datos: las comunicaciones por satélite han recorrido un largo camino; sin embargo,
será necesario mejorar su confiabilidad y disponibilidad para garantizar que el 'campo petrolero
digital' pueda mantener sus niveles heterogéneos de uso.
2. Accesibilidad: Facilidad de uso. En la mayoría de los casos, muy pocas personas envían personal de
entrada de datos a las plataformas; el sistema tiene que ser fácil de usar para los operadores.
5. Flexibilidad: El campo petrolero opera con muchas variables que afectan el progreso operativo de
cada proyecto. El sistema de TI tiene que hacer frente a los cambios desde el campo sin perder su
lugar en el mapa.
Gestión de datos
Las arquitecturas de administración de datos brindan a las organizaciones una solución flexible y confiable
para satisfacer sus necesidades básicas de integración de datos, al tiempo que conservan la opción de
actualizar a capacidades más completas a medida que cambian sus situaciones. Eso
Machine Translated by Google
elimina los retrasos en la entrega y los altos costos asociados con tener un código personalizado de
creación de TI para cada proyecto de integración o tener que ensamblar innumerables tecnologías no
integradas al proporcionar una solución única, integrada y fácil de usar.
Elimina la necesidad de que las organizaciones adquieran nuevas herramientas y aprendan nuevas
habilidades a medida que asumen proyectos de integración de datos nuevos y más complejos. Hay
proveedores que pueden establecer una única solución para acomodar las actividades básicas de
integración de datos ahora, que pueden expandirse a una solución completa más tarde, aprovechando
completamente las habilidades, los procesos y las reglas que una organización ha desarrollado previamente.
¿Tiene la tarea de construir y cargar almacenes de datos y data marts dentro de un período de
tiempo asignado, construir rápidamente un mart analítico para un proyecto especial o crear archivos
de extracción para aplicaciones de informes y muestreo? Es imperativo obtener un escritorio intuitivo
de diseño de procesos de apuntar y hacer clic que permita a los diseñadores crear fácilmente flujos de
trabajo de procesos lógicos, identificar rápidamente los almacenes de datos de entrada y salida y crear
reglas comerciales en metadatos, lo que permite la generación rápida de almacenes de datos, marts y
flujos de datos. Además, se necesita un lenguaje de transformación fácil de usar que admita la
colaboración, la reutilización y los metadatos compartidos.
Legislación Federal
Muchas organizaciones están obligadas por ley a informar a las organizaciones federales, como
el Servicio de Administración de Minerales. Si los datos se ven comprometidos o se pierden,
esto puede provocar complicaciones graves. Además, las empresas que cotizan en bolsa o
aquellas que realizan negocios con ellas tienen la responsabilidad adicional de cumplir con
leyes como Sarbanes-Oxley, lo que aumenta aún más el riesgo.
Arquitectura
Las empresas de petróleo y gas ahora albergan miles de conjuntos de datos diferentes,
exponencialmente más que en cualquier otro momento de la historia. Cada disciplina dentro
de la organización, ya sea un geofísico o un ingeniero de perforación, debe tener fácil acceso a
los datos para procesar, administrar y optimizar de manera eficiente estos conjuntos de datos discretos.
Debemos centrarnos en una arquitectura orientada a servicios (SOA): una SOA ascendente
aumentará drásticamente la flexibilidad del entorno de TI y reducirá el mantenimiento del
software de integración de TI. SOA es un enfoque de la computación distribuida que abstrae
los sistemas de TI complejos y heterogéneos en servicios compuestos orientados al negocio.
Algunas aplicaciones son consumidores y algunos proveedores. Evite la evolución del sistema
punto a punto. La arquitectura de O&G debe contemplar la interoperabilidad para admitir la gran
cantidad de estándares, como el motor de intercambio XML, las API, la compatibilidad con
J2EE, .NET y los protocolos dispares, como HTTP, SOAP y T3. Define cómo se puede conectar
y usar.
Cumplir con los estándares de interoperabilidad impide o al menos evita un poco la creación de
silos digitales de información. Los datos deben ingresar una vez y ser utilizables a lo largo del
ciclo de vida del activo y por varias aplicaciones.
La arquitectura DOFF encapsula el paradigma de gestión de pozos y yacimientos que
refleja el arte de extraer el máximo valor de los activos de petróleo y gas al comprender y
optimizar el rendimiento de los yacimientos, pozos e instalaciones desde los poros de las rocas
del yacimiento hasta el yacimiento. a los pozos, a través de los pozos a las líneas de flujo e
instalaciones, y luego a las salidas aguas abajo: refinerías y gasolineras.
La médula y el núcleo de cualquier DOFF integran una versión del ciclo de vida ilustrado
en la Figura 6.2. Consta de cinco pasos:
Paso 2. Usar estos datos para visualizar, interpretar y modelar los flujos de fluidos y las
presiones en el activo.
Machine Translated by Google
Datos planes
Activos Modelos
Decisiones
Paso 5. Ejecutar estas acciones en el campo para mejorar el rendimiento del activo físico
y realizar un seguimiento del rendimiento financiero de estas acciones.
ÿ Menor CAPEX
El conocimiento total de los activos, junto con la ejecución oportuna y el análisis en el momento
adecuado, permiten ciclos de toma de decisiones más rápidos y efectivos. Respaldado por el análisis
basado en datos, es plausible transformar sustancialmente a las personas mediante el establecimiento
de flujos de trabajo y procesos optimizados respaldados por tecnología avanzada. Estas iniciativas
DOFF abren inexorablemente oportunidades para aumentar los factores de recuperación, mejorar las
tasas de producción de hidrocarburos con ahorros tangibles en los costos operativos y los gastos de
capital. Es esencial pasar de las aplicaciones de tecnología individuales en todo el panorama DOFF a
la optimización de activos cruzados después de la integración funcional en una implementación de
optimización de activos. ¿Cuáles son algunas de las tecnologías que aparentemente son los principales
contribuyentes a una cartera DOFF?
Enumeremos aquellas tecnologías que pueden depender de técnicas de computación blanda:
ÿ Terminaciones inteligentes
ÿ Análisis predictivo
ÿ Geo-navegación
ÿ Levantamiento artificial
ÿ Equipos rotativos
ÿ Garantía de flujo
ÿ Planificación integrada
ÿ Optimización zonal
ÿ Perforación
ÿ Planificación y logística
ÿ Mantenimiento y confiabilidad
Hay múltiples ejemplos de iniciativas DOFF implementadas en los activos globales de O&G;
Algunos tienen más éxito que otros. Expliquemos en detalle una de esas iniciativas ejecutadas en uno
de los campos del Mar del Norte.
Machine Translated by Google
Figura 6.3 Acciones integradas de DOFF enhebradas por flujos de trabajo analíticos
Los elementos clave del programa DOFF, como se muestra en la Figura 6.3, que implementan
metodologías analíticas avanzadas incluyen:
Estas características resaltan algunas de las complejidades operativas y del subsuelo que el
personal de activos espera manejar mejor a través de su DOFF.
iniciativas.
Joseph Warren5 señala que el éxito de un equipo individual puede ser variable cuando afirma: “La
idea fundamental de los equipos y objetivos multifuncionales parece surgir cada diez años con
una nueva etiqueta. Por lo general, los intentos de implementar este concepto en el negocio de
E&P terminaron en un fracaso total por una variedad de razones”.
Para permitir una sinergia real entre todos los miembros del equipo, se requiere un software
potente y fácil de usar. La sinergia del estudio y los flujos de trabajo paralelos solo se pueden
lograr si todos los miembros del equipo pueden al menos navegar por todas las aplicaciones.
Por ejemplo, todas las disciplinas deberían poder examinar el modelo geológico (estructura,
propiedades, etc.), los resultados de la simulación (es decir, el frente de inundación con el tiempo),
el diseño de las instalaciones y los perfiles de producción de pozos, independientemente de sus
respectivas disciplinas. Para habilitar esta facilidad de uso, se crearon plantillas personalizadas
para facilitar la capacidad de exploración de estudios sin la necesidad de conocer cada aplicación
en detalle.
En lugar de colocar un equipo central de expertos en una sala con el simple mandato de
"obtener resultados", los Centros analíticos de excelencia utilizan un facilitador que
Machine Translated by Google
lleva al equipo a identificar y enfocarse rápidamente en los temas clave del estudio.6 Estos
temas clave son reforzados por los equipos ampliados y de decisión. Cada miembro del
equipo trabaja en paralelo en varias tareas. Todos los días, el facilitador recopila y resume
los resultados para su revisión y debate por parte del equipo central. A medida que continúa
esta rutina, todo el equipo, independientemente de su disciplina, converge en un
entendimiento común del panorama general, y comienza a surgir la verdadera importancia de varios temas.
El proceso de los Centros analíticos de excelencia (Figura 6.4) es muy complicado e
incluye 10 pasos desde el inicio hasta la finalización del proyecto.
Los siguientes son los 10 pasos para el proceso de Centros Analíticos de Excelencia:
una. Esta etapa puede incluir muchos modelos mecanicistas y deterministas para
ayudar a la comprensión temprana de la caracterización y el comportamiento del
yacimiento.
Paso 3. Desarrollar una matriz de incertidumbres estáticas y dinámicas para todas las
variables y noción de las críticas.
una. Salida: el OOIP más probable junto con estimaciones de las incertidumbres
prácticas bajas y altas. Se identifican los parámetros que afectan esa incertidumbre
y se anotan los parámetros clave. La matriz de incertidumbre (parte estática de la
matriz) que se usó inicialmente como guía para este paso se afina, mostrando
factores críticos y rangos reducidos.
una. Salida: varios modelos con historial coincidente y una lista de parámetros críticos y sus
rangos que se requerían para lograr esa coincidencia.
una. Enumere los criterios de desarrollo (meseta, recuperación final estimada, restricciones
de perforación/instalaciones, tipos de pozos, etc.).
una. En este paso, la simulación del yacimiento se realiza con los factores críticos enumerados
en el paso 5 para seleccionar la(s) estrategia(s) de desarrollo preferida(s).
Paso 8. Optimizar el enfoque del equipo en el PDS. En este punto se incluye una optimización
más detallada y, por lo general, incluye diseño lateral, estrategia de reacondicionamiento, objetivos
de disparos, relaciones de inyección/producción y diseño de pozos complejos (ecualizadores,
valores de control de fondo de pozo, etc.).
Paso 10. Enumere el riesgo del proyecto según el paso 9 y enumere los planes de mitigación para
el OFDP.
Los Centros analíticos de excelencia es un enfoque de estudio novedoso7 que integra un nuevo
proceso con nuevas herramientas, creando sinergias entre las partes interesadas de todos los dominios
para resolver rápidamente problemas importantes durante un evento de equipo especial que dura dos
meses en lugar de años. Este nuevo enfoque es lo suficientemente flexible y escalable para cubrir
problemas que van desde un yacimiento hasta una unidad comercial completa con múltiples activos,
áreas de infraestructura y problemas de marketing, si es necesario. Los Centros analíticos de excelencia
son un paso más allá de los equipos de activos convencionales, donde el estudio se ha diseñado
específicamente para crear una mejor sinergia entre todas las partes interesadas (equipos de activos,
gerentes, tomadores de decisiones y socios) y permitir decisiones más rápidas que abarcan
completamente las incertidumbres complejas. relacionados con los proyectos actuales.
Machine Translated by Google
Es esencial desarrollar flujos de trabajo analíticos que sean propicios para la arquitectura de
software y los hábitos de trabajo habituales que se encuentran en los silos de ingeniería dispares.
Los procesos no solo permitirán modelos efectivos basados en datos, sino que también derribarán
los muros que bloquean a los geocientíficos experimentados a medida que los datos sin procesar
se convierten en conocimiento tangible y procesable. Los flujos de trabajo analíticos deben
abordar los problemas comerciales que se van a resolver. Existe una evolución natural para los
flujos de trabajo a partir de la identificación de la(s) función(es) objetivo y la enumeración de
aquellas variables independientes que son estadísticamente más influyentes en la(s) función(es)
objetivo identificada(s). Exploremos dos flujos de trabajo analíticos que detallan metodologías
como las mejores prácticas para el uso de técnicas de computación blanda para sacar a la luz
propuestas de valor.
1. Embalse
2. Bueno
3. Instalaciones de superficie
e integrar los conjuntos de datos dispares que constituyen cada sistema, comprendiendo al
mismo tiempo la influencia de cada uno sobre los demás. Es fundamental aprovechar los datos
en tiempo real de cada campo para el monitoreo continuo y la respuesta en el momento adecuado
durante el ciclo de vida completo del campo en toda la cadena de valor de E&P.
La respuesta en el momento adecuado tiene esencialmente dos componentes:
La industria de petróleo y gas ha adoptado varias nomenclaturas para definir sus tecnologías
digitales de superficie y subsuelo: campos inteligentes, campos petrolíferos digitales del futuro
(DOFF), campos integrados y operaciones heurísticamente integradas o planificación y logística
integradas.
Machine Translated by Google
1. Vigilancia
2. Integración
3. Optimización
4. Innovación
Nivel de vigilancia
La capa de vigilancia brinda monitoreo continuo y recopila datos en tiempo real que se alimentan a una
plataforma de administración de datos que implementa flujos de trabajo de calidad de datos automatizados
y semiautomáticos.
Nivel de integración
La capa de integración interroga datos en tiempo real de forma continua para identificar y sacar a la
luz tendencias ocultas y relaciones anómalas. En un sistema multivariante cualquier anomalía es
alertada para su posterior análisis.
Nivel de optimización
Nivel de innovación
Un modelo de yacimiento sustituto (SRM) es una tecnología introducida recientemente que se utiliza
para aprovechar el potencial no realizado de los modelos de simulación de yacimientos.
El alto costo computacional y el largo tiempo de procesamiento de los modelos de simulación de
yacimientos limitan nuestra capacidad para realizar un análisis de sensibilidad integral, cuantificar las
incertidumbres y los riesgos asociados con los parámetros geológicos y operativos, o para evaluar un
gran conjunto de escenarios para el desarrollo de áreas verdes. SRM replica con precisión los
resultados de un modelo de simulación numérica con un costo computacional muy bajo y un período
de respuesta bajo y permite un estudio extenso del comportamiento y los potenciales del yacimiento.
SRM representa la aplicación de inteligencia artificial y minería de datos a la simulación y modelado
de yacimientos.
Los pasos involucrados en el desarrollo del SRM son identificar la cantidad de ejecuciones que
se requieren para el desarrollo del SRM, realizar las ejecuciones, extraer datos estáticos y dinámicos
de las ejecuciones de simulación para desarrollar el conjunto de datos espaciotemporales necesarios,
identificar los indicadores clave de rendimiento ( KPI) que clasifican la influencia de diferentes
características del yacimiento en la producción de petróleo y gas en el campo, entrenando y
comparando los resultados del modelo de simulación y finalmente validando el desempeño del SRM
usando una ejecución de simulación ciega.
La SRM de este yacimiento se utiliza luego para realizar análisis de sensibilidad y cuantificar las
incertidumbres asociadas con el modelo geológico. Estos análisis que requieren miles de ejecuciones
de simulación se realizaron utilizando el
SRM en minutos.
Las ventajas del SRM sobre la superficie de respuesta y otros modelos de orden reducido son:
Superficie de respuesta y otros modelos de orden reducido que son
Machine Translated by Google
el paso anterior incluye una gran cantidad de parámetros que deben analizarse y posiblemente
incluirse en el modelo predictivo. Es un hecho que no todos los parámetros tienen el mismo impacto
en la producción de petróleo y gas en todo el yacimiento. El uso de una gran cantidad de parámetros
de entrada en el desarrollo de un modelo predictivo dará como resultado un sistema con serios
problemas de manejabilidad. Por lo tanto, es muy importante, e incluso vital para el éxito de la
capacitación, el emparejamiento y la validación del SRM, poder identificar de manera eficiente los KPI
de un modelo determinado.
El proceso de construir (entrenar) el SRM y hacer coincidir su desempeño con el del modelo de
simulación del yacimiento se realiza simultáneamente. Durante este proceso, se entrena al SRM para
aprender el modelo de yacimiento y el comportamiento del flujo de fluidos en el simulador de
yacimiento específico que se está modelando. La base de datos espaciotemporal desarrollada en el
paso anterior es la principal fuente de información para construir y combinar el SRM. Tenga en cuenta
que el SRM puede ser una colección de varios modelos que se entrenan, combinan, validan y
finalmente se usan en conjunto para generar los resultados deseados.
SRM se puede desarrollar tanto para brown-fields como para greenfields, siempre que exista un
modelo numérico de simulación de yacimientos para un activo determinado. SRM se puede construir
para replicar los resultados del modelo numérico de simulación de yacimientos con alta precisión y, al
mismo tiempo, tiene la ventaja de funcionar a velocidades que se pueden comparar con el tiempo real
(fracciones de segundo). Esta huella computacional mínima y de alta velocidad, junto con la alta
precisión (en la replicación de los resultados del modelo de simulación de yacimientos numéricos),
hacen de SRM una herramienta ideal para la gestión de yacimientos en tiempo real, el diseño de
planes maestros de desarrollo y la evaluación de la incertidumbre.
ESTUDIOS DE CASO
Detallaremos dos estudios de caso que aplican metodologías avanzadas basadas en datos para
comprender la influencia del agua y cómo se puede obtener una gestión eficaz al unir la interpretación
tradicional con técnicas informáticas blandas.
Durante una inundación de agua, se utilizan grandes cantidades de agua inyectada para mantener y/o
o aumentar la producción de petróleo de un yacimiento de petróleo. Este estudio de caso muestra
cómo la comparación de los cambios en la producción de petróleo, gas y agua (en relación con los
cambios en la inyección de agua) ayuda a evaluar la comunicación de fluidos a través de un yacimiento.
Los parámetros de comunicación se integran con otros parámetros geológicos y se utilizan para
desarrollar modelos predictivos. Estos modelos predictivos ayudan a estimar la capacidad de
producción o la probabilidad de producción en embalses inundados por agua.
Este estudio de caso también muestra cómo los modelos de árboles de decisión respaldan una
selección de dos a cuatro veces más precisa de pozos de alta producción que las selecciones
implementadas históricamente. Se basa en nuestros desarrollos para el análisis de inyección.
Machine Translated by Google
Una respuesta de inundación de agua se estima como una correlación de rango entre dos
series de cambios de tasa para todos los pares inyector-productor. Específicamente, el coeficiente
de correlación de rangos de Spearman no paramétrico se calcula en función de los rangos de los
cambios en las tasas de inyección y producción.
La figura 6.6 muestra una correspondencia o correlación perfecta entre dos series de tiempo
(la tasa de inyección y la tasa de producción de petróleo). Sin embargo, la tasa de petróleo se
desplaza en el tiempo, lo que caracteriza el retraso en el tiempo de respuesta de inundación de
agua. En este caso, la respuesta de inundación de agua (basada en la tasa de petróleo) tendría
una correlación igual a uno. En la práctica, calculamos un conjunto de correlaciones desfasadas
en desfases de tiempo de cero a 12 o más meses.
Figura 6.6 Correlación Tasa de Agua Inyectada, Tasa de Petróleo Producido con Rezago Ostensible
Machine Translated by Google
identificó el mejor 25 por ciento de todos los pozos en todo el campo. La producción de petróleo
normalizada se caracterizó por la producción de un pozo en relación con la producción de todo
el campo.
Una ventaja del modelo de árbol de decisión sobre otros tipos de modelos es que utiliza
reglas de inglés interpretables. Por ejemplo, "Si el pago neto es superior a 6 m y la respuesta
del gas de retraso cero es negativa, entonces la producción de petróleo estará en el 25 por
ciento superior de la mejor producción con una probabilidad del 80 por ciento". En el caso
anterior, la selección de pozos basada en el modelo dio como resultado una tasa de éxito de
dos a cuatro veces mayor que la obtenida con los métodos tradicionales e históricamente observada en el campo.
El análisis se basa únicamente en el historial de inyección y producción disponible (datos
disponibles públicamente). Además, la misma metodología se puede utilizar para predecir las
vías de comunicación de inundaciones de agua en función de la producción primaria a partir de
la interacción entre productores.
Cumplir los objetivos de una mejor gestión de yacimientos e identificar una gama de estrategias
comprobadas bajo incertidumbre es un tremendo desafío debido a la naturaleza probabilística
del problema. Estudiemos un gran yacimiento de carbonato en el Medio Oriente para asegurar
una comprensión más perspicaz del comportamiento del corte de agua y su poder descriptivo
relativo de las redes de fracturas vecinas (Figura 6.8).
Hay una miríada de incertidumbres inherentes relacionadas con las fracturas, el alcance de
la red y las muchas propiedades estructurales en las proximidades.
Al perfilar los pozos individuales de acuerdo con ciertos criterios, como corte de agua (Sw),
distancia mínima del nivel de agua libre (FWL), líquido acumulativo, tipo de pozo dentro de
diferentes fases de tiempo y regiones geográficas incrementales, es posible clasificar esos
pozos y apreciar a través de los indicadores analíticos
MS Access
Resultados de agrupamiento
Tasas de producción
Salinidad Disimilitud de pozos
Presiones (SWP) Matrices
Eventos de finalización MVA
Ubicaciones de pozos Analítico WCT y Fractura
Datos
FWL
Análisis
Repositorio PCA
tipo de pozo
Lista representativa
Normalización
Para realizar comparaciones válidas entre conjuntos de datos de pozos, es necesario realizar un
paso de remediación que implica un proceso de trabajo de control de calidad sólido para identificar
valores atípicos e imputar valores faltantes y erróneos. un corte de agua
1
0.9
0.8 smirv
oi r
tus
R
mi
0.7
mi
o
norte
0.6 o
metro
gramo
o
0.5 H
0.4 Ir
0.3 mi
mi
0.2 dR
mi
tur
Ct
0.1 Fra
0
0 0.5 1 1.5 2 2.5
PRODUCCIÓN COMULATIVA DE PETRÓLEO MMSTB
El paso de normalización se implementó con base en la producción líquida acumulada (Figura 6.12). Ese
enfoque ayuda a eliminar el aspecto temporal de los datos.
hasta cierto punto.
Distribución espacial
ventanas de tiempo de producción. Analizamos las distribuciones de los pozos a lo largo de los incrementos
espaciales en diferentes ventanas de tiempo y, finalmente, consolidamos los resultados en una
categorización en la que debe centrarse el análisis de agrupamiento.
Ventanas de tiempo
Los pozos bajo investigación entraron en producción a lo largo de diferentes décadas, el primero a
principios de la década de 1960. Por lo tanto, las cantidades de producción acumulada abarcan escalas
variables a lo largo de la variación temporal en la edad desde que ocurrió la puesta en marcha. Los
comportamientos inherentes al desempeño de los pozos también divergirán en las fases de agotamiento,
inyección y posinyección.
La distancia mínima al nivel de agua libre es un factor importante para comprender el comportamiento del
corte de agua de cada pozo (Figura 6.13). La mayoría de los pozos se distribuyeron dentro de un intervalo
de 4000 a 6600 pies (media: 5533 pies; mediana: 5388 pies).
Machine Translated by Google
Distribución de DistFWL
25
10
Distancia del agua
0
2,000 3.000 4.000 5.000 6.000 7.000 8.000 9.000 10.000 11.000
Distancia desde el contorno_FWL
Tipos de pozos
1: 1963-1996 N/A 42 1
2: 1996-2003 88 55 5
3: 2003-2010 138 9 2
1.0
1.0
0.9
0.9
0.8
0.8
0.7
0.7
0.6
0.6
0.5
0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0.0 0.0
Producción 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
Producción
1.0
0.9 1.0
0.8 0.9
0.8
0.7
0.7
0.6
0.6
0.5
0.5
0.4
0.4
0.3
0.3
0.2 0.2
0.1 0.1
0.0 0.0
0.0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
Producción Producción
un algoritmo de conglomerado. Calculamos el coeficiente de Jaccard entre cada par de pozos. El coeficiente de
Jaccard se define como el número de variables codificadas como 1 para ambos pozos dividido por el número de
variables codificadas como 1 para uno o ambos pozos. Dado que el algoritmo de conglomerados requiere medidas
de disimilitud, se adoptó el coeficiente de Jaccard. Un valor pequeño representa dos pozos que son similares con
cuadrado
sísmico
parcial
R-
FRKY1-
Z1 FRKY1-
Z3 FRKY1-
Z7 FRKY1-
Z9 FRKY1-
Z2 FRKY1-
Z4 FRKY1-
Z5 FRKY1-
Z6 FRKY1-
Z8
FRKY1-
Z13 FRKY1-
Z11 FRKY1-
Z16 FRKY1-
Z17 FRKY1-
Z18 FRKY1-
Z19 FRKY1-
Z20 FRKY1-
Z12 FRKY1-
Z14 FRKY1-
Z15 FRKY1-
Z21 FRKY1-
Z10 FRKY1-
Z22 FRKY1-
Z23
por las líneas de los gráficos que unen los grupos anteriores), mayor es la distancia entre los
grupos y más disímiles los grupos. Del dendrograma se puede concluir que hay dos grupos
distintos en los datos basados en el corte de agua y el comportamiento líquido acumulativo
para los 43 pozos agrupados en la ventana de tiempo 1, generando así dos grupos. Entonces
es posible perfilar los dos conglomerados para identificar las principales características de
cada grupo. El análisis dio como resultado 2, 4 y 5 clústeres diferentes para las ventanas de
tiempo 1, 2 y 3, respectivamente.
Los conglomerados se obtienen utilizando un algoritmo de Ward para mínima varianza.
El área resaltada representa los dos grupos diferentes. Esta metodología entregó una
perspectiva de tiempo continuo del yacimiento de carbonato a través de los pozos distribuidos.
Identificó mediante los valores medios de los indicadores de producción en aquellos
compartimentos del campo que presentaban una baja o alta
Corte de agua.
En los primeros años de producción, ambos grupos siguen la tendencia general de los
pozos en la ventana de tiempo. Después de 2003, el SWP promedio anual de los pozos del
grupo 2 comienza a aumentar y supera al del grupo 1, aunque la tendencia del SWP de
ambos grupos es positiva (probablemente debido a la inyección), como se muestra en la
Figura 6.20.
Al igual que en la Figura 6.20, vemos en la Figura 6.21 que en los primeros años de
producción ambos grupos siguen la tendencia general de los pozos en la Ventana de tiempo 2.
Corte de agua
0,9–1
0,8–0,9
La cuadrícula vacía indica
0,7–0,8 0,05 0,10 0,20
que ninguno de los pozos
tener observaciones 0,6–0,7 0,05 0,10 0,10 0,12 0,05 0,10 0,15 0,20 0,17
dentro de la grilla 0,5–0,6 0,12 0,10 0,12 0,05 0,30 0,25 0,25 0,30 0,22
0,4–0,5 0,20 0,08 0,12 0,13 0,20 0,28 0,18 0,20 0,22 0,25
0,3–0,4 0,17 0,08 0,07 0,10 0,20 0,30 0,25 0,30 0,37 0,43
0,2–0,3 0,15 0,15 0,15 0,22 0,27 0,33 0,35 0,37 0,42 0,33
0,1–0,2 0,15 0,22 0,20 0,25 0,18 0,25 0,18 0,22 0,10 0,23
0,0–0,1 0,63 0,50 0,42 0,35 0,35 1,00 1,00 1,00 1,00 1,00 1.0 indica que todos
los pozos tienen
0.10 indica que solo observaciones dentro
10% de los pozos tienen la cuadrícula
observaciones dentro CumLiq
la cuadrícula
Figura 6.18 Corte de agua promedio con frecuencia de observación de producción de intensidad de color
Machine Translated by Google
40
35 Todos los pozos en
30 este grupo son verticales.
25
20
15 H
10 V
5
0
1 21212341234124 5124512345
3500
3,000
2,500
2,000
1,500
12
1,000
500
Año
Figura 6.20 Promedio anual de SWP para los dos clústeres en la ventana de tiempo 1
4,000
1
2
3500
3
4
3,000
2,500
2,000
1,500
Diferentes tendencias promedio
de SWP basadas en las
1,000 observaciones más recientes
500
0
1975 1977 1979 1981 1983 1985 1987 1989 1991 1993 1995 1997 1999 2001 2003 2005 2007 2009 2011
Año
Figura 6.21 SWP Promedio Anual para los Cuatro Conglomerados en la Ventana de Tiempo 2
Machine Translated by Google
3500
3,000
2,500
2,000 1
2
3
1,500
4
5
1,000
500
0
2003 2004 2005 2006 2007 2008 2009 2010 2011
Año
Figura 6.22 SWP Promedio Anual para los Cinco Conglomerados en la Ventana de Tiempo 3
Después de 2003 y del período de inyección, la presión se mide de manera diferente para
los pozos del grupo 4. Ese grupo tiene la mayor presión. son casi 3500
de media.
Dado que los pozos en la ventana de tiempo 3 son relativamente nuevos y la producción
comenzó en 2003, la curva de presión sigue una tendencia constante, como se ilustra en la
Figura 6.22. Sin embargo, se puede observar que el primer y segundo grupo están en fase
de declive, mientras que los grupos 3, 4 y 5 están aumentando.
Había 40 pozos que tenían datos de Formation MicroImager (FMI) y se identificaron
sus características de fractura, como se muestra en la Figura 6.23.
Desafortunadamente, FMI no estaba disponible para el resto de los pozos. Los resultados
de la agrupación se han analizado con respecto a la distribución de las fracturas que se
conocían.
El producto de la permeabilidad de la formación (k) y el espesor de la formación
productora (h) en un pozo productor es uno de los factores clave en el potencial de flujo de
un pozo (Figura 6.24). Además de los valores faltantes para 106 pozos, la distribución de
los grupos refleja cinco grupos (1-1, 2-3, 2-4, 3-1 y 3-5) que tienen un valor de KH más alto
que el promedio general.
KH se utiliza para una gran cantidad de cálculos de ingeniería de yacimientos, como la
predicción del rendimiento futuro, el potencial de recuperación secundaria y terciaria y el
éxito potencial de los procedimientos de estimulación de pozos. Obtener el mejor valor
posible de este producto es el objetivo principal de las pruebas de pozos transitorios.
Se observó una fuerte correlación entre las circulaciones perdidas y los picos de
registro entre los grupos. Sin embargo, hubo diferencias significativas entre los picos de registro y
Machine Translated by Google
2–2 3–2
1-1
1–2
3-1
2-1 3–4 2-1
3–5
15%
2–2
Grupo # de # de Sabe % en el % en el 2–3
2–3
pozos Fracturas Grupo Conjunto completo de
Fracturas 2–4
1-1 31 0 0% 0% 3-1
2–4
1–2 12 0 0% 0% 3–2
2-1 42 5 13% 12% 5%
3–3
2–2 58 7 18% 12% 1–2
1–2 3–3 3–4
2–3 31 3 8% 10%
3–5
2–4 17 2 5% 12%
3-1 73 5 13% 7%
3% 50%
Número relativamente alto de
fracturas
205
Machine Translated by Google
80.000
• Valores de KH para algunos de
faltan los pozos productores.
70.000 1-1 Especialmente para INC3 KH
2–4 no está disponible para 106
1–2 pozos productores
3–5
60.000
2-1
1-1 3–1
Grupo # pozos que faltan
2–2
KH
50,000
2–3 2–3 1-1 4
1–2 3
3–4 2–4
40.000 2-1 15
2-1 2–2
3-1 2–2 22
1–2 2–3 12
30,000 3–2
2–4 10
3–2 3–3 3–1 62
20,000 3–2 18
3–4
3–3 3–3 4
3–5
3–4 14
10,000
3–5 8
33.585,7 (Valor KH
– medio de todos los pozos
del análisis) * Los tamaños de las burbujas reflejan la cantidad de pozos en el grupo
Figura 6.24 Distribución del producto de permeabilidad (k) y espesor (h) de la formación
206
Machine Translated by Google
25
20
3–4
2–2
3–2
15
2-1 2–3
2–4 3–5
10
1-1
5
1–2 3–3
0
Clústeres
observaciones de pérdida de circulación para el grupo 3-1 (LC: 33, LS: 20) como se muestra en la
Figura 6.25.
El estudio de los resultados del análisis de conglomerados de cada ventana de tiempo permitió al
ingeniero mapear potencialmente la red de fallas en todo el campo a partir de las observaciones del
corte de agua en los conglomerados discretos. Al estudiar los conglomerados de la ventana de tiempo
3, resultó evidente que los nueve pozos que constituyen el conglomerado 3 tienen una producción
líquida acumulativa limitada con un valor promedio de 10,7 y, por lo tanto, valores de corte de agua muy
bajos con un promedio de 0,001.
Trazando esos nueve pozos en el mapa fue factible deducir un patrón de distribución confinado
a la zona de incremento III que estaba fuera de la distribución de los pozos en la misma zona de
incremento y en la misma ventana de tiempo pero en
grupo 1. Dichas visualizaciones mejoraron la comprensión de los cambios de facies geológicos, posibles
capas de alta permeabilidad o una red de fallas en esta zona al observar los pozos en el grupo 1 que
tienen una tasa de producción de líquido acumulada de mayor magnitud.
Muchas de estas deducciones se pueden hacer fácilmente mediante un simple análisis visual de
la metodología de agrupamiento que segmentó con éxito el campo en distintas áreas caracterizadas
por agrupaciones de pozos o grupos respaldados por indicadores de producción similares. Al estudiar
los cortes de agua y las tasas acumulativas de producción de líquido tanto de agua como de petróleo a
lo largo de las ventanas de tiempo y en diferentes regiones geográficas, se pudo apreciar una idea
mucho mejor del modelo de agua y los precursores potenciales de los cortes de agua en todo el campo.
historia que tal vez se habría perdido si los patrones no hubieran salido a la luz.
Por ejemplo, podría notarse que el conglomerado 3 en la ventana de tiempo 3 que mostró la tasa de
producción de petróleo acumulada más baja y la producción líquida acumulada para los 9 pozos
identificados eran todos verticales.
Machine Translated by Google
Ventana de tiempo 1 1 2 2 2 2 3 3 3 3 3
GRUPO 1 2 1 2 3 4 1 2 3 4 5
Núm. de pozos 31 12 42 58 31 17 73 27 9 30 10
tipo de pozo V: 30, D: 1 V: 12 V: 13, H: V: 25, H: V: 11, H: V: 6, H: 11 alto: 73 alto: 26, fondo: 1 V: 9 alto: 30 alto: 9, profundidad: 1
Tasa de producción de petróleo 2,819 2,291 3,505 2,851 1,528 605 6,010 3,900 10 2,567 1,052
Tasa de producción de agua 19 219 56 250 496 525 59 323 0 679 726
Tasa de producción liq. 2,838 2,509 3,561 3,101 2,023 1,130 6,069 4,223 11 3,246 1,778
Nivel de corte 0.005 0.076 0.012 0.069 0.134 0.142 0.012 0.090 0.001 0.179 0.166
Gas/Petróleo 236 242 218 218 179 132 579 274 21 273 140
Semen,Aceite 20.973.552 15.459.458 7.997.081 7.671.604 4.460.064 1.912.835 5.365.364 4.173.721 5.005 2.411.088 1,303,041
semen, agua 22,359 530,982 88,036 422.965 1.203.621 1.475.594 39,286 210,114 149 534,486 785,278
semen, gasolina 10.048.218 7.680.695 2.638.489 2.526.009 1.565.037 691.384 1.815.321 1.183.415 1,686 744,618 437,890
Salinidad 40,378 44,047 56,376 59,816 44,319 46,083 42,249 48,090 98,200 42,196 37,356
Dist FWL 8,224 5,850 5,138 4,562 4,432 3,648 5,927 6,245 2,824 5,785 6,203
KH 48,297 24,129 27,801 25,210 39,462 60,787 44,741 16,338 8,918 30,886 54,893
Estratoforma 6% 50% 19% 36% 58% 47% 11% 70% 0% 57% 40%
209
Machine Translated by Google
Ventana de tiempo 1 (. . .-enero 96) Ventana de tiempo 2 (enero de 1996 - octubre de 2003) Ventana de tiempo 3 (Oct'03 - . . .)
1-1 1-2 2-1 2-2 2-3 2-4 3-1 3-2 3-3 3-4 3-5
ÿ Poca agua ÿ Pozos en V ÿ Poca agua ÿ El grupo ÿ Mezcla de ÿ Altos valores ÿ Máxima ÿ Poca agua ÿ Poca ÿ Alta producción ÿ Más alto
tasa de con tasas de más grande de Pozos V y de KH relación tasas de cantidad de de agua agua
producción producciones producción pozos en la H con altos gas-petróleo producción nuevos pozos tasa de
ÿ Agua significativa ÿ Más alto
de agua segunda niveles de verticales, producción
ÿ V pozos ÿ Pozos secos ÿ Clúster más ÿ pozos H niveles WCT
ventana de tiempo producción prácticamente
distantes al (55%) producción grande, todos ÿ Baja
ÿ Mayormente ÿ Pozos
de agua no hay
FWL ÿ Prod gas H pozos salinidad
ÿ Firma de ÿ Altos niveles de formas horizontales
significativamente altas (relativamente) agua ni
similar a 2-1 WCT ÿ La mayor de estratos ÿ ~30%
ÿ Mayormente fractura ÿ ~30%
aceite de prod
pozos secos ÿ Mayormente vista para ÿ En su parte (70%)
ÿ -1/3 mostrando mostrando
mostrando
formas mayoría estratiformes todavía
17% ÿ Distribución del circ. firmas de
ÿ ¼ siendo que casi la firmas de
de ÿ Alta
igualmente ÿ ~1/3 perdido. fracturas
productor ÿ 1/5 mitad son fracturas
estratos probable identificados salinidad
de matriz estratiformes estratiformes ÿ 40%
(1/2) y matriz ÿ Complejo
de formas productores de matriz para esos grupos ÿ Cercanía con
Estratos
ÿ Firmas de
productores de estratos y FWL
ÿ Mayoritariamente Comportamiento WCT formas, no
(40%) fracturas
productores
seco (81%) se identificó
ÿ (Pocas
de matriz formación
de matriz
observaciones)
210
Machine Translated by Google
Los datos básicos y críticos de rocas y fluidos son necesarios para la evaluación de diversas
estrategias de agotamiento de yacimientos. La caracterización de rocas y fluidos derivada
Establecer Objetivos
Calidad de datos y auto-organizado
Dependiente de la cantidad Análisis de conglomerados
mapas
e independiente
Datos
Principal Vigilancia y
Roca/Fluido
Componente Tiempo real
Análisis
Análisis Análisis
de las propiedades de los fluidos de la roca forman la base para el diseño de cualquier proceso de
recuperación, la calibración de los registros de cable y la evaluación de la compactación y el
hundimiento potenciales. Los requisitos específicos de datos de fluidos de roca se clasifican
además en tres clases principales de fluidos de yacimiento: petróleos viscosos o pesados, petróleos
livianos o gas y condensados de gas. Los procesos de recuperación que involucran petróleos
livianos se agrupan en tres procesos: inyección de gas inmiscible, miscible y terciaria, incluida la
inyección de gas alternante de agua (WAG). Otros procesos de recuperación, como los métodos
térmicos, también requerirán una caracterización de fluidos de roca personalizada.
El análisis de conglomerados, EDA, PCA y SOM son requisitos para construir un modelo
predictivo que se pueda poner en práctica en el campo. Los datos en tiempo real de pozos
inteligentes y conjuntos de datos por lotes a lo largo de la cadena de valor de E&P que se
consideren pertinentes para la(s) función(es) objetivo se pueden incorporar al modelo para
garantizar una perspectiva dinámica y que el modelo existente no sea estático. Los KPI se establecen y a través de una vigi
NOTAS
1. A. Satter, “Reservoir Management Training: An Integrated Approach,” SPE 20752, presentado en la Conferencia y
Exposición Técnica Anual de la SPE, Nueva Orleans, 23 al 26 de septiembre de 1990.
2. GC Thakur, “Implementation of Reservoir Management Program,” SPE 20748, presentado en la Conferencia y Exhibición
Técnica Anual de la SPE, Nueva Orleans, 23 al 26 de septiembre de 1990.
3. MT Halbouty, "Synergy Is Essential to Maximum Recovery", JPT (julio de 1977): 750.
4. HH Haldorsen y T. Van Golf-Racht, "Gestión de yacimientos en el próximo siglo"
NMT 890023, presentado en el Centennial Symposium en New Mexico Tech., Socorro, del 16 al 19 de octubre de 1989.
CAPÍTULO 7
Producción
Pronóstico
1. Declive hiperbólico:
q = q (1 + D bt)ÿ1/b
2. Disminución exponencial:
q = qi exp(ÿDt)
213
Machine Translated by Google
Los flujos de trabajo analíticos pueden incorporar un paso de análisis de la curva de declive que
implementa una solución de pronóstico de desempeño basada en la web para identificar
pronósticos a corto y largo plazo para la producción de petróleo, gas y agua. Al implementar
modelos de pronóstico maduros y primeros principios como los algoritmos empíricos de Arps,
puede estimar el rendimiento del pozo con precisión y la recuperación final estimada (EUR) y
medir el impacto, positivo o negativo, de las técnicas de remediación de pozos.
La estimación de reservas y la predicción de la producción en los embalses ha sido durante
mucho tiempo un desafío. La complejidad de los datos, combinada con conocimientos analíticos
limitados, significa que algunas empresas upstream no entienden completamente la integridad de
los pozos bajo gestión. Además, les toma semanas o meses establecer y modelar escenarios
alternativos, perdiendo potencialmente la oportunidad de capitalizar las condiciones del mercado.
ÿ Ratificar desde la perspectiva de un campo, yacimiento o pozo si la producción actual se encuentra dentro
Dado que los supuestos y las condiciones requeridas para el uso riguroso de las ecuaciones
de la curva de declinación de Arps rara vez se aplican a los pozos reales durante períodos de
tiempo significativos, existe potencialmente mucha incertidumbre en la estimación de reservas
utilizando DCA convencional. Con enfoques probabilísticos, se pueden proporcionar intervalos
de confianza para las estimaciones de reservas.
En la industria del petróleo, los valores de las reservas generalmente se calculan en tres
niveles de confianza, P90, P50 y P10. Hay una probabilidad del 90 por ciento de que las reservas
reales sean mayores que el cuantil P90; hay una probabilidad del 50 por ciento de que las
reservas reales sean mayores que el cuantil P50; y hay un 10 por ciento de probabilidad de que
las reservas reales sean mayores que el cuantil P10.
El intervalo entre P90 y P10 representa un intervalo de confianza del 80 por ciento. El intervalo
de confianza es un resultado probabilístico, por lo que existe una probabilidad del 80 por ciento
de que el valor real se encuentre dentro del rango de valores especificado.
Lo que esto realmente significa es que, si tuviéramos que hacer un gran número de
predicciones independientes con intervalos de confianza del 80 por ciento utilizando una
metodología similar, esperaríamos acertar (el valor verdadero cae dentro del rango) alrededor
del 80 por ciento de las tiempo y mal (el valor verdadero cae fuera del rango) alrededor del 20
por ciento del tiempo.
Para la estimación probabilística de reservas, queda una pregunta importante que rara vez
se aborda. ¿Los intervalos de confianza del 80 por ciento corresponden realmente al 80 por
ciento de probabilidad? Dado que los intervalos de confianza son resultados probabilísticos, no
podemos determinar la confiabilidad de un solo intervalo de confianza, ya que la prueba de la
estimación que usa un intervalo de confianza arroja solo un resultado o muestra.
Después de que pasa el tiempo y determinamos el valor verdadero, podemos establecer
que el valor verdadero está dentro del rango predicho o fuera del rango. Como ilustró Capen3 ,
es solo mediante la evaluación de muchas predicciones (dejando pasar el tiempo y comparando
los valores verdaderos con los rangos predichos) realizadas utilizando una metodología similar
que podemos determinar la confiabilidad de nuestras estimaciones de incertidumbre y, por lo
tanto, nuestra metodología para estimación de la incertidumbre. Estas evaluaciones son difíciles
en la industria del petróleo debido a los largos tiempos asociados con la producción de petróleo
y gas. Por lo tanto, rara vez verificamos la confiabilidad de las estimaciones de incertidumbre en
nuestra industria.
Machine Translated by Google
Los ingenieros de yacimientos se enfrentan a una cartera en expansión de pozos para analizar a fin de
establecer EUR e identificar candidatos para estimulación y/o cierre.
Debido a los volúmenes de datos recopilados de cada pozo, las soluciones invariablemente limitan el
número de pozos que pueden incluirse en el análisis, lo que requiere un proceso de muestreo
determinista que aumenta la incertidumbre de los pronósticos. Los errores de datos y los valores
atípicos también deben marcarse manualmente, lo cual es una tarea que requiere mucho tiempo para
los ingenieros.
Es ideal trabajar con una solución específica basada en la web que ayude a una empresa de
petróleo y gas a:
Los tres motores compuestos importantes (Figura 7.1) son la extracción de datos, el análisis de
conglomerados y el arranque:
Módulo de arranque
conjunto de datos de producción para generar múltiples pseudo-conjuntos de datos para el análisis
probabilístico. El método bootstrap ordinario adoptado asume que los datos de producción originales
son independientes y están distribuidos de manera idéntica, por lo que los datos serán independientes
del tiempo.
Sin embargo, esta suposición suele ser incorrecta para los datos de series de tiempo, como los
datos de producción, porque la estructura de datos de la serie de tiempo a menudo contiene una
correlación entre los puntos de datos.
El propósito del módulo de arranque es automatizar el proceso de selección de series de tiempo
para construir intervalos de confianza confiables para modelos predictivos acumulativos de tasa-
tiempo . Se realiza mediante optimización de escenarios múltiples y simulación Monte Carlo para
remuestreo de residuos de bloque.
Bootstrapping refleja estadísticamente un método para asignar medidas o métricas de precisión
a las estimaciones de la muestra. Los algoritmos de arranque convencionales asumen puntos de
referencia independientes que se distribuyen de forma idéntica. El método bootstrap modificado
(Figura 7.2) esencialmente genera una plétora de realizaciones bootstrap independientes o conjuntos
de datos sintéticos a partir de los datos de producción originales, cada pseudo-conjunto de datos tiene
la misma dimensión que el conjunto de datos original. Se ajusta un modelo de regresión no lineal a
cada conjunto de datos sintéticos para determinar los parámetros de la ecuación de declive y,
posteriormente, se extrapola para estimar la producción futura y la recuperación final. El conjunto
completo de conjuntos de datos sintéticos se utiliza para determinar objetivamente la distribución de
las reservas.
Para obviar las suposiciones de que los datos de producción contienen puntos que son
independientes y están distribuidos de manera idéntica, la metodología de arranque modificada
adopta un algoritmo más riguroso para preservar la estructura de datos de series temporales:
Paso 1. Implementa las ecuaciones hiperbólicas y exponenciales para ajustar los datos de
producción durante un período de tiempo determinado y determina los residuos de los modelos
y observaciones ajustados.
Paso 3. Implementamos una metodología de análisis retrospectivo utilizando una muestra más
reciente de datos de producción para abordar problemas de pronóstico debido a períodos de
flujo transitorio y condiciones operativas variables.
DCA
Juego de
Parámetro
productos sintéticos # 1
Serie 1
Regresión no lineal
DCA
qi
retrocedido Juego de
Producción Parámetro
Producción productos sintéticos # 2
Datos Conjunto # 2
Datos
DCA di
Juego de
Parámetro
productos sintéticos # 3
Derechos residuales de autor Conjunto # 3
DCA
Juego de
bloques Parámetro
productos sintéticos # n
Conjunto # n
Reservas
Datos adicionales de
series temporales Avanzado Derechos residuales de autor
bloques bloques
(presión, corte de
agua, etc.) Construcción
Analista
Histórico
Empresa
Producción
Minero
Datos
15,000
10,000
50,00
0
0 10 20 30 40 50 60 70 80
En el segundo paso, el algoritmo ejecuta la simulación Monte-Carlo (Figura 7.5) para generar
intervalos de confianza de los percentiles 10, 50 y 90 para estas tres curvas y la predicción final.
El algoritmo debería poder trabajar con datos mensuales y datos en tiempo real (diarios u horarios).
El propósito del módulo de agrupamiento en la Figura 7.6 es desarrollar una metodología que permita a
los ingenieros clasificar fácilmente los pozos en grupos (llamados conglomerados) de modo que los pozos
en el mismo conglomerado sean más similares (según las propiedades seleccionadas) entre sí que entre
sí. en otros clústeres.
perfiles de pozos esta metodología consiste en clasificar los pozos dividiendo el campo
en áreas.
Este método determina los pozos más similares y genera un primer conjunto de
conglomerados; luego compara el promedio de los conglomerados con los pozos restantes
para formar un segundo conjunto de conglomerados, y así sucesivamente. Hay varias formas
de agregar pozos, pero el método jerárquico es más estable que el procedimiento de K-
medias y proporciona resultados más detallados; además, un dendrograma mostrado (Figura
7.7) es útil para la interpretación de los resultados o para elegir el número de conglomerados.
Machine Translated by Google
2,920,000
GRUPO –1
12345
6789
2,910,000 10 11 12
13 14 15
2,900,000
Y
2,890,000
2,880,000
2,870,000
2,850,000
cuadrado
sísmico
parcial
R-
FRKY
Z1
1- FRKY
Z3
1- FRKY
Z7
1- FRKY
Z9
1- FRKY
Z2
1- FRKY
Z4
1- FRKY
Z5
1- FRKY
Z6
1- FRKY
Z8
1-
FRKY
Z13
1- FRKY
Z11
1- FRKY
Z16
1- FRKY
Z17
1- FRKY
Z18
1- FRKY
Z19
1- FRKY
Z20
1- FRKY
Z12
1- FRKY
Z14
1- FRKY
Z15
1- FRKY
Z21
1- FRKY
Z10
1- FRKY
Z22
1- FRKY
Z23
1-
Figura 7.7 El árbol de decisión optimiza el flujo de trabajo del análisis de conglomerados
Las siguientes propiedades de los pozos podrían usarse como parámetros para el agrupamiento:
Hay varias formas diferentes de visualizar los resultados del análisis de conglomerados.
Por ejemplo, la ventana Perfil de segmento en la Figura 7.8 muestra todos los conglomerados
(segmentos) y las variables que mejor separan las ejecuciones en el conglomerado de todas las demás ejecuciones.
Se muestran dos gráficos de histograma para cada variable. El his tograma de color rojo para cada
variable se basa en todo el conjunto de datos de ejecución; el histograma azul se basa en las ejecuciones
en un clúster específico.
Aprovechando las regresiones multivariadas no lineales, los procedimientos de interpolación y
suavizado, el análisis de componentes principales, el análisis de conglomerados y el análisis de
discriminación, es factible dividir un campo en regiones discretas para tácticas y estrategias de reingeniería
de campo. La metodología clasifica los pozos de acuerdo con los indicadores de producción y divide el
campo en áreas.
Los resultados estadísticos se pueden mapear para identificar los mecanismos de producción, por
ejemplo, los mejores productores, el agotamiento y el mantenimiento de la presión, en última instancia,
para identificar y ubicar las zonas mal drenadas que posiblemente contengan reservas restantes. La
reingeniería de campo también se puede optimizar al identificar aquellos pozos donde se puede mejorar
la productividad.
Lo que sigue es un breve resumen de los pasos en el proceso de clasificación.
ÿ Adopción de métodos de suavizado que sean más aplicables a los datos. Por ejemplo, en el caso de datos
ponderados localmente). Utilice las curvas suavizadas resultantes para interpolar puntos de datos
ÿ Agrupación de pozos:
ÿ Úselo para crear una aproximación de baja dimensión al conjunto de datos de producción. Esta
ÿ Análisis de conglomerados:
drogramas y otros.
Machine Translated by Google
224
Machine Translated by Google
ÿ Puede ser útil para estudios posteriores tener solo un conjunto limitado de
ÿ Análisis discriminante:
ÿ Corte de agua
ÿ Relación gas-petróleo
ÿ Tipo de terminación
ÿ ESP (S/N)
ÿ Porosidad
ÿ Permeabilidad
ÿ Tasa de producción de
ÿ Corte de agua
ÿ Relación gas-petróleo
Los conjuntos de datos temporales, como las tasas de producción (petróleo, gas y agua), se limpian automáticamente,
lo que permite la selección de valores sólidos que se rigen por reglas establecidas a priori por ingenieros de yacimientos
experimentados. Por ejemplo, no tenga en cuenta los meses con un número de días operativos inferior a 20.
La solución puede seleccionar opcionalmente un conjunto de valores promedio móvil de 12 meses en lugar de los últimos
observados.
Estos flujos de trabajo se basan en un proceso SEMMA (Figura 7.9) que recorre de manera sistemática y lógica un
conjunto de nodos analíticos que muestrean los datos para capturar una población aplicable a la función objetivo y, por lo
tanto, permite que Exploration descubra tendencias y patrones ocultos. Los nodos subsiguientes inician un flujo de trabajo
de modificación en los datos seleccionados para garantizar una versión robusta y limpia que se ha transformado e imputado
para evitar el dicho "basura entra, basura sale", seguido de un modelado desde una perspectiva predictiva que implementa
flujos de trabajo informáticos basados en regresión. redes neuronales, árboles de decisión, algoritmos genéticos y lógica
difusa. Finalmente, un nodo de Evaluación se enfoca en los méritos relativos de los modelos implementados, lo que da
como resultado un análisis estadísticamente sólido que identifica el modelo optimizado o el rango de
Figura 7.9 Proceso SEMMA que respalda un flujo de trabajo de minería de datos
Machine Translated by Google
Convertir cantidades cada vez mayores de datos sin procesar en información útil sigue siendo un
desafío para la mayoría de las compañías petroleras porque las relaciones y las respuestas que
identifican oportunidades clave a menudo se encuentran enterradas en montañas de datos. El proceso
SEMMA agiliza la metodología de minería de datos para crear modelos predictivos y descriptivos
altamente precisos basados en el análisis de grandes cantidades de datos ascendentes recopilados de
toda una empresa.
La metodología de minería de datos aplicable para un flujo de trabajo de optimización de pozos
implementó aspectos del proceso SEMMA:
Muestra:
ÿ El nodo Filtro aplicó un filtro al conjunto de datos de entrenamiento para excluir valores atípicos u
otras observaciones que no desee incluir en su análisis de minería de datos. Los valores atípicos
pueden afectar en gran medida los resultados del modelado y, posteriormente, la precisión y
confiabilidad de los modelos entrenados.
Explorar:
ÿ El nodo Selección de variables evaluó la importancia de las variables de entrada para predecir o
clasificar la variable de destino. El nodo implementó un criterio de selección R-cuadrado o Chi-
cuadrado (basado en árbol). El criterio R-cuadrado eliminó las variables que tienen grandes
porcentajes de valores perdidos y las variables de clase que se basan en el número de valores
únicos. Las variables que no están relacionadas con el destino se establecen en un estado de
rechazado. Aunque las variables rechazadas se pasan a herramientas posteriores en el
diagrama de flujo del proceso, estas variables no se utilizan como entradas del modelo mediante
nodos de modelado como la red neuronal y las herramientas del árbol de decisión.
Modificar:
ÿ El nodo Impute reemplazó los valores faltantes para las variables de intervalo con el reemplazo
basado en la distribución, y exploramos el estimador M de reemplazo, como el bipeso de Tukey
y la onda de Huber y Andrew.
Los valores faltantes para las variables de clase se reemplazaron con la imputación basada en
árboles.
ÿ El nodo Generador de reglas creó conjuntos de reglas ad-hoc para que los datos
forzar el proceso mediante la adopción de resultados definibles por ingenieros. Por ejemplo,
podría utilizar el nodo Generador de reglas para definir resultados denominados Pozo bueno y
Pozo malo en función de reglas como las siguientes:
Machine Translated by Google
â•…â•…â•…EM_RESULTADO-”Malo”;
â•…â•…EM_OUTCOME=”Revisar”;
â•…â•…â•…â•…â•…â•…â•…FIN;
Modelo:
ÿ El nodo Red neuronal construyó, entrenó y validó redes neuronales feed-forward multicapa.
ÿ El nodo Regresión ajusta los modelos de regresión lineal y logística a los datos. Puede
utilizar variables de destino continuas, ordinales y binarias. Puede utilizar variables
continuas y discretas como entradas. El nodo admite los métodos de selección paso a
paso, hacia adelante y hacia atrás. Un generador de interacción de apuntar y hacer clic
creó términos de modelado de orden superior.
ÿ El nodo Rule Induction mejoró la clasificación de eventos raros en los datos de modelado.
Creó un modelo de inducción de reglas que utilizaba técnicas de división para eliminar
el nodo de división puro más grande de los datos. Rule Induction también creó modelos
binarios para cada nivel de una variable objetivo y clasificó los niveles desde el evento
más raro hasta el más común.
Evaluar:
La suposición de que los factores clave que dieron como resultado la caída histórica continúan sin cambios a lo
largo del período de pronóstico es fundamental para el DCA tradicional. Estos factores incluyen tanto las condiciones del
yacimiento como las condiciones de operación. Siempre que estas condiciones no cambien, la tendencia de declive
puede analizarse y extrapolarse para pronosticar el desempeño futuro del pozo. Si estas condiciones se modifican, por
ejemplo, mediante un reacondicionamiento de un pozo, entonces la tasa de declinación determinada antes del
Por lo tanto, es vital determinar el período de la historia de un pozo que podría usarse para el análisis de la curva
de declive y el posterior pronóstico y estimación. El módulo de minería de datos proporciona un medio para facilitar una
selección automatizada de dichos períodos de tiempo para un análisis preciso de la curva de declive.
El espacio de entrada para el módulo de minería de datos puede incluir algunos de los siguientes parámetros y
ÿ Corte de agua
ÿ Tipo de evento
ÿ Tipo de reacondicionamiento
ÿ Estado de finalización
ÿ Bandera multilateral
ÿ Recuento de laterales
La solución permite el análisis tasa-tiempo para dos fases, petróleo y agua, para estimar tasas
de producción basadas en el historial de producción en tres modelos diferentes en el mismo
marco de tiempo (exponencial, hiperbólico y armónico). Es beneficioso detallar el resultado del
análisis en un formato tabular para determinar la calidad/
precisión de los valores de datos históricos y pronosticados.
La solución también brinda la capacidad de realizar un análisis de tasa acumulativa para las
fases de agua y petróleo para estimar el petróleo en el lugar en función del historial de producción
en tres modelos diferentes en el mismo período de tiempo (exponencial, hiperbólico y armónico).
Análisis P/Z
ÿ Hurst simplificado
ÿ Von Everdingen-Hurst
Machine Translated by Google
ÿ Suavizado de variaciones extremas en los datos (p. ej., cortes de producción debido a razones
económicas o pruebas de pozos)
Si bien la exclusión de las tasas de producción cero es sencilla, la detección de valores atípicos se
realiza con la ayuda de las matemáticas. En teoría de probabilidad y estadística, la desviación estándar de
una población estadística o una distribución de probabilidad es la raíz cuadrada de su varianza. Un punto
de datos se considera estadísticamente atípico si el valor difiere en más del doble de la desviación estándar
del
significar. Un tratamiento automático de valores atípicos detectados en una población de datos determinada
podría ser:
ÿ Reemplazo de todos los valores atípicos con la tasa de producción media o mediana
excluyendo las tasas de producción cero. Eso asegura que el resultado del cálculo de la media y la mediana
genere resultados iguales con o sin eliminar primero las tasas de producción cero. Para los datos de series
de tiempo que se utilizan para la previsión, la identidad y el orden de las observaciones son cruciales. Una
serie de tiempo es un conjunto de observaciones hechas
en una sucesión de puntos igualmente espaciados en el tiempo. Si se han filtrado los registros, se ha
violado esta regla empírica. La solución simple al problema es mantener el orden de las observaciones y
ajustar la ID de tiempo de los registros en la población de datos. El sistema proporciona métodos de
interpolación en su software analítico que podrían usarse para interpolar valores faltantes o para generar
resultados de menor frecuencia a partir de datos de mayor frecuencia (p. ej., generar estimaciones
trimestrales a partir de datos de producción mensual).
Machine Translated by Google
Figura 7.10 Metodología de minería de datos con salida DCA para mejorar modelos
Proporcione un pronóstico a corto y largo plazo para cada pozo en el campo. Los resultados del
modelado y la aplicación de la ecuación de Arps producen puntos de datos adicionales como
entrada para un análisis de conglomerados.
Al introducir más elementos de datos del ADW, a través de un algoritmo de conglomerado
jerárquico e iterativo, podemos identificar indicadores clave de producción para cada pozo y, por
lo tanto, perfilar características importantes que separan los pozos con buen y mal desempeño.
Luego, establecemos un conjunto de KPI que se pueden usar para monitorear y evaluar los
datos de producción en tiempo real. Cualquier nueva lectura de datos que esté por encima o por
debajo de los límites de confianza que limitan el buen rendimiento se alerta a través de un tablero.
Adoptando una metodología de vigilancia basada en excepciones o un modelo predictivo , podemos
identificar respectivamente un conjunto de elementos accionables para mejorar
Machine Translated by Google
abordar un evento identificado a través de las alertas de KPI o predecir a través de las
firmas de eventos una situación inminente que debe abordarse para evitar el aplazamiento
o el bajo rendimiento.
Enumeremos algunos de los beneficios clave que se obtienen de una metodología de
este tipo que incorpora un proceso automatizado de selección de series de tiempo a través
de un módulo de arranque, ejecuta un módulo de agrupamiento para caracterizar los perfiles
de los pozos con el mejor y el peor desempeño, y agrega los resultados clave de los datos
exploratorios. análisis de datos y modelos descriptivos en un proceso SEMMA para minería
de datos:
modelos es cómo discriminar entre ellos con períodos de producción limitados y cómo combinar los
resultados del modelo para producir una evaluación de la incertidumbre en las estimaciones de
reservas.
El análisis de declinación de la producción de pozos de gas compacto y gas de esquisto con este
método generalmente da como resultado un valor de mejor ajuste mayor que la unidad para el
parámetro del exponente de declinación. El resultado a menudo es físicamente poco realista en el
sentido de que la producción acumulada se vuelve ilimitada a medida que aumenta el tiempo.
El modelo de declive exponencial estirado (SEDM) es una explicación física más plausible que la
suposición de un flujo dominado por los límites que es excesivamente largo para desarrollarse en
yacimientos de gas de esquisto y de arenas compactas. A diferencia del modelo hiperbólico, el SEDM
arroja un valor finito para la recuperación final. El SEDM parece ajustarse razonablemente bien a los
datos de campo de varias formaciones de esquisto y ofrece una alternativa eficaz al modelo hiperbólico
de Arps.
Modelo Duong
Debido a que los yacimientos de gas compacto y gas de esquisto generalmente se producen después
de la fracturación hidráulica masiva, es razonable suponer que el flujo hacia los pozos en tales
sistemas exhibirá características dominadas por fracturas. Para las fracturas de conductividad finita,
el flujo será bilineal, lo que se manifiesta como una línea de un cuarto de pendiente en un gráfico
logarítmico de la tasa de producción q versus el tiempo, mientras que el flujo en las fracturas de
conductividad infinita será lineal y se caracterizará por la mitad -línea de pendiente en el mismo gráfico.
En ambas condiciones, se ha demostrado que una gráfica logarítmica de q/Gp frente al tiempo debería
tener una pendiente de ÿ1.
Sin embargo, el análisis de los datos de campo de varias formaciones de gas de esquisto ha
demostrado que la relación entre estas variables se describe mejor con un modelo empírico que
también parece ajustarse muy bien a los datos de campo de varias formaciones de gas de esquisto,
proporcionando una alternativa eficaz a la teoría hiperbólica de Arps. modelo.
Estudios previos de análisis de curvas de declive mediante el uso de múltiples modelos han
demostrado que se pueden obtener ajustes de calidad comparable para ventanas de datos
cortas, pero producirán estimaciones EUR de 30 años muy diferentes.
Si se utilizan múltiples modelos para generar estimaciones de reservas, no está claro
cómo se pueden agregar los resultados de tales modelos. Por lo tanto, se propone un enfoque
de dos pasos. En el primer paso, se identifican y utilizan modelos alternativos para ajustar los
datos. En el segundo paso, se asigna un peso a cada modelo sobre la base de las estadísticas
de bondad de ajuste y se calculan la media ponderada y la desviación estándar de la medida
de rendimiento deseada.
Dos técnicas comunes de promedio de modelo para el modelado hidrológico son la
estimación de probabilidad/ incertidumbre generalizada (GLUE) y el promedio de modelo
bayesiano de máxima verosimilitud. Se ha observado que el enfoque de promediación del
modelo bayesiano tiende a concentrar los pesos del modelo en solo uno o dos de los mejores
modelos, mientras que los pesos del modelo calculados por el método GLUE se distribuyen
de manera más uniforme en el espacio del modelo.
El marco GLUE acepta muchas realizaciones de parámetros igualmente probables o
distintas alternativas de modelo como punto de partida. La salida correspondiente a cada
realización se compara con las observaciones reales. Solo aquellas realizaciones que
satisfacen algún nivel aceptable de rendimiento, como una suma máxima de residuos
ponderados al cuadrado, también conocido como umbral de comportamiento, se retienen
para un análisis posterior, y las realizaciones no conductuales se rechazan.
Luego, se calcula un valor de probabilidad para cada modelo como una función del desajuste
entre las observaciones y las predicciones del modelo. Los pesos o probabilidades de cada
modelo se estiman normalizando los valores de probabilidad.
El modelo GLUE es flexible con respecto a la elección de la medida de probabilidad.
Cualquier medida de probabilidad razonable se puede utilizar adecuadamente, siempre que
represente adecuadamente la comprensión de los expertos sobre la importancia relativa de
las diferentes fuentes de datos utilizadas para evaluar la precisión del modelo.
Este estudio de caso describe una metodología que incorpora enfoques tanto de ajuste
de curvas como de redes neuronales artificiales, y ofrece a los ingenieros soluciones
potenciales en el rango de producción acumulativa y duración de la producción de un pozo
de relleno. Los beneficios de las redes neuronales incluyen su eficiencia computacional,
características no lineales, propiedades de generación y facilidad para trabajar con datos de
alta dimensión.
El trabajo preliminar detrás de la predicción es la producción inicial del pozo y su corte
económico. El supuesto adoptado en el estudio es que la producción de un pozo de relleno
es similar a la de los pozos existentes en el mismo yacimiento; por lo tanto, las curvas de
producción de estos pozos pueden proporcionar el conocimiento adecuado para respaldar la
producción pronosticada de un pozo de relleno. Sin embargo, también se supone que un
ingeniero con experiencia local es ideal para juzgar cuán relevante es la información de los
pozos existentes.
Los cinco métodos convencionales de estimación, tanto física como económica.
Las reservas remanentes de petróleo en un pozo de petróleo incluyen:
Cada uno de estos métodos se puede aplicar de forma independiente y tiene sus puntos fuertes
y débiles. Si bien los cinco métodos se pueden usar para predecir las reservas recuperables de
un yacimiento, los métodos tienen requisitos de datos diferentes.
Existe una investigación sustancial realizada sobre la estimación de la producción de
petróleo utilizando el enfoque ANN. Aminzadeh, Barhen y Toomarian6 adoptaron la técnica ANN
para estimar los parámetros de yacimientos de campos petroleros a partir de datos sísmicos remotos.
Huang y William7 desarrollaron un modelo para predecir la porosidad y la capacidad de
permeabilidad a partir de registros de pozos utilizando técnicas ANN. Aunque las medidas
básicas no se usaron para construir ejemplos de entrenamiento, las curvas pronosticadas y las
medidas reales concuerdan excepto por algunos puntos de datos. Wong y Taggart8
describió un modelo similar al de Huang y William, pero que incluye información sobre litofacies
como entrada. Los resultados mostraron que el método de red neuronal estándar dio un error
cuadrático medio (RMSE) más bajo en comparación con el método simulado, pero el método
simulado produce mejores estadísticas de los datos reales, incluida la media, la desviación
estándar, el coeficiente de variación y el valor máximo y máximo. valores mínimos. Wong y
Taggart creían que el preprocesamiento de datos era el paso más importante para aplicar el
enfoque ANN a los problemas geológicos.
El modelo ANN mostró mayor precisión en comparación con cualquier otro método de
correlación; también produjo los errores más bajos, la desviación estándar más baja y el
coeficiente de correlación más alto para ambas salidas.
Este estudio adopta dos enfoques de modelado:
1. Estimación de curvas
2. Metodología RNA
Estimación de curvas
Por lo general, los datos pueden ajustarse a más de un tipo de curva, y el objetivo del modelo
es encontrar una curva con una desviación mínima de todos los puntos de datos. Las curvas de
mejor ajuste se pueden determinar con base en el método de mínimos cuadrados, que
Machine Translated by Google
asume que la curva de mejor ajuste de un tipo dado es la curva que tiene la suma mínima de
las desviaciones al cuadrado de un conjunto de datos dado. La técnica de ajuste de mínimos
cuadrados lineales es la más fundamental y, por lo tanto, se aplica con frecuencia,
proporcionando una solución al problema de determinar la línea recta de mejor ajuste a través
de un conjunto de puntos. En este estudio, la mayoría de las ecuaciones utilizadas para ajustar
los datos son lineales o linealizables. Incluyen las ecuaciones lineales, logarítmicas,
exponenciales y armónicas.
Metodología RNA
Las redes neuronales utilizan algoritmos de ajuste de curvas no lineales más avanzados que
las ecuaciones de ajuste de curvas mencionadas en las metodologías de estimación de curvas.
En lugar de resolver un conjunto de ecuaciones para obtener los mejores coeficientes, el
modelo de red neuronal actualiza los pesos en las redes neuronales para reducir el error en
cada paso.
Un paso de emparejamiento histórico adopta las técnicas de estimación de curvas y redes
neuronales ya mencionadas. Cada modelo toma el índice mensual como entrada y genera
una producción mensual prevista. La coincidencia implica un proceso de minimización del
error cuadrático medio (RMSE) entre los valores de salida previstos y observados. Se
entrenaron redes neuronales para encontrar las arquitecturas y los pesos óptimos. Para los
métodos de estimación de curvas, se derivó un conjunto de coeficientes de curvas.
Para reducir la posibilidad de que los modelos de redes neuronales sobreajusten los
datos, se implementó la validación cruzada. Durante el entrenamiento, los datos se dividieron
de diferentes maneras en dos porciones para entrenamiento y validación; la porción de
validación se usó para medir el desempeño del modelo entrenado hasta ese punto.
También queríamos evitar que la red neuronal dedique tiempo a aprender, lo que significa
menos correlaciones entre un gran espacio de entrada debido a las idiosincrasias en casos
de entrenamiento individuales. Por lo tanto, la disminución del número de variables de entrada
permite que la ANN se centre solo en las correlaciones más críticas. El problema obviamente
es identificar aquellas variables implicadas como las variables más significativas. PCA es la
metodología tradicional para determinar si una variable está altamente correlacionada con
otra. El análisis también indica aquellas combinaciones de variables que contienen grandes
diferenciales en los datos en promedio. Otro beneficio es la aparición de aquellas variables
que, en promedio, son aproximadamente constantes y, por lo tanto, pueden descartarse como
significativas.
El objetivo de los modelos de coincidencia histórica no es solo retener las curvas de
producción, sino también pronosticar valores futuros basados en el conjunto de datos
históricos. Es probable que un pozo nuevo con valores de producción inicial más altos tenga
una vida útil más prolongada que un pozo existente con valores de producción inicial más
bajos. Por lo tanto, la capacidad de determinar valores futuros es aún más importante para hacer analogía.
Machine Translated by Google
La tabla 7.1 muestra que el método multiplicativo genera resultados más precisos
que el método aditivo, ya que los valores predichos están más cerca del rango de los
valores observados y no hay valores negativos en la predicción. Por lo tanto, en este
estudio se adoptó el enfoque multiplicativo.
El rendimiento de esta solución debe ser evaluado por los expertos del dominio.
Además, la precisión del sistema se puede corroborar utilizando los datos disponibles. Se
ha avanzado considerablemente en el desarrollo de métodos para estimar la producción
futura de los pozos de petróleo. Sin embargo, estos métodos son invariablemente difíciles
de usar o inexactos. Esta metodología no intenta inventar un nuevo método de predicción.
En cambio, se basa en varios métodos sencillos disponibles y brinda a los usuarios
ilustraciones numéricas y visuales de los resultados para que los ingenieros
experimentados puedan ejercer su juicio y decidir qué escenario es el más probable.
Machine Translated by Google
NOTAS
1. WW Cutler y HR Johnson, “Estimación del petróleo recuperable de pozos reducidos”, Oil Weekly
(27 de mayo de 1940).
2. JJ Arps, "Análisis de las curvas de declive", Transacciones del Instituto Estadounidense de Ingenieros de Minas
160 (1945): 228–247.
3. EC Capen, “La dificultad de evaluar la incertidumbre”, Journal of Petroleum Technology 28, no. 8
(1976): 843–850.
4. VA Jochen y J P. Spivey, “Probabilistic Reserves Estimation Using Decline Curve Analysis with the Bootstrap
Method,” SPE 36633, presentado en la Conferencia y Exposición Técnica Anual de la SPE, Denver, CO, del 6
al 9 de octubre de 1996.
5. MJ Fetkovich, "Análisis de la curva de declinación usando curvas tipo", Journal of Petroleum Technology
(junio de 1980), 1065–1077.
6. F. Aminzadeh, J. Barhen y NB Toomarian, "Estimación del parámetro del yacimiento mediante una red neuronal
híbrida", Journal of Petroleum Science and Engineering 24, no. 1 (1999): 49–56.
7. Z. Huang y MA William, "Determinación de la porosidad y la permeabilidad en intervalos de yacimientos
mediante el modelado de redes neuronales artificiales: costa afuera del este de Canadá", Petroleum Geoscience
3, no. 3 (1997): 245–258.
8. PM Wong e IJ Taggart, “Uso de métodos de redes neuronales para predecir la porosidad y
Permeabilidad de un depósito de petróleo”, AI Applications 9, no. 2 (1995): 27–37.
Machine Translated by Google
CAPÍTULO 8
Producción
Mejoramiento
243
Machine Translated by Google
No
Basado en datos
modelo estático Profético
Modelo Económico
Objetivo
alcanzado?
patrón borroso
Reconocimiento
Sí
Determinar relleno
Espaciotemporal
Ubicaciones y
Analítico
Pozos buenos/malos Final
Flujos de trabajo
Figura 8.1 Flujo de trabajo de modelado inteligente de yacimientos de arriba hacia abajo
ÿ Coincidencia de historial
ÿ Estimación de reserva volumétrica
Muchas empresas de petróleo y gas se dan cuenta de que sus operaciones podrían beneficiarse
de formas mejoradas de trabajo impulsadas por información y herramientas de mejor calidad.
Sin embargo, a menudo tienen dificultades para identificar qué es importante y qué es solo
exageración. El alcance de una evaluación varía desde un solo activo hasta la cartera completa
de activos de una empresa. Por lo general, el alcance de un proyecto se centrará en uno o en
un pequeño número de activos con la intención de estructurar un programa de manera que
pueda extenderse fácilmente a otros activos.
El valor inherente y los beneficios de optimizar la producción son obvios, pero ¿a qué
costo? A la luz de la avalancha de datos de E&P con múltiples variedades en disciplinas de
ingeniería dispares y aisladas, es fundamental desarrollar metodologías automatizadas y
semiautomatizadas que implementen técnicas de computación blanda. La gestión de datos, la
cuantificación de la incertidumbre y la evaluación de los riesgos asociados con los modelos
operativos deben abordarse para lograr estrategias de (re)ingeniería exitosas que se centren
en la función objetivo: producción optimizada.
Machine Translated by Google
Analicemos algunos estudios de casos que explican los beneficios tangibles de aplicar modelos basados
en datos y metodologías analíticas avanzadas a un conjunto de datos representativo de un sistema complejo
para lograr un mejor rendimiento de la cartera.
ESTUDIOS DE CASO
Los siguientes estudios de caso ilustran la efectividad y validez de aplicar flujos de trabajo analíticos avanzados
para optimizar la producción en yacimientos tanto convencionales como no convencionales.
De los aproximadamente 1 millón de pozos de petróleo y gas que producen en todo el mundo, aproximadamente
1 de cada 20 fluye de forma natural, lo que hace que la mayor parte de la producción de petróleo y gas dependa
de operaciones eficaces de levantamiento artificial. Un campo maduro tiene un historial de producción
relativamente largo con múltiples pozos antiguos. Para aumentar las tasas de producción, necesitamos
aumentar las presiones de los yacimientos. Cuando los flujos de gas están restringidos a través de múltiples
pozos, es una situación problemática que debe resolverse de manera oportuna y efectiva. Exploremos una
solución escalable que ofrece resultados eficientes y potentes.
Las bombas sumergibles electrónicas (ESP) y la inyección artificial de gas son dos técnicas que se
esfuerzan por mantener el desempeño de la producción en un yacimiento maduro. La implementación de la
última metodología prevalece en muchos pozos de producción. Podemos generar un conjunto complejo de
ecuaciones diferenciales parciales para ser resuelto numéricamente a fin de generar un modelo físico que
represente los fenómenos asociados con el levantamiento artificial por gas. Las ecuaciones se derivan de los
balances fundamentales de masa y momento y dependen de las propiedades físicas inherentes al sistema de
levantamiento artificial por gas.
La figura 8.2 ilustra una representación gráfica de un sistema de campo petrolero de levantamiento
continuo por gas (CGL).
Al rediseñar las tácticas y estrategias en un campo maduro, determinar el sistema de levantamiento
artificial optimizado en la cartera de pozos, obviamente se complica por los patrones de interferencia entre los
pozos a lo largo del yacimiento.
La segmentación del campo no solo es un factor que contribuye, sino también otras influencias, como la
relación gas-petróleo y la temperatura de cada pozo y el tipo de válvulas de levantamiento artificial por gas y
las capacidades de las instalaciones de procesamiento de superficie (disponibilidad de gas comprimido y
separación de gas-petróleo). Hay un rango de presión de inyección de gas inestable, óptimo y estable
determinado para cada pozo; La figura 8.3 representa gráficamente una curva típica de optimización de
levantamiento artificial por gas.
El área inestable produce un "rumbo" caracterizado por amplias variaciones en la presión de inyección
debido a la dinámica física del flujo de fluido. Invariablemente notamos tasas de inyección más altas en la
región estable. Predominantemente la mayoría
Machine Translated by Google
Estrangulador de producción
gasóleo
al separador
de gasolina
Compresor
Ascensor de gas Inyección de gases
Ahogo
anular
Tubería de producción
Elevador de gas
Válvula
Reservorio
Inestable Estable
Gas normal
Operación de elevación
Óptimo
Elevador de gas
Producción máxima
Región
X min X máx.
El área favorable de levantamiento artificial por gas está entre el 40 y el 60 por ciento de la tasa de inyección de gas
Invariablemente, las curvas de optimización del levantamiento artificial por gas para cada pozo de la cartera se
calculan mediante la medición de la producción de gas-petróleo en un rango de presiones de inyección. Estas curvas
se pueden determinar en tiempo real como datos de vigilancia
Los resultados se pueden implementar para optimizar las técnicas mejoradas de recuperación
de petróleo que abordan la interacción con los pozos y también afinan parámetros operativos
importantes.
Para un conjunto específico de curvas de optimización de levantamiento artificial por gas, el
cálculo de las presiones óptimas de inyección de gas se puede lograr mediante una variedad de
procedimientos numéricos. La mayoría de estas técnicas requieren recursos computacionales
sustanciales y, por lo tanto, es imperativo implementar la solución en una arquitectura distribuida.
Metodología de modelado
Un polinomio simple (variable independiente) con diversos grados se puede ajustar a los datos
utilizando una metodología de mínimos cuadrados al evaluar las medidas estadísticas relacionadas
con la bondad del polinomio de mejor ajuste.
Polinomio en X:
dónde:
ÿ x es la variable independiente.
y a4
a1, a2 , a3 , variables son coeficientes de sus respectivos polinomios independientes ÿ a0 ,
pendientes.
dónde:
Maximizar
un 2
Producción ( )ÿ=ÿa3
ÿfxÿ+=ÿÿyo
ÿÿÿ
a ÿÿÿ0ÿ1
{
mi
ÿ
mi
} Ecuación (3)
ÿÿÿ
a1
sujeto a:
i
Volumen máximo de inyección de gas=ÿn xi <= Gas total disponible Ecuación (4)
tasas de inyección por pozo. Este conjunto de restricciones permite la optimización de cada curva de levantamiento
artificial por gas en la región óptima de levantamiento artificial por gas (Figura 8.3). Tenga en cuenta las ecuaciones
6 y 7, más adelante.
Optimice la formulación de producción para un área óptima de levantamiento artificial por gas
Como complemento a las ecuaciones 3, 4 y 5, las siguientes dos restricciones adicionales abordan
el área óptima de levantamiento artificial por gas.
Para cada pocillo, i = 1 al número de pocillos:
Las ecuaciones de restricciones 6 y 7 aseguran que la tasa de inyección de levantamiento artificial por gas esté
Si no se puede lograr el área óptima de levantamiento artificial por gas (debido a la capacidad total de
inyección de gas) para un pozo específico, el protocolo general es establecer la tasa de flujo de levantamiento
En un campo petrolero operativo, el mantenimiento puede requerir el cierre de pozos petroleros particulares.
Una extensión lógica de la optimización anterior sería la capacidad de seleccionar los pozos en operación y,
posteriormente, optimizar la tasa de inyección de gas para cada pozo en operación. Esto se puede lograr
Se muestrean cinco pozos tabulando el flujo de inyección de gas (Qg – MMCF/D) contra la producción de
La Figura 8.5 ilustra gráficamente los datos representados en la Figura 8.4 y subraya la curva de
optimización del levantamiento artificial por gas para cada uno de los cinco pozos.
Los coeficientes calculados para exponenciales en cien pozos se capturaron implementando un algoritmo
no lineal para cada pozo. Estos se utilizan en la optimización de la computadora. Estos coeficientes se pueden
volver a calcular rápidamente en función de la transmisión de datos sobre las tasas de inyección de gas/
producción proporcionados por los sistemas de control de supervisión y adquisición de datos (SCADA) o
recopilados de otro modo por los técnicos de datos de campo. Esto permitiría una optimización casi en tiempo
Se completó una serie de optimizaciones para tasas de inyección de gas entre 10 y 100 MMCF/D
disponibles en los 100 pozos. Los resultados se muestran en las Figuras 8.6 y 8.7. A la tasa de disponibilidad
de gas de inyección más baja (10 MMCF/D), a muchos pozos no se les asignó ninguna inyección de gas. Con
la tasa de inyección más alta disponible (100 MMCF/D), la producción óptima fue de 121 830,9452 STB/D.
Uno de varios procesos se utiliza para extraer petróleo o agua artificialmente de los pozos donde la presión
del yacimiento es insuficiente para producir el pozo. El proceso consiste en inyectar gas a través del espacio
anular del revestimiento de la tubería. El gas inyectado airea el fluido para reducir su densidad; la presión de la
formación puede entonces levantar la columna de petróleo y expulsar el fluido del pozo. El gas se puede inyectar
de forma continua o intermitente, según las características de producción del pozo y la disposición del equipo
El levantamiento artificial por gas es una forma de levantamiento artificial donde las burbujas de gas levantan el petróleo del pozo.
La cantidad de gas a inyectar para maximizar la producción de petróleo varía según las condiciones y geometrías
del pozo. Demasiado o muy poco gas inyectado resultará en una producción inferior a la máxima. En general, la
cantidad óptima de gas inyectado se determina mediante pruebas de pozos, donde se varía la velocidad de
qg qo qg qo qg qo qg qo qg qo
0.06125 187 0.2 307.2 0.2 400 0.263 500 0.3 532.7
0.125 200 0.3 325,8 0,31 425,9 0,427 540 0.444 567.3
0.1825 212 0.4 345,9 0,445 450,6 0,52 560 0.54 588.4
0.25 222 0.52 363.1 0.51 460 0.636 585.9 0.626 610
0.375 238 0.642 376,9 0,6 469 0.714 600 0.728 632.4
0.5 248 0.763 388,8 0,75 482,9 0,8 614 0.809 649.4
0.756 258.7 0.85 397,4 0,87 492 0.926 633.9 0,92 667
1.385 269.7 1.15 414,6 1,255 509.2 1.289 668.8 1.08 687
1.724 270.46 1.25 418.4 1.455 513.7 1.421 675.6 1.23 704
2.5 266 1.484 423.1 1.818 517.8 1.724 687.9 1.52 726
3.5 257 1.838 425.3 2.132 517 2.134 696.1 1.85 740
4.5 247.5 2.439 422.2 2.478 514.4 2.642 700 2.2 749
Aunque el gas se recupera del petróleo en una etapa posterior de separación, el proceso requiere energía para
accionar un compresor a fin de elevar la presión del gas a un nivel en el que pueda reinyectarse.
El mandril de levantamiento artificial por gas es un dispositivo instalado en la sarta de tubería de un pozo de
levantamiento artificial por gas sobre el cual se coloca una válvula de levantamiento artificial por gas. Hay dos tipos comunes
Machine Translated by Google
800
700
600
500
400
300
200
100
0 12345678
Flujo de inyección de gas (Qg - MMCF/D)
Bien 1 2 3 4 5
0 25,562.73223
10 68,356.17876
20 88,908.82123
30 101,085.27084
40 108.455,77364
50 113,150.24474
60 116.317,92018
70 118,541.69936
80 120.098,28288
90 121.152,89875
100 121,830,9452
de mandriles. En un mandril de levantamiento artificial por gas convencional, se instala una válvula de levantamiento
artificial por gas a medida que se coloca la tubería en el pozo. Por lo tanto, para reemplazar o reparar la válvula, se
debe jalar la sarta de tubería. Sin embargo, en el mandril de bolsillo lateral, la válvula se instala y retira con cable
mientras el mandril aún está en el pozo, lo que elimina la necesidad de tirar de la tubería para reparar o reemplazar
la válvula.
Machine Translated by Google
120,000
100,000
80.000
60.000
40.000
20,000
0 20 40 60 80 100
Figura 8.7 Resultados de optimización para tasas de inyección de gas de 0 a 100 MMCF/D
Una válvula de levantamiento artificial por gas es un dispositivo instalado en (o dentro) de un mandril
de levantamiento artificial por gas, que a su vez se coloca en la tubería de producción de un pozo de
levantamiento artificial por gas. Las presiones de la tubería y del revestimiento hacen que la válvula se
abra y se cierre, lo que permite que se inyecte gas en el fluido de la tubería para que el fluido suba a la
superficie. En el léxico de la industria, se dice que los mandriles de levantamiento artificial por gas son
"tubos recuperables" en los que se despliegan y recuperan unidos a los tubos de producción.
Durante la última década se han descubierto importantes suministros de gas natural en el esquisto. Si
bien el desarrollo de nuevas tecnologías ha reducido el costo de la extracción de gas, la búsqueda de gas
natural en el esquisto sigue siendo riesgosa y requiere mucho capital.
Los productores buscan las zonas más productivas en sus cuencas de esquisto, así como la mejora
continua en los procesos de fracturación hidráulica. Disminuir los costos y reducir el riesgo mientras se
maximiza la producción de gas de esquisto requiere capacidades analíticas avanzadas e innovadoras
que puedan brindarle una comprensión integral de la heterogeneidad del yacimiento a fin de extraer
información predictiva oculta, identificar impulsores e indicadores principales de producción eficiente de
pozos, determinar la mejor intervalos de estimulación y recomendar procesos y frecuencias de estimulación
óptimos. Modelar, simular y predecir la productividad de los pozos requiere capacidades integradas de
exploración, predicción y pronóstico respaldadas por modelos analíticos avanzados para desbloquear el
verdadero potencial de cada pozo. Sin el conocimiento crítico que permite el análisis integrado para
emparejar el análisis de productividad con la viabilidad económica, las empresas enfrentan un riesgo e
incertidumbre significativos cuando desarrollan nuevos pozos u optimizan la producción de pozos
existentes.
Machine Translated by Google
Formación Bakken
La formación Bakken es una unidad rocosa del Devónico tardío al Misisipiense temprano que se
extiende debajo de áreas de Montana y Dakota del Norte en los Estados Unidos y Manitoba y
Saskatchewan en Canadá. Las estimaciones más recientes
de técnicamente recuperables y no recuperables con tecnología existente superan los 18 mil
millones de barriles de petróleo equivalente (BOE). Las porosidades en Bakken promedian
alrededor del 5 por ciento y las permeabilidades son muy bajas, con un promedio de 0,04
milidarcies, pero la presencia de fracturas naturales verticales a subverticales hace que Bakken
sea un excelente candidato para técnicas de perforación horizontal y fracturación hidráulica.
El perfil de pozo típico propuesto por los operadores en Bakken es demasiado optimista.
Observamos una disminución predominantemente exponencial (hiperbólica de débil a moderada)
en la mayoría de las tendencias de disminución de pozos individuales, en lugar de una
disminución hiperbólica constante. Por lo tanto, se observa dentro del play de Bakken Shale un
declive exponencial predominante en dos etapas basado en el análisis de la curva de declive
(DCA) de pozos individuales. Un declive exponencial de dos etapas se caracteriza por un
período inicial de 12 a 18 meses de fuerte declive seguido de una tasa de declive estable y
menos profunda que continúa hasta el estado actual de los pozos (comúnmente durante cuatro
o más años para fecha en Bakken Shale). Nuestro énfasis está en igualar la segunda etapa
relativamente estable y menos profunda, porque esa es la parte del historial de declive que
mejor predice el desempeño futuro. La determinación de las tendencias de rendimiento
(coeficiente de Arps, b3 ) y las tasas iniciales de disminución (Di ) permite la agregación de
varios indicadores clave de producción (KPI). La implementación de los valores de estos KPI en
un análisis de conglomerados genera perfiles de pozo que sugieren compartimentación o
segregación de campos.
La agrupación en clústeres es una herramienta de minería de datos para categorizar y
analizar grupos de estas dimensiones de datos que tienen propiedades o características de
atributos similares. Para el análisis de pozos esta metodología consiste en clasificar los pozos
dividiendo el campo en áreas. Este método determina los pozos más similares y genera un
primer conjunto de conglomerados; luego compara el promedio de los conglomerados con los
pozos restantes para formar un segundo conjunto de conglomerados, y así sucesivamente. Hay varias formas de
Machine Translated by Google
pozos agregados, pero el método anterior es más estable que el procedimiento K-means y
proporciona resultados más detallados; además, el árbol mostrado es útil para visualizar los
resultados o elegir el número de conglomerados. Requiere más tiempo de cómputo, pero la
capacidad de cálculo de las unidades de cómputo actuales permite procesar mil pozos en pocos
minutos.
Las siguientes propiedades de los pozos podrían usarse como parámetros para la agrupación:
Puntos de datos adicionales tales como los parámetros operacionales cantidad de apuntalante,
tipo de apuntalante, redondez y esfericidad del apuntalante, tamaños de malla, volumen de fluido
de fractura e intervalo perforado bruto también son variables independientes muy importantes que,
cuando se exploran en una herramienta analítica de datos visuales como se demuestra en las
Figuras 8.8, 8.9 y 8.10, pueden revelar tendencias y patrones ocultos. Posteriormente, es importante
integrar los parámetros ambientales geomecánicos, como los relacionados con la caracterización
del macizo rocoso y la mecánica del macizo rocoso, y puntos de datos significativos que reflejen la
litología, las propiedades de la formación, el buzamiento y la heterogeneidad, la trayectoria del pozo
y la resistencia a la compresión de la roca. La fragilidad y la ductilidad, siendo la primera una de las
propiedades de roca más importantes que afectan la capacidad de perforación de las rocas, también
son parámetros clave cuando se trata de identificar
Figura 8.9 Mapa de calor que detalla la producción acumulada por condado
Figura 8.10 Gráfico de burbujas que detalla el volumen de fluido de fracturación y la cantidad de apuntalante
Los productores buscan las zonas más productivas en sus cuencas de esquisto, así como
la mejora continua en los procesos de fracturación hidráulica. Disminuir los costos y reducir el
riesgo mientras se maximiza la producción de gas de esquisto requiere capacidades analíticas
avanzadas e innovadoras que puedan brindarle una comprensión integral de la heterogeneidad
del yacimiento con los siguientes beneficios:
Activo de Pinedale
activo en Wyoming?
Huckabee y Minquan4 analizan el uso del análisis multivariante (MVA) para evaluar las
variables críticas de rendimiento importantes para optimizar el tratamiento de fractura hidráulica.
Su artículo (SPE 135523) analiza los desafíos asociados con el análisis de una sola variable
(SVA) y el uso exitoso de análisis multivariante.
Machine Translated by Google
modelos de redes neuronales para optimizar las técnicas de terminación de gas compacto.
Este trabajo se realizó con datos de las actividades de desarrollo de 2009 en el campo
anticlinal de Pinedale en el oeste de Wyoming.
El análisis utilizó información de más de 50 paquetes de arena fluvial en un solo pozo
de más de 5000 pies de sección vertical. Previamente se había realizado un análisis de una
sola variable para identificar las correlaciones y las tendencias que afectan el desempeño de
la estimulación de fracturas. Estas técnicas resultaron insatisfactorias como enfoque para
comprender la optimización de fracturas. El enfoque de MVA abordó la complejidad inherente
a la variación coincidente de los datos en múltiples parámetros.
Se eligió una red neuronal entre muchas técnicas de MVA para evaluar tanto los
parámetros del yacimiento como las variables controladas por el operador, como el volumen
de apuntalante y los métodos de flujo de retorno. Las capacidades computacionales actuales
y el software de modelado predictivo fácil de usar fueron componentes en la decisión de
utilizar este enfoque.
Los datos de entrada incluyeron información general de pozos de 211 pozos y 2399
etapas, datos de herramientas de registro de producción (PLT), datos de tratamiento de
estimulación, datos petrofísicos para formaciones y arenas, datos de reflujo, tipo de
apuntalante, volumen de apuntalante y datos de producción del pozo. Los detalles de cada
una de estas categorías de datos se describen en el artículo 135523 de la SPE. El propósito
del análisis fue identificar patrones entre los pozos pobres y excepcionales y así apreciar la
tendencia decreciente del desempeño de la producción por etapas a lo largo del tiempo,
identificando aquellos factores que tienen el mayor impacto en la producción. Los sistemas
de datos dispares tenían que agregarse para producir un conjunto de datos sólido
administrado que permitiera un análisis exploratorio de datos eficaz. Estos dos pasos
importantes son esenciales para identificar hipótesis plausibles y eficientes que vale la pena
probar y guiar a los tomadores de decisiones hacia técnicas de modelado sólidas.
Se desarrollaron redes neuronales para optimizar el diseño de fracturas e identificar
puntos dulces geológicos (Figura 8.11). Los datos se agruparon en no operativos
Distancia W11
Categoría 1
W12
Qg100 < 150 mscfd
Pendiente W13
Ubicación
escenario
del
Curvatura
Profundidad
Categoría 2
Petro.
sg
Formación
150<=Qg100 < 400 mscfd
Fi
H neto
Prop Vol.
propiedades
Parámetro
de
Operacional
Categoría 3
Fluir de nuevo Qg100 >= 400 mscfd
W93
Hubo tres cubos que sirvieron como categorías de salida en el conjunto de redes neuronales,
según el parámetro comparable, Qg100, que cuantificó el rendimiento del escenario como una
medida de la producción de gas.
Se llegó a la conclusión de que el 80 por ciento de los parámetros influyentes que tenían el
mayor impacto en el rendimiento escénico no eran operativos por naturaleza. El 20 por ciento
restante estaba bajo el control directo de ingenieros que formulaban una estrategia de fractura
hidráulica, considerada como operativa (Figura 8.12).
El proceso de terminación discutido en este estudio de caso se limita a la optimización del
volumen de apuntalante y actualmente no se ha aplicado a los métodos de reflujo, tipo de
apuntalante u otras variables operativas. Estas áreas representan oportunidades adicionales para
aplicar técnicas avanzadas de AMEU. El proceso para la solicitud de finalización incluyó la
recopilación inicial de datos, el cálculo de las propiedades físicas, una reunión de "puesta en
escena" del equipo multidisciplinario, la simulación para determinar las etapas y el resultado del
análisis de datos exploratorios en un flujo de trabajo analítico para calcular las distribuciones de
probabilidad de sensibilidad para el volumen de apuntalante. .
La evaluación se realizó en 195 etapas con 49 etapas identificadas para aumentar el volumen
de apuntalante. A través de este proceso, los autores identificaron la necesidad de actualizar el
modelo predictivo para incluir el impacto del agotamiento de la presión debido al espacio hacia
abajo. Incluso sin tener en cuenta el agotamiento de la presión, el equipo obtuvo excelentes
resultados.
Los tres parámetros de entrada clave determinados por las redes neuronales aplicadas
a través de los conjuntos de datos integrados son:
1. Parámetros geológicos utilizados para caracterizar la ubicación del escenario a lo largo del
anticlinal
una. Distancia: qué tan lejos de la ubicación máxima global en el pico del anticlinal
Machine Translated by Google
Variables significativas
0.09 0.09
0.1 0.09
0.06
0.12
0.05
0.15
0.25
Figura 8.12 Impacto relativo de los parámetros más significativos en el rendimiento escénico
C. LaPlacian: operador de LaPlace dado por la divergencia del gradiente de una función en el
espacio euclidiano; medida de la curvatura cóncava o convexa (segunda derivada)
b. Porosidad
3. Parámetros operativos
b. Régimen de reflujo
ÿ Pozo 2, etapas 1 y 2
ÿ Pozo 9, etapas 5–9
ÿ Pozo 3, etapas 5 a 9
ÿ Pozo 5, etapas 5 a 9
ÿ Pozos 6 y 8, etapas 1 y 2
ÿ Pozo 9, etapas 3 y 4
Figura 8.16 Mapa de árbol para la presentación en el escenario y el uso de apuntalante por pozo
Machine Translated by Google
en el uso de apuntalantes. La Figura 8.16 detalla una visualización de este tipo en forma de un mapa
de árbol. Note los dos pozos con mejor desempeño: 1 y 10. La antítesis de estos pozos se puede ver
claramente en el pozo 8. La Figura 8.16 nos permite perforar en el área denominada “10” que
obviamente no solo representa el mejor desempeño de etapa sino que también utiliza la menor cantidad
de sostén en comparación con el pozo 1. Este proceso de perforación permite ver la Figura 8.17.
A partir de la Figura 8.17, es evidente qué etapas en el pozo 10 generan la mayor cantidad de gas
acumulativo (5–9) y qué etapa ostensiblemente tiene un rendimiento muy bajo (1). ¿Podemos cerrar en
la etapa 1 al perforar en esta parte del anticlinal?
Ahora es factible optimizar una estrategia de terminación basada en los valores de los parámetros
geológicos utilizados para caracterizar la ubicación de la etapa:
Figura 8.17 Mapa de árbol para desempeño de etapa individual y apuntalante en pozo 10
Machine Translated by Google
combine eso con el entendimiento de que la etapa 1 podría cerrarse y el volumen de apuntalante
ideal podría establecerse a partir de la Figura 8.17 para todas las etapas restantes.
El paso final en el flujo de trabajo analítico es el más importante. Lleva el estudio más allá
de un ejercicio académico. Pongamos en funcionamiento el modelo en función de los resultados
de los pasos del análisis exploratorio de datos.
Operacionalizar el Modelo
Algunas de las técnicas informáticas blandas inherentes adoptadas para optimizar una estrategia
de finalización son:
ÿ Modelos cuadráticos
Habiendo explorado los datos para sacar a la luz relaciones y tendencias ocultas,
desarrollamos hipótesis que vale la pena modelar. Las variables independientes individuales se
clasificaron de acuerdo con las correlaciones visualizadas y los resultados de la
modelado paramétrico.
Al identificar las variables más importantes que tienen un mayor impacto estadístico en la
función objetivo, podemos posicionar esos parámetros operativos, como el volumen de
apuntalante y el número de etapas, al unísono con los parámetros de ubicación del pozo que
caracterizan el entorno geológico para un máximo contacto con el yacimiento.
Al formular una función f(x) donde x refleja los indicadores clave de producción (parámetros
operativos y geológicos), es posible obtener un modelo viable que pueda responder preguntas
hipotéticas y proporcionar valores de dichos parámetros optimizados para el desempeño y la
estrategia de terminación. El ingeniero envía valores para aquellos parámetros independientes
que influyen en f(x) (volúmenes de apuntalante en este caso) y diseña una estrategia de
terminación basada en los parámetros geológicos usados para caracterizar la ubicación de la
etapa a lo largo del anticlinal, determinando el contacto máximo del yacimiento y el número de
etapas propicias para la máxima producción de hidrocarburos.
¿Qué es un campo maduro? Supongamos que tenemos un largo historial de producción con
múltiples pozos perforados. Algunos de los campos antiguos en todo el mundo, por ejemplo en
Arabia Saudita, presentan miles de pozos con más de 50 años de producción continua. En las
primeras etapas del ciclo de vida del pozo se dispone de pocos datos.
Machine Translated by Google
ÿ Agrupación jerárquica
ÿ Segmentación de campos
El paso de análisis de datos exploratorios identifica patrones y revela relaciones ocultas entre
los datos temporales: índices de fluidos y volúmenes acumulados para cada pozo. Los datos
espaciales son escasos pero, si están disponibles, deben integrarse para enriquecer los datos en
estudio.
Al adoptar el conjunto de visualizaciones de Tukey discutido en detalle en los Capítulos 3, 4 y
9, es factible segmentar los datos temporales para identificar valores atípicos, imputar datos faltantes
y correlacionar esos períodos de buen desempeño con cualquier dato duro asociado con pozos,
incluidos características del yacimiento y parámetros petrofísicos de formación tales como porosidad
y pies netos productivos.
Estudiando los datos de producción disponibles, nos concentramos en la cantidad diaria de petróleo
producido así como el corte de agua y cualquier producción diaria de gas. Debido a los problemas
mecánicos históricos en la cartera de pozos y la frecuencia de las estrategias de remediación y/o los
patrones de interferencia en los pozos vecinos, está claro que el modelado fundamental es un
requisito previo a la adopción de cualquier análisis multivariado.
El siguiente paso estudia las curvas tipo a través de los datos temporales segmentados para
identificar los valores predichos y determinar los intervalos de confianza.
Machine Translated by Google
O Qo = QoMax / (1 + EXPR)a
Extrajimos atributos de los modelos descritos hasta ahora para compilar un conjunto de
parámetros bidimensionales conducentes a un flujo de trabajo analítico multivariado.
Algunos de los atributos incluían el valor máximo de Qo, Qomax, el valor de Qo descubierto
uno, dos o tres años después de Qomax, la relación entre Qomax y Qo final, etc. Otros
atributos derivados incluyeron valores iniciales y finales para las curvas suavizadas (corte
de agua y GOR), el tiempo para obtener diferentes niveles como 1, 10, 25 y 50 por ciento,
y así sucesivamente.
A partir de los conjuntos de datos sin procesar iniciales que incluían pozos y lecturas
temporales de tasas de líquidos, se determina una tabulación bidimensional de pozos
contra atributos. El componente temporal se ha eliminado ostensiblemente a pesar de que
está integrado indirectamente en algunos de los indicadores clave de producción estudiados
en el siguiente paso, que implementa un análisis multivariante.
Agrupación jerárquica
nuestros pasos.
Segmentación de campo
Los grupos se mapean y se validan de forma cruzada con las conclusiones establecidas a partir de
otros estudios, como sedimentología o modelos estructurales. Los resultados estadísticos permiten
determinar el pozo más representativo de cada grupo. Cualquier suma por grupo es indicativa de
la contribución neta de cada pozo a la producción acumulada en todo el campo. Los buenos y los
malos actores son, por lo tanto,
Bueno Grupo A
Baja porosidad, alta permeabilidad, baja
Producción, Alta Presión, Caudal, etc.
mapeado a través del modelo estático y corroborar las características del yacimiento y la
confiabilidad de las redes de fracturas a medida que el campo se compartimenta en función
de las tasas de fluido que perfilan cada pozo en cada grupo. Esta metodología corrobora el
entorno de deposición, estratigrafía secuencial, estructura, compartimentación y calidad del
yacimiento.
ÿ Un gráfico de curva en S de todos los resultados asigna una probabilidad a cada una de las pos.
posibles respuestas.
ÿ Se utilizan números aleatorios para asignar valores precisos para cada entrada
variable.
Habiendo determinado OOIP a través de la simulación de Monte Carlo para descubrir las
probabilidades del 10, 50 y 90 por ciento, e implementando los mismos datos junto con las siguientes
propiedades del yacimiento y del fluido:
ÿ Permeabilidad
Los modelos de redes neuronales no son realmente interpretables. Son una forma de formar un modelo
predictivo complejo, pero los parámetros no se pueden interpretar fácilmente.
Las redes neuronales son particularmente útiles para resolver problemas que no se pueden expresar
como una serie de pasos, como el reconocimiento de patrones, la clasificación en grupos, la predicción
de series y la extracción de datos. El reconocimiento de patrones es quizás el uso más común de las
redes neuronales. La adopción de una posible simulación de Monte Carlo filtrada para el diseño inverso,
de la cual ejecutar una red neuronal artificial es un paso componente, también es una posibilidad de
determinar las restricciones de las propiedades del yacimiento que influyen en el factor de recuperación
a priori.
Se empleó un programa de regresión lineal multivariable, por pasos, que buscaba sucesivamente
agregar variables independientes, que representan los datos del yacimiento por pasos para aumentar
progresivamente la calidad del ajuste de la ecuación de regresión a los datos.
Machine Translated by Google
El procedimiento por pasos es ideal cuando hay muchas variables independientes para
elegir en el desarrollo de un modelo de regresión. El procedimiento por pasos es más útil
para el análisis exploratorio porque puede dar una idea de las relaciones entre las variables
independientes y la variable dependiente o de respuesta.
Sin embargo, no se garantiza que el procedimiento paso a paso brinde el "mejor" modelo
para sus datos, o incluso el modelo con el mayor R2 . En el procedimiento paso a paso
Las variables se agregan una por una al modelo. El estadístico F para el cribado de
variables debe ser significativo para que las variables entren en el modelo. Después de
agregar una nueva variable, el método paso a paso analiza todas las variables ya incluidas
en el modelo y elimina cualquier variable que no produzca una estadística F significativa (la
importancia se determina mediante los parámetros de entrada y salida establecidos en el algoritmo).
Solo después de realizar esta verificación y realizar las eliminaciones necesarias, se puede
agregar otra variable al modelo. El proceso por pasos finaliza cuando ninguna de las
variables fuera del modelo tiene una estadística F significativa en la configuración del
parámetro de entrada y todas las variables ya incluidas en el modelo son significativas en la
configuración del parámetro de permanencia. El procedimiento por pasos también puede
terminar cuando la variable que se agregará al modelo es la variable que se acaba de eliminar del modelo.
El estadístico F viene dado por:
1) S MSE
( por F, nk ÿÿ
1.
k
Criterios de predicción
El objetivo es combinar la "selección del mejor modelo" con la validación del modelo.
norte
ˆ
SS ÿ yyi
()
ÿ
2
R2 = registro = i= 1
SS norte
total
ÿ yyi
()
ÿ
2
i= 1
Machine Translated by Google
2
ÿ Error cuadrático medio: s (MSE)
MSE = SSE / (n ÿ k ÿ 1)
MSE juega un papel importante en la prueba de hipótesis y los límites de confianza. Para
obtener intervalos de confianza estrechos y estimaciones precisas s2
debe ser lo más pequeño posible. El valor R2 se puede aumentar agregando más términos al
modelo. Sin embargo, la adición de variables innecesarias puede resultar en un aumento en
el MSE. Por lo tanto, la verdadera tarea es equilibrar R2 y MSE.
norte
ˆ
PRENSA = ÿ ( sí yo
ÿ
i, i
ÿ )
2
i= 1
norte
= 2
ÿ mi( i, i
ÿ )
i= 1
o dejar de lado la primera observación de la muestra y usar las n–1 observaciones restantes
para estimar los coeficientes para un modelo candidato en particular. Los residuos de PRESS
ÿ Cp de malva
Cp es una medida del error cuadrático total definida como:
SSE
CP =ÿ
( norte 2 - p )donde pk +1 =
2
segundos
donde s2 es el MSE para el modelo completo y SSE es el error de suma de cuadrados para
un modelo con p variables más el intercepto. Si Cp se grafica con p, Mallows recomienda el
modelo donde Cp primero se aproxima a p.
Cuatro criterios (en orden de importancia con 1 más importante):
2. Cp (cerca de k + 1) (pequeño)
2 2
3. MSE, s (pequeño; si un modelo está subespecificado, s está sobreestimado)
4. R2 (grande)
Machine Translated by Google
NOTAS
1. S. Mohaghegh, A. Modavi, Hafez H. Hafez y Masoud Haajizadeh, “Development of Surrogate Reservoir Models for
Fast Track Analysis of Complex Reservoirs”, SPE 99667, Conferencia y exhibición de energía inteligente, Ámsterdam,
Países Bajos, 11 de abril –13, 2006.
2. Robert N. Hatton, Ken Porter, “Optimization of Gas-Injected Oil Wells”, SAS Global Forum, Paper 195–2011, Caesars
Palace, Las Vegas, 4–7 de abril de 2011.
3. JJ Arps, "Análisis de las curvas de declive", Transacciones del Instituto Estadounidense de Ingenieros de Minas
160 (1945): 228–247.
4. P. Huckabee, J. Minquan, R. Lund, D. Nasse y K. Williams, "Tight Gas Well Performance Evaluation with Neural
Network Analysis for Hydraulic Propped Fracture Treatment Optimization", SPE 135523, ATCE, septiembre de 2010.
5. KA Jain y RC Dubes, Algorithms for Clustering Data (Upper Saddle River, NJ: Prentice Hall,
1988), 319.
6. J.-P. Valois, “Robust Approach in Hierarchical Clustering: Application to the Sectorization of an Oil Field”, artículo
presentado en la 7ª Federación Interna de Clasificación Soc., Namur, Bélgica, julio de 2000 (a ser publicado por
Springer Verlag, Berlín).
Machine Translated by Google
Machine Translated by Google
CAPÍTULO
9
Exploratorio y
Datos predictivos
Análisis
ÿÿ
El análisis exploratorio de datos es un enfoque para analizar datos con el fin de formular
mihipótesis que valga la pena probar, complementando las herramientas de las convenciones.
estadísticas nacionales para probar hipótesis. John Tukey lo llamó así para contrastarlo con el
análisis de datos confirmatorios, el término utilizado para el conjunto de ideas sobre la prueba de
hipótesis, los valores p y los intervalos de confianza (IC).
Tukey sugirió que en las estadísticas se ponía demasiado énfasis en las pruebas de hipótesis
estadísticas (análisis de datos confirmatorios); Esencialmente, se tuvo que poner más énfasis en
permitir que los datos sugirieran hipótesis que valieran la pena probar (análisis exploratorio de
datos). No debemos confundir los dos tipos de análisis; formular flujos de trabajo que los convolucren
en el mismo conjunto de datos puede conducir a un sesgo sistemático debido a los problemas
inherentes a la prueba de hipótesis sugeridas por los datos.
La fase exploratoria “aísla patrones y características de los datos y los revela contundentemente
al analista”.1 Si un modelo se ajusta a los datos, el análisis exploratorio encuentra patrones que
representan desviaciones del modelo. Estos patrones llevan al analista a revisar el modelo a través
de un enfoque iterativo. En cambio, confirmatorio
275
Machine Translated by Google
el análisis de datos “cuantifica hasta qué punto se puede esperar que ocurran por casualidad
desviaciones de un modelo” .2 El análisis confirmatorio utiliza las herramientas estadísticas
tradicionales de inferencia, significación y confianza. El análisis exploratorio de datos a veces se
compara con el trabajo de detective: es el proceso de reunir evidencia. El análisis de datos
confirmatorios es comparable a un juicio en la corte: es el proceso de evaluación de evidencia. El
análisis exploratorio y el análisis confirmatorio “pueden —y deben— avanzar lado a lado.”3
La tecnología informática moderna con sus pantallas gráficas de alta potencia que muestran
múltiples ventanas enlazables permite vistas dinámicas y simultáneas de los datos. Un mapa de la
posición de los datos de muestra en el espacio o las representaciones a lo largo del eje del tiempo
se puede vincular con histogramas, diagramas de correlación, nubes de variogramas y variogramas
experimentales. Por lo tanto, es factible obtener importantes ideas de estructuras espaciales,
temporales y multivariadas a partir de una gran cantidad de visualizaciones simples pero poderosas.
Los datos típicamente analizados en proyectos de caracterización de yacimientos pueden
visualizarse en una, dos y tres dimensiones, con la perspectiva unidimensional conduciendo
inexorablemente y lógicamente a la siguiente dimensión, y así sucesivamente, hasta una
apreciación integral de la estructura subyacente del Los datos explican y corroboran las técnicas
de modelado apropiadas de las que se pueden obtener conclusiones viables y confiables para
estrategias de manejo de campo eficientes para explotar los yacimientos existentes.
Los productores buscan las zonas más productivas en sus cuencas no convencionales, así como
la mejora continua en los procesos de fracturación hidráulica, ya que
Machine Translated by Google
explorar y perforar nuevos pozos en un recurso que requiere una cuidadosa planificación
estratégica no solo para aumentar el rendimiento sino también para reducir los impactos negativos
en el medio ambiente. Disminuir los costos y reducir el riesgo mientras se maximiza la producción
de gas requiere capacidades analíticas innovadoras y avanzadas que pueden brindarle una
comprensión integral de la heterogeneidad del yacimiento para extraer información predictiva
oculta, identificar impulsores e indicadores principales de producción eficiente de pozos,
determinar los mejores intervalos para estimulación y recomendar procesos y frecuencias de
estimulación óptimos.
Los siguientes son algunos pasos de alto nivel en un estudio para un yacimiento no
convencional que se concentró en la influencia de los volúmenes de fluido de fractura y
apuntalante, con proyectos analíticos extensos en torno a otros parámetros operativos para
determinar una estrategia ideal de tratamiento de fractura hidráulica que podría usarse como un
análogo en pozos nuevos.
El operador del yacimiento no convencional deseaba identificar el impacto de los volúmenes
de fluido de fractura y apuntalante en el rendimiento de unos 11 000 pozos, de los cuales unos 8
000 pozos eran de dominio público. ¿Existe una correlación y, de ser así, qué tan fuerte es la
relación entre los volúmenes de fluido de fractura/apuntalante y el desempeño?
ÿ Comprender por qué algunos pozos de petróleo/gas se consideran buenos y otros malos,
aunque se perforan con tácticas similares en estratos geológicos ostensiblemente
similares.
COMPONENTES EDA
1. Análisis univariante
2. Análisis bivariado
3. Análisis multivariado
4. Transformación de datos
5. Discretización
Análisis univariado
El análisis univariante esboza los datos y enumera los descriptores tradicionales, como la
media, la mediana, la moda y la desviación estándar. Al analizar conjuntos de números,
primero desea tener una idea del conjunto de datos en cuestión y hacer preguntas como las
siguientes: ¿Cuáles son los valores más pequeños y más grandes? Qué
Machine Translated by Google
Figura 9.1 Histogramas que representan las relaciones dinámicas entre la producción de gas, el pozo, la tasa de
producción de petróleo y el volumen de producción de petróleo
podría ser un buen número representativo único para este conjunto de datos? ¿Cuál es la
cantidad de variación o spread? ¿Están los datos agrupados en torno a uno o más valores, o
están repartidos uniformemente en algún intervalo? ¿Se pueden considerar simétricas? Puede
explorar las distribuciones de variables nominales utilizando gráficos de barras. Puede
explorar las distribuciones univariadas de las variables de intervalo utilizando histogramas y
diagramas de caja.
Un histograma es una estimación de la densidad o la distribución de valores para una
sola medida de datos (Figura 9.1). El rango de la variable se divide en un cierto número de
subintervalos o contenedores. La altura de la barra en cada contenedor es proporcional al
número de puntos de datos que tienen valores en ese contenedor. Una serie de barras
representa el número de observaciones en la medida que coinciden con un valor específico o
un rango de valores. La altura de la barra puede representar el número exacto de
observaciones o el porcentaje de todas las observaciones para cada rango de valores.
Las estadísticas descriptivas abarcan la apreciación cuantitativa inherente a un conjunto
de datos. Para distinguirse tanto de la estadística inferencial como de la inductiva,
Machine Translated by Google
300.000
250.000
200,000
150.000
100,000
50,000
0
100 150 200 250 300 350 400 450 500
qg 100
las estadísticas descriptivas se esfuerzan por resumir una muestra de datos tomada
de una población y, por lo tanto, no se desarrollan sobre la base de la teoría de la
probabilidad. Las medidas generalmente utilizadas para describir un conjunto de datos
representan la tendencia central y la variabilidad. Las medidas de tendencia central
incluyen la media, la mediana y la moda, mientras que las medidas de variabilidad
incluyen la desviación estándar (o varianza), los valores mínimo y máximo de las
variables, la curtosis y la asimetría. La curtosis refleja el "pico" de una distribución de
probabilidad que describe su forma. Una distribución de curtosis alta tiene un pico más
nítido y colas más largas y anchas, mientras que una distribución de curtosis baja tiene
un pico más redondeado y colas más cortas y delgadas. La asimetría es una medida
del grado en que una distribución de probabilidad “favorece” un lado de la media. Por
lo tanto, su valor puede ser positivo o negativo.
Un diagrama de caja, como se muestra en las Figuras 9.2 y 9.3, resume la
distribución de los datos muestreados de una variable numérica continua. La línea
central en un diagrama de caja indica la mediana de los datos, mientras que los bordes
de la caja indican el primer y tercer cuartil (es decir, los percentiles 25 y 75).
Extendiéndose desde la caja hay bigotes que representan datos que están a cierta
distancia de la mediana. Más allá de los bigotes están los valores atípicos: observaciones
que están relativamente lejos de la mediana.
Los términos cuantitativos de los parámetros operativos y no operativos en E&P
son esenciales para tabular, además de la representación pictórica. En la Figura 9.3
Machine Translated by Google
vemos el promedio, la media, el mínimo y el máximo, así como el primer y tercer cuartil de la
producción acumulada, el fluido de fractura y los volúmenes de apuntalante.
Análisis bivariado
Se puede explorar la relación entre dos (o más) variables nominales mediante el uso de un gráfico
de mosaico. También se puede explorar la relación entre dos variables mediante el uso de un
diagrama de dispersión. Por lo general, las variables en un diagrama de dispersión son variables de intervalo.
Si uno tiene una variable de tiempo, puede observar el comportamiento de una o más variables a lo
largo del tiempo con un gráfico de líneas. También se pueden usar gráficos de líneas para visualizar
una variable de respuesta (y, opcionalmente, curvas ajustadas y bandas de confianza) frente a los
valores de una variable explicativa. Uno puede crear y explorar mapas con una trama poligonal.
El coeficiente de correlación de rango representado en la figura 9.4 es una herramienta
estadística útil para comparar dos variables. A diferencia del coeficiente de correlación, que puede
estar influenciado por valores extremos dentro del conjunto de datos (que afectan la media y la
varianza), el coeficiente de correlación de rango no se ve afectado significativamente.
Por lo tanto, es una medida relativamente robusta y puede permitir la detección de errores de
medición, especialmente si hay una diferencia notable entre los valores. El coeficiente de correlación
es 0.9272 y el coeficiente de correlación de rango
Analisis multivariable
El análisis multivariante examina las relaciones entre dos o más variables,
implementando algoritmos como la regresión lineal o múltiple, el coeficiente de
correlación, el análisis de conglomerados y el análisis discriminante.
Machine Translated by Google
Se pueden explorar las relaciones entre tres variables mediante el uso de un diagrama
de dispersión giratorio. A menudo, las tres variables son variables de intervalo. Si una de las
variables se puede modelar como una función de las otras dos variables, entonces puede
agregar una superficie de respuesta a la gráfica rotatoria. De manera similar, puede visualizar
los contornos de la variable de respuesta utilizando un gráfico de contorno.
Una gráfica de contorno como la que se muestra en la figura 9.5 supone que la variable
Z está funcionalmente relacionada con las variables X e Y. Es decir, la variable Z se puede
modelar como una variable de respuesta de X e Y. Un uso típico de un gráfico de contorno es
visualizar la respuesta de un modelo de regresión de dos variables continuas. Los gráficos de
contorno son más útiles cuando las variables X e Y casi no están correlacionadas. El gráfico
de contorno ajusta una superficie lineal por partes a los datos, modelando Z como una función
de respuesta de X e Y. Los contornos son curvas de nivel de la función de respuesta.
De forma predeterminada, los valores mínimo y máximo de la variable Z se utilizan para
calcular los niveles de contorno.
La figura 9.5 también muestra un gráfico rotativo en el que se supone que Z
variable está relacionada funcionalmente con las variables X e Y. Es decir, la variable Z se
puede modelar como una variable de respuesta de X e Y. Un uso típico de la gráfica de
superficie giratoria es visualizar la superficie de respuesta para un modelo de regresión de
dos variables continuas. Se pueden agregar los valores pronosticados del modelo a la tabla
de datos. Entonces uno puede graficar los valores pronosticados como una función de las dos
variables regresoras.
Figura 9.5 Perfilador de contornos que observa el factor de recuperación frente a OOIP y registro de
saturación de agua
Machine Translated by Google
Transformación de datos
discretización
Hay una gran variedad de gráficos y diagramas que se pueden utilizar durante la fase de
descubrimiento de datos sin procesar. Es esencial conocer la relevancia de estas técnicas de
visualización para obtener el máximo conocimiento durante la fase de análisis exploratorio de datos
del modelado basado en datos. Repasemos varias de las imágenes más importantes y útiles para
permitir una sensación intuitiva de los datos ascendentes.
caja y bigotes
El diagrama de caja de la figura 9.6 muestra la distribución de los valores de los datos mediante el
uso de una caja rectangular y líneas llamadas "bigotes".
Los bordes inferior y superior de la caja indican el rango intercuartílico (RIC), es decir, el rango
de valores que se encuentran entre el primer y el tercer cuartil (los percentiles 25 y 75). El marcador
dentro del cuadro indica el valor medio. La línea dentro del cuadro indica el valor de la mediana.
Puede habilitar valores atípicos, que son puntos de datos cuyas distancias desde el rango
intercuartílico son más de 1,5 veces el tamaño del rango intercuartílico.
Los bigotes (líneas que sobresalen del cuadro) indican el rango de valores que están fuera del
rango intercuartílico. Si no activa los valores atípicos, los bigotes se extienden hasta los valores
máximo y mínimo del gráfico. Si habilita valores atípicos, los bigotes indican el rango de valores
que están fuera del rango intercuartílico, pero que están lo suficientemente cerca como para no
considerarse valores atípicos.
Si hay una gran cantidad de valores atípicos, el rango de valores atípicos se representa
mediante una barra. La sugerencia de datos para la barra muestra información adicional sobre los
valores atípicos. Para explorar los valores atípicos, haga doble clic en la barra de valores atípicos
para ver los valores como una nueva visualización de histograma.
Los roles de datos básicos para un diagrama de caja son categorías y medidas. Solo puede
asignar una categoría y los valores de categoría se trazan en el eje de categoría. Puede asignar
muchas medidas y los valores de medida se trazan en el eje de respuesta. Se requiere al menos
una medida.
Machine Translated by Google
Máximo
Valor Percentil Q3 (75)
Percentil Q1 (25)
400
sg 300
Fi
Significar
Neto
og100 200
Mediana
100
valores atípicos
0
1 2345 6
Escenario
Histogramas
La principal utilidad del histograma (Figura 9.7) es que muestra las frecuencias de clase
relativas en los datos y, por lo tanto, proporciona información sobre la función de densidad de
datos. Una representación gráfica ampliamente utilizada de datos univariados es el histograma,
que es esencialmente un gráfico de barras de una distribución de frecuencia que se organiza
en intervalos o clases. La información visual importante que se puede obtener de los
histogramas abarca la tendencia central, la dispersión y la forma general de la distribución.
Sin embargo, el resumen cuantitativo o las estadísticas descriptivas proporcionan una
metodología más precisa para describir los datos del yacimiento. En términos puramente
cuantitativos, la media y la mediana definen la tendencia central, mientras que la dispersión
de los datos se expresa en términos del rango y la desviación estándar.
Los parámetros de tendencia central o ubicación representan las medidas más importantes
para caracterizar una distribución empírica. Estos valores ayudan a ubicar los datos en una
escala lineal. El indicador de tendencia central más popular es la media aritmética, que es la
suma de todos los puntos de datos dividida por el número de observaciones. La mediana se
utiliza a menudo como una medida alternativa de la central
tendencia ya que la media aritmética es sensible a los valores atípicos. Aunque los valores
atípicos también afectan a la mediana, sus valores absolutos no la influyen. Los cuantiles son
una forma más general de dividir la muestra de datos en grupos que contienen el mismo
número de observaciones.
Machine Translated by Google
Gráficos de probabilidad
Las técnicas gráficas descritas hasta ahora brindan una idea razonablemente buena sobre
la forma de la distribución de los datos bajo investigación, pero no determinan qué tan bien
se ajusta un conjunto de datos a una distribución teórica dada. Se podría usar una prueba
de bondad de ajuste para decidir si los datos son significativamente diferentes de una
distribución teórica dada; sin embargo, tal prueba no nos diría dónde y por qué los datos
difieren de esa distribución. Una gráfica de probabilidad, por otro lado, no solo demuestra
qué tan bien se ajusta una distribución empírica a una distribución dada en general, sino
que también muestra de un vistazo dónde el ajuste es aceptable y dónde no. Hay dos tipos
básicos de gráficas de probabilidad: gráficas PP y gráficas QQ. Ambos se pueden utilizar
para comparar dos distribuciones entre sí. Los principios básicos siguen siendo los mismos
si se quiere comparar dos distribuciones teóricas, una distribución empírica (o de muestra)
con una distribución teórica, o dos distribuciones empíricas.
Sigamos un estudio de caso para optimizar una estrategia de fractura hidráulica en un
yacimiento no convencional donde las técnicas de EDA se enumeran y se detallan
gráficamente a medida que nos esforzamos por aumentar el rendimiento de la producción
en función de los parámetros operativos que deben adaptarse a las características del
yacimiento en toda la extensión de shale.
Machine Translated by Google
Gráfico de dispersión
Un diagrama de dispersión es una visualización de dos o tres dimensiones que muestra la relación de
elementos de datos de dos o tres medidas. Cada marcador (representado por un símbolo como un punto,
un cuadrado o un signo más) sirve como una observación. La posición del marcador indica el valor de
cada observación. Utilice un diagrama de dispersión para examinar la relación entre elementos de datos
numéricos.
Los gráficos de dispersión 3D de la figura 9.8 se utilizan con frecuencia cuando los datos no están
dispuestos en una cuadrícula rectangular. Los gráficos de dispersión 3D simples muestran un objeto o
marcador correspondiente a cada dato. Los gráficos de dispersión más complicados incluyen atributos de
marcador específicos de datos, líneas descendentes y combinaciones de los datos de dispersión con
objetos adicionales, como una superficie ajustada.
Los diagramas de dispersión 3D se utilizan para trazar puntos de datos en tres ejes en un intento de
mostrar la relación entre tres variables. Cada fila de la tabla de datos está representada por un marcador
cuya posición depende de sus valores en las columnas establecidas en los ejes X, Y y Z.
Se puede configurar una cuarta variable para que corresponda con el color o el tamaño de la marca.
ers, añadiendo así otra dimensión a la trama.
La relación entre diferentes variables se llama correlación. Si los marcadores están cerca de hacer
una línea recta en cualquier dirección en el tridimensional
del diagrama de dispersión 3D, la correlación entre las variables correspondientes es alta. Si los
marcadores están igualmente distribuidos en el diagrama de dispersión 3D, la correlación es baja
o cero. Sin embargo, aunque parezca que existe una correlación, puede que no siempre sea así.
Las variables podrían estar relacionadas con alguna cuarta variable, explicando así su variación, o
la pura coincidencia podría causar una aparente correlación.
Mapas de calor
Los mapas de calor son una excelente manera de comparar datos en dos categorías usando color.
El efecto es ver rápidamente dónde la intersección de las categorías es más fuerte y más débil.
Básicamente, un mapa de calor muestra la distribución de valores para dos elementos de datos
mediante el uso de una tabla con celdas de colores.
Usamos mapas de calor cuando queremos mostrar la relación entre dos factores. Podríamos
estudiar el análisis de segmentación de una cartera de pozos, obtener información sobre el
rendimiento de los pozos en los yacimientos o comprender la productividad de los equipos de
perforación en función de la experiencia de ingeniería y la tasa de penetración.
La figura 9.9 ilustra la comprensión potencial que surge al estudiar visualmente la producción de gas
acumulada durante 12 meses en un yacimiento no convencional, observando las etapas óptimas superior
e inferior de los disparos. También observamos la "línea de mejor ajuste" que da como resultado un ajuste
cuadrático trazado en el mapa de calor para describir la relación entre las dos variables cuando esa
relación exhibe la curvatura de "forma de cuenco" típicamente definida por una función cuadrática.
Si los puntos en el diagrama de dispersión están muy agrupados alrededor de la línea, es probable que
proporcione una buena aproximación para la relación. Si no, se debe considerar otra línea de ajuste para
representar la relación.
Gráficas de burbujas
Un diagrama de burbujas (Figura 9.10) es una variación de un diagrama de dispersión en el que los
marcadores se reemplazan con burbujas. Un gráfico de burbujas muestra las relaciones entre al menos
tres medidas. Dos medidas están representadas por los ejes de la trama y la tercera medida está
representada por el tamaño de los marcadores de la trama. Cada burbuja representa una observación. Un
diagrama de burbujas es útil para conjuntos de datos con docenas o cientos de valores. El tamaño de una
burbuja se escala en relación con el mínimo y el máximo
valores mínimos de la variable tamaño. Los tamaños mínimo y máximo son illus
Figura 9.11 Mapa de árbol que define la producción de gas acumulada para cada etapa del pozo
Mapas de árboles
Un mapa de árbol (Figura 9.11) muestra una jerarquía o una categoría como un conjunto de
mosaicos rectangulares. A cada rama del árbol se le da un rectángulo, que luego se teja con
rectángulos más pequeños que representan sub-ramas. El rectángulo de un nodo hoja tiene
un área proporcional a una dimensión específica de los datos. A menudo, los nodos de hoja
se colorean para mostrar una dimensión separada de los datos.
Cuando las dimensiones de color y tamaño se correlacionan de alguna manera con la
estructura del árbol, a menudo se pueden ver fácilmente patrones que serían difíciles de
detectar de otra manera, como si un determinado color es particularmente relevante. Una
segunda ventaja de los mapas de árboles es que, por construcción, hacen un uso eficiente
del espacio. Como resultado, pueden mostrar de manera legible miles de elementos en la
pantalla simultáneamente.
SEGMENTACIONES DE CONJUNTO
Métodos de conjunto
Se han informado métodos típicos para combinar diferentes modelos de la misma variable
objetivo, como embolsado y refuerzo. Bagging significa agregación bootstrap. En un modelo de
embolsado, se toman los siguientes pasos en el algoritmo:
Paso 1. Se realiza una muestra aleatoria de las observaciones con un tamaño de n con
reemplazo (lo que significa que una vez que se ha realizado un sorteo, si se ha extraído
una observación antes, se realiza un reemplazo).
Paso 4. Para cada observación en el conjunto de datos, la cantidad de veces que se usa
un tipo de modelo en el paso 2 actúa como una clasificación para cada nivel de la variable
objetivo o de respuesta.
Paso 5. Cada observación se asigna a una categoría votando con el voto mayoritario de
la combinación de modelos predecesores.
Machine Translated by Google
Grupos de conjuntos
Segmentos de conjunto
¿Cómo agregan valor los segmentos de conjunto a los problemas comerciales ascendentes?
Enumeremos algunos de los beneficios más tangibles e importantes:
ÿ Los datos de los clientes son complejos: las segmentaciones simplifican la naturaleza compleja
de los datos
VISUALIZACIÓN DE DATOS
A pesar de que los predecesores de la visualización de datos se remontan al siglo II d.C., la mayoría
de los avances se han producido en los últimos dos siglos y medio, sobre todo durante los últimos 30
años. La tabla más antigua que tiene
Machine Translated by Google
conservado fue creado en el siglo II en Egipto para organizar la información astronómica como
una herramienta para la navegación. Una tabla es principalmente una representación textual
de datos, pero utiliza los atributos visuales de alineación, espacios en blanco y, en ocasiones,
reglas (líneas verticales u horizontales) para organizar los datos en columnas y filas. Las tablas,
junto con los gráficos y los diagramas, pertenecen a la clase de representaciones de datos
denominadas gráficos.
Aunque las tablas son predominantemente textuales, su disposición visual de los datos en
columnas y filas fue un poderoso primer paso hacia desarrollos posteriores, que cambiaron el
equilibrio de las representaciones textuales y visuales de los datos (Figura 9.12).
Siguiendo la innovación de Descartes, no fue sino hasta finales del siglo XVIII y principios
del XIX cuando un científico social escocés llamado William Playfair inventó o mejoró
drásticamente muchas de las gráficas que usamos hoy en día, incluidas las gráficas de barras
y circulares.
Sin embargo, pasó más de un siglo antes de que se reconociera el valor de estas técnicas
hasta el punto de que finalmente se introdujeron los cursos académicos sobre gráficos de
datos, originalmente en la Universidad Estatal de Iowa en 1913.
La persona que nos presentó el poder de la visualización de datos como un medio para
explorar y dar sentido a los datos fue el profesor de estadística John Tukey de Princeton, quien
en 1977 desarrolló un enfoque predominantemente visual para explorar y analizar datos llamado
análisis exploratorio de datos.
Machine Translated by Google
Figura 9.13 Los mapas de árboles explican la producción de hidrocarburos y agua por GOSP
Machine Translated by Google
ESTUDIOS DE CASO
Los siguientes estudios de caso ilustran la aplicación práctica de gráficos y diagramas para descubrir el
conocimiento de los datos aguas arriba en yacimientos no convencionales.
Es importante determinar un modelo de yacimiento más robusto y apreciar los cambios sutiles en la
geomecánica en un activo no convencional a medida que las estrategias de perforación y terminación se
vuelven más costosas para explotar estos recursos.
Nuevamente, casar una metodología basada en datos con flujos de trabajo interpretativos tradicionales
permite una mayor comprensión, y la adopción de EDA para descubrir patrones ocultos culmina en
hipótesis que vale la pena modelar bajo incertidumbre.
Para acatar los dictados de Tukey, debemos generar un conjunto completo de técnicas de
visualización, preferiblemente a través de una metodología de gráficos automáticos que sea óptima para
los conjuntos de datos que se consideran esenciales para el problema comercial que se está estudiando.
Podemos progresar a través del proceso iterativo de cultivar conocimiento a partir de nuestros datos sin
procesar. Con la llegada de Big Data a medida que los pozos inteligentes y los campos petrolíferos digitales
se están volviendo más populares en el panorama de optimización y vigilancia de activos, necesitamos
manejar terabytes de datos sin procesar, ya que la agregación en silos de ingeniería permite a los
geocientíficos interpretar datos sin los problemas inherentes asociados con el muestreo. estos datos.
ÿ EDA es un proceso iterativo que surge a partir de percepciones de prueba y error, y estas
observaciones intuitivas obtenidas de cada paso sucesivo son la plataforma para los pasos
subsiguientes.
ÿ Se debe construir un modelo en cada paso de EDA, pero no se debe atribuir demasiada
responsabilidad al modelo. Mantenga una mente abierta y coquetee con escepticismo con
respecto a cualquier posible relación entre los atributos del yacimiento.
ÿ Mire los datos desde varias perspectivas. No descarte el paso EDA en el ciclo de caracterización
del yacimiento si no aparece ningún valor inmediato o aparente.
Maximizar información
y la percepción concreta de un conjunto de datos surge a medida que el analista examina y explora
adecuadamente los diversos matices de los datos. Cualquier apreciación de los datos se deriva casi
exclusivamente del uso de varias técnicas gráficas que producen la esencia de los datos. Por lo
tanto, los gráficos bien elegidos no solo son insustituibles, sino que también están en el centro de
todas las determinaciones perspicaces, ya que no existen análogos cuantitativos como los adoptados
en un enfoque más clásico. Es esencial aprovechar sus propias habilidades de reconocimiento de
patrones y correlativas mientras estudia las representaciones gráficas de los datos bajo estudio, y
alejarse de las técnicas cuantitativas que son de naturaleza clásica. Sin embargo, la EDA y las
escuelas de pensamiento clásicas no se excluyen mutuamente y, por lo tanto, pueden complementarse
durante un proyecto de caracterización de yacimientos.
Las correlaciones más fuertes parecen ser con la perforación más superficial y más profunda,
por lo que tendremos que investigar más a fondo para identificar el punto óptimo con respecto a las
profundidades mínimas/máximas para la producción de gas acumulada distinta de cero en 12 meses.
La lectura adicional de la matriz de correlación ilustra las bajas correlaciones entre nuestros dos
parámetros de estudio, los volúmenes de fluido de fractura y apuntalante y la variable objetivo. Ya
hemos identificado ahorros potenciales en OPEX por una reducción en estos parámetros operativos
con una producción de gas comparable. Otra consecuencia beneficiosa es el impacto positivo en el
medio ambiente, ya que la estrategia de fractura hidráulica necesitaría menos arena y agua, lo que
resultaría en menos viajes de camiones y una superficie más pequeña. Estas deducciones deben
estudiarse más a fondo con más visualización para comprender completamente una estrategia de
fractura hidráulica optimizada.
Podemos identificar y cuantificar la influencia de los parámetros operativos sobre la variable
objetivo. Esto nos permitirá construir modelos más precisos en la siguiente etapa del estudio.
Machine Translated by Google
Figura 9.15 El mapa de calor permite la identificación del punto dulce para la perforación
Machine Translated by Google
valores atípicos
Valor máximo
Q3 (percentil 75)
Mediana
Significar
Q1 (percentil 25)
Valor mínimo
Figura 9.16 Gráfico de caja-bigotes que detalla los percentiles veinticinco y setenta y cinco
los valores atípicos de alta producción al perforar para identificar qué pozos contribuyeron a esas
celdas.
La visualización de caja-bigotes es ideal para resaltar las estadísticas descriptivas de las variables
independientes a medida que tratamos de establecer valores potenciales para cada parámetro que
es importante a medida que construimos el modelo predictivo. Es una forma conveniente de
representar gráficamente grupos de datos numéricos a través de sus cuartiles. Los diagramas de
caja suelen tener líneas que se extienden verticalmente desde las cajas (bigotes), lo que indica la
variabilidad fuera de los cuartiles superior e inferior. Los diagramas de caja muestran las diferencias
entre las poblaciones sin hacer suposiciones sobre la distribución estadística subyacente: no son
paramétricos. El espacio entre las diferentes partes del cuadro ayuda a indicar el grado de
dispersión (spread) y sesgo en los datos, e identificar valores atípicos. Es una forma conveniente
de controlar visualmente la calidad de sus datos antes de construir un modelo predictivo.
Un diagrama de caja (Figura 9.16) muestra la distribución de valores para una medida usando
una caja y bigotes. El tamaño y la ubicación del cuadro indican el rango de valores que se
encuentran entre el percentil veinticinco y setenta y cinco.
La información estadística adicional está representada por otras características visuales.
Puede crear celosías y seleccionar si el valor promedio (media) y
los valores atípicos se muestran para cada cuadro.
Un diagrama de burbujas representa los valores de tres medidas mediante el uso de marcadores
(burbujas) de diferentes tamaños en un diagrama de dispersión. Los valores de dos medidas están
representados por la posición en los ejes del gráfico, y el valor de la tercera medida está
representado por el tamaño del marcador.
Un gráfico de burbujas animado (Figura 9.17) muestra los cambios en los valores de sus
datos a lo largo del tiempo. Cada fotograma de la animación representa un valor del elemento de
datos de fecha y hora que se asigna a la función de datos de animación .
Machine Translated by Google
Figura 9.17 Gráfico de burbujas animado que ofrece información sobre una porción temporal de los datos
Figura 9.18 El gráfico de burbujas puede profundizar en una jerarquía para identificar el rendimiento del pozo
Esta visualización detalla algunos pozos con mucho mejor desempeño con cantidades mucho más pequeñas
de apuntalante; ¿Qué indicadores clave de producción diferencian estos buenos pozos de los malos en el
condado de Hood operados por Enervest Operating LLC?
Estamos construyendo algunas características de identificación para el buen y mal desempeño del
pozo. Posteriormente, podemos ratificar estos hallazgos mediante la ejecución de un análisis de conglomerados.
Se están utilizando grandes volúmenes de apuntalante en el condado de Hood con un rendimiento
relativamente bajo en la producción acumulada de 12 meses en comparación con otros condados, como
Tarrant y Johnson, donde se usa menos apuntalante en promedio.
Machine Translated by Google
Figura 9.19 Gráfica animada que investiga las cantidades de apuntalantes contra el desempeño
Aquí vemos de nuevo el condado de Hood en términos de apuntalante por fluido por GPI
valor usado y contenido (vemos que es > 4,8 representando al aceite).
¿Qué estrategia de fracturamiento hidráulico es mejor para la producción de petróleo en comparación
con la producción de gas? ¿Cuáles son las mejores prácticas en el condado de Johnson que parecen
producir de manera más eficiente con un apuntalante promedio comparable por fluido por GPI?
Debemos investigar si el apuntalante se está utilizando de manera eficiente y, de ser así, si
podríamos lograr un nivel similar de producción con una cantidad mucho menor de apuntalante, como lo
implican las visualizaciones anteriores.
Una tabulación cruzada muestra las intersecciones de los valores de categoría y los valores de
medida como texto. Si su tabulación cruzada contiene medidas, entonces cada celda de la tabulación
cruzada contiene los valores de medida agregados para una intersección específica de valores de
categoría. Si la tabla de referencias cruzadas no contiene medidas, cada celda contiene la frecuencia de
Los roles de datos para una tabla cruzada son columnas, filas y medidas. Puedes
asigne una sola jerarquía o cualquier número de categorías a cada una de las funciones de filas y
columnas. Si asigna medidas a la tabla de referencias cruzadas, los valores de las medidas se muestran
en las celdas de la tabla de referencias cruzadas. Si no asigna medidas, las celdas de la tabla cruzada
muestran la frecuencia de cada intersección de valores.
Machine Translated by Google
Hay múltiples sensores en las instalaciones de petróleo y gas que generan un tsunami de puntos
de datos en tiempo real. Estos datos se recopilan invariablemente en un historiador de datos, se
comprimen y luego se procesan por lotes mediante un flujo de trabajo analítico. La Figura 9.22 muestra
un posible flujo de flujos de datos de sensores agregados con otros conjuntos de datos dispares en un
motor de procesamiento de flujo de eventos. Tal motor se enfoca en analizar y procesar eventos en
movimiento o "flujos de eventos". En lugar de almacenar datos y ejecutar consultas contra los datos
almacenados, almacena consultas y transmite datos a través de ellos. Permite el análisis continuo de los
datos a medida que se reciben y le permite actualizar gradualmente la inteligencia a medida que ocurren
nuevos eventos. Una función de coincidencia de patrones innata le permite definir eventos secuenciales
o temporales (basados en el tiempo), que luego se pueden usar para monitorear interrupciones en los
patrones para que las acciones se puedan tomar de inmediato. El motor procesa grandes volúmenes de
datos con extrema rapidez, lo que brinda la capacidad de analizar eventos en movimiento incluso cuando
se generan.
Los datos entrantes se leen a través de adaptadores que forman parte de una arquitectura de
publicación y suscripción utilizada para leer fuentes de datos (Figura 9.23). Un sistema de detección de
alerta temprana aprovecha las metodologías analíticas predictivas que albergan un modelo predictivo.
¿Cómo se construye y opera ese modelo? Primero, necesitamos identificar firmas y patrones en un
sistema complejo multidimensional y multivariable que son precursores de un evento; ese evento podría
ser un fracaso en
Machine Translated by Google
una bomba o una ocurrencia de arrastre de líquido. Se realiza un flujo de trabajo analítico de
causa raíz que extrae todos los conjuntos de datos agregados considerados relevantes para
el estudio para identificar aquellas firmas y patrones que ocurren antes del evento. El análisis
de causa raíz determina indicadores adelantados y atrasados para caracterizar el rendimiento
del sistema en tiempo real. El objetivo es identificar las reglas que son precursoras del evento
en estudio a partir de las ocurrencias de otras
Machine Translated by Google
eventos en las transacciones. Una vez establecido, podemos construir un modelo predictivo, ya sea una
red neuronal, un árbol de decisiones o un modelo de regresión no lineal estándar. También se podría
implementar un híbrido de dichos modelos. Habiendo operacionalizado el modelo predictivo, podemos
abrir las puertas a la avalancha de datos en tiempo real de los sensores a través de los historiadores en
un complejo motor de procesamiento de eventos. El motor maneja flujos de datos en tiempo real. Los
primeros principios o conceptos de ingeniería pueden integrarse en la lógica del motor a medida que los
datos de transmisión se analizan y se dividen en eventos sucintos. Luego, esos datos se pasan al modelo
predictivo para monitorear las firmas y los patrones identificados como precursores de un evento inminente.
Por lo tanto, los modelos predictivos son el núcleo de cualquier mantenimiento predictivo de activos .
flujo de trabajo. Es una solución basada en análisis diseñada para mejorar los tiempos de actividad de
activos cruciales y reducir el mantenimiento no programado, lo que reduce los costos operativos y de
mantenimiento y minimiza las interrupciones de producción relacionadas con el mantenimiento. Para
obtener respuestas a preguntas complejas de E&P, es necesario adoptar un conjunto de flujos de trabajo
de análisis predictivo y descriptivo multipropósito y fácil de usar. Al adoptar EDA y análisis predictivo,
puede:
El estudio de caso del Capítulo 10, “Bombas eléctricas sumergibles para aguas profundas”, amplía
la oportunidad de aplicar un modelo predictivo para evitar fallas en las bombas eléctricas sumergibles.
Simular escenarios
Patrón Mejora del modelo
Biblioteca
Brecha
Vigilancia,
Actuación,
Diagnosticar
Eficiencia
(Partido histórico)
Simular
Tratamiento
Modelos de automatización Alarma de falla
Decisión: tratamiento de estimulación
Colaboración: Metodología
307
Machine Translated by Google
NOTAS
1. DC Hoaglin, F. Mosteller y JW Tukey, eds., Understanding Robust and Exploratory Data Analysis
(Nueva York: John Wiley & Sons, 1983).
2. A. Gelman, "Análisis exploratorio de datos para modelos complejos", Journal of Computational and
Graphical Statistics 13, no. 4 (2004): 755–779.
3. JW Tukey, Análisis de datos exploratorios (Reading, MA: Addison-Wesley, 1977).
4. A. Strehl y J. Ghosh, "Conjuntos de clústeres: un marco de reutilización de conocimientos para
combinar particiones", Journal of Machine Learning Research 3 (2002): 583–617.
5. J.-F. Coste y J.-P. Valois, “An Innovative Approach for the Analysis of Production History in Mature
Fields: A Key Stage for Field Re-Engineering,” SPE 62880, presentado en la Conferencia y Exposición
Técnica Anual de la SPE, Dallas, TX, del 1 al 4 de octubre de 2000.
6. RJ Patton y J. Chen, Robust Model-based Fault Diagnosis for Dynamic Systems (Norwell, MA:
Académico Kluwer, 1999).
Machine Translated by Google
CAPÍTULO 10
Big Data:
estructurados y no estructur
adaptarse a los desafíos de la era digital, está ingresando a una nueva generación de
L a industria del petróleo
transformación. y el gas,
A medida un rendimientos
que los sector conocido poractivos
de los su rápida adopción
se vuelven másy difíciles
capacidad de para
acceder y aún más difíciles de pronosticar, es imperativo que la industria recopile y mantenga sus
datos de manera eficiente.
A medida que las empresas toman petabytes de datos diariamente, es la capacidad de
comprender las tendencias analíticas, para interpretar con precisión todos los datos geológicos, de
ingeniería, de producción y de equipos de manera eficiente y en tiempo real lo que garantiza el
éxito. La capacidad de acceder y obtener información valiosa de sus conjuntos de datos está en el
corazón de la rentabilidad en esta industria, donde su éxito depende de la rapidez con la que puede
pronosticar el potencial mientras mantiene los costos bajos para actualizar ese éxito; no puede
darse el lujo de perderse en los conjuntos de datos.
Big Data es un término popular utilizado para describir el crecimiento exponencial y la
disponibilidad de datos, tanto estructurados como no estructurados. Y Big Data puede ser
tan importante para la industria del petróleo y el gas como lo ha sido Internet para la sociedad.
¿Por qué esto es tan? Más datos pueden conducir a análisis más precisos. Los análisis más
precisos pueden conducir a una toma de decisiones más segura. Y mejores decisiones pueden
309
Machine Translated by Google
2. Velocidad: los datos se transmiten a frecuencias sin precedentes y deben tratarse de manera
oportuna. Las etiquetas, los sensores y la medición inteligente de identificación por
radiofrecuencia (RFID) están impulsando la necesidad de lidiar con tsunamis de datos casi
en tiempo real. Reaccionar lo suficientemente rápido para lidiar con la velocidad de los datos
es un desafío para la mayoría de las organizaciones.
3. Variedad: los datos de hoy vienen en todo tipo de formatos. Las bases de datos tradicionales
albergan datos alfanuméricos estructurados. Hay información creada a partir de aplicaciones
de línea de negocio. Los documentos de texto no estructurados en forma de informes de
perforación diarios, correo electrónico, video, audio y transacciones financieras proliferan a
medida que el yacimiento petrolífero digital expande su presencia en la industria. Administrar,
fusionar y gobernar diferentes variedades de datos es una tarea ardua con la que la mayoría
de las empresas de E&P todavía se enfrentan a medida que los datos en silos upstream
explotan con pozos inteligentes emergentes e iniciativas de campos petroleros digitales.
1. Variabilidad: además de las velocidades crecientes y las variedades de datos, los flujos de
datos pueden ser muy inconsistentes con los picos periódicos. ¿Algo es tendencia en las
redes sociales? Las cargas máximas de datos diarias, estacionales y desencadenadas por
eventos pueden ser difíciles de administrar, incluso más cuando se trata de datos no
estructurados.
2. Complejidad: los datos de hoy provienen de múltiples fuentes. Y sigue siendo una tarea
vincular, combinar, limpiar y transformar datos entre sistemas.
Sin embargo, es necesario conectar y correlacionar relaciones, jerarquías y múltiples
enlaces de datos o sus datos pueden perder rápidamente el control.
El verdadero problema no es que las empresas de petróleo y gas estén adquiriendo grandes
cantidades de datos. Es lo que haces con los datos lo que cuenta. La visión esperanzadora es que
Machine Translated by Google
Los departamentos de E&P podrán tomar datos de cualquier fuente, aprovechar datos relevantes y
analizarlos para encontrar respuestas que permitan:
ÿ Determinar las causas raíz de fallas, problemas y defectos casi en tiempo real,
Encontrar valor en Big Data no se limita a aplicar análisis a masas de información estática. Hoy en día,
las organizaciones necesitan obtener información inmediata de la transmisión de datos en tiempo real. Los
enfoques tradicionales, que aplican análisis después de almacenar los datos, pueden proporcionar
información demasiado tarde para actuar.
El procesamiento de flujo de eventos analiza Big Data de alta velocidad a medida que se reciben.
Esto reduce drásticamente el tiempo de decisión para que pueda tomar esas decisiones críticas a tiempo
para ser más efectivo. Discutiremos un estudio de caso de un campo de aguas profundas para optimizar las
bombas sumergibles eléctricas y, en última instancia, aumentar la producción y evitar períodos de
aplazamiento.
Los datos estructurados son relacionales, ordenados, coherentes y se almacenan fácilmente en hojas
de cálculo y tablas de bases de datos. Los datos no estructurados son su inverso. Son grandes, no
relacionales, desordenados, cargados de texto y no se representan fácilmente en las tablas tradicionales.
Pasemos a los metadatos, un término que está entrando cada vez más en la lengua vernácula de los
negocios. El término metadatos significa, simplemente, datos sobre datos. Meta
es un prefijo que en la mayoría de los usos de la tecnología de la información significa “una definición o
descripción subyacente”. Los metadatos resumen la información básica sobre los datos, lo que puede
facilitar la búsqueda y el trabajo con instancias particulares de datos. Por ejemplo, el tipo de bomba, la
presión, la temperatura y la fecha de creación representan metadatos muy rudimentarios recopilados desde
una bomba eléctrica sumergible.
Tener la capacidad de filtrar a través de esos metadatos hace que sea mucho más fácil para un ingeniero
ubicar un informe específico que puede ser crítico para detallar las firmas de un evento como una falla.
Machine Translated by Google
El análisis de texto (TA) permite a las empresas de petróleo y gas maximizar el valor del texto
electrónico no estructurado procedente de documentos, páginas web, comunicaciones de plataformas,
debates en línea, blogs y otras redes sociales, informes diarios y correos electrónicos. Usando
procesamiento de lenguaje natural (NLP), TA revela la información relevante oculta en grandes
cantidades de documentos.
Los TA son útiles en prácticamente todas las industrias en las que se dedica tiempo a etiquetar
manualmente, asignar categorías o leer volúmenes de documentos. Es imperativo procesar
eficientemente volúmenes masivos de texto, a veces en una amplia gama de idiomas, e integrarse
completamente con otras capacidades de inteligencia empresarial. El análisis de texto también amplía
el valor de las inversiones existentes en sistemas de gestión de documentos y motores de búsqueda.
TA admite una serie de unidades/operaciones comerciales tradicionales que dependen en gran medida
de flujos de trabajo y procesos centrados en documentos, a través de ofertas independientes o
integradas en la industria y las soluciones de línea de negocio.
Enfrentadas con los problemas de Big Data que surgen de la avalancha de contenido no
estructurado, muchas organizaciones luchan por obtener el valor óptimo posible de los datos de texto.
Debido a la ambigüedad y las numerosas formas en que se puede interpretar el texto, no es fácil
discernir, cuantificar, analizar o explotar los conocimientos de los datos basados en texto. Y muchas
organizaciones no pueden combinar información basada en texto con datos estructurados, por lo que
es imposible obtener una vista completa y precisa del activo.
El análisis de texto convierte los datos de texto en un activo organizacional al ayudarlo a evaluar,
analizar, comprender y actuar automáticamente sobre la información oculta en el texto electrónico. Las
capacidades integradas le permiten incorporar la nueva información del análisis de texto en inteligencia
en tiempo real, como nuevas variables para visualización y análisis predictivo, y como metadatos para
otras aplicaciones especializadas de recuperación de documentos. Como resultado, puede tomar
decisiones comerciales más efectivas y proactivas, optimizar las prioridades y producir informes más
significativos.
El análisis predictivo y el análisis de sentimientos no solo brindan información sobre los problemas
existentes, sino que también abordan los imprevistos. En efecto, están sugiriendo nuevas e importantes
preguntas, así como sus respuestas. A través de Big Data, las compañías de petróleo y gas están
identificando problemas, tendencias, problemas y oportunidades que los ingenieros y geocientíficos
simplemente no pueden.
El procesamiento de flujo de eventos permite el análisis continuo de los eventos a medida que ocurren.
Esta actualización incremental de la información permite el análisis de tendencias en tiempo real para
detectar anomalías de forma inmediata. Estas capacidades ayudan a capturar valor
Machine Translated by Google
que de otro modo podría perderse debido al retraso de la información. Proporciona un mayor
rendimiento para la gestión de decisiones en tiempo real. Un motor de procesamiento de flujo de
eventos invariablemente incorpora tecnologías existentes, como procesamiento en paralelo,
procesamiento de kernel en subprocesos y filtros de datos personalizables. También proporciona
soporte nativo para actualizaciones, eliminaciones e inserciones para facilitar el modelado con un
rendimiento mejorado. Es esencial manejar lógica compleja y mejorar la latencia de almacenamiento.
La capacidad de dividir los eventos entrantes le permite conservar el ancho de banda para un mejor
rendimiento, así como generar múltiples rutas de procesamiento para eventos complejos. Un potente
lenguaje de expresión y ventanas de procedimiento proporcionan mejores métodos para manejar una
lógica de procesamiento compleja. Una función sofisticada de coincidencia de patrones le permite
definir eventos secuenciales o temporales (basados en el tiempo), que luego se pueden usar para
monitorear interrupciones en los patrones para que se puedan tomar medidas correctivas de inmediato.
No tiene que esperar a que se ejecuten los trabajos por lotes antes de recibir información crítica.
Los estudios han demostrado que la industria del petróleo y el gas ha experimentado un
crecimiento sustancial en los mercados de recursos no convencionales. Este aumento en el enfoque
no solo ha generado una mayor competencia por los activos, sino también un margen de error más pequeño.
Con proyectos que exigen una tecnología de producción y perforación más cara y cambios profundos
en las regulaciones gubernamentales y los productos básicos, las empresas deben ejercer prudencia
operativa y previsión estratégica para garantizar el éxito.
Tal previsión se puede lograr mediante la adopción de metodologías basadas en datos en todo el
conjunto completo de fuentes de datos, tanto estructuradas como no estructuradas.
Categorización de contenido
El análisis de texto utiliza procesamiento de lenguaje natural y técnicas lingüísticas avanzadas para
analizar automáticamente grandes volúmenes de contenido en busca de entidades, hechos, relaciones
y temas. El análisis del texto crea metadatos, taxonomías documentadas, modelos lingüísticos y
definiciones de conceptos que se pueden aplicar automáticamente a grandes colecciones de
documentos para una clasificación rápida y precisa, descubrimiento de temas, evaluación de opiniones
e información semántica y se utilizan para desencadenar procesos comerciales en tiempo real.
La gestión eficaz del contenido empresarial y como activo estratégico requiere una estructura de
información subyacente común. La categorización de contenido aplica procesamiento de lenguaje
natural y técnicas lingüísticas avanzadas para identificar temas y frases clave en texto electrónico
para que pueda categorizar automáticamente grandes volúmenes de contenido multilingüe que se
adquiere, genera o existe en un repositorio. Analiza, analiza y extrae correctamente el contenido de
entidades, hechos y eventos para crear etiquetas de metadatos que indexan documentos, todo en un
entorno colaborativo de administración de taxonomía. Como resultado, las personas de todas las
disciplinas de ingeniería pueden encontrar rápidamente el contenido relevante que necesitan, cuando
lo necesitan, al nivel de granularidad requerido. es factible
Machine Translated by Google
defina reglas lingüísticas sofisticadas para organizar, indexar y desencadenar actividades de información
dependientes en tiempo real. Esto impulsa una organización de documentos, un acceso, una localización
y un intercambio de conocimientos más rápidos y eficientes, y reduce los gastos generales asociados con
procesos como el etiquetado manual y la indexación retrospectiva.
Con un amplio conjunto de herramientas, sus datos de texto se transforman en un activo reutilizable.
Esto ayuda a facilitar la clasificación de documentos, descubrir asociaciones explícitas entre términos y
documentos, agrupar documentos en categorías y descubrir reglas lingüísticas para obtener nuevos
conocimientos en las colecciones.
Las tecnologías lingüísticas y de análisis avanzadas pueden estandarizar la experiencia en la materia
de su organización. Cuando se definen en el sistema, los documentos se procesan automáticamente según
estas reglas y conceptos basados en el conocimiento.
Luego, los documentos pueden evaluarse en tiempo real, usarse en flujos de trabajo, informes y sistemas
de notificación existentes, y actualizarse a sistemas de transacciones, automatizando la clasificación de la
información.
Mediante la definición de términos semánticos, las relaciones entre colecciones dispares se pueden
asignar de manera coherente a los activos y repositorios de texto existentes. Esto maximiza el valor de las
colecciones de texto de su organización al crear una lente de conocimiento para los almacenes de
información, reforzar la calidad de los datos y traer contenido significativo al frente cuando se examina la
información relacionada. Cuando se utilizan
La categorización del contenido, por ejemplo, es clave cuando se desarrolla una solución híbrida
para un problema de E&P, como la identificación de mecanismos de levantamiento artificial apropiados en
una zona contaminada (consulte la sección siguiente, “Levantamiento artificial”).
Gestión de ontologías
Utilizando tecnologías lingüísticas avanzadas para definir y administrar términos semánticos en colaboración,
un sistema de administración de ontologías asocia texto de diferentes fuentes, sistemas de archivos y
áreas temáticas. Le permite crear relaciones entre entidades, incluidas taxonomías preexistentes y aisladas,
de modo que la experiencia en la materia sobre el uso y el significado pueda integrarse sistemáticamente
en las reglas.
Cuando estas reglas se utilizan junto con el procesamiento de categorización, se recupera el contenido
relacionado para que las consultas devuelvan respuestas relevantes, completas y significativas.
Machine Translated by Google
El análisis de la información de la Web puede requerir mucho trabajo, pero las empresas confían
cada vez más en estas fuentes para descubrir tendencias, oportunidades y riesgos relacionados con
sus productos y servicios a un nivel detallado.
El análisis de opinión ayuda a su organización a comprender rápidamente las opiniones de los
clientes y constituyentes de múltiples fuentes de contenido digital: sitios web, centros de
comunicación, correos electrónicos, formularios, encuestas, archivos internos e informes. Ubica y
analiza automáticamente el contenido digital en tiempo real, luego combina el aprendizaje estadístico
con reglas lingüísticas avanzadas para revelar con precisión los sentimientos centrales expresados
en los datos textuales, evalúa el texto en busca de connotaciones positivas y negativas, incluido el
contenido emocional sutil, y proporciona un desglose detallado que usted puede graficar para
comunicar fácilmente qué significan exactamente los comentarios en relación con el sentimiento y
los cambios generales. Como resultado, puede detectar tendencias antes de que se vuelvan virales
e identificar mejor las prioridades de sus clientes. ¿Todos los informes de perforación están escritos
en un vocabulario o diccionario estándar? ¿Quizás la eficiencia de la plataforma es una correlación
directa con el desempeño individual que puede surgir a través de los informes diarios individuales?
Extracción de textos
Los flujos de trabajo de minería de texto lo ayudan a descubrir información oculta en colecciones de
texto no estructurado. La solución ahorra tiempo y recursos al automatizar las tareas de lectura y
comprensión de textos para obtener nuevos conocimientos. La tecnología analiza automáticamente
el texto, identifica sinónimos, crea recuentos de términos de frecuencia y se puede extraer para
descubrir temas, temas y reglas lingüísticas comunes. Puede impulsar el desarrollo de taxonomías
utilizando el descubrimiento automatizado de reglas booleanas en sus esfuerzos de categorización.
A través de visualizaciones e informes detallados interactivos, puede descubrir patrones previamente
desconocidos en las colecciones de documentos y aplicar esos conocimientos a sus taxonomías o
tableros corporativos. Y como parte de un entorno de minería de datos completamente integrado, los
temas y grupos de texto se estructuran para incluirse en el análisis descriptivo o predictivo.
Al consolidar los datos estructurados existentes con información basada en texto, puede observar
detalles de tendencias, detectar nuevos problemas, enviar alertas sobre problemas potenciales,
predecir la influencia de los términos y marcar nuevos indicadores comerciales de manera más
eficiente y con menos riesgo.
Un sistema híbrido experto y basado en datos abarca una metodología que combina las mejores
prácticas obtenidas de ingenieros experimentados y un flujo de trabajo basado en datos que captura
datos destacados de E&P.
Machine Translated by Google
Levantamiento artificial
Los campos maduros con múltiples pozos activos necesitan en algún momento del ciclo de vida del
campo sistemas de levantamiento artificial. La identificación de pozos candidatos y el sistema adecuado
a implementar en el momento óptimo son factores críticos para explotar eficientemente los recursos del
activo. La extracción de datos históricos a través de un flujo de trabajo de análisis de datos exploratorios
para descubrir patrones y tendencias ocultos permite una comprensión eficiente del espacio de entrada
que puede implicar múltiples variables. Invariablemente, estas variables describen un entorno
multivariante, multidimensional, multivariante y estocástico que no es plausible para los primeros principios
arraigados defendidos por los ingenieros familiarizados con el rendimiento histórico del activo.
Sin embargo, la agregación de las observaciones anotadas por ingenieros experimentados con los
resultados determinados por las técnicas de computación suave proporciona una base de conocimiento
integral a partir de la cual desarrollar estrategias de EOR oportunas y eficientes hechas bajo incertidumbre.
ÿ Diámetro de tubería
AED
Neural
Datos Objetivo La red
Funciones Profético
Impulsado
Modelo
Analítica Georgia Grupo
Análisis
Lógica difusa
Figura 10.1 Sistema híbrido que integra un flujo de trabajo experto y basado en datos
ÿ Tasa de condensado
ÿ Tarifa de agua
ÿ GOR
cabeza de pozo
Presión
[Bajo medio alto]
Producción de gas
Presión de línea
Velocidad
[BajoAlto]
[Bajo medio alto]
Artificial
Sistema de elevación
[NoABC]
La figura 10.2 muestra la red de creencias bayesianas (BBN) para el sistema de aviso de
levantamiento artificial descrito por De la Vega, Sandoval y García.2 Se comprobó que los tres
parámetros más influyentes eran la tasa de gas, la cabeza del pozo y las presiones de línea.
Los nodos de entrada están definidos por un rango de valores que se subdividen en estados
[LowMediumHigh].
El nodo de salida corresponde al sistema de levantamiento artificial apropiado o se define
como no apropiado debido al desempeño adecuado del pozo. Las probabilidades de cada
estado [ABC] se detallan en la tabla de probabilidad condicional (CPT) según lo determinado
por los primeros principios de ingeniería y el conocimiento obtenido de la experiencia.
El flujo de trabajo basado en datos es cada vez más frecuente en la cadena de valor de
E&P a medida que Big Data se acumula en tiempo real, combinando las tecnologías informáticas
blandas, discutidas como un tema común en este libro, con las limitaciones inherentes a los
primeros principios.
De la Vega, Sandoval y García abogan por una técnica de agrupación en clústeres no
supervisada complementada con un flujo de trabajo de visualización que implemente los mapas
autoorganizados (SOM) de Kohonen. El SOM utiliza la distancia euclidiana entre dos puntos
en un espacio de entrada que no solo es multivariante sino multidimensional, cuantificando una
medida de similitud. Cuanto más similar sea la medida, más cerca se ubicarán los puntos en el
maplet o espacio de proyección 2D.
Por lo tanto, los SOM se aplican para identificar un patrón en la toma de decisiones histórica de
Machine Translated by Google
Como se mencionó, los SOM proporcionan una forma de representar datos multidimensionales
en espacios de dimensiones mucho más bajas, generalmente de una o dos dimensiones. Este
proceso de reducción de la dimensionalidad de los vectores es esencialmente una técnica de
compresión de datos conocida como cuantificación de vectores. Además, la técnica de Kohonen
crea una red que almacena información de tal manera que se mantienen las relaciones topológicas
dentro del conjunto de entrenamiento, y este es un factor importante que favorece la heterogeneidad
inherente a los reservorios típicos de los juegos no convencionales.
Como la mayoría de las redes neuronales artificiales, los SOM funcionan de dos modos:
entrenamiento y mapeo. El entrenamiento construye el mapa usando ejemplos de entrada. Es un
proceso competitivo, también llamado cuantificación vectorial. El mapeo clasifica automáticamente
un nuevo vector de entrada.
Un mapa autoorganizado consta de componentes llamados nodos o neuronas. Asociado con
cada nodo hay un vector de peso de la misma dimensión que los vectores de datos de entrada y una
posición en el espacio del mapa. La disposición habitual de los nodos es un espaciado regular en
una cuadrícula hexagonal o rectangular. El mapa autoorganizado describe un mapeo desde un
espacio de entrada de dimensiones superiores a un espacio de mapa de dimensiones inferiores. El
procedimiento para colocar un vector del espacio de datos en el mapa es encontrar el nodo con el
vector de peso más cercano al vector tomado del espacio de datos y asignar las coordenadas del
mapa de este nodo a nuestro vector.
Si bien es típico considerar este tipo de estructura de red en relación con las redes de avance
en las que los nodos se visualizan como si estuvieran conectados, este tipo de arquitectura es
fundamentalmente diferente en disposición y motivación.
El beneficio derivado de la adopción de las metodologías en esta solución es la reducción de la
producción perdida debido a una toma de decisiones más eficiente para identificar un sistema de
levantamiento artificial adecuado en la cartera de pozos de un activo. El conocimiento y la experiencia
capturados de los ingenieros proporciona una herramienta de evaluación automatizada que restringe
los flujos de trabajo basados en datos con un primer paso limitado.
Machine Translated by Google
principios Los ciclos de decisión incluyen no solo datos de producción y procesos, sino también datos
económicos, lo que ofrece una perspectiva holística sobre tácticas y estrategias para una EOR eficaz.
ESTUDIOS DE CASO
Los dos estudios de caso que siguen cubren el análisis de datos estructurados para optimizar el
mantenimiento de bombas sumergibles eléctricas y datos no estructurados para obtener información
importante en el upstream con análisis de texto.
No es raro desplegar bombas eléctricas sumergibles (ESP) muy grandes en los campos marinos más
profundos del mundo para bombear petróleo a la superficie. Estas bombas se instalarán en cajones
ubicados en el fondo del océano a veces en exceso de
10.000 pies por debajo de la plataforma. Si falla un ESP, el impacto financiero podría ser de $200 millones
en pérdida de ingresos y $20 millones en costos de reemplazo. Dado el costo total de una falla del ESP,
el objetivo debe ser definir los parámetros operativos que evitarán daños catastróficos al ESP, incluso a
expensas de pérdidas o tasas de producción más bajas.
La principal causa de falla es el desgaste de los devanados del motor que están diseñados para ser
enfriados por el aceite de producción que fluye a través de la bomba. Hay un bucle de reciclaje que podría
usarse para enfriar. La intención del ciclo de reciclaje es mantener la tasa de alimentación deseada
cuando la producción del pozo cae por debajo de los objetivos.
A veces hay varios ESP, pero el circuito de reciclaje de la parte superior se puede conectar a un solo
ESP a la vez.
El gas se produce invariablemente en los pozos y los sistemas submarinos incluyen un separador
de gas y capacidades de levantamiento artificial por gas. La variabilidad en la producción de gas y de
pozos, combinada con el ESP y las tasas de flujo de levantamiento artificial por gas, puede provocar que
el exceso de gas o el exceso de líquidos provoquen problemas con el separador de gas y el ESP. Estas
condiciones, conocidas como gas over y gas under, se evitan controlando el nivel de líquido en el cajón.
Si el nivel de líquido es demasiado bajo, el gas entrará en el ESP, lo que provocará una pérdida de
calentamiento de los devanados del motor y la cabeza debido a la pérdida del efecto de enfriamiento del flujo de aceite.
Si el nivel de líquido en el cajón es demasiado alto, los líquidos interferirán con el separador de gas. La
formación de espuma causada por el efecto de cascada de los líquidos que caen en el cajón también
puede contribuir a la acumulación de gas y gas por debajo. Otras fallas potenciales del motor incluyen
fallas en los cojinetes, fallas en los sellos y fallas en los fuelles. Se incluyen fuelles en el motor para
manejar la expansión y contracción de los aceites lubricantes del motor que se encuentran al instalar los
motores en el fondo del mar.
También existe la preocupación de que la "mortalidad infantil" o el error del operador puedan
provocar una falla prematura del ESP. La vida útil anticipada de un ESP es de 3 a 5 años, pero
históricamente, las pruebas no han logrado alcanzar esa meta.
Machine Translated by Google
600 43
17
psig 0
5
psig
psig
Trayectoria de flujo
Elevador de gas: Menor
elevación dP y
dP friccional
Gas
Local
Colector
y pozos
ESP
En este estudio de caso, los pozos se agrupan en cuatro áreas en el lecho marino y
se conectan a través de líneas de flujo a colectores que ingresan en la parte superior del
cajón. La Figura 10.4 muestra la trayectoria del flujo de petróleo y gas, y el ESP está
ubicado en el centro del cajón. El cajón se hunde en el fondo del océano con el fondo del
cajón descansando 350 pies por debajo del nivel de lodo del fondo del océano. El gas se
separará de los líquidos en el cajón, y los líquidos fluirán hacia el fondo del cajón donde
se encuentra la entrada del ESP. La salida de líquido del ESP se controla con la velocidad
del motor y fluye a través de una válvula de retención antes de ingresar al elevador de
líquidos, que está conectado al equipo de superficie. El gas se introduce en el elevador de
líquidos entre el ESP y la válvula de retención para ayudar a elevar los líquidos a la
superficie. Se agregan productos químicos en el colector para controlar la formación de espuma en el cajón.
La metodología analítica para la predicción de eventos utiliza datos y estimaciones
estadísticas para sacar a la luz relaciones que explican por qué ocurren ciertas condiciones
o eventos. Esto permite a los ingenieros reemplazar el conocimiento del dominio y el juicio
por la experiencia para identificar reglas y parámetros operativos que se pueden integrar en
los sistemas para proporcionar monitoreo y alertas automatizados.
El procesamiento automatizado utilizado por esta metodología es ideal para analizar
sistemas y entornos complejos e interdependientes que pueden abarcar múltiples
especialidades laborales y de ingeniería.
Machine Translated by Google
Los historiadores que recopilan los datos de los sensores de las bombas constituyen la principal
fuente de datos para este análisis.
Los objetivos específicos incluyen lo siguiente:
ÿ Eficiencia ESP
Los historiadores contienen alrededor de 150 sensores que monitorean varios aspectos del
desempeño del ESP. Sensores adicionales en el sistema monitorean otros aspectos del sistema en
general. Se podrían agregar otros conjuntos de datos en función de la función objetivo. Se pueden
crear muchas variables adicionales mediante cálculos simples o complejos.
La adopción de modelos estadísticos multivariados basados en datos nos permite capturar los
efectos que explican la variación en la eficiencia real frente a la teórica, como se muestra en la Figura
10.5. Esos efectos son una cuantificación de las correlaciones explícitas en los datos. Algunos de los
efectos son ostensiblemente aparentes y bien comprendidos, pero otros son más sutiles, ya sea a
corto o largo plazo por naturaleza.
La aparición automática de estos efectos permite mejorar la vigilancia en tiempo real.
Machine Translated by Google
Una importante empresa de petróleo y gas implementó un flujo de trabajo que se inició con
análisis de texto para recopilar conocimientos sobre activos y equipos a partir de la plétora
de datos en bruto no estructurados que se detallan en los informes diarios. La extracción
de información de las notas de campo escritas por los ingenieros de perforación permitió
determinar un conocimiento más sólido basado en la exploración de los síntomas y la
identificación de patrones y relaciones ocultas que no surgieron en una lectura casual.
Dichas determinaciones permitieron que se promulgaran estrategias de mitigación efectivas
basadas en una metodología analítica de causa raíz plausible de los datos sin procesar
contenidos en los informes.
Un flujo de trabajo de categorización de contenido (Figura 10.6) desarrolla múltiples
categorías; cada uno contiene su propio conjunto de reglas basadas en palabras clave,
frases, lógica booleana, expresiones regulares basadas en la proximidad, partes del
discurso o combinaciones de las mismas. Los ingenieros pueden definir la jerarquía de
categorías y subcategorías desde una perspectiva de dominio o incluso derivarla
estadísticamente a partir de metodologías de regresión lineal o no lineal.
Figura 10.7 Proceso de derivación para identificar las raíces de múltiples grafías de una palabra
Figura 10.8 Asociaciones de términos implementadas para determinar las causas raíz de los problemas
Las asociaciones de términos (Figura 10.8) se utilizan para descubrir las causas fundamentales
de los problemas identificados, como la falla de una bomba. La exploración del contexto de la redacción.
Machine Translated by Google
y nomenclatura específica son considerados. En este caso, el término problema está asociado con el
"control de nivel" y, en última instancia, con un problema con el estabilizador y el rehervidor.
Los datos sin procesar textuales se transformaron en un formato estructurado para una eficiente
análisis exploratorio de datos. Los informes de Compressor se extrajeron para crear un conjunto de
datos jerárquico que contenía variables categóricas para eventos, detallando los activos y los
síntomas informados. ¿Los cierres fueron planeados o no planeados? Profundizando en la categoría
"Trabajo de averías", fue factible visualizar las categorías de fallas representadas en la Figura 10.9.
Un recorrido posterior de la jerarquía destacó las subcategorías que enumeran las fallas
mecánicas, como se muestra en la Figura 10.10.
El nivel jerárquico más bajo corresponde al texto sin procesar tomado del informe de campo
diario, que muestra los comentarios textuales originales ingresados por los ingenieros. Luego, los
datos no estructurados se fusionaron con datos estructurados dispares de todos los silos de ingeniería
ascendentes para producir un conjunto de datos más rico.
Luego podrían implementarse otras metodologías analíticas usando
Machine Translated by Google
Figura 10.11 Relaciones de las superficies de la matriz de correlación desde una perspectiva bivariada
computar modelos basados en datos para abordar múltiples problemas comerciales cuantificados
por la incertidumbre.
Las categorías se extrajeron de los datos no estructurados y se agregaron con los datos
estructurados apropiados. Luego se generó una matriz de correlación (Figura 10.11) para visualizar la
identificación de importantes relaciones y tendencias ocultas en el espacio de entrada.
Los activos como válvulas, tuberías, compresores, bombas, intercambiadores de calor y líneas
de flujo se pueden investigar a través de un flujo de trabajo de minería de texto que captura todos los
valores de datos destacados de los informes diarios enriquecidos por la integración de conjuntos de
datos estructurados adicionales. Al identificar los síntomas de fallas del compresor en una herramienta
de visualización inmersiva en 2D y 3D, los flujos de trabajo analíticos de datos exploratorios identifican
rápidamente la frecuencia de los problemas informados, como fugas o altas presiones o temperaturas.
Al acumular estas observaciones críticas y cuantificar la incertidumbre y el impacto estadístico en
una función objetiva como el desempeño, es plausible diseñar un modelo basado en las firmas
históricas de un sistema multivariante que pronostica o predice problemas. Luego, las soluciones de
ingeniería se pueden implementar de manera oportuna después de haber determinado la causa raíz
de las fallas inherentes con un tiempo de anticipación que surge de las firmas de coincidencia de
patrones de múltiples parámetros independientes y dependientes.
La Figura 10.12 ilustra líneas de tendencia para ciertos temas/categorías bajo exploración. La
previsión es entonces un flujo de trabajo factible para identificar problemas emergentes antes de que
ocurran.
Por lo tanto, el análisis de texto es apropiado para convertir datos no estructurados en datos
estructurados siguiendo un flujo de proceso a través de la categorización, el análisis de sentimientos
y la extracción de texto. Hay patrones y relaciones temáticas que deben surgir de la plétora de
revistas, libros, informes diarios y correos electrónicos.
Machine Translated by Google
Industria y Dominio 5
Pericia Profético
Modelado
3a
5
1 Categorización Visualización y
Estructurado (Taxonomía)
2 4
Datos & Minería de Informes
Enriquecido
Textual texto y
Datos Exploración 3b
conjunto de datos
5
Sentimiento Analítico
Análisis Soluciones
5
Ad hoc
Análisis
329
Machine Translated by Google
impacto en la función objetivo determinada a priori para reflejar el (los) problema(s) de negocio
en estudio.
GEOESTADÍSTICA MULTIVARIANTE
La geoestadística es, por tanto, una rama de la estadística que se centra en conjuntos de
datos espaciales o espaciotemporales. Desarrollado originalmente para predecir distribuciones
de probabilidad de leyes de minerales para operaciones mineras, actualmente se aplica en
diversas disciplinas, que incluyen geología del petróleo, hidrogeología, hidrología, meteorología,
oceanografía, geoquímica, geometalurgia, geografía, silvicultura, control ambiental, ecología
del paisaje, suelo la ciencia y la agricultura. La geoestadística se aplica en diversas ramas de
la geografía, en particular las que involucran la propagación de enfermedades (epi demiología),
la práctica del comercio y la planificación militar (logística) y el desarrollo de redes espaciales
eficientes.
Los algoritmos de interpolación deben abordar el principio básico inherente a la mayoría
de los ambientes depositacionales donde tanto las características geológicas como
Machine Translated by Google
Además, los resultados se pueden expresar desde una perspectiva probabilística, lo que
permite la cuantificación de la incertidumbre, la provisión de datos de simulación de flujo
fundamentales e imperativos y la mitigación del riesgo potencial. Y este es el gran valor de la
simulación: le permite probar diferentes escenarios e investigar el comportamiento de una
propiedad de yacimiento para una variedad de configuraciones de continuidad y bajo diferentes
selecciones de parámetros.
Con las numerosas realizaciones que se pueden producir potencialmente a partir de un solo
conjunto de datos, puede clasificar y realizar un procesamiento posterior para determinar el grado
de incertidumbre en los modelos.
Machine Translated by Google
El ciclo cerrado ilustrado en la Figura 10.15 refleja una iteración eficiente de pasos en un flujo
de trabajo de Big Data.
IDENTIFICAR/
FORMULAR
EVALUAR/ PROBLEMA
DATOS
MONITOR
PREPARACIÓN
RESULTADOS
DESPLEGAR
MODELO DATOS
EXPLORACIÓN
VALIDAR
MODELO TRANSFORMAR
& SELECCIONE
CONSTRUIR
MODELO
Formular problema
Preparación de datos
Los datos se deben ejecutar a través de algunos flujos de trabajo de control de calidad de datos
para imputar valores faltantes, segregar valores atípicos, filtrar cualquier ruido (ya sea coherente
o aleatorio) y generar parámetros de datos blandos adicionales a partir de los datos duros
medidos en el campo. Los puntos de datos experimentados e impulsados por el usuario deben
encapsularse, ya que las metodologías basadas en datos empleadas posteriormente deben
estar restringidas por los primeros principios y conceptos de ingeniería. Los grandes conjuntos
de datos se ejecutan invariablemente en los petabytes y, por lo tanto, una arquitectura que
permite cargar dichos datos en la memoria mejora el análisis posterior, ya sea de naturaleza
exploratoria o predictiva.
Exploración de datos
Durante el paso de análisis de datos exploratorios, debemos emplear varios flujos de trabajo
que implementen el conjunto de gráficos y diagramas de visualización inmersiva de Tukey para
descubrir patrones ocultos e identificar correlaciones. Esencialmente un estudio de sensibilidad,
nos permite reducir la dimensionalidad del espacio de entrada complejo, multivariante y
multivariante. Necesitamos entender aquellos parámetros que tienen mayor influencia e impacto
estadístico en la función objetivo reflejada por una o más variables dependientes.
Transformar y Seleccionar
Este paso complementa el flujo de trabajo de preparación de datos posterior al análisis de datos
exploratorios. Brinda la oportunidad de transformar parámetros individuales de una distribución
normal a log-normal, y así sucesivamente. El paso de selección implementa flujos de trabajo
basados en PCA o análisis factorial que nos permiten afinar las variables independientes más
importantes.
Construir modelo
La construcción de un modelo o modelos abre la puerta a múltiples soluciones que deben ser
valoradas para determinar el modelo más adecuado. Estos modelos son
Machine Translated by Google
impulsado por datos, incorporando cualquier restricción introducida por los primeros principios.
Deberíamos implementar varios modelos diversos ya que la calidad y el tamaño de los datos influyen
en el éxito de ciertos tipos de técnicas y modelos de computación suave:
ÿ Regresión logística
ÿ Regresión
ÿ Redes neuronales
ÿ Regresiones no lineales
ÿ Modelos lineales mixtos
ÿ Bosque aleatorio
ÿ Árbol de decisiones
Validar modelo
Es de suma importancia desarrollar un marco para administrar los modelos predictivos y garantizar
la validez de todos los modelos, especialmente después de que cada modelo se actualice con nuevos
datos. Los metadatos que describen los modelos aseguran su integridad y utilidad.
Implementar modelo
1. Brechas de rendimiento: una desviación estadística del historial operativo a largo plazo.
Esta no es una alerta predictiva.
2. Alarma predictiva: una coincidencia con un modelo de falla que proporciona una advertencia anticipada
de un problema
2. ¿Condujo a un problema?
3. ¿Qué acciones de remediación se tomaron?
5. ¿Muestran los datos una posible causa raíz que se pueda promulgar?
Machine Translated by Google
Analítico
Raíz
Causa
Conocimiento
Creación de modelos/
falla
Modelo Refinamiento
Diseño de Activos
Biblioteca
Revisión
Vigilancia
Resultados de laboratorio
Configuración de activos
335
Machine Translated by Google
En el nivel alto, el modelo predictivo respalda las capacidades de tres categorías diferentes:
Es ideal para monitorear el desempeño del modelo predictivo sin tener que extraer datos, resaltando así
dinámicamente esos hallazgos basados en los KPI existentes o reglas comerciales de ingeniería establecidas
para garantizar alertas correctas.
También es importante distribuir los resultados en forma de documentos, hojas de cálculo o presentaciones
a los perfiles apropiados para garantizar una remediación efectiva y atención a cualquier alerta.
Hasta ahora hemos discutido varias técnicas de computación blanda, como las redes neuronales artificiales
(ANN), la lógica difusa (FL) y los algoritmos genéticos (GA). De forma aislada, cada uno tiene méritos
inherentes, pero un poder combinatorio es plausible cuando se estudian las diferentes metodologías que
implementan dos o más técnicas en un solo flujo de trabajo. Resumamos tanto las fortalezas como las
debilidades propias de cada enfoque y aprovechemos esa puntuación arbitraria para definir combinaciones
efectivas (Figura 10.17).
Es evidente que ningún método de computación simple se destaca como el omnipotente para abordar
todos los problemas aguas arriba. Sin embargo, si podemos compensar la debilidad de un método aplicando
la fuerza inherente de un método alternativo, nos acercaremos más a alcanzar ese nirvana analítico. Debido
a la consiguiente complejidad resultante de la integración de estos métodos, conviene enumerar algunos
ejemplos que fructifican y actúan como coadyuvantes para formular propuestas de valor upstream.
Estudiemos dos ejemplos en el upstream en detalle.
no linealidad A A A
Tolerancia a fallos A A A
Cuantificación de la incertidumbre A A A
Capacidad de autoaprendizaje A D B
Capacidad de optimización B D A
El primer enfoque híbrido combina una red neuronal artificial y una lógica difusa. Ambos son
estimadores esencialmente numéricos o matemáticos sin modelo.
Cuando el espacio de entrada es complejo, incierto, multivariante, multivariante y estocástico, le
corresponde al ingeniero adoptar una metodología que combine los beneficios de los algoritmos ANN y
FL. Por lo tanto, no se requiere un modelo matemático a priori para describir las relaciones entre los
espacios de entrada y salida. El sistema neurodifuso (NF) resultante se implementó para determinar el
contenido orgánico total (TOC) a partir de una serie de registros de pozos. Kamali y Mirshady5 centraron
su estudio en la cuantificación de materia orgánica debido a su importancia en el control de la generación
de hidrocarburos.
La Figura 10.18 ilustra la implementación de las tres reglas antes mencionadas seguidas de tres capas
adicionales:
Capa 3. Combinación de fuerzas de disparo. Si varias reglas difusas tienen la misma clase de
consecuencia, esta capa combina sus fuerzas de disparo. Invariablemente, se implementa el
conectivo máximo.
Capa 4. Esta capa específica incluye la salida difusa de las clases. Estos valores reflejan el nivel
de coincidencia entre la entrada y la clasificación.
Capa 5. Defuzzificación que muestra la mejor clase coincidente para la entrada como clase de
salida.
Machine Translated by Google
Y Máximo
X1 A1 O
Selector
Clase 1
A2
Regla
Lingüístico Conectivos
Variables Clase Difuso
X2 Etiquetas Producción
B1
y
B2 Clase 2
Regla Producción
fuzzificación defuzzificación
Inferencia Clases
Figura 10.19 Datos de registro proyectados en los primeros tres componentes principales
datos con menos dimensiones, mientras que se introdujo el análisis factorial para deducir
un modelo explicativo de las correlaciones entre los datos de registro.
La figura 10.19 ilustra la transformación de los datos de registro del pozo en tres
componentes principales donde las puntuaciones de los componentes principales tienen
una varianza igual al valor propio correspondiente. La bola de arco permite una visualización
más sencilla del diagrama de dispersión girado en 3D. Se representan las tres clases de
porosidad: cavernosa, primaria y microfracturas.
La parte FL del flujo de trabajo creó funciones de pertenencia difusa que conservaron
seis características principales que abarcan los atributos principales utilizados para describir
la estructura de porosidad de los datos de registro. Al visualizar los datos obtenidos en el
espacio de los tres primeros componentes principales, vemos que las tres clases de
porosidad están parcialmente separadas y pueden considerarse como clases difusas
intersectadas entre sí.
Cada clase borrosa se consideró como una unión de tres gránulos borrosos, y los
gránulos borrosos se determinaron como resultado de la intersección de los correspondientes
Machine Translated by Google
El algoritmo GA se implementa para determinar los planos óptimos que separan diferentes
clases. Cada plano está definido por tres parámetros (a, b, c) y para cada miembro de la
población, representado por el triplete (a, b, c), se calcula una función F1 y F2 (asociadas a C1 ,
C3 , respectivamente). como una función de aptitud. Se seleccionaron aproximadamente 20
trillizos con la aptitud máxima como grupo élite y, posteriormente, se generó una nueva población
mediante operaciones de cruce y mutación para determinar un nuevo grupo élite. El GA demostró
ser una herramienta de optimización eficaz para determinar los límites de las diferentes clases.
Este flujo de trabajo híbrido no requiere suposiciones previas para construir un modelo a
partir de los datos duros representados por los registros de pozos. Sin embargo, como técnica
de reconocimiento de patrones, es esencial contar con un conjunto de datos de entrada de
calidad controlada que sea representativo de la complejidad dada de un yacimiento.
NOTAS
1. Kevin B. Korb y Ann E. Nicholson, Inteligencia artificial bayesiana (Boca Raton, FL: CRC Press,
2003).
2. E. De la Vega, G. Sandoval y M. García, "Integrating Data Mining and Expert Knowledge for an Artificial Lift Advisory
System", SPE 128636, Conferencia y exhibición de energía inteligente, Utrecht, Países Bajos, 2010.
Glosario
ADW
Almacén de datos analíticos personalizado para almacenar aquellos parámetros considerados
críticos para posteriores metodologías analíticas avanzadas.
ANA
En informática y campos relacionados, las redes neuronales artificiales son modelos
computacionales inspirados en los sistemas nerviosos centrales de los animales (en particular, el
cerebro) que son capaces de aprendizaje automático y reconocimiento de patrones. Por lo general,
se presentan como sistemas de "neuronas" interconectadas que pueden calcular valores a partir
de entradas alimentando información a través de la red.
ANOVA
El análisis de varianza es una colección de modelos estadísticos utilizados para analizar las
diferencias entre las medias de los grupos y sus procedimientos asociados (como la “variación”
entre grupos).
AVO
Variación en la amplitud de la reflexión sísmica con cambio en la distancia entre el punto de
disparo y el receptor que indica diferencias en la litología y el contenido de fluidos en las rocas por
encima y por debajo del reflector. El análisis AVO es una técnica mediante la cual los geofísicos
intentan determinar el espesor, la porosidad, la densidad, la velocidad, la litología y el contenido
de fluidos de las rocas.
BHA
Un conjunto de fondo de pozo es un componente de una plataforma de perforación. Es la parte inferior de la sarta de
perforación, que se extiende desde la broca hasta la tubería de perforación. El conjunto puede constar de collares de
perforación, subs como estabilizadores, escariadores, amortiguadores, abridores de agujeros y el sub de broca y la broca.
BHP
La presión, generalmente medida en libras por pulgada cuadrada (psi), en el fondo del pozo. Esta
presión se puede calcular en un pozo estático lleno de fluido con la ecuación:
donde BHP es la presión de fondo del pozo en libras por pulgada cuadrada, MW es el peso del
lodo en libras por galón, Depth es la verdadera profundidad vertical en pies y 0.052 es un factor de
conversión si se usan estas unidades de medida.
343
Machine Translated by Google
344 ÿ GLOSARIO
BI
La inteligencia empresarial es un conjunto de teorías, metodologías, arquitecturas y tecnologías
que transforman los datos sin procesar en información significativa y útil para los negocios.
propósitos de ness.
gastos de capital
Los gastos de capital son gastos que crean beneficios futuros. Se incurre en un gasto de capital
cuando una empresa gasta dinero ya sea para comprar activos fijos o para aumentar el valor de un
activo fijo existente con una vida útil que se extiende más allá del año fiscal.
CDP
En la adquisición sísmica multicanal donde los lechos no se inclinan, el punto de reflexión común
en profundidad en un reflector, o el punto medio cuando una onda viaja desde una fuente a un
reflector a un receptor. En el caso de capas planas, el punto de profundidad común está verticalmente
debajo del punto medio común.
CEP
El procesamiento de eventos es un método para rastrear y analizar (procesar) flujos de información
(datos) sobre cosas que suceden (eventos) y derivar una conclusión a partir de ellos. El procesamiento
de eventos complejos (CEP) es un procesamiento de eventos que combina datos de múltiples
fuentes para inferir eventos o patrones que sugieren eventos más complicados.
circunstancias.
CRM
La gestión de las relaciones con los clientes es un modelo para gestionar las interacciones de una
empresa con los clientes actuales y futuros. Implica el uso de tecnología para organizar, automatizar
y sincronizar ventas, marketing, servicio al cliente y servicios técnicos.
apoyo.
DCA
El análisis de la curva de declive es una determinación empírica de las curvas tipo con base en
datos históricos de producción para pronosticar el desempeño del pozo y estimar la recuperación final.
DHI
En sismología de reflexión, un punto brillante es una anomalía local de atributo sísmico de gran
amplitud que puede indicar la presencia de hidrocarburos y, por lo tanto, se conoce como indicador
directo de hidrocarburos.
QUITARSE
Los yacimientos petrolíferos digitales del futuro se definen por la forma en que la industria petrolera
implementa su tecnología, personas y procesos para respaldar la optimización de la producción de
hidrocarburos, mejorar la seguridad operativa, proteger el medio ambiente y maximizar y descubrir
reservas.
exploración y producción
Cadena de exploración y producción que cubre todos los pasos del upstream: exploración,
evaluación, desarrollo, producción e intervención.
AED
En estadística, el análisis exploratorio de datos es un enfoque para analizar conjuntos de datos
para resumir sus principales características, a menudo con métodos visuales.
Machine Translated by Google
GLOSARIO ÿ 345
EOR
La recuperación mejorada de petróleo es un término genérico para las técnicas para aumentar la cantidad
de petróleo crudo que se puede extraer de un campo petrolífero.
ERP
La planificación de recursos empresariales proporciona una vista integrada en tiempo real de los procesos
comerciales centrales, utilizando bases de datos comunes mantenidas por un sistema de administración de bases de datos.
ETL
EUR
FFT
Una transformada rápida de Fourier es un algoritmo para calcular la transformada discreta de Fourier (DFT)
y la inversa. Una transformada de Fourier convierte el tiempo (o el espacio) en frecuencia y viceversa; una
FFT calcula rápidamente tales transformaciones.
Florida
La lógica difusa es una forma de lógica de muchos valores; se trata de razonamientos aproximados en
lugar de fijos y exactos. En comparación con los conjuntos binarios tradicionales (donde las variables
pueden tomar valores verdaderos o falsos), las variables de lógica difusa pueden tener un valor de verdad
que oscila entre 0 y 1.
Georgia
SIG
GOSP
HSE
MDM
En los negocios, la gestión de datos maestros comprende los procesos, la gobernanza, las políticas, los
estándares y las herramientas que definen y gestionan de forma coherente los datos críticos de una
organización para proporcionar un único punto de referencia.
MPP
346 ÿ GLOSARIO
ONM
El efecto de la separación entre receptor y fuente en el tiempo de llegada de un reflejo que no se hunde.
OLAP
En informática, el procesamiento analítico en línea es un enfoque para responder rápidamente consultas
analíticas multidimensionales.
TNP
Tiempo improductivo.
OOIP
El aceite original en el lugar es el contenido total de hidrocarburos de un yacimiento de petróleo y, a menudo,
se abrevia STOOIP, que significa aceite original en el lugar del tanque de almacenamiento, o STOIIP para
aceite del tanque de almacenamiento inicialmente en el lugar, en referencia al petróleo en el lugar antes del
comienzo de la producción . .
OPEX
Un gasto operativo es un costo continuo para ejecutar una estrategia de petróleo y gas a lo largo de la
cadena de valor de exploración y producción.
OWC
El contacto con el agua es un término utilizado en la industria de los hidrocarburos para describir la
elevación por encima de la cual se pueden encontrar fluidos distintos del agua en los poros de una roca.
En la mayoría de las situaciones en la industria de hidrocarburos, el término se califica como contacto
agua-petróleo (OWC) o contacto agua-gas (GWC). A menudo también hay un contacto gas-petróleo
(GOC).
PCA
El análisis de componentes principales es un procedimiento estadístico que utiliza la transformación
ortogonal para convertir un conjunto de observaciones de variables posiblemente correlacionadas en un
conjunto de valores de variables linealmente no correlacionadas llamados componentes principales.
PDM
Abreviatura de motor de desplazamiento positivo, un motor de fondo de pozo utilizado en el campo petrolero
para impulsar la broca u otras herramientas de fondo de pozo durante la perforación direccional o
aplicaciones de perforación de alto rendimiento.
Parcela QQ
En estadística, una gráfica Q-Q (Q significa cuantil) es una gráfica de probabilidad que es un método
gráfico para comparar dos distribuciones de probabilidad trazando sus cuantiles entre sí.
SAGD
El drenaje por gravedad asistido por vapor es una tecnología mejorada de recuperación de petróleo
para producir petróleo crudo pesado y betún.
SMP
El multiprocesamiento simétrico implica una arquitectura de hardware y software de computadora
multiprocesador donde dos o más procesadores idénticos se conectan a una sola memoria principal
compartida, tienen acceso completo a todos los dispositivos de E/S y están controlados por
Machine Translated by Google
GLOSARIO ÿ 347
una sola instancia de sistema operativo que trata a todos los procesadores por igual, sin reservar ninguno para funciones especiales
propósitos
MOS
SOR
La relación vapor-aceite es una métrica utilizada para cuantificar la eficiencia de los procesos de recuperación
de aceite en función de los tipos de inyección de vapor.
TOB
Torque en bit.
MENEO
El proceso de inyección WAG tiene como objetivo extraer más petróleo de un yacimiento. Originalmente tenía
la intención de mejorar la eficiencia de barrido durante la inundación de gas, con chorros intermitentes de agua
y gas diseñados en general para seguir la misma ruta a través del
reservorio.
WOB
El peso sobre la broca es la cantidad de fuerza hacia abajo ejercida sobre la broca y normalmente se mide en
miles de libras.
Machine Translated by Google
Machine Translated by Google
Sobre el Autor
349
Machine Translated by Google
Machine Translated by Google
Índice
enlace promedio 87
19, 227, 343 Análisis AVO 343
metodologías analíticas 180–183 flujo de Atributos AVO 69
351
Machine Translated by Google
352 ÿ ÍNDICE
Red de creencias bayesianas (BBN) 318, 318f inteligencia de negocios (BI) 3, 37, 41,
344
umbral de comportamiento 237 Mayordomo, R. 154
realización de beneficios, en embalse
simulación 117 C
ÍNDICE ÿ 353
354 ÿ ÍNDICE
módulo de minería de datos 216, 216f, yacimientos petrolíferos digitales del futuro (DOFF)
226–231, 226f monitoreo de datos alrededor de 2, 25
datos 57f, 58–59 reducción de datos 51 Valoración de la distancia al modelo 80, 80f
detección distribuida en el fondo del pozo (DTS)
repositorios de datos 45–49 154
Deming, WE 312 dendograma 86, 87f despliegue Modelo de ley de potencia de Duong 235, 236
de modelos 334, 336 datos relacionados con la
profundidad 180 Descartes, R. 293 tarea de mi
ÍNDICE ÿ 355
evaluación de resultados 336 procesamiento extraer, transformar y cargar (ETL) 345 proceso de
de flujo de eventos 304, 305f, 311, 312–313 extracción 50–52
evolución 9–10 algoritmo evolutivo 338 sistemas
expertos 8 análisis de exploración 22, 23f, 24 F
propuestas de valor de exploración y producción factores, ponderación 127
(E&P) Transformada Rápida de Fourier (FFT) 76, 345
Legislación federal, como metodología
analítica avanzada 182
adaptación feed-forward 157 Pocos, S.
275 segmentación de campo 268–269
356 ÿ ÍNDICE
GRAMO
agrupamiento jerárquico 86–88, 88f, 268, 268f
rayos gamma 122, 123f García, análisis de alto rendimiento
M. 318 levantamiento artificial
yo
Si-entonces 127
H
Nodo de imputación
Haajizadeh, M. 243–244 Hafez,
228 análisis en base de datos 16–17
HH 243–244 Halbouty, MT 176
agregación de información, en gestión de
Haldorsen, HH 176–177 Umbral
datos 180 disponibilidad de información,
HardShrink 76 mapas de calor 71f,
en gestión de datos 180 estrategia de
288–289, 288f, 298, 298f patrones
gestión de información (IM) 41
ocultos, descubrimiento en datos
especialista en tecnología 30 plataforma de
información, en gestión de datos 41–44
141
ÍNDICE ÿ 357
142
358 ÿ ÍNDICE
221f, 269–270 O
perspectiva multidimensional 43, 43f, 142, 143f relleno 237–242 análisis de yacimientos
perspectiva multivariante 42, 42f, 142 análisis gestión de evaluación de yacimientos petrolíferos 23f,
geoestadística multivariante 330 –332 perspectiva gestión de datos de yacimientos petrolíferos 22, 23f
redes neuronales 12–13, 64, 258–259, 258f contacto agua-aceite (OWC) 64, 346
sistema neurodifuso (NF) 337, 338f neuronas procesamiento analítico en línea (OLAP) 46, 346
320
gestión de ontologías 314
Newton, I. 3 Conectividad abierta (OPC) 54
nodos 121, 137, 320 inteligencia operativa, en comparación con
Ver también nodos inteligencia empresarial 41 tecnología
específicos solucionador de optimización no operativa (OT) 53–54,
lineal 249 curva de producción no lineal 241 53f
regresión no lineal y OPEX 346
transformación 266–267 región óptima de levantamiento artificial por gas
tiempo improductivo (TNP) 247f, 249 optimización de pozos de petróleo con inyección de gas
ÍNDICE ÿ 359
de árbol de partición 137, 137f reconocimiento Análisis de componentes principales (PCA) combinado
en gestión de datos 45 calificadores de 267 para predecir las propiedades del yacimiento
cambio de fase 80 aproximación agregada por atributos sísmicos singulares 90–98, 94f, 95f
datos de producción
360 ÿ ÍNDICE
ÍNDICE ÿ 361
de patrones 81–85
nodo raíz del árbol 121, 137 identificación de características 71f, 85–86
Russom, págs. 33, 34–36, 46–47 análisis de una sola traza 70–81
362 ÿ ÍNDICE
ÍNDICE ÿ 363
arquitectura de implementación 189, 189f Tukey, JW 228, 266, 275, 293, 296,
Multiprocesamiento simétrico (SMP) 346– 333
tu
T procedimiento UCM 101
Taggart, IJ 239 Taner, incertidumbre, cuantificación de 19 evaluación
MT 68 análisis de de incertidumbre 237 factores de incertidumbre
texto (TA) 312, 324–330, 327–328, 328f 117, 120–121 mejores prácticas de terminación
minería de texto 315 zonas de robo 302 no convencional 165–173 estimación de
reservas no convencionales
hacia abajo (TDIRM) 116 torque 43 torque on bit límite de control superior (UCL) 134, 134f análisis
(TOR) 347 contenido orgánico total (TOC) de datos aguas arriba alrededor de 2
337 relaciones de atributos de trazas 73f análisis
de conglomerados de trazas 74f comparación de Big Data 2–3
trazas 73f, 74f análisis de datos tradicional 114– modelos basados en datos 4–5
364 ÿ ÍNDICE
(VLT) 142 volumen 34, 34f, 310 volumetría gestión de pozos 183f
238, 269–270 optimización de pozos 234f
propiedades de pozos 180
tipos de pozos 199–212 Wells,
W HG 276 White, R. 92 William,
Walden, A. 92 MA 239 Wong, PM 239 flujos
Algoritmo de Ward 87, 202 de trabajo
Warren, J. 185
contacto con el agua 346
corte de agua y distribución de fracturas en Vea la gestión de la carga de