Está en la página 1de 24

empezar viendo un poco lo que es la geología no sé si bien nuestra rama

como profesionales geólogos involucra muchos procesos verdad procesos endógenos

y exógenos procesos de formación de cordilleras la erosión el magnetismo justamente

que permite la mineralización en muchos lugares en muchas zonas de interés luego para

una posterior explotación minera nosotros hemos estudiado y caracterizado para poder

entender mejor cómo es que funciona este sistema y justamente como profesionales

entender dónde podemos encontrar son las minerales dónde podemos encontrar zonas

de yacimientos de petróleo y gas entonces de esa manera es nuestra formación bomba

pero cuando hablamos de machine learning tratamos de cuantificar mucho las variables

que están involucradas si bien a simple vista son bastantes conceptos teóricos

y categóricos si vamos un poco más profundo y tratamos de entender los procesos

físicos nos vamos a encontrar como algo como lo que se ve en la siguiente

diapositiva por ejemplo la primera ecuación que se ve en la parte superior la que está

en blanco de fondo blanco es la función de costo de una red neuronal entonces cuando

nosotros tenemos una red neuronal tenemos que reducir el error para poder ser más

cercano la predicción que lo que realmente está ocurriendo en la realidad por ejemplo

tenemos ecuaciones físicas del comportamiento de una onda bueno tenemos acá los

fenómenos geológicos que ocurren y en cada proceso que nosotros

conocemos teóricamente están involucrados muchos procesos físicos procesos físicos

que pueden ser cuantificados pero que necesita ser entendido bajo un

concepto matemático y no solamente se necesita primero entender ese concepto

matemático porque posteriormente también debemos expresar lo bajo un lenguaje

de programación para poder implementarse por ejemplo como mencioné la imagen

superior indica la función de costo la función de error que debe ser minimizada para

poder generar en una red neuronal un valor predicho y que sea semejante a la realidad


en líneas abajo vemos el código en lenguaje de programación necesario para

implementar esta esta ecuación de red neuronal donde la función de costo como ven no

es tan simple como pareciera verdad pero justamente por eso es que es una caja negra y

por eso es que muchos hablan de que como puedes entender ese todo ese proceso que

está dentro para poder hacer predicciones y modelados entonces a continuación vamos a

tratar un poco de darles luces para entender qué es lo que está sucediendo dentro de todo

este proceso vamos a ver más in learning en la geología los tipos de aprendizaje los

algoritmos que tenemos lineales ensamblados y no lineales el ciclo del match in

learning y una aplicación en mecánica de rocas que está asociado a minería empecemos

con algún poco de introducción al machine learning actualmente seguro muchos de

ustedes han escuchado acerca de la detección de rostros los asistentes de voz el

reconocimiento de caracteres los sistemas de recomendación como es netflix e incluso

programas de inteligencia artificial que han han superado al mejor jugador del mundo

en juegos como el ajedrez o el alfa esos son aplicaciones algunas de las aplicaciones que

actualmente hay de la inteligencia artificial también sabemos de la robótica también

también sabemos de aplicaciones en la medicina para poder detectar cuando una

persona tiene cáncer o no a partir de las imágenes que se tiene de rayos-x sin embargo

que tenemos también en geología vamos a vamos a ver el ejemplo de la derecha que es

el golero challenge' que fue organizado este año por el gobierno australiano cuyo fin era

encontrar sondas minerales a partir del uso de técnicas de análisis de datos y

the machine learning como aprendiz traje automático es decir ya tanto las empresas

mineras transnacionales e importantes en el mundo así como entidades del estado

muy fuertemente relacionados a la minería que están invirtiendo y están haciendo este

tipo de eventos para poder aplicarlos a la minería y a la exploración en este caso la

geología de exploraciones para poder encontrar zonas de interés entonces empecemos


con un pequeño ejemplo de predicción de rocas ígneas en base a los componentes que

tienen óxidos estas rocas en si bien tenemos un dato assets en este caso con 1.677 filas

y distintas columnas nuestro objetivo es predecir la columna litología el cual está

codificado como cada tipo de roca como un valor numérico vamos a predecir este valor

mediante el uso de algoritmos y machine learning previo tratamiento y transformación

de datos pero como lo vamos a hacer vamos a utilizar distintos algoritmos de

machine learning como los mencionados en la imagen de la derecha y vamos a hacer

un modelamiento y vamos a aplicar una re muestreo y técnicas para poder generar una

predicción como los valores indicados en la parte del inferior esto solamente es un

ejemplo de los de uno de uno de los cuantos he traído el día de hoy para mostrar para

poder presentarles a ustedes pero vayamos con más antes de empezar a ver lo que

hay dentro de él maxim learning por ejemplo en este caso vamos a ver un ejemplo

de predicción de fases tenemos el bien conocido que cuando se hacen los trabajos de

exploración petrolera se hacen perforaciones y se tiene que hacer el uso de sensores

para ver la respuesta geofísica y asociar al conjunto una fácil segmentaria

entonces nosotros podemos reconocer qué tipo de fase estamos sobre la cual

estamos presentes en base a la formación como vemos en este dato a ser vemos el

nombre del taladro el nombre elwell name la profundidad y los datos que los nos dan los

sensores geofísicos y podemos asociarlo a un tipo de fases e inventar ya como los que se

observan en la última columna denominada fácil ahora si esto bien es entendido desde

un punto de vista geológico nosotros también podemos aplicar un programa the machine

learning que nos permita predecir las fases a partir netamente de los datos que se han

obtenido previamente es decir con esta base de datos yo puedo generar un programa que

me predica fáciles solamente teniendo los los datos de entrada como lo son las

del nombre de la formación y los datos de los sensores y al final que es lo que puedo


obtener puedo obtener resultados como el siguiente por ejemplo como se ve en la parte

izquierda tenemos los tipos de fáciles como dolomita el circo medrano grueso de largo

fino el mus stones el paxton las areniscas el sein y el hueso no y tenemos valores de

precisión valores de récord y valores de métrica llamada f1 estos son términos técnicos

que se utilizan para medir la métrica de cuánto es la precisión de nuestro programa

the machine learning por ejemplo en este caso tenemos una métrica de 69 que se

la quiera así no solamente se puede generar las métricas mediante este tipo de

de método utilizando aquiles hay distintos métodos sin embargo esto solamente es

a manera de ejemplo de lo que se puede hacer veamos otro ejemplo más de aplicaciones

si tenemos la configuración tectónica de una margen convergente o de un intraplaca

volcánico como bien es conocido como 'la o como geólogos sabemos está asociado a un

tipo de magma que tiene ciertos componentes y elementos que definen justamente a

ese tipo de margen convergente o configuración tectónica entonces nosotros podemos

en base a los componentes que están asociados hacer un aprendizaje automático que nos

prendía que nos prediga bajo qué configuración nos encontramos y qué es lo que vamos

a generar finalmente como se ve generamos una precisión del 90 por ciento para

intra plata volcánico y 78 para margen convergente pero de dónde salen todos estos

números que son estas predicciones que estamos haciendo que a la larga nos van a

servir para tratar para tener interpretaciones y tomar decisiones al momento de hacer

nuestros estudios en búsqueda de un valor económico para nuestro trabajo o en nuestro

beneficio estamos viendo que a partir de la base de datos estamos generando

predicciones pero el problema es o mejor dicho la pregunta es cómo es que esto

está sucediendo hay una caja negra que es justamente el proceso de la de el análisis

matemático el análisis de datos la las técnicas de programación las herramientas y todo

eso está introducido está dentro de esta caja negra no que es la que vamos a tratar
nosotros de abrir para poder entender entonces hemos visto tres ejemplos de aplicación

de machine lanín en la geología pero en realidad lo que hemos visto son solamente la

base de datos y las predicciones no sabemos qué es lo que está adentro y justamente

esta caja negra es el más interno que nos va a permitir obtener esos resultados entonces

la pregunta que es el maxilar ni seguro muchos de ustedes conocerán tendrá un

compañero programador o tal vez algunos de ustedes son programadores y han visto

que tienen que tener datos y escribir muchos códigos para generar un programa a

diferencia de la programación tradicional que funciona de esa manera el match in

learning introduce tanto la data de entrada como el resultado que quieres predecir es

decir si yo quiero saber cuándo es la ley de oro en tal posición y tengo que tener la

data asociada a esa ley y también el valor que yo quiero obtener yo le voy a introducir

ambos datos tanto mi variable objetivo como mis variables independientes que me van a

permitir generar y obtener esa variable objetivo y vamos a generar a partir de

eso nuestro programa de maxine learning eso es la manera como funciona el maxilar el

programa es un resultado de la interacción de los datos de entrada y salida a partir de la

caja negra o black box que hemos estado viendo en los ejemplos de imaginarnos

aplicado en la geología que acabamos de mostrar entonces viendo más a detalle

nosotros hemos generado un programa y luego tenemos que validarlo y como

lo validamos mediante un testeo es decir traemos nueva data y vemos efectivamente si

nuestro programa the machine learning está funcionando cuando es la tasa de predicción

que es tan acertado y que tanto sirve y qué utilidad tiene y para eso están las métricas tal

como los hemos vistos en los ejemplos anteriores ahora entonces ya estábamos

entendiendo un poco mejor vamos a lo que hemos hecho es introducir nuestras variables

de entrada que eran los componentes en óxido del para el ejemplo de predicción de

rocas y también nuestro tipo de roca y lo que el proceso de machine learning hacía es


generar un programa de aprendizaje automático de predicción de rocas también hemos

visto el ejemplo de las fases también podemos generar bajo el mismo concepto

insertamos los datos de entrada que nos permiten predecir las fases que en este caso

eran los sensores geofísicos y el nombre de la formación y el nombre del pozo y

generamos generábamos un programa que te permita encontrar en qué fases e inventario

se encuentran o de igual manera para el de configuración tectónica es importante tener

el concepto de que existen tres tipos de aprendizaje pero nos centraremos en dos porque

son los que más aplicados a la geología el supervisado y el no supervisado en

el aprendizaje supervisado que son los ejemplos que hemos visto anteriormente hace un

momento nosotros decimos al programa cuál es la variable objetivo que queremos

predecir es decir indicamos cuál es nuestra variable de interés y cuáles van a ser

nuestros datos de entrada independientes para generar el programa the machine

learning podemos resolver mediante esta técnica de aprendizaje problemas de

regresión donde la función representa a los datos o un problema o resolver problemas

de clasificación justamente para separar clases como el de tipo de mitologías o este tipo

de fases e inventarios o el de tipo de estructura de marco tectónico a diferencia del

aprendizaje no supervisado donde nosotros nos indicamos al programa the machine

learning cuál es nuestra variable objetivo a diferencia de este en el aprendizaje no

supervisado nuestro objetivo es encontrar patrones es decir asociar valores numéricos

por ejemplo podríamos asociar variables geoquímicas de tal manera de encontrar la

asociación de ciertos metales económicos a otros componentes minerales y de esta

manera interpretar y poder hasta acercarnos a una predicción de donde posiblemente

puedo tener el mineral de interés o el metal de interés no mediante aprendizaje no

supervisado por clusterización y la esterilización significa agrupamiento y búsqueda

de patrones recordar y recalcar que el aprendizaje no supervisado está estado centrado


principalmente en el sentido de que no tiene un tarde no hay una variable que se desea

predecir es en búsqueda de patrones generalmente luego entramos al dis berlin en el

deeb learning está introducido dentro del margen learning pero es una técnica

una herramienta que trabaja con volumen de data mucho más grande muchas veces

mayor que el de machine learning y por esto permite obtener predicciones mucho

más elevadas podemos tener predicciones más certeras y trabajan a un nivel multicapa

donde solamente para indicar si antes trabajábamos con un algoritmo de

machine learning en el de planning podemos trabajar cada neurona pues

estaría trabajando como un algoritmo de massey learning internamente que a partir

de por ejemplo una un algoritmo voy a mencionar que es el de regresión logística

transformando uno por uno cada uno el proceso de los datos de entrada es un algoritmo

son modelos más complejos que trabajan a nivel multicapa entonces una vez que hemos

entendido que estamos hablando del aprendizaje de máquinas hay tipos de

aprendizajes supervisados no supervisados y un nivel más profundo y trabajando con

algoritmos más complejos tenemos al deep learning vamos a ver qué algoritmos

están asociados tenemos gran cantidad de algoritmos tenemos algoritmos de

deep learning algoritmos ensamblados redes neuronales algoritmos de regresión vallès

ya nos árboles de decisión basados en instancias clustering y en realidad hay muchos

algoritmos acá para mencionar pero vamos a centrarnos solamente en algunos porque si

no no nos avería tiempo la presentación para poder explicar todos los algoritmos de

machine learning empecemos con los algoritmos de aprendizaje supervisado

y específicamente con algoritmos lineales 1 algunos de los algoritmos lineales

que podemos mencionar en este caso son los de regresión lineal el ritz regresión el lazo

y el elastic net estos cuatro algoritmos son algoritmos lineales para resolver problemas

de regresión y están asociados a encontrar una función lineal que representa el


comportamiento de nuestros datos ahora porque son diferentes esto va asociado a la

función de coste o función de error dónde vamos a cambiar la norma que es un término

matemático donde como medimos nosotros la que tan certero es la predicción de

acuerdo al valor real creo que es entendible mediante el gráfico que buscamos nosotros

minimizar esa distancia entre los puntos azules que son los datos y las predicciones

que están dadas por la recta en línea roja pero no solamente con algoritmos lineales

podemos resolver problemas de regresión también podemos resolver problemas de

clasificación por ejemplo los algoritmos de regresión logística y lineal discrimine

el análisis nos permiten resolver problemas de clasificación en este caso la clasificación

binaria que es el de regresión logística y el del lineal discriminar análisis trabaja bajo

otro modelo matemático que es el de distribución de oceana cada explicar cada tipo de

algoritmo involucra todo un proceso matemático y todo un proceso de análisis tal

como vimos en el segundo slide que hay funciones de costos que deben ser reducidas

hay hiper parámetros que están dentro de la configuración de cada algoritmo y deben ser

entendidos con un mayor detalle para poder justamente implementar los algoritmos no

lineales tenemos los de acá vecinos cercanos y tenemos los neiva yes hoy también

los tenemos a los sub por vector ma jin y los árboles de decisión y clasificación estos

son solamente algunos recuerden que hemos visto la imagen inicial de algoritmos

hemos visto aproximadamente unos 50 algoritmo de machine learning sin embargo

estamos mencionando los principales o los que son más usados generalmente en el

algoritmo de cada vecinos cercanos nosotros podemos predecir una variable en base a

sus vecinos cercanos dada la redundancia debido a que ese dato nuevo va a

ser clasificado dependiendo del paquete para que una persona elija si uno elige el

k igual a uno es el nuevo valor va a tomar el valor de aquel dato que está adyacente a él

a ese único dato pero si lo recogemos un dato de acá igual a 3 o caigo a la 5 da igual a
7 al tener varios datos alrededor de nuestro nuevo dato que queremos predecir va a

tomar aquel que esté en mayor abundancia aquel que predominen si tenemos más datos

de color azul que de color rojo entonces nuestro nuevo nuestro nuevo dato que

queremos predecir va a ser tomado como un dato azul por esto toma los k vecinos

cercanos está basado en la distancia también tenemos el rey valles que está basado en

la probabilidad valenciana y se aplica para problemas de clasificación tenemos el the

support vector machine que construye hiper planos de alta dimensión y podemos

aplicarlos para clasificación pero también en regresión tenemos lo tenemos los árboles

de decisión que en base a las ramas se le llama ramas justamente por eso viene

el nombre de los árboles de decisión generamos cuál es la mayor probabilidad es decir

dentro de las ramas cuál fue el caso que más veces se predijo se predijo que más veces

iba a ocurrir un cierto evento entonces ese va a ser la predicción porque hay

mayor predominancia a ese caso no ahora también tenemos aún faltan debo decir que

aún faltan muchos algoritmos acá por mencionar que estoy dejando pero estos son

algunos de los principales temas de presentación se podría hablar de esta manera un

poco más sencilla también tenemos los algoritmos ensamblados acá podemos encontrar

a los algoritmos vos ting ting ting que también son todo un complejo un enmarañado de

procesos que involucran en sí un algoritmo ensamblado al uso de distintos algoritmos de

machine learning es decir podríamos utilizar los algoritmos no lineales algoritmos

de cada vecinos cercanos support vector machine árbol de decisión podríamos trabajarlo

todos ellos ensamblados como un nuevo conjunto y estos se le denominan justamente

algoritmos ensamblados o de conjunto y tenemos en la imagen en la presencia de

un algoritmo tipo 2 tingo tipo donde estamos viendo cómo se hacen las predicciones

bajo un modelo en nuestro data set pero cuando generamos un error se vuelve a entrenar

con el modelo nuevamente sobre los resultados del anterior modelado es decir hacemos


un primer ejecución de un algoritmo de machine learning tenemos una predicción pero

los errores son corregidos porque volvemos a ejecutar un modelo de imagine learning

que no necesariamente tiene que ser el mismo y volvemos a ejecutar otro modelo hasta

que el error tiende a ser total prolonga sin tópico y ya no podemos mejorar más la

predicción de nuestro modelo mediante el uso del algoritmo ensamblado este es

solamente un ejemplo de cómo podemos ejecutar los algoritmos ensamblados también

tenemos algoritmos ting y babín veamos ahora algoritmos de aprendizaje no

supervisado como mencioné los no supervisados se basan en tratar de predecir los

patrones que están internos dentro de nuestros datos es decir podemos cluster izar

y agrupar nuestros datos en base a similaridad entre ellos empecemos con el cummings

basados en la distancia entre el dato y el centro y uno tiene que elegir cuántos centros

hay en este caso tenemos dos centros y vamos a clasificar de acuerdo a la distancia

hasta minimizar el error que pueda generar en los agrupamientos que tenemos a

partir de cada centro y en este caso estamos cambiando la posición de los centros

y generamos dos grupos volvemos a caracterizar y volvemos a generar dos grupos dos

agrupaciones utilizando el algoritmo de cummings el algoritmo de caminos es

solamente uno de los algoritmos de aprendizaje no supervisados porque tenemos mucho

tal como se un mostrado en la primera es line de algoritmos y cómo se ve para tal vez

poder entenderlo mejor en la imagen de la izquierda vemos cómo va cambiando de

posición el centro y de hasta generar cuatro agrupaciones y esas cuatro agrupaciones

son mis cuatro clusters y las cuatro agrupamientos que estoy generando queremos

entenderlo más veamos la imagen de la derecha donde el centro se cambia con calles de

iteración para generar los agrupamientos este método de camino se está basado en las

instancias pero más allá del hecho de aplicar algoritmo de machine learning que están

muy asociados al concepto matemático al concepto de distancia al concepto de error


estadísticos es importante el criterio del geólogo y cada persona que va a querer usar

el match in learning porque depende de la persona en que va a utilizar esas herramientas

porque las herramientas están ahí y depende ya de la creatividad del geólogo en este

caso donde aplicarlos por ejemplo en este caso yo lo estoy aplicando imágenes de

secciones delgada de roca donde quiero agrupar justamente la imagen de sección

delgada en base a sus colores de interferencia de tal manera de poder encontrar bajo qué

número de colores de interferencia son mejor para mí tomarlo de tal manera que yo

pueda luego ejecutar digamos una automatización en el análisis de imágenes es bien

sabido que dentro de una imagen han visto al microscopio a veces se ocurre un cambio

de tonalidad debido a los colores de interferencia o al corte que tuvo el cristal mineral

al momento de ser puesto en la platina para poder ser observado al microscopio

sin embargo si nosotros plaster izamos a distancia vamos a etiquetar todos los colores o

las ligeras variaciones de tono como un solo color y podemos generar que ya nuestro

automatización un programa de automatización en las imágenes de roca sea más certero

ya que ya no va a tomarlo como si fueran distintos elementos sino como si fuera un solo

elemento agrupado y esto lo podemos utilizar utilizando a hacer utilizando el algoritmo

de cummings o son algoritmos son algunas aplicaciones tanto las tres primeras que he

mostrado como la que estoy mostrando ahora que los he hecho por mí mismo como

parte de proyectos personales pero en sí depende de cada persona para ver en qué

puede utilizarlos o en qué puede aplicarlo ahora vamos a ver el algoritmo de

redes neuronales que son un algoritmo de hitler ning que trabaja con una neurona no por

eso que se le llama el redes neuronales porque tiene el concepto de que llega la

información desde los brazos hasta una neurona que va a recibir la información de todos

esos valores de entrada y lo va a ponderar y va a usar una función no lineal y generar

una salida cuando vimos en la primer segundo es una función bien enorme esa era la
función de error que debería ser minimizada para que nuestra predicción sea correcta

en una red neuronal siendo muy muy simplista sería de la siguiente manera tienes

valores de entrada se ponderan pero hay una distorsión en la ponderación para generar

un nuevo una nueva salida de cada neurona que luego va a ser una entrada para las

siguientes neuronas ahora y esta vez hemos sido hemos avanzado ahí transversalmente

pero queda todavía el espacio de cómo hacer un programa de maxine la domingo cómo

abrir ese dato primero que nada tenemos ese problema primero que nada tenemos que

definir cuál es el problema cuál es nuestra variable a definir cuál es lo que queremos

resolver queremos predecir cuánto mineral hay en una lugar queremos predecir si es que

una zona es económica o no queremos predecir si va a haber una vez un deslizamiento

en el talud en una determinada zona en realidad los procesos actuales de ingeniería ya

han resuelto gran cantidad de los problemas pero eso no quiere decir que no se

pueda optimizar hay muchos procesos que pueden ser optimizados y automatizados

entonces ahí es donde el match in learning puede entrar y resolver y mejorar los

procesos que existen entonces vemos un problema y vemos un método y tratamos de

optimizarlo o automatizar lo como hacemos primero que nada analizamos nuestros

datos y los preparamos porque tenemos que hacer una serie de pasos de tratamiento de

datos que justamente es parte de bueno del curso que estamos lanzando con 9 min era

ver cómo hacer ese tratamiento de datos y transformación de datos aplicados a

la geología y posteriormente aplicar los algoritmos de machine learning

primero transformamos nuestros datos y luego modelamos con machine learning

para generar finalmente hacer una mejora de nuestros resultados mejorar un proceso

o hacer una nueva predicción que es nuestro objetivo entonces dentro del análisis

y tratamiento y transformación de datos hay gran cantidad de problemas presentes como

valores nulos selección de principales características modelos sobre ajustados


problemas de dimensiones el re muestreo la transformación las métricas son muchos

problemas y cada problema involucra el uso de una herramienta de programación en

lenguaje de payton por ejemplo para poder resolver por ejemplo en la imagen de

la derecha vemos como nuestras predicciones están mal ajustadas en la parte izquierda

en la parte del medio están bien ajustadas este problema de clasificación y estas de

regresión y en la parte de la derecha está sobre ajustada que también está

incorrecto porque lo sobre ajustes generan error al momento de hacer nuevas

predicciones pero también tenemos que ver cómo vamos a configurar nuestro orden

cuántos votos van a servir para entrenar y cuántos datos van a servir para validar es

algo muy importante que tiene que hacer y es parte también del proceso de

transformar trabajo con los datos antes de hacer el programa the machine learning ahora

veamos la red neuronal petro gráfica que es un trabajo que en el cual todavía estoy

ejecutando lo pero me gustaría compartir con ustedes nosotros conocemos estamos bien

en el ejemplo una imagen de una roca y estamos viendo cómo se ve en sección

delgada ahí hay una situación no tendría una pregunta para ustedes podemos predecir el

comportamiento macroscópico de una roca a partir de sus

características microscópicos ya esa pregunta se lo hicieron científicos o estudiosos

conocidos en geología en otros países y han llegado unas respuestas muy interesantes

que si se puede se puede predecir las variables macro a partir de las

características microscópicas y en realidad eso es algo que en el fondo como geólogos

sabemos que está implícito porque obviamente si tenemos son la defoliación o

contextura dentro de nuestra roca estas zonas son zonas de debilidad que necesitan ser

que justamente por esa zona se van a fracturar porque son zonas débiles entonces

nosotros ya lo sabíamos pero como lo cuantificar cómo cuantificar que se va a

fracturar por ese lugar no entonces vamos ya a hacer valores más exacto vamos
a cuantificar este tipo de predicciones predecir características macro a partir de

características microscópicas y que vamos y cómo lo vamos a lograr vamos a analizar

esas características microscópicas por ejemplo cada grano mineral y en un área tiene un

perímetro tiene una angulosidad tiene una consistencia en una sección

delgada encontramos la proporción entre los granos y la matriz también tenemos

un digamos un largo mayor y un largo menor asociados al ancho y al largo

tenemos distintas características que podemos extraer de cada grano del mineral

dentro de una sección de la y esas características nos van a permitir predecir una

característica macroscópica como por ejemplo la resistencia a la compresión y axial

o también llamada ss entonces a partir de una sección delgada yo voy a predecir cuáles

se luce es una roca pero como no como como como a cómo va esa idea bueno estoy

trabajo y ya lo hicieron howard y roland bueno son antecedentes del trabajo en realidad

que se hizo con juego howard y roland en 1987 donde ellos crearon un parámetro

llamado coeficiente textural que estaba basado en la sharia el perímetro los

parámetros de sección delgada y que justamente esos parámetros tenían una alta

correlación con el u s s es decir los parámetros de roca vista al microscopio tienen

una alta correlación con un parámetro macroscópico como ese luces es decir variables y

acaba la idea porque justamente es una idea que yo estoy he estado trabajando tengo

datos de entrada tiene su mira datos de entrada la característica del mineral dentro de

la roca en el microscopio y que de mira todo target quien mi objetivo que mi variable

que quiero predecir ese luce ese osea si bien el trabajo de los tours de jóvenes roland

son muy muy buenos y definitivamente tienen gran resultado y es lo que le digo va el

criterio teológico tiene todo el contexto para poder armar un programa the

machine learning porque porque tengo mi datos de entrada y tengo mi valor de

salida porque no trato de mejorar las predicciones que se tienen por ejemplo estas son


sus predicciones y luce ese experimental exo en un laboratorio geomecánico

un laboratorio de mecánica de rocas nos da un valor de 53 puntos 71 y el estimado es de

55 en este caso tenemos 27 puntos 91 y estimado 27 tenemos valores relativamente muy

parecidos muy cercanos el error es mínimo no tenemos valores menores al 6% sin

embargo también muy rara vez pero si se ha ocurrido tenemos valores como el 15 o el

20 por ciento y nosotros sabemos que no podemos tener esa clase de errores ya que es

peligroso porque estamos usándolo para un diseño de digamos de repente un puente o

alguna aplicación entonces el trabajo está bien hecho pero por qué no aplica la

inteligencia artificial y optimizar eso de aliado dado que tenemos todo no tenemos

las imágenes en roca tenemos en ustedes ya puedo aplicar ahí una red neuronal o puedo

aplicar de repente otro programa o puedo aplicar este una regresión lineal una regresión

logística un rick regresión un lazo elastic net o simplemente redes neuronales

yendo digamos una herramienta más compleja para obtener mejores

predicciones entonces a eso va vamos a predecir características macro a partir

de características microscópicas en este caso la característica macro es el parámetro de

roca y las características microscópicas son mis datos independientes que tenemos que

predecimos se luce ese a partir de las otras variables como el área el perímetro la

proporción gran y matriz la angulosidad la redondez y generamos un programa que es

capaz de predecir cuánto s luce ese a partir de justamente las variables en sección

delgada entonces qué es lo que estamos generando estamos generando un programa que

produce predice para características microscópicas a partir de características

microscópicas y ahora para aquellos que están asociados lo están trabajando en

mecánica de rocas ustedes saben que no solamente se habla de luz e s hay variables

como el ángulo de ficción el cape y no sé incluso el luces está asociado con el word

index hay muchas hay bastante con correlación entre nuestras variables de roca que
sus en minería entonces si había correlación entre ustedes en word index también habrá

correlación entre el grano en la longitud del grano del área del gran del perímetro la

angulosidad y el word index también habrá la asociación con el café y con el ángulo de

fricción podríamos generar unas redes neuronales que te permitan predecir todas

esas otras variables entonces eso queda a la pregunta y en realidad a ser ejecutado nada

más porque se necesitaría más que todo data primero que nada pero viene de un sentido

lógico y teniendo ya los resultados previos hechos por distintos científicos e ingenieros

profesionales magíster doctores sabemos que si hay esa correlación porque los datos y

los estudios ya se han hecho y si hay la correlación hay la dependencia entre variables

de salida y variables de entrada podemos generar un programa pero en este caso el

programa del modelo matemático ya no sólo generaría tu manualmente programando y

hoy usando bastante matemática lo haría la inteligencia artificial la inteligencia artificial

que generaría el programa para predecir entonces ahí vemos cómo estamos generando

nuevos métodos y nuevo conocimiento en los primeros ejemplos que viví

puse inicialmente eran digamos aplicaciones más directas que estábamos

viendo digamos cosas que ya se conocen sin embargo está estamos yendo un poco

más allá ya generando nuevos métodos nuevos procedimientos y tal vez no

sea cambiando lo que se conoce no lo conocido anteriormente con los

nuevas tendencias hoy preguntas creo ya vale entonces nosotros qué aplicaciones hay

actualmente en la geología y en la geología podemos aplicar para el reconocimiento

de mitologías tal como hemos visto en base a fotos de cordón ahí hay incluso una

empresa que está haciendo previsión de en lo veo no lo veo a partir de las imágenes hay

otros que hay publicaciones sobre el reconocimiento de mineralización de oro invisible

detección automática de fracturas en todo con ma jin lámina mapeo de mapeo

geoquímico prospectividad mineral como el concurso que les dije que fue organizado


por el gobierno australiano identificación de características geológicas en cubos

sísmicos en petróleo se viene usando bastante también el tema the machine

learning entonces ya ya hay varios publicaciones papers y autores que están

haciendo trabajos de massimilano y en geología y la conclusión es que estas

herramientas de inteligencia artificial más in learning y de blair ning están

siendo utilizadas porque es que estamos en el tiempo donde todas las condiciones se dan

para que pueda suceder eso porque porque tenemos tenemos gran cantidad de datos los

datos ahora abundan los datos están en enormes cantidades las mineras manejan grandes

cantidades de base de datos y tenemos también la capacidad computacional para

procesarlo tenemos la herramienta de la nube tenemos las herramientas de los

procesadores las máquinas y perú son más resistentes tienen gran capacidad entonces lo

que pasa es que actualmente se dan las condiciones para poder hacerlo y que más otra

conclusión importante es que uno puede ser un capo imagine learning pero no es

suficiente para poder generar un programa the machine learning se necesita el expertise

o el conocimiento del geólogo así es que está aplicado a la geología obviamente porque

bajo en la inteligencia artificial va a aprender de ti de la persona que está haciendo el

programa o sea tu conocimiento va a ser implementado para generar ese programa de

imaginarme así es como funciona depende depende del criterio que tenga la persona y

obviamente si es que dominas las herramientas puedes hacer más cosas lo que es decir

lo que es es una herramienta entonces podemos optimizar procesos podemos

automatizar procesos y podemos generar nuevo conocimiento y tal vez un nuevo

proceso como el último problema que hemos visto de predecir características macro a

partir de de parámetros microscópicos entonces eso es y estamos en la época donde

como repito que tenemos gran cantidad de datos y la tecnología necesaria para poder

hacer este uso de inteligencia artificial entonces gracias por su atención y solamente


invitarlos bueno ya esta apertura do hacer recordar que está personado apertura del

curso de machine learning aplicado a la geología minas junto con bueno el apoyo de 9

minera y pues nada quédate en todas sus preguntas muchas gracias aldo por tu

interesante presentación sin duda hoy en día el match in learning la inteligencia artificial

aplicada astrología minería es un una oportunidad que nos preguntaba mucho antes de la

presentación si es que para un geólogo para un ingeniero de minas es necesario conocer

esta herramienta es necesario por ejemplo el saber programar o el saber de machine the

learning o ir más allá deep learning la inteligencia artificial entonces primero que

primero antes de leerla las preguntas que están haciendo los asistentes los participantes

de este webinar quería saber tu opinión acerca de su algo qué opinas de que por

ejemplo hoy en día un geólogo un interior de mina que aprenda programación

aprenda machine learning es necesario no lo es tanto como lo es tú bueno yo creo que

más que necesario es como si digamos el geólogo o el minero tiene una capacidad no

sabría cómo cuantificar su capacidad pero el hecho de aprender más in learning el hecho

de aprender de programación multiplica sus capacidades porque es decir

obviamente como he escuchado y hablado con muchos profesionales y me dicen mira

yo sé hacer todo esto pero creo que se podría ser mejor si hiciéramos esto o sea todos

tienen ideas que quieren hacer pero es como que lo de no dejar ahí en su mente yo creo

que esto sería mejor si si hiciéramos donde acabó yo a mí ya te recomiendo que hicieras

esto me parece muy bien yo trabajo en esta área pero no lo hacen dicen pero no lo hacen

ahora con la herramienta de la programación ellos pueden hacerlo todo o sea cada una

cada persona puede hacer esas ideas que tienen las puede hacer y pueden mejorar un

proceso puede ser más rápido puede presentarse lo a su jefe o puede presentarlo a la

empresa puede generarle un aumento o un ascenso o simplemente para facilitar el

trabajo tal vez algo que le tomaba hacer varias horas hacerlo ahora y menos tiempo y
solamente utilizar nuestras herramientas de programación y demás in learning y bueno

si es que él desea puede presentarlo no sé después a la empresa para mejorar o el si todo

lo que la persona se le ocurra ya lo puede implementar porque esa es la ventaja de la

programación que te deja a ti crear crear modificar e incluso los programas que se

utilizan en geología y minería por ejemplo el libro de lárguese trabajan con lenguaje de

para esto si es que digamos domina muy bien su programa de modelamiento también

pueden implementarlo en este dentro de sus usos de sus softwares para ser más rápidos

y optimizar su proceso de esquí es decir lo que va a hacer es mejorarlos mejorar todas

sus capacidades eso es lo que ese es mi punto de vista mi perspectiva de la

programación y el magín learning sí gracias al 2 claro también conversamos hace unos

días atrás con una agrupación de jóvenes dinero y es un club para las nuevas

generaciones el conocer esta herramienta ha dado que cuando llegan a la industria

pueden ofrecer una alternativa a la forma como se desarrolla actualmente un proceso

bien voy a comenzar con las preguntas jorge arriagada preguntando cuál es el tuit box

básico para ser machine learning a toolbox en que sé a qué se refiere exactamente las

herramientas y le vamos pedir a jorge a ver si puede especificar un tanto esa

pregunta cuál es la herramienta o el conjunto de herramientas básicas para hacer

más ching learning podría leerse un tanto en el jazz a la pregunta pero de que esperemos

que la especifique y luego cerró donde hay algo vamos a pasar con la siguiente pregunta

de diego el pregunta a quien lenguajes de programación se usan actualmente en el match

in learning por ejemplo en machine learning se utiliza el python se utiliza bastante el r

también para el hecho del tratamiento de datos de esos son los principalmente usados

hay otras personas que utilizan también el octavo pero python es el que está por

digamos un refundando en dentro de todos los programas de machine learning y

también el xerez por el tratamiento de datos porque justamente ven para hacer


un programa the machine learning es muy importante y vital el tratamiento de datos uno

tendría que ser su base de datos perfecta para que no necesites hacer un tratamiento de

datos así que tanto erc como python son los programas los lenguajes de programación

recomendados para un programa para hacer un programa de maxine learning bien

gracias aldo acá yo te pregunta que viene más o menos de la mano de la anterior porque

daniel díaz pregunta cuáles son las herramientas básicos que uno debería comenzar a

aprender en el mundo del bache learning y señala lenguajes de programación como país

tony erre y también señala un programa un tanto más digamos con una interfaz

que orange entonces que recomiendas tú algo el aprender a programar y luego

ya escribir el código machine learning o empezar utilizando un programa que tenga que

ya listo los algoritmos llegan y utilizan en lo personal yo pienso que lo mejor es saber

programar porque se saber programar te da más flexibilidad no te permite ser más más

creativo te permite hacer más cosas obviamente que sí depende también de la persona si

uno quiere ser más directo y más digamos práctico podría usar el horario

para simplemente ejecutarlo a manera de pasos que se tienen que seguir directo no

pero en general recomiendo hacerlo en un lenguaje de payton para que para para que sea

más flexible para poder acomodarse porque dentro de cada data set o base de datos que

se va a trabajar ahí hay muchos problemas que se pueden presentar pues hay veces que

nuestros datos están cerrados o la distribución no es normal si no tiene una una pequeña

distorsión o tenemos valores nulos o valores más entonces este hay muchas y hay

muchos problemas que se tienen que solucionar entonces yo considero que sería mejor

trabajar en lenguaje de payton claro todo movido como dije este depende también no

si quiere ser práctico trabaja directores pero no no te aseguro mucha flexibilidad al

momento de hacer tus procesos gracias al do por esa respuesta a la siguiente pregunta

del profesor patricio que viene y justamente fue nuestro expositor la semana pasada y


el levantado un saludo el profesor de la universidad de santiago de chile nos dice hoy se

debe programar machine learning a entender del relator cuando estima aparecerán

programas software de generación más avanzada que hagan justamente más simple su

programación gracias y excelente presentación gracias por la pregunta es una

pregunta interesante en realidad por ejemplo justamente la pregunta anterior que

hablaba del orange es que permitía un poco automatizar o digamos ser más prácticos en

el proceso de hacer machine learn y también existe el auto machine learning que es algo

muy muy reciente que justamente está asociado a la pregunta que te permite para

digamos que para personas que no son muy entendidas o que no tienen mucha

experiencia en la programación hacer su programa the machine learning sin tener

digamos esa base sólida o bien consistente y existe se llama autos machine learning pero

es algo muy nuevo aunque recién ha salido no por decir un par de años a lo

mucho tendrá pero ya salió en realidad no nos puedes ver qué esperar sino que ya está

ahí ya pero es algo bastante reciente bien gracias ando por tu respuesta marvin chabuca

nos dice excelente presentación aldo tenía una pregunta con respecto a las imputaciones

de datos de tipo nand las imputaciones generas algunas distorsiones aún dada ser

del tipo geológico minero eso ya es un obviamente que sí puede generar pero es una

pregunta más de geología no depende depende de tus datos siempre porque cuando

hacemos imputaciones y lo hacemos utilizando el lenguaje de payton y utilizando

la función en este caso simple el input er por ejemplo nosotros podemos

imputar mediante valores de la media o la moda para valores discretos y siempre va a

haber una pequeña distorsión obviamente no entonces ya dependería del criterio

criterio geológico de para cuando así conviene imputar y cuándo no depende bastante

del criterio geológico y el problema que se quiera resolver pero sí se puede payton te

permiten resolver esos problemas obviamente que sí bien gracias al do nuevamente acá


hay una pregunta bastante interesante que es de louis él nos dice cuáles son

los conocimientos previos para entrar a un curso de machine learning específicamente

quizás preguntando el curso que tú relata salto en que el lunes ya está disponible a

través de la plataforma 9 mineros bueno en realidad un conocimiento básico de payton o

incluso las personas que recién están empezando podrían entenderlo por el hecho de que

más que todo va va de dos sentidos uno es entender los procesos la secuencia de pasos

que se tiene que hacer eso es vital y la secuencia de pasos en netamente criterios ahora

en en entender cómo se ejecuta cada cada producto sentencia o cada algoritmo también

es otra otra etapa pero justamente también la estamos explicando se explica en

el curso y en realidad son conocimientos básicos no es no se necesita algo complejo

o tener una matemática muy avanzada en sí por ejemplo un curso aplicativo como

el que estamos lanzando con 9 minera para ese sentido a que la persona pueda aplicar ya

esté profundizar obviamente ya depende dependería de una especialización en la rama

así que son solamente conocimientos básicos no no es algo que sea con muy complejo

que digamos muchas gracias al 2 que al parecer ya no hay más preguntas por parte de

los participantes muy interesante como reitero la presentación de algo muy motivante

a poder empezar a trabajar con estas herramientas y agregarle una alternativa quizás a

procesos que que vienen realizándose de una manera hace mucho años y quizás es

ganando en tiempo en coste y quizás también mejorando los resultados y acá en una

última pregunta al parecer de francisco él nos dice buenas tardes caldos según

tu experiencia como se puede asegurar la calidad de las estimaciones en base a

la programación esto referido a los resultados obtenidos empíricamente donde según lo

que mencionaste se obtenían desviaciones de un 20 por ciento justamente esa calidad se

calcula por las métricas de nosotros vamos a digamos digamos tengo mil datos mil filas

mil mil sucesos mil ocasiones mil sentencias de esas mil sentencias yo voy a
trabajar con 800 para que mi programa the machine learning aprenda y con los 200 que

me quedan voy a probar qué tan certero es la predicción de mi algoritmo de

imaginar min entonces de esa manera yo puedo saber qué tan acertado es ahora lo que

sucede que digamos que tengamos un ejemplo que predice al 90% no él te va a decir

para poder sacar ese valor de que mi predicción es el 90 por ciento ha tenido que hacer

un remo estéreo y ha tenido que ir cambiando de posición el conjunto de validación y el

conjunto de entrenamiento es como decir es es un método en realidad estadístico el

de validación cruzada aquí se usa bastante es decir son los métodos convencionales o

validados porque el magín learning está basado en la estadística también bastante está

basado en los métodos que ya están validados actualmente entonces las predicciones

que están que se hacen que hacen el algoritmo están basados en los métodos

matemáticos y estadísticos validados ya muchos por mucho tiempo no se vale y se

valida en eso y en los trabajos ya hechos anteriormente en los procesos y

herramientas bien muchas gracias algo por esa respuesta ya vamos a comenzar a

dar cierre a este webinar agradecemos por supuesto a algo por esta

excelente presentación él es parte de una start-up es el director de geólogos punto

día justamente guía de inteligencia artificial que la empresa que está realizando varias

implementaciones de machine learning e inteligencia artificial sobre este campo que es

la geología y minería por ende le deseamos mucho éxito en su start up sabemos que está

haciendo hartas cosas que este tiempo está muy agradecido al hombre de nuevo en era

por todos los asistentes a este buena como preguntaba el profesor que viene hace un

momento les enviaremos una grabación del webinar y la presentación de algo a sus

correos para que la puedan revisar y ante cualquier duda lo pueden hacer al correo

de contacto a la nube minera cena muchas gracias a todos nos hacía algo que quiere

despedir también nos y muchas gracias a ese primero agradecer a ti e ver a 9 minera por
la invitación y por la oportunidad y pues nada también gracias a todos los asistentes y

nada y nos vemos y cualquier consulta no duden en contactarme ahí también dejó deje

mi correo pero estás al 2.2 carlos díaz bonito punto p y dispuesto a ayudarlos en lo que

se pueda muchas gracias gracias chau también.

También podría gustarte