Documentos de Académico
Documentos de Profesional
Documentos de Cultura
que permite la mineralización en muchos lugares en muchas zonas de interés luego para
diapositiva por ejemplo la primera ecuación que se ve en la parte superior la que está
nosotros tenemos una red neuronal tenemos que reducir el error para poder ser más
superior indica la función de costo la función de error que debe ser minimizada para
implementar esta esta ecuación de red neuronal donde la función de costo como ven no
es tan simple como pareciera verdad pero justamente por eso es que es una caja negra y
por eso es que muchos hablan de que como puedes entender ese todo ese proceso que
tratar un poco de darles luces para entender qué es lo que está sucediendo dentro de todo
este proceso vamos a ver más in learning en la geología los tipos de aprendizaje los
programas de inteligencia artificial que han han superado al mejor jugador del mundo
persona tiene cáncer o no a partir de las imágenes que se tiene de rayos-x sin embargo
el golero challenge' que fue organizado este año por el gobierno australiano cuyo fin era
tienen óxidos estas rocas en si bien tenemos un dato assets en este caso con 1.677 filas
codificado como cada tipo de roca como un valor numérico vamos a predecir este valor
ejemplo de los de uno de uno de los cuantos he traído el día de hoy para mostrar para
hay dentro de él maxim learning por ejemplo en este caso vamos a ver un ejemplo
nombre del taladro el nombre elwell name la profundidad y los datos que los nos dan los
learning que nos permita predecir las fases a partir netamente de los datos que se han
obtenido previamente es decir con esta base de datos yo puedo generar un programa que
me predica fáciles solamente teniendo los los datos de entrada como lo son las
precisión valores de récord y valores de métrica llamada f1 estos son términos técnicos
volcánico como bien es conocido como 'la o como geólogos sabemos está asociado a un
en base a los componentes que están asociados hacer un aprendizaje automático que nos
prendía que nos prediga bajo qué configuración nos encontramos y qué es lo que vamos
números que son estas predicciones que estamos haciendo que a la larga nos van a
eso está introducido está dentro de esta caja negra no que es la que vamos a tratar
nosotros de abrir para poder entender entonces hemos visto tres ejemplos de aplicación
base de datos y las predicciones no sabemos qué es lo que está adentro y justamente
esta caja negra es el más interno que nos va a permitir obtener esos resultados entonces
que tienen que tener datos y escribir muchos códigos para generar un programa a
que es tan acertado y que tanto sirve y qué utilidad tiene y para eso están las métricas tal
entendiendo un poco mejor vamos a lo que hemos hecho es introducir nuestras variables
de entrada que eran los componentes en óxido del para el ejemplo de predicción de
visto el ejemplo de las fases también podemos generar bajo el mismo concepto
insertamos los datos de entrada que nos permiten predecir las fases que en este caso
una herramienta que trabaja con volumen de data mucho más grande muchas veces
transformando uno por uno cada uno el proceso de los datos de entrada es un algoritmo
son modelos más complejos que trabajan a nivel multicapa entonces una vez que hemos
que podemos mencionar en este caso son los de regresión lineal el ritz regresión el lazo
función de coste o función de error dónde vamos a cambiar la norma que es un término
acuerdo al valor real creo que es entendible mediante el gráfico que buscamos nosotros
minimizar esa distancia entre los puntos azules que son los datos y las predicciones
lineales tenemos los de acá vecinos cercanos y tenemos los neiva yes hoy también
los tenemos a los sub por vector ma jin y los árboles de decisión y clasificación estos
ser clasificado dependiendo del paquete para que una persona elija si uno elige el
k igual a uno es el nuevo valor va a tomar el valor de aquel dato que está adyacente a él
a ese único dato pero si lo recogemos un dato de acá igual a 3 o caigo a la 5 da igual a
7 al tener varios datos alrededor de nuestro nuevo dato que queremos predecir va a
tomar aquel que esté en mayor abundancia aquel que predominen si tenemos más datos
de color azul que de color rojo entonces nuestro nuevo nuestro nuevo dato que
queremos predecir va a ser tomado como un dato azul por esto toma los k vecinos
cercanos está basado en la distancia también tenemos el rey valles que está basado en
de decisión que en base a las ramas se le llama ramas justamente por eso viene
dentro de las ramas cuál fue el caso que más veces se predijo se predijo que más veces
mayor predominancia a ese caso no ahora también tenemos aún faltan debo decir que
aún faltan muchos algoritmos acá por mencionar que estoy dejando pero estos son
a los algoritmos vos ting ting ting que también son todo un complejo un enmarañado de
bajo un modelo en nuestro data set pero cuando generamos un error se vuelve a entrenar
que no necesariamente tiene que ser el mismo y volvemos a ejecutar otro modelo hasta
y agrupar nuestros datos en base a similaridad entre ellos empecemos con el cummings
basados en la distancia entre el dato y el centro y uno tiene que elegir cuántos centros
son mis cuatro clusters y las cuatro agrupamientos que estoy generando queremos
entenderlo más veamos la imagen de la derecha donde el centro se cambia con calles de
instancias pero más allá del hecho de aplicar algoritmo de machine learning que están
delgada en base a sus colores de interferencia de tal manera de poder encontrar bajo qué
número de colores de interferencia son mejor para mí tomarlo de tal manera que yo
sabido que dentro de una imagen han visto al microscopio a veces se ocurre un cambio
de tonalidad debido a los colores de interferencia o al corte que tuvo el cristal mineral
las ligeras variaciones de tono como un solo color y podemos generar que ya nuestro
de cummings o son algoritmos son algunas aplicaciones tanto las tres primeras que he
mostrado como la que estoy mostrando ahora que los he hecho por mí mismo como
parte de proyectos personales pero en sí depende de cada persona para ver en qué
redes neuronales que son un algoritmo de hitler ning que trabaja con una neurona no por
información desde los brazos hasta una neurona que va a recibir la información de todos
una salida cuando vimos en la primer segundo es una función bien enorme esa era la
función de error que debería ser minimizada para que nuestra predicción sea correcta
en una red neuronal siendo muy muy simplista sería de la siguiente manera tienes
un nuevo una nueva salida de cada neurona que luego va a ser una entrada para las
pero queda todavía el espacio de cómo hacer un programa de maxine la domingo cómo
abrir ese dato primero que nada tenemos ese problema primero que nada tenemos que
datos que justamente es parte de bueno del curso que estamos lanzando con 9 min era
o hacer una nueva predicción que es nuestro objetivo entonces dentro del análisis
predicciones pero también tenemos que ver cómo vamos a configurar nuestro orden
cuántos votos van a servir para entrenar y cuántos datos van a servir para validar es
algo muy importante que tiene que hacer y es parte también del proceso de
transformar trabajo con los datos antes de hacer el programa the machine learning ahora
delgada ahí hay una situación no tendría una pregunta para ustedes podemos predecir el
contextura dentro de nuestra roca estas zonas son zonas de debilidad que necesitan ser
que justamente por esa zona se van a fracturar porque son zonas débiles entonces
fracturar por ese lugar no entonces vamos ya a hacer valores más exacto vamos
a cuantificar este tipo de predicciones predecir características macro a partir de
dentro de una sección de la y esas características nos van a permitir predecir una
o también llamada ss entonces a partir de una sección delgada yo voy a predecir cuáles
se luce es una roca pero como no como como como a cómo va esa idea bueno estoy
acaba la idea porque justamente es una idea que yo estoy he estado trabajando tengo
que quiero predecir ese luce ese osea si bien el trabajo de los tours de jóvenes roland
son muy muy buenos y definitivamente tienen gran resultado y es lo que le digo va el
20 por ciento y nosotros sabemos que no podemos tener esa clase de errores ya que es
las imágenes en roca tenemos en ustedes ya puedo aplicar ahí una red neuronal o puedo
aplicar de repente otro programa o puedo aplicar este una regresión lineal una regresión
predecimos se luce ese a partir de las otras variables como el área el perímetro la
como el ángulo de ficción el cape y no sé incluso el luces está asociado con el word
index hay muchas hay bastante con correlación entre nuestras variables de roca que
sus en minería entonces si había correlación entre ustedes en word index también habrá
correlación entre el grano en la longitud del grano del área del gran del perímetro la
más porque se necesitaría más que todo data primero que nada pero viene de un sentido
que generaría el programa para predecir entonces ahí vemos cómo estamos generando
de mitologías tal como hemos visto en base a fotos de cordón ahí hay incluso una
empresa que está haciendo previsión de en lo veo no lo veo a partir de las imágenes hay
siendo utilizadas porque es que estamos en el tiempo donde todas las condiciones se dan
para que pueda suceder eso porque porque tenemos tenemos gran cantidad de datos los
datos ahora abundan los datos están en enormes cantidades las mineras manejan grandes
que pasa es que actualmente se dan las condiciones para poder hacerlo y que más otra
imaginarme así es como funciona depende depende del criterio que tenga la persona y
como repito que tenemos gran cantidad de datos y la tecnología necesaria para poder
minera y pues nada quédate en todas sus preguntas muchas gracias aldo por tu
esta herramienta es necesario por ejemplo el saber programar o el saber de machine the
primero antes de leerla las preguntas que están haciendo los asistentes los participantes
de este webinar quería saber tu opinión acerca de su algo qué opinas de que por
yo sé hacer todo esto pero creo que se podría ser mejor si hiciéramos esto o sea todos
tienen ideas que quieren hacer pero es como que lo de no dejar ahí en su mente yo creo
esto me parece muy bien yo trabajo en esta área pero no lo hacen dicen pero no lo hacen
ahora con la herramienta de la programación ellos pueden hacerlo todo o sea cada una
cada persona puede hacer esas ideas que tienen las puede hacer y pueden mejorar un
trabajo tal vez algo que le tomaba hacer varias horas hacerlo ahora y menos tiempo y
solamente utilizar nuestras herramientas de programación y demás in learning y bueno
para esto si es que digamos domina muy bien su programa de modelamiento también
pueden implementarlo en este dentro de sus usos de sus softwares para ser más rápidos
días atrás con una agrupación de jóvenes dinero y es un club para las nuevas
básico para ser machine learning a toolbox en que sé a qué se refiere exactamente las
más ching learning podría leerse un tanto en el jazz a la pregunta pero de que esperemos
que la especifique y luego cerró donde hay algo vamos a pasar con la siguiente pregunta
hay otras personas que utilizan también el octavo pero python es el que está por
tendría que ser su base de datos perfecta para que no necesites hacer un tratamiento de
datos así que tanto erc como python son los programas los lenguajes de programación
gracias aldo acá yo te pregunta que viene más o menos de la mano de la anterior porque
daniel díaz pregunta cuáles son las herramientas básicos que uno debería comenzar a
tony erre y también señala un programa un tanto más digamos con una interfaz
ya listo los algoritmos llegan y utilizan en lo personal yo pienso que lo mejor es saber
pero en general recomiendo hacerlo en un lenguaje de payton para que para para que sea
más flexible para poder acomodarse porque dentro de cada data set o base de datos que
se va a trabajar ahí hay muchos problemas que se pueden presentar pues hay veces que
muchos problemas que se tienen que solucionar entonces yo considero que sería mejor
trabajar en lenguaje de payton claro todo movido como dije este depende también no
el proceso de hacer machine learn y también existe el auto machine learning que es algo
digamos que para personas que no son muy entendidas o que no tienen mucha
digamos esa base sólida o bien consistente y existe se llama autos machine learning pero
es algo muy nuevo aunque recién ha salido no por decir un par de años a lo
mucho tendrá pero ya salió en realidad no nos puedes ver qué esperar sino que ya está
ahí ya pero es algo bastante reciente bien gracias ando por tu respuesta marvin chabuca
nos dice excelente presentación aldo tenía una pregunta con respecto a las imputaciones
de datos de tipo nand las imputaciones generas algunas distorsiones aún dada ser
quizás preguntando el curso que tú relata salto en que el lunes ya está disponible a
incluso las personas que recién están empezando podrían entenderlo por el hecho de que
más que todo va va de dos sentidos uno es entender los procesos la secuencia de pasos
que se tiene que hacer eso es vital y la secuencia de pasos en netamente criterios ahora
o tener una matemática muy avanzada en sí por ejemplo un curso aplicativo como
el que estamos lanzando con 9 minera para ese sentido a que la persona pueda aplicar ya
así que son solamente conocimientos básicos no no es algo que sea con muy complejo
calcula por las métricas de nosotros vamos a digamos digamos tengo mil datos mil filas
mil mil sucesos mil ocasiones mil sentencias de esas mil sentencias yo voy a
trabajar con 800 para que mi programa the machine learning aprenda y con los 200 que
para poder sacar ese valor de que mi predicción es el 90 por ciento ha tenido que hacer
de validación cruzada aquí se usa bastante es decir son los métodos convencionales o
que están que se hacen que hacen el algoritmo están basados en los métodos
haciendo hartas cosas que este tiempo está muy agradecido al hombre de nuevo en era
por todos los asistentes a este buena como preguntaba el profesor que viene hace un
de contacto a la nube minera cena muchas gracias a todos nos hacía algo que quiere
despedir también nos y muchas gracias a ese primero agradecer a ti e ver a 9 minera por
la invitación y por la oportunidad y pues nada también gracias a todos los asistentes y
nada y nos vemos y cualquier consulta no duden en contactarme ahí también dejó deje
mi correo pero estás al 2.2 carlos díaz bonito punto p y dispuesto a ayudarlos en lo que