Documentos de Académico
Documentos de Profesional
Documentos de Cultura
net/publication/366808222
CITATIONS READS
0 70
2 authors, including:
Omar Aguilar
University of Santiago, Chile
12 PUBLICATIONS 15 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Omar Aguilar on 02 January 2023.
❑ Minería de datos.
❑ Métodos estadísticos y de visualización de datos.
❑ Análisis de componentes principales (PCA). PCA en una red
neuronal.
❑ Arboles de Decisiones.
❑ Agentes inteligentes.
❑ Machine Learning.
MINERÍA DE DATOS.
Un ejemplo de aplicación de la minería de datos en entornos mineros y que puede ser consultado en el
enlace que se muestra es el siguiente (*).
En esta aplicación con base en hallazgos anteriores y un análisis en profundidad de los sistemas de
ventilación de la mina, en el trabajo se propone un modelo de alerta temprana adecuado para tales
consideraciones para mejorar la seguridad de la ventilación de la mina.
(*) Data mining applications in evaluating mine ventilation system. Jianwei Cheng Shengqiang Yang
https://doi.org/10.1016/j.ssci.2011.08.003
MÉTODOS ESTADÍSTICOS Y DE VISUALIZACIÓN DE DATOS.
La esencia de la minería de datos es que se convierte en un tema práctico y para ello tiende a
utilizar cualquier técnica que ayude a extraer más conocimiento de los datos que se encuentran
disponibles .
Ella utiliza varias técnicas , desde métodos estadísticos y herramientas de consulta hasta
técnicas sofisticadas de aprendizaje automático. Entre ellas se pueden señalar las siguientes:
La visualización es una técnica de exploración de datos muy útil para descubrir patrones en
conjuntos de datos. La visualización de datos se puede definir como la representación de
información en forma gráfica o en tablas, como sugirió Pang Ni Ng Tan en su libro Data Mining.
PANG.NI NG TAN
VISUAL THINKING.
(Pensamiento visual). Técnica que permite destacar los pasos de visualización de ambientes, se utilizan 4 pasos:
mirar, ver, imaginar, mostrar (*)
(*) Dan Roam-The Back of the Napkin (First Edition)_ Solving Problems and Selling Ideas with
Pictures-Portfolio Hardcover (2009)
Muchos software de procesamiento de datos hacen un énfasis especial en la
visualización de datos.
Visualizamos datos para revelar patrones, relaciones y tendencias ocultas dentro de nuestros datos. Son
los patrones encontrados en los datos los que dan lugar a hipótesis de trabajo para la toma de
decisiones.
(*) https://www.sas.com/en_us/software/visual-analytics.html
También con el Excel Avanzado es posible visualizar datos para generar conocimiento.
SEMANAL AXL A XL
año fecha semana equipo MTBF MTTR DISPONIBILIDAD HORAS LECTURA TF Nº de Fallas TR horas tasa_fallo
90.00
2006 29-May-2006 1 SCOOP 315 55.00 1.00 98% 0 0 165.00 3 3.00 168 0.01786 DISPONIBILIDAD 80.00
2006 05-Jun-2006 2 SCOOP 315 40.88 1.13 97% 246 24 163.50 4 4.50 336 0.01190
100% 70.00
2006 12-Jun-2006 3 SCOOP 315 39.83 2.17 95% 502 46 159.33 4 8.67 504 0.00794
60.00
2006 19-Jun-2006 4 SCOOP 315 54.97 1.03 98% 744 69 164.92 3 3.08 672 0.00446 90%
2006 26-Jun-2006 5 SCOOP 315 16.00 2.67 86% 1002 102 144.00 9 24.00 840 0.01071 50.00
MTBF
80% 40.00
2006 03-Jul-2006 6 SCOOP 315 17.41 1.26 93% 1240 129 156.67 9 11.33 1,008 0.00893 MTTR
2006 10-Jul-2006 7 SCOOP 315 82.25 1.75 98% 1470 155 164.50 2 3.50 1,176 0.00170 70% 30.00
2006 17-Jul-2006 8 SCOOP 315 18.50 2.50 88% 1830 182 148.00 8 20.00 1,344 0.00595 20.00
60%
2006 24-Jul-2006 9 SCOOP 315 21.19 2.81 88% 2240 209 148.33 7 19.67 1,512 0.00463 10.00
2006 31-Jul-2006 10 SCOOP 315 20.92 3.08 87% 2510 235 146.42 7 21.58 1,680 0.00417 50% 0.00
2006 07-Aug-2006 11 SCOOP 315 16.85 4.15 80% 2800 268 134.83 8 33.17 1,848 0.00433 0 10 20 30 40 50 60 0 20 40 60
2006 14-Aug-2006 12 SCOOP 315 11.64 1.28 90% 3122 302 151.33 13 16.67 2,016 0.00645
2006 21-Aug-2006 13 SCOOP 315 40.85 1.15 97% 0 0 163.42 4 4.58 2,184 0.00183
2006 28-Aug-2006 14 SCOOP 315 18.83 2.17 90% 200 25 150.67 8 17.33 2,352 0.00340
2006 04-Sep-2006 15 SCOOP 315 20.96 3.04 87% 498 39 146.75 7 21.25 2,520 0.00278
TASA DE FALLAS
2006 11-Sep-2006 16 SCOOP 315 20.77 3.23 87% 729 58 145.42 7 22.58 2,688 0.00260 0.02000
2006 18-Sep-2006 17 SCOOP 315 18.59 2.41 89% 999 99 148.75 8 19.25 2,856 0.00280 0.01800
2006 25-Sep-2006 18 SCOOP 315 19.75 1.25 94% 1100 110 158.00 8 10.00 3,024 0.00265 0.01600
2006 02-Oct-2006 19 SCOOP 315 19.79 1.21 94% 1200 145 158.33 8 9.67 3,192 0.00251 0.01400 R² = 0.8467
2006 09-Oct-2006 20 SCOOP 315 14.09 4.57 76% 1700 178 126.83 9 41.17 3,360 0.00268 0.01200
2006 16-Oct-2006 21 SCOOP 315 21.98 2.02 92% 2000 201 153.83 7 14.17 3,528 0.00198 0.01000
2006 23-Oct-2006 22 SCOOP 315 15.33 1.48 91% 2360 229 153.25 10 14.75 3,696 0.00271 0.00800
2006 30-Oct-2006 23 SCOOP 315 14.53 2.27 86% 2789 278 145.33 10 22.67 3,864 0.00259 0.00600
2006 06-Nov-2006 24 SCOOP 315 30.68 2.92 91% 3000 299 153.42 5 14.58 4,032 0.00124
0.00400
2006 13-Nov-2006 25 SCOOP 315 18.84 2.16 90% 0 0 150.75 8 17.25 4,200 0.00190
0.00200
2006 20-Nov-2006 26 SCOOP 315 11.01 2.99 79% 169 30 132.17 12 35.83 4,368 0.00275
0.00000
2006 27-Nov-2006 27 SCOOP 315 11.87 2.13 85% 389 40 142.43 12 25.57 4,536 0.00265 0 10 20 30 40 50 60
2006 04-Dec-2006 28 SCOOP 315 21.51 2.49 90% 653 55 150.58 7 17.42 4,704 0.00149
En esta foto termográfica de una cámara FLIR es posible
las zonas de temperaturas mas altas que en este caso
puede ser interpretado como una predicción de posible
falla.
Durante una inspección de obras en otra mina, Fostvedt
descubrió el terminal de un contactor de 480 V en un
cangilón de un centro de control de motores (MCC) que
estaba a punto de fallar.
TEF ENVEJECIMIENTO
300.00 Histograma
290.00 15 R² = 0.9895
Frequency
Con el Histograma es 280.00 10
270.00
5
posible conocer si los 260.00
0
Frequency
250.00
datos de fallas 240.00
Polinómica
corresponden a un 230.00
220.00
(Frequency)
Frequency
10
agentes externos 250.00 8
6
245.00 4
(determinista ) 240.00
2
0
Frequency
235.00 Polinómica
(Frequency)
230.00
225.00 Bin
220.00
1 3 5 7 9 111315171921232527293133353739
La técnica de visualización más popular utilizada en el análisis estadístico es un diagrama de
dispersión. Un diagrama de dispersión es un gráfico bidimensional para representar el grado de
correlación entre dos variables.
Datos
TI003_1 Tasa
1.0 109.8 0.7
Series1
2.0 110.0 0.18 0.6
3.0 110.0 0.01
0.5
4.0 109.9 -0.09
5.0 110.1 0.22 0.4 media +2desv
6.0 110.1 -0.02 0.3
7.0 110.2 0.04 media +desv
0.2
8.0 110.3 0.10
9.0 110.4 0.10 0.1 media
10.0 110.3 -0.03 0.0
11.0 110.6 0.22 0.0 5.0 10.0 15.0 20.0 25.0 30.0 35.0 media-desv
-0.1
12.0 111.2 0.60
-0.2
13.0 111.5 0.32 media-2desv
14.0 111.6 0.09 -0.3
15.0 111.5 -0.06
16.0 111.6 0.07
PUNTOS QUE DEBEN ANALIZARSE
17.0 111.6 0.00 media 0.09 CON ACR PARA VERIFICAR SI ES
18.0 111.6 -0.01 desv 0.15 NECESARIO ALGUNA ACCION
19.0 111.7 0.12 media +desv 0.24 CORRECTIVA CUANDO OCURRAN
20.0 111.8 0.07 media-desv -0.06
21.0 111.8 0.07 media +2desv 0.39
22.0 111.9 0.02 media-2desv -0.21
23.0 112.0 0.17
24.0 112.4 0.37
25.0 112.2 -0.18
26.0 112.2 0.03
27.0 112.3 0.08
28.0 112.3 0.02
29.0 112.4 0.06
30.0 112.5 0.12
SUMMARY OUTPUT
Análisis de REGRESIÓN Multiparamétrica Lineal
Regression Statistics
Multiple R 0.869589 Temperatura Residual
R Square 0.756185
Adjusted R Square 0.729095 Plot
Standard Error 0.297097 0.5
Observations 11
Residuals
0
0 100 200 300 400
ANOVA -0.5
df SS MS F Significance F
-1
Regression 1 2.463808454 2.463808 27.9133 0.000505 Temperatura
Residual 9 0.794398266 0.088266
Total 10 3.25820672
Normal Probability Plot
Coefficients Standard Error t Stat P-value Lower 95%Upper 95%Lower 95.0%
Upper 95.0%
Intercept -0.14465 0.249723798 -0.57923 0.576645 -0.70956 0.420268 -0.70956 0.420268 2.5
Mediciones (cm)
Temperatura 0.005523 0.001045312 5.283304 0.000505 0.003158 0.007887 0.003158 0.007887 2
1.5
1
0.5
0
RESIDUAL OUTPUT PROBABILITY OUTPUT
0 20 40 60 80 100 120
Sample Percentile
Observation
Predicted Mediciones (cm)
ResidualsStandard Residuals Percentile
Mediciones (cm)
1 0.407624 -0.14762371 -0.52377 4.545455 0.26
2 0.462851 -0.023577564 -0.08365 13.63636 0.439273
3 0.573305 0.348712386 1.237224 22.72727 0.504924
Temperatura Line Fit Plot
4 0.738986 -0.234061776 -0.83045 31.81818 0.922017 2.5
Mediciones (cm)
5 1.015121 0.124099007 0.4403 40.90909 0.974509 2
6 1.086916 0.077137129 0.273681 50 1.000067 1.5 Mediciones (cm)
7 1.236029 -0.235962223 -0.83719 59.09091 1.13922 1
8 1.385142 0.388323784 1.377764 68.18182 1.164053 0.5
Predicted
9 1.534255 -0.559745676 -1.98597 77.27273 1.773466 0 Mediciones (cm)
0 200 400
10 1.683368 0.231398356 0.820996 86.36364 1.863781
Temperatura
11 1.832481 0.031300288 0.111053 95.45455 1.914766
-6.66134E-16
ANÁLISIS DE COMPONENTES PRINCIPALES (PCA)
Fue introducido por primera vez por Karl Pearson hace más de un siglo (Pearson,
1901).
En términos matemáticos, PCA encuentra un conjunto de m vectores que son
ortogonales en el espacio de datos que representa la varianza más grande, y luego
proyecta los datos desde su espacio n-dimensional original al subespacio m-
dimensional, donde m < n, reduciendo así los datos dimensionalidad.
Es decir, un gran número de variables correlacionadas se transforman en un número
menor de variables no correlacionadas llamadas componentes principales. En la
minería de datos, el PCA se utiliza a menudo como una técnica de preprocesamiento
de datos.
LOS PASOS EN LA APLICACIÓN DEL PCA.
X Y X - Xm Y - Ym
103.1 68.6
PASO 2.
Mientras que la varianza opera en una sola variable, la covarianza se mide entre dos variables.
Por ejemplo, para un conjunto de datos en 2 dimensiones, podemos medir la covarianza entre
las dimensiones x e y.
σ𝑛 ҧ 2
𝑖=1(𝑥𝑖 −𝑥) σ𝑛 ҧ 𝑖 −𝑥)ҧ
𝑖=1(𝑥𝑖 −𝑥)(𝑥
𝑣𝑎𝑟 𝑥 = =
𝑛 𝑛
Se puede reemplazar el segundo conjunto del paréntesis por el termino correspondiente a la
variable y, se tiene entonces la covarianza:
σ𝑛 ҧ
𝑖=1(𝑥𝑖 −𝑥)(𝑦 ത
𝑖 −𝑦)
𝑐𝑜𝑣 𝑥, 𝑦 =
𝑛
Considere que la covarianza de cualquier variable con ella misma, es su varianza.
σ𝑛 ҧ 𝑖 −𝑥)ҧ
𝑖=1(𝑥𝑖 −𝑥)(𝑥 σ𝑛
𝑖=1(𝑥𝑖 − ҧ
𝑥) 2
𝑐𝑜𝑣 𝑥, 𝑥 = = = 𝑣𝑎𝑟(𝑥)
𝑛 𝑛
Sea A una matriz cuadrada simétrica definida positiva. Entonces A puede ser diagonalizada por una
matriz de sus vectores propios ortonormales como :
𝐴 = 𝐸Ʌ𝐸 𝑇
Con E una matriz ortonormal N x N, T denota la transposición de la matriz y Ʌ es una matriz
diagonal N xN definida por los valores propios.
Los vectores propios asociados forman las columnas de la matriz E.
𝐸 = 𝑒1 𝑒2 … . 𝑒𝑛
Obteniendo:
entonces
−0.9519 0.3063
𝝀1 = 2847.7 𝑒1 = 𝝀2 = 1.3 𝑒2 =
−0.3063 −0.9519
En al siguiente lámina se puede observar que uno de los vectores propios, e1, representa una
línea de mejor ajuste.
Este vector propio revela el patrón más importante de los datos.
El segundo vector propio, e2, muestra el otro patrón menos importante: todos los puntos están
ubicados ligeramente fuera de la línea de mejor ajuste.
Una vez que se determina un conjunto de valores propios y se dispone en orden decreciente,
podemos ignorar los valores propios de menor importancia y, por lo tanto, reducir la
dimensionalidad del conjunto de datos original.
Los m vectores propios asociados forman las columnas de una matriz llamada vector de
características. Pudiéramos ahora proyectar los datos originales en el espacio de características
formado por el vector de características y, por lo tanto, transformar el conjunto de datos n-
dimensional original en uno m-dimensional.
Se debe tener presente que al eliminar los componentes principales de menor importancia,
perdemos cierta información.
Por lo tanto, a menos que mantengamos todos los vectores propios en nuestra transformación, no
podemos recuperar los datos originales sin cambios; se perderá parte de la información.
ARBOLES DE DECISIONES
El árbol de decisiones es un mapa del proceso de razonamiento.
El árbol siempre comienza desde el nodo raíz y crece dividiendo los datos en cada nivel en
nuevos nodos.
El nodo raíz contiene todos los registros de datos y los nodos secundarios contienen los
respectivos subconjuntos de ese conjunto.
Los nodos que se encuentran al final de las ramas se denominan nodos terminales u hojas.
Existen varias herramientas gratuitas que permiten trabajar de forma simple esta herramienta
para la toma de decisiones.
https://www.lucidchart.com/pages/es
https://www.smartdraw.com/decision-tree/
Un diagrama de árbol se usa en matemáticas, más específicamente, en teoría de probabilidad,
como una herramienta para ayudar a calcular y proporcionar una representación visual de
probabilidades.
A continuación, se incluyen algunos consejos de prácticas recomendadas para crear un diagrama de árbol de
decisiones:
1. Inicie el árbol. Dibuja un rectángulo cerca del borde izquierdo de la página para representar el primer nodo.
En este rectángulo, escriba la primera pregunta, idea principal o criterio que conducirá a una decisión.
2. Agrega ramas. Para cada alternativa posible, dibuje una línea separada que comience en el nodo y se aleje
hacia la derecha de la página
3. Agrega hojas. La mayor parte del árbol de decisiones serán nodos hoja.
Al final de cada rama, agregue un nodo hoja.
4. Llene cada uno de estos nodos de hojas con otra pregunta o criterio.
5. Agrega más ramas. Repita el proceso de agregar una rama para cada posible alternativa que parta de
una hoja. Etiqueta cada rama como antes.
6. Complete el árbol de decisiones. Continúe agregando hojas y ramas hasta que se hayan resuelto todas
las preguntas o criterios y se haya alcanzado un resultado.
7. Termina una rama. Continúe agregando hojas y ramas hasta que se hayan resuelto todas las preguntas o
criterios y se haya alcanzado un resultado.
8. Verifique la precisión. Consulte con todas las partes interesadas para verificar la precisión.
AGENTES INTELIGENTES
Autonomía. Actúan sin intervención humana, con control sobres sus actos.
Acciones
Actuadores
Agente
Inteligente
AGENTES BASADOS EN OBJETIVOS
Las metas van a detallar las situaciones a las que se desea llegar de este modo.
El programa del agente puede combinar las metas con la información de los
resultados (acciones) que emprenda y de esta manera poder elegir aquellas
acciones que permitan alcanzar la meta. SENSORES
¿CÓMO SE ENCUENTRA EL
AGENTE COMPRESOR EN ESTE INSTANTE ?
ESTADO E
N
¿QUÉ SUCEDE SI EMPRENDO
T
ACCIÓN PREVENTIVA?
¿Qué producen O
mis acciones? R
¿QUÉ ACCIÓN DEBERÍA
N
Metas
EMPRENDER ? O
ACCIONADORES
AGENTES “PROBLEM SOLVING”
Un agente que soluciona problemas es capaz de percibir su medio ambiente con la ayuda de sensores
y actuar en ese medio utilizando actuadores (elementos que reaccionan a un estímulo realizando una
acción).
Los agentes inteligentes se describen esquemáticamente como un sistema funcional que soluciona
problemas. Por esta razón, estos agentes inteligentes son a veces llamados Agentes Inteligentes PS (o
Problem Solving) para distinguirlos de sus implementaciones en el mundo real como sistemas
informáticos, sistemas biológicos, o de organizaciones.
1. Accesibles y no accesibles
2. Deterministas y no Deterministas
3. Episódicos y No episódicos
4. Estáticos y Dinámicos
5. Discretos y Continuos
AGENTES ACCESIBLES Y NO ACCESIBLES
Si a través de los sensores, el agente tiene acceso al estado total del entorno,
entonces éste es accesible.
Los entornos accesibles son cómodos, ya que el agente no mantiene un
estado interno para estar al tanto de lo que sucede en el mundo.
Comunicación Ejecución
Percepción
Conocimiento
Metas Experto
Planes
Estratégicos
Planificación
Intenciones
AGENTES PS DETERMINISTAS Y NO DETERMINISTAS
Si el estado siguiente se determina a partir del estado y las acciones
elegidas por el agente PS, entonces es determinista. Si el ambiente no es
accesible, entonces podría parecer que no es determinista (en especial en
un ambiente complejo, a veces se pueden considerar aleatorios).
Los chatbots o bots conversacionales son programas informáticos que han sido
diseñados para simular conversaciones con personas a través del teclado o
mediante la voz.
Acciones
Actuadores
Agente
Inteligente
En el siguiente enlace puede verse otra aplicación de chatbot en la industria
de procesos mineros.
https://www.anm.gov.co/?q=mina-el-chatbot-de-la-anm-ya-esta-disponible
Toma de
Procesamiento Salidas de Datos Decisiones
Registro de Datos de Datos
“Artificial intelligence is basically where machines make sense, learn, and interact with the external world without human beings having to specifically
program it.”
Nidhi Chappell, Intel’s director of machine learning
Es posible que necesite saber qué tan bajas son las probabilidades para tener en cuenta la
incertidumbre asociada, o puede que necesite saber qué tan diferentes son las probabilidades
para tener en cuenta aún más tipos de incertidumbres.
Regla If – Them : "Si la probabilidad predicha del máximo es dos veces mayor que el segundo
máximo, entonces emita una predicción; de lo contrario, no proceda a tomar una decisión".
Ejemplos
Por ahora, puede pensar en este proceso como una caja negra de ML que se revelará a medida
que continúe leyendo.
Casos en las que la aplicación del aprendizaje automático puede brindarle una ventaja
competitiva (*).
IV. Cuando las soluciones varían de un caso a otro. Cada caso médico es diferente. Los
pacientes tienen alergias a medicamentos, síntomas múltiples, antecedentes familiares de
determinadas enfermedades, etc. Las soluciones deben buscarse de forma individual.
(*) ML Becomes Mainstream: How to increase Your Competitive Advantage. By Ronald Van Loon
EJEMPLO DE ENTRENAMIENTO DE UN ALGORITMO DE ML A PARTIR DE LOS
DATOS.
En este caso, la motivación de ML es usar los datos para encontrar transformaciones lineales y no
lineales sobre X usando multiplicaciones y sumas de tensor (vector) altamente complejas, o simplemente
encontrar formas de medir similitudes o distancias entre puntos de datos, con el propósito final de predecir
Y dado X.
Una forma común de solucionar el problema es aproximar a una cierta función desconocida que
dependa de la variable independiente X
𝑓 𝑥 = 𝑤𝑇𝑥 + 𝑏 = 𝑦
Observe que es una transformación linear y esto ilustra cuan simple puede ser el modelo de
aprendizaje en ML.
En este caso simple, los algoritmos ML giran en torno a encontrar el mejor set de datos en
que w y b produce la aproximación más cercana (si no exacta) a y, la salida deseada
Los parámetros entrenables de una neurona son w y b, y se desconocen.
Podemos usar datos de entrenamiento D para determinar estos parámetros usando alguna
estrategia de aprendizaje.
𝑥1 𝑤1 + 𝑥2 𝑤2 + 𝑏 = 𝑤 𝑇 𝑥 + 𝑏
La función de activación opera como una forma de asegurar que la salida esté dentro del rango de
salida deseado.
Considere que se desea una activación lineal simple, entonces la función z () se puede considerar
de la siguiente forma
𝑧(𝑤 𝑇 𝑥 + 𝑏) = signo (𝑤 𝑇 𝑥 + 𝑏)
Donde la función signo es:
𝑇 +1 𝑠𝑖 𝑤 𝑇 𝑥 + 𝑏 ≥ 0
𝑠𝑖𝑔𝑛𝑜(𝑤 𝑥 + 𝑏) = ቊ
−1 𝑑𝑒 𝑜𝑡𝑟𝑎 𝑓𝑜𝑟𝑚𝑎