Está en la página 1de 52

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/366808222

ARICA -CHILE : APLICACIONES DEL MACHINE


LEARNING/APRENDIZAJE AUTOMATIZADO

Conference Paper · January 2023

CITATIONS READS

0 70

2 authors, including:

Omar Aguilar
University of Santiago, Chile
12 PUBLICATIONS 15 CITATIONS

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Applications of Predictive Analytics to Maintenance View project

All content following this page was uploaded by Omar Aguilar on 02 January 2023.

The user has requested enhancement of the downloaded file.


Omar Aguilar Martinez
APLICACIONES DEL MACHINE Ph.D Ciencias FÍsicas
Diaman Consulting Services
LEARNING/APRENDIZAJE SKYPE: diaman.consulting
Canal Youtube: diamanconsulting
Email: diaman.consulting@gmail.com
AUTOMATIZADO/
ARICA - CHILE
• Master in Physical Sciences. Universidad de la Habana, Cuba,1974.
• Ph.D en C. Físicas, Academia de Ciencias de Hungría, 1988
CAPSULA BIOGRÁFICA • Dr. en C. Físicas, Univ. de Chile, 2006
• Experto del Organismo Internacional de Energía Atómica (OIEA,
Viena, Austria) en las temáticas de análisis de fluctuaciones
paramétricas en procesos industriales y procesamiento de
información, 1995-2000
• Director Técnico de la empresa DIAMAN SA que introdujo
tecnologías de diagnóstico predictivo para el mantenimiento en la
industria chilena mediante proyecto CORFO., Stgo. de Chile, Chile.
1999-2000
• Instructor de Cursos Virtuales de la American Society of
Mechanical Engineer, 2010- 2021
• CTO PRONOSWORLD, www.pronosworld.com , 2007-2021
• CEO Diaman Consulting Services. Stgo de Chile, Chile. 2005 –
2021. http://diaman-consulting-services.simplesite.com/
• Senior Adviser in Big Data and Predictive Analytics Applications at
CYTRAC Inc. NY, USA, 2014 – 2021
• Consultor Independiente en temas de Mantenimiento Industrial.
2000 – 2021.
• Catedrático de Confiabilidad de Sistemas Dinámicos, USACH.
20006-2021. https://www.dti.usach.cl/omar-aguilar-martinez
CONTENIDO DEL MODULO MACHINE LEARNING

❑ Minería de datos.
❑ Métodos estadísticos y de visualización de datos.
❑ Análisis de componentes principales (PCA). PCA en una red
neuronal.
❑ Arboles de Decisiones.
❑ Agentes inteligentes.
❑ Machine Learning.
MINERÍA DE DATOS.

¿Qué se entiende por Minería de Datos?

Es la tarea de una máquina de aprendizaje para extraer conocimiento de los


datos de entrenamiento.

El término "minería de datos" se asocia normalmente con la extracción de


conocimiento a partir de datos.

La minería de datos también se puede definir como la exploración y el


análisis de grandes cantidades de datos para descubrir patrones y reglas
significativos como fue acotado por Berry y Linoff, en 2004.

El objetivo final de la minería de datos es descubrir el conocimiento. Michael Berry


Gordon S. Linoff
La minería de datos puede verse como una evolución natural de las bases de datos
computarizadas.

Mientras que las herramientas tradicionales de administración de bases de datos ayudan al


usuario a extraer datos específicos de una base de datos, la minería de datos facilita la búsqueda
de patrones ocultos (correlaciones, tendencias, anomalías y grupos) dentro de los datos
almacenados en una base de datos y la realización de predicciones sobre nuevos datos

Algunos expertos comparan a la minería de datos a menudo con la minería del


oro.

La minería de datos puede ayudarnos a encontrar el "oro que esta oculto" en el


conocimiento en los datos sin procesar.

En la siguiente lamina se muestra el proceso de la minería de datos y la obtención


del conocimiento asociado.
Minería Interpretación
Fusión y de datos
Selección limpieza Transformación

Datos brutos Datos de Datos pre- Datos Patrones


destino procesados transformados Conocimiento

EL PROCESO DE MINERÍA DE DATOS Y EL DESCUBRIMIENTO DE CONOCIMIENTOS


Algunas áreas en las que la minería de datos se utiliza para obtener beneficios estratégicos son
el marketing directo, el análisis de tendencias y la detección de fraudes.

Un ejemplo de aplicación de la minería de datos en entornos mineros y que puede ser consultado en el
enlace que se muestra es el siguiente (*).

El sistema de ventilación de una mina es un componente vital de un sistema de minería subterránea.


El sistema proporciona una cantidad suficiente de aire para mantener un entorno de trabajo adecuado,
por ello el estado de la ventilación de la mina debe ser monitoreado y monitoreado de manera
oportuna.

En esta aplicación con base en hallazgos anteriores y un análisis en profundidad de los sistemas de
ventilación de la mina, en el trabajo se propone un modelo de alerta temprana adecuado para tales
consideraciones para mejorar la seguridad de la ventilación de la mina.

(*) Data mining applications in evaluating mine ventilation system. Jianwei Cheng Shengqiang Yang
https://doi.org/10.1016/j.ssci.2011.08.003
MÉTODOS ESTADÍSTICOS Y DE VISUALIZACIÓN DE DATOS.

La esencia de la minería de datos es que se convierte en un tema práctico y para ello tiende a
utilizar cualquier técnica que ayude a extraer más conocimiento de los datos que se encuentran
disponibles .

Ella utiliza varias técnicas , desde métodos estadísticos y herramientas de consulta hasta
técnicas sofisticadas de aprendizaje automático. Entre ellas se pueden señalar las siguientes:

❑ Métodos estadísticos y herramientas de visualización de datos.


❑ Herramientas de consulta.
❑ Procesamiento analítico en línea (OLAP).
❑ Árboles de decisión y reglas de asociación.
❑ Redes neuronales y sistemas neuro-difusos.
El éxito de la minería de datos a menudo depende de la elección de la
herramienta de minería de datos.

Una investigación preliminar de los datos puede ayudar a comprender


sus características específicas y a seleccionar una técnica de análisis
de datos adecuada.

Este proceso preliminar se conoce como exploración de datos.


Eibe Frank
La exploración de datos incluye estadísticas resumidas, visualización,
análisis de componentes principales, herramientas de consulta y OLAP,
como fue señalado por Ian H.Witten y Eibe Frank en el 2005, en su
libro Data Minig. Ian H. Witten
VISUALIZACIÓN DE DATOS

La visualización es una técnica de exploración de datos muy útil para descubrir patrones en
conjuntos de datos. La visualización de datos se puede definir como la representación de
información en forma gráfica o en tablas, como sugirió Pang Ni Ng Tan en su libro Data Mining.

Una vez visualizada la información, podemos interpretarla y comprenderla. Con frecuencia


utilizamos herramientas de visualización de datos como gráficos, histogramas y diagramas de
dispersión, diagramas de control de procesos para presentar resultados.

La visualización es particularmente importante en las etapas iniciales de la


exploración de datos.

PANG.NI NG TAN
VISUAL THINKING.
(Pensamiento visual). Técnica que permite destacar los pasos de visualización de ambientes, se utilizan 4 pasos:
mirar, ver, imaginar, mostrar (*)

Aplicando al análisis de la visualización de las


fallas en un equipo dinámico y su derivación a
un ACR

(*) Dan Roam-The Back of the Napkin (First Edition)_ Solving Problems and Selling Ideas with
Pictures-Portfolio Hardcover (2009)
Muchos software de procesamiento de datos hacen un énfasis especial en la
visualización de datos.

Por ejemplo, SAS Visual


Analytics (*) permite la
visualización de datos de
mantenimiento cuando
usamos el Big Data
(Datos Masivos) para la
toma de decisiones.

Visualizamos datos para revelar patrones, relaciones y tendencias ocultas dentro de nuestros datos. Son
los patrones encontrados en los datos los que dan lugar a hipótesis de trabajo para la toma de
decisiones.

(*) https://www.sas.com/en_us/software/visual-analytics.html
También con el Excel Avanzado es posible visualizar datos para generar conocimiento.
SEMANAL AXL A XL
año fecha semana equipo MTBF MTTR DISPONIBILIDAD HORAS LECTURA TF Nº de Fallas TR horas tasa_fallo
90.00
2006 29-May-2006 1 SCOOP 315 55.00 1.00 98% 0 0 165.00 3 3.00 168 0.01786 DISPONIBILIDAD 80.00
2006 05-Jun-2006 2 SCOOP 315 40.88 1.13 97% 246 24 163.50 4 4.50 336 0.01190
100% 70.00
2006 12-Jun-2006 3 SCOOP 315 39.83 2.17 95% 502 46 159.33 4 8.67 504 0.00794
60.00
2006 19-Jun-2006 4 SCOOP 315 54.97 1.03 98% 744 69 164.92 3 3.08 672 0.00446 90%
2006 26-Jun-2006 5 SCOOP 315 16.00 2.67 86% 1002 102 144.00 9 24.00 840 0.01071 50.00
MTBF
80% 40.00
2006 03-Jul-2006 6 SCOOP 315 17.41 1.26 93% 1240 129 156.67 9 11.33 1,008 0.00893 MTTR
2006 10-Jul-2006 7 SCOOP 315 82.25 1.75 98% 1470 155 164.50 2 3.50 1,176 0.00170 70% 30.00
2006 17-Jul-2006 8 SCOOP 315 18.50 2.50 88% 1830 182 148.00 8 20.00 1,344 0.00595 20.00
60%
2006 24-Jul-2006 9 SCOOP 315 21.19 2.81 88% 2240 209 148.33 7 19.67 1,512 0.00463 10.00
2006 31-Jul-2006 10 SCOOP 315 20.92 3.08 87% 2510 235 146.42 7 21.58 1,680 0.00417 50% 0.00
2006 07-Aug-2006 11 SCOOP 315 16.85 4.15 80% 2800 268 134.83 8 33.17 1,848 0.00433 0 10 20 30 40 50 60 0 20 40 60
2006 14-Aug-2006 12 SCOOP 315 11.64 1.28 90% 3122 302 151.33 13 16.67 2,016 0.00645
2006 21-Aug-2006 13 SCOOP 315 40.85 1.15 97% 0 0 163.42 4 4.58 2,184 0.00183
2006 28-Aug-2006 14 SCOOP 315 18.83 2.17 90% 200 25 150.67 8 17.33 2,352 0.00340
2006 04-Sep-2006 15 SCOOP 315 20.96 3.04 87% 498 39 146.75 7 21.25 2,520 0.00278
TASA DE FALLAS
2006 11-Sep-2006 16 SCOOP 315 20.77 3.23 87% 729 58 145.42 7 22.58 2,688 0.00260 0.02000
2006 18-Sep-2006 17 SCOOP 315 18.59 2.41 89% 999 99 148.75 8 19.25 2,856 0.00280 0.01800
2006 25-Sep-2006 18 SCOOP 315 19.75 1.25 94% 1100 110 158.00 8 10.00 3,024 0.00265 0.01600
2006 02-Oct-2006 19 SCOOP 315 19.79 1.21 94% 1200 145 158.33 8 9.67 3,192 0.00251 0.01400 R² = 0.8467
2006 09-Oct-2006 20 SCOOP 315 14.09 4.57 76% 1700 178 126.83 9 41.17 3,360 0.00268 0.01200
2006 16-Oct-2006 21 SCOOP 315 21.98 2.02 92% 2000 201 153.83 7 14.17 3,528 0.00198 0.01000
2006 23-Oct-2006 22 SCOOP 315 15.33 1.48 91% 2360 229 153.25 10 14.75 3,696 0.00271 0.00800
2006 30-Oct-2006 23 SCOOP 315 14.53 2.27 86% 2789 278 145.33 10 22.67 3,864 0.00259 0.00600
2006 06-Nov-2006 24 SCOOP 315 30.68 2.92 91% 3000 299 153.42 5 14.58 4,032 0.00124
0.00400
2006 13-Nov-2006 25 SCOOP 315 18.84 2.16 90% 0 0 150.75 8 17.25 4,200 0.00190
0.00200
2006 20-Nov-2006 26 SCOOP 315 11.01 2.99 79% 169 30 132.17 12 35.83 4,368 0.00275
0.00000
2006 27-Nov-2006 27 SCOOP 315 11.87 2.13 85% 389 40 142.43 12 25.57 4,536 0.00265 0 10 20 30 40 50 60
2006 04-Dec-2006 28 SCOOP 315 21.51 2.49 90% 653 55 150.58 7 17.42 4,704 0.00149
En esta foto termográfica de una cámara FLIR es posible
las zonas de temperaturas mas altas que en este caso
puede ser interpretado como una predicción de posible
falla.
Durante una inspección de obras en otra mina, Fostvedt
descubrió el terminal de un contactor de 480 V en un
cangilón de un centro de control de motores (MCC) que
estaba a punto de fallar.

Un camión minero puede ser objeto de análisis para


detectar posibles fallas en partes mecánicas o
eléctricas de las componentes internas . Esta
visualización facilita el análisis de fallas.
Los métodos de representación de datos gráficos incluyen diagramas de puntos,
histogramas y diagramas de control de procesos entre otros.

TEF ENVEJECIMIENTO
300.00 Histograma
290.00 15 R² = 0.9895

Frequency
Con el Histograma es 280.00 10
270.00
5
posible conocer si los 260.00
0
Frequency
250.00
datos de fallas 240.00
Polinómica
corresponden a un 230.00
220.00
(Frequency)

proceso normal de 1 3 5 7 9 111315171921232527293133353739


Bin
desgastes o
envejecimiento SOBRECARGA Histograma
(aleatorio) o influido por 255.00 12 R² = 1

Frequency
10
agentes externos 250.00 8
6
245.00 4
(determinista ) 240.00
2
0
Frequency

235.00 Polinómica
(Frequency)
230.00
225.00 Bin
220.00
1 3 5 7 9 111315171921232527293133353739
La técnica de visualización más popular utilizada en el análisis estadístico es un diagrama de
dispersión. Un diagrama de dispersión es un gráfico bidimensional para representar el grado de
correlación entre dos variables.
Datos
TI003_1 Tasa
1.0 109.8 0.7
Series1
2.0 110.0 0.18 0.6
3.0 110.0 0.01
0.5
4.0 109.9 -0.09
5.0 110.1 0.22 0.4 media +2desv
6.0 110.1 -0.02 0.3
7.0 110.2 0.04 media +desv
0.2
8.0 110.3 0.10
9.0 110.4 0.10 0.1 media
10.0 110.3 -0.03 0.0
11.0 110.6 0.22 0.0 5.0 10.0 15.0 20.0 25.0 30.0 35.0 media-desv
-0.1
12.0 111.2 0.60
-0.2
13.0 111.5 0.32 media-2desv
14.0 111.6 0.09 -0.3
15.0 111.5 -0.06
16.0 111.6 0.07
PUNTOS QUE DEBEN ANALIZARSE
17.0 111.6 0.00 media 0.09 CON ACR PARA VERIFICAR SI ES
18.0 111.6 -0.01 desv 0.15 NECESARIO ALGUNA ACCION
19.0 111.7 0.12 media +desv 0.24 CORRECTIVA CUANDO OCURRAN
20.0 111.8 0.07 media-desv -0.06
21.0 111.8 0.07 media +2desv 0.39
22.0 111.9 0.02 media-2desv -0.21
23.0 112.0 0.17
24.0 112.4 0.37
25.0 112.2 -0.18
26.0 112.2 0.03
27.0 112.3 0.08
28.0 112.3 0.02
29.0 112.4 0.06
30.0 112.5 0.12
SUMMARY OUTPUT
Análisis de REGRESIÓN Multiparamétrica Lineal
Regression Statistics
Multiple R 0.869589 Temperatura Residual
R Square 0.756185
Adjusted R Square 0.729095 Plot
Standard Error 0.297097 0.5
Observations 11

Residuals
0
0 100 200 300 400
ANOVA -0.5
df SS MS F Significance F
-1
Regression 1 2.463808454 2.463808 27.9133 0.000505 Temperatura
Residual 9 0.794398266 0.088266
Total 10 3.25820672
Normal Probability Plot
Coefficients Standard Error t Stat P-value Lower 95%Upper 95%Lower 95.0%
Upper 95.0%
Intercept -0.14465 0.249723798 -0.57923 0.576645 -0.70956 0.420268 -0.70956 0.420268 2.5

Mediciones (cm)
Temperatura 0.005523 0.001045312 5.283304 0.000505 0.003158 0.007887 0.003158 0.007887 2
1.5
1
0.5
0
RESIDUAL OUTPUT PROBABILITY OUTPUT
0 20 40 60 80 100 120
Sample Percentile
Observation
Predicted Mediciones (cm)
ResidualsStandard Residuals Percentile
Mediciones (cm)
1 0.407624 -0.14762371 -0.52377 4.545455 0.26
2 0.462851 -0.023577564 -0.08365 13.63636 0.439273
3 0.573305 0.348712386 1.237224 22.72727 0.504924
Temperatura Line Fit Plot
4 0.738986 -0.234061776 -0.83045 31.81818 0.922017 2.5

Mediciones (cm)
5 1.015121 0.124099007 0.4403 40.90909 0.974509 2
6 1.086916 0.077137129 0.273681 50 1.000067 1.5 Mediciones (cm)
7 1.236029 -0.235962223 -0.83719 59.09091 1.13922 1
8 1.385142 0.388323784 1.377764 68.18182 1.164053 0.5
Predicted
9 1.534255 -0.559745676 -1.98597 77.27273 1.773466 0 Mediciones (cm)
0 200 400
10 1.683368 0.231398356 0.820996 86.36364 1.863781
Temperatura
11 1.832481 0.031300288 0.111053 95.45455 1.914766
-6.66134E-16
ANÁLISIS DE COMPONENTES PRINCIPALES (PCA)

PCA es un método común utilizado en estadísticas para maximizar el contenido de


información en datos de alta dimensión.

Fue introducido por primera vez por Karl Pearson hace más de un siglo (Pearson,
1901).
En términos matemáticos, PCA encuentra un conjunto de m vectores que son
ortogonales en el espacio de datos que representa la varianza más grande, y luego
proyecta los datos desde su espacio n-dimensional original al subespacio m-
dimensional, donde m < n, reduciendo así los datos dimensionalidad.
Es decir, un gran número de variables correlacionadas se transforman en un número
menor de variables no correlacionadas llamadas componentes principales. En la
minería de datos, el PCA se utiliza a menudo como una técnica de preprocesamiento
de datos.
LOS PASOS EN LA APLICACIÓN DEL PCA.
X Y X - Xm Y - Ym

123 76 19.95 7.40


Paso 1. 109 70 5.95 1.40
62 55 -41.05 -13.60
104 71 0.95 2.40
Obtenga los datos que ha medido, calcule el valor del promedio y sustraiga su 57 55 -46.05 -13.60
37 48 -66.05 -20.60
valor del dato medido. 44 50 -59.05 -18.60
100 66 -3.05 -2.60
16 41 -87.05 -27.60
Supongamos que tenemos un conjunto de dos variables independientes y que 28 43 -75.05 -25.60
138 82 34.95 13.40
han sido medidas simultáneamente, como por ejemplo mediciones de niveles 105 68 1.95 -0.60
de vibraciones en mm/s en un chancador. 159 88 55.95 19.40
75 58 -28.05 -10.60
88 64 -15.05 -4.60
164 88 60.95 19.40
169 89 65.95 20.40
167 88 63.95 19.40
149 84 45.95 15.40
167 88 63.95 19.40

103.1 68.6
PASO 2.

Calcular la matriz de covarianza.

La covarianza es una medida de la relación lineal entre dos variables.

Mientras que la varianza opera en una sola variable, la covarianza se mide entre dos variables.

Por ejemplo, para un conjunto de datos en 2 dimensiones, podemos medir la covarianza entre
las dimensiones x e y.

Las expresiones para el ejemplo que nos ocupa son:

σ𝑛 ҧ 2
𝑖=1(𝑥𝑖 −𝑥) σ𝑛 ҧ 𝑖 −𝑥)ҧ
𝑖=1(𝑥𝑖 −𝑥)(𝑥
𝑣𝑎𝑟 𝑥 = =
𝑛 𝑛
Se puede reemplazar el segundo conjunto del paréntesis por el termino correspondiente a la
variable y, se tiene entonces la covarianza:

σ𝑛 ҧ
𝑖=1(𝑥𝑖 −𝑥)(𝑦 ത
𝑖 −𝑦)
𝑐𝑜𝑣 𝑥, 𝑦 =
𝑛
Considere que la covarianza de cualquier variable con ella misma, es su varianza.

σ𝑛 ҧ 𝑖 −𝑥)ҧ
𝑖=1(𝑥𝑖 −𝑥)(𝑥 σ𝑛
𝑖=1(𝑥𝑖 − ҧ
𝑥) 2
𝑐𝑜𝑣 𝑥, 𝑥 = = = 𝑣𝑎𝑟(𝑥)
𝑛 𝑛

Calculando la matriz de covarianza para el ejemplo que nos ocupa, se tiene:


CALCULA LA MATRIZ DE COVARIANZA

C= 2580.7 788.5 = VAR (X) COV (X,Y)


788.5 268.4 COV (Y,X) VAR (Y)
PASO 3.

Calcular autovalores y autovectores de la matriz de covarianza.

Los autovalores y autovectores son propiedades de una matriz cuadrada.

Sea A una matriz cuadrada simétrica definida positiva. Entonces A puede ser diagonalizada por una
matriz de sus vectores propios ortonormales como :

𝐴 = 𝐸Ʌ𝐸 𝑇
Con E una matriz ortonormal N x N, T denota la transposición de la matriz y Ʌ es una matriz
diagonal N xN definida por los valores propios.
Los vectores propios asociados forman las columnas de la matriz E.

𝐸 = 𝑒1 𝑒2 … . 𝑒𝑛
Obteniendo:

2847.7 −0.9519 0.3063


𝐴𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒𝑠 = 𝐴𝑢𝑡𝑜𝑣𝑒𝑐𝑡𝑜𝑟𝑒𝑠 =
1.3 −0.3063 −0.95219

entonces

−0.9519 0.3063
𝝀1 = 2847.7 𝑒1 = 𝝀2 = 1.3 𝑒2 =
−0.3063 −0.9519

En al siguiente lámina se puede observar que uno de los vectores propios, e1, representa una
línea de mejor ajuste.
Este vector propio revela el patrón más importante de los datos.

El segundo vector propio, e2, muestra el otro patrón menos importante: todos los puntos están
ubicados ligeramente fuera de la línea de mejor ajuste.

El gráfico muestra los datos normalizados de nuestro ejemplo


dentro de los ejes formados por el vectores propios e1 y e2.

Los vectores propios de la matriz de covarianza nos proporcionan


los ejes del espacio transformado. Ahora necesitamos representar
nuestros datos en términos de estos autovectores.
PASO 4.

Elija componentes y obtenga un nuevo conjunto de datos

Una vez que se determina un conjunto de valores propios y se dispone en orden decreciente,
podemos ignorar los valores propios de menor importancia y, por lo tanto, reducir la
dimensionalidad del conjunto de datos original.

Los m vectores propios asociados forman las columnas de una matriz llamada vector de
características. Pudiéramos ahora proyectar los datos originales en el espacio de características
formado por el vector de características y, por lo tanto, transformar el conjunto de datos n-
dimensional original en uno m-dimensional.

Proyectando el conjunto de datos en un espacio de características, simplemente se debe


multiplicar el conjunto de datos original normalizado por el vector de características.

Este método de transformación de datos se conoce como descomposición sub-espacial.


Realizando los gráficos de los datos normalizados proyectados en el espacio de características
formado por: (a) ambos vectores propios, e1 y e2; (b) un solo vector propio o autovector, e1

Evaluemos ahora dos posibles casos de


transformación de datos: cuando
mantenemos ambos valores propios y
cuando solo se utiliza el valor propio mayor.

En el primer caso, obtenemos la gráfica


que se muestra a la izquierda.

Debido a que no se ha perdido información en


esta transformación, la gráfica de la izquierda,
representa los datos originales normalizados
dentro de los ejes rotados e1 y e2 que ya se
(a) (b)
habían obtenido.
En el segundo caso, cuando mantenemos solo el primer valor propio mayor, obtenemos la
gráfica que se muestra a la derecha. Podemos ver que esta es efectivamente una gráfica
unidimensional pues se han eliminado todas las variaciones de datos causadas por el segundo
vector propio.

Se debe tener presente que al eliminar los componentes principales de menor importancia,
perdemos cierta información.

Por lo tanto, a menos que mantengamos todos los vectores propios en nuestra transformación, no
podemos recuperar los datos originales sin cambios; se perderá parte de la información.

ARBOLES DE DECISIONES
El árbol de decisiones es un mapa del proceso de razonamiento.

Describe un conjunto de datos mediante una estructura en forma de árbol.


Los árboles de decisión son particularmente buenos para resolver problemas de clasificación.
SÍMBOLOS DE ÁRBOLES DE DECISIÓN

FIGURA NOMBRE SIGNIFICADO


Nodo de Decisión Indica decisión a tomar

Nodo de probabilidad Muestra múltiples


resultados inciertos
Ramificaciones alternativas Indica resultado o
acción
Alternativa rechazada Indica alternativa no
seleccionada
Nodo terminal Indica resultado
definitvo
Un diagrama de árbol de decisiones consta de nodos, ramas y hojas.

El nodo superior se llama nodo raíz.

El árbol siempre comienza desde el nodo raíz y crece dividiendo los datos en cada nivel en
nuevos nodos.

El nodo raíz contiene todos los registros de datos y los nodos secundarios contienen los
respectivos subconjuntos de ese conjunto.

Todos los nodos están conectados por ramas.

Los nodos que se encuentran al final de las ramas se denominan nodos terminales u hojas.

Existen varias herramientas gratuitas que permiten trabajar de forma simple esta herramienta
para la toma de decisiones.
https://www.lucidchart.com/pages/es

https://www.smartdraw.com/decision-tree/
Un diagrama de árbol se usa en matemáticas, más específicamente, en teoría de probabilidad,
como una herramienta para ayudar a calcular y proporcionar una representación visual de
probabilidades.

El resultado de un determinado evento se puede encontrar al final de cada rama en el diagrama


de árbol.

A continuación, se incluyen algunos consejos de prácticas recomendadas para crear un diagrama de árbol de
decisiones:

1. Inicie el árbol. Dibuja un rectángulo cerca del borde izquierdo de la página para representar el primer nodo.
En este rectángulo, escriba la primera pregunta, idea principal o criterio que conducirá a una decisión.

2. Agrega ramas. Para cada alternativa posible, dibuje una línea separada que comience en el nodo y se aleje
hacia la derecha de la página
3. Agrega hojas. La mayor parte del árbol de decisiones serán nodos hoja.
Al final de cada rama, agregue un nodo hoja.

4. Llene cada uno de estos nodos de hojas con otra pregunta o criterio.

5. Agrega más ramas. Repita el proceso de agregar una rama para cada posible alternativa que parta de
una hoja. Etiqueta cada rama como antes.

6. Complete el árbol de decisiones. Continúe agregando hojas y ramas hasta que se hayan resuelto todas
las preguntas o criterios y se haya alcanzado un resultado.

7. Termina una rama. Continúe agregando hojas y ramas hasta que se hayan resuelto todas las preguntas o
criterios y se haya alcanzado un resultado.

8. Verifique la precisión. Consulte con todas las partes interesadas para verificar la precisión.
AGENTES INTELIGENTES

Un Agente Inteligente es un software que partiendo de su propio


conocimiento, realiza un conjunto de operaciones para satisfacer
necesidades de un usuario o de otro programa, ya sea por iniciativa propia
o externa.
Propiedades que cumplen los Agentes Inteligentes

Autonomía. Actúan sin intervención humana, con control sobres sus actos.

Sociabilidad. Comunican por medio de un lenguaje con otros agentes y humanos.

Capacidad de reacción. Percibe su entorno y reacciona adaptándose a él.

Iniciativa. Emprender acciones para resolver un problema especifico.


Los Agentes Inteligentes pueden estar diseñados para procesar consultas y poseen
capacidad de proceso, conocimiento del entorno donde se mueven e información
relacionada con el dominio.
Ejemplo. Un Agente que sabe como resolver una subconsulta en particular puede
asumir la responsabilidad de responderla.

Si la consulta es Camión minero con Carga Normal, y hay un agente en cuyo


dominio se encuentra una entrada a la base de datos relacionada con Carga
Normal, en este caso el agente se ofrecerá para tomar parte de la búsqueda de
carga normal y los resultados obtenidos serán presentados al usuario.
Base de Datos
Percepción
Sensores
Entorno

Acciones

Actuadores
Agente
Inteligente
AGENTES BASADOS EN OBJETIVOS

El fundamento practico de las aplicaciones de la Inteligencia Artificial es el


correcto diseño de un programa de agente.
En este tenemos una función que permita implantar el mapeo del agente para
pasar de percepciones a acciones.
Este programa se ejecutará en algún tipo de dispositivo de cómputo al que se
denominará arquitectura. La arquitectura puede ser una computadora sencilla o
un hardware especial capaz de actuar de forma autónoma y flexible en un
entorno.
El agente debe saber las metas que se desean alcanzar, no es suficiente solo
con saber el estado actual del entorno en el cual se encuentra.
El deberá ser capaz de analizar la situación actual del entorno con las posibles
acciones que se podrían ejecutar y de esta manera seleccionar la acción que
mas le convenga para alcanzar las metas de una forma mucho mas sencilla.
Los agentes basados en objetivos o metas necesitan cierto tipo de información
sobre sus metas.

Las metas van a detallar las situaciones a las que se desea llegar de este modo.
El programa del agente puede combinar las metas con la información de los
resultados (acciones) que emprenda y de esta manera poder elegir aquellas
acciones que permitan alcanzar la meta. SENSORES

¿CÓMO SE ENCUENTRA EL
AGENTE COMPRESOR EN ESTE INSTANTE ?

ESTADO E
N
¿QUÉ SUCEDE SI EMPRENDO
T
ACCIÓN PREVENTIVA?
¿Qué producen O
mis acciones? R
¿QUÉ ACCIÓN DEBERÍA
N
Metas
EMPRENDER ? O

ACCIONADORES
AGENTES “PROBLEM SOLVING”

Un agente que soluciona problemas es capaz de percibir su medio ambiente con la ayuda de sensores
y actuar en ese medio utilizando actuadores (elementos que reaccionan a un estímulo realizando una
acción).

Los agentes inteligentes se describen esquemáticamente como un sistema funcional que soluciona
problemas. Por esta razón, estos agentes inteligentes son a veces llamados Agentes Inteligentes PS (o
Problem Solving) para distinguirlos de sus implementaciones en el mundo real como sistemas
informáticos, sistemas biológicos, o de organizaciones.

El esquema de trabajo es el siguiente, Existen diferentes tipos de agentes Problem Solving…

1. Accesibles y no accesibles
2. Deterministas y no Deterministas
3. Episódicos y No episódicos
4. Estáticos y Dinámicos
5. Discretos y Continuos
AGENTES ACCESIBLES Y NO ACCESIBLES
Si a través de los sensores, el agente tiene acceso al estado total del entorno,
entonces éste es accesible.
Los entornos accesibles son cómodos, ya que el agente no mantiene un
estado interno para estar al tanto de lo que sucede en el mundo.

Entorno exterior: Otros agentes

Comunicación Ejecución
Percepción

Conocimiento
Metas Experto

Planes
Estratégicos
Planificación
Intenciones
AGENTES PS DETERMINISTAS Y NO DETERMINISTAS
Si el estado siguiente se determina a partir del estado y las acciones
elegidas por el agente PS, entonces es determinista. Si el ambiente no es
accesible, entonces podría parecer que no es determinista (en especial en
un ambiente complejo, a veces se pueden considerar aleatorios).

AGENTES PS ESTÁTICOS Y DINÁMICOS

Si el entorno cambia mientras un agente toma una acción a seguir,


entonces se dice que el agente PS es “dinámico”. Es más simple trabajar
con entornos estáticos puesto que no se tiene que observar y pensar al
mismo tiempo.
AGENTES DE ENTORNOS DISCRETOS Y CONTINUOS

Si existe una cantidad limitada de percepciones y acciones distintas y


discernibles, se dice que el entorno es discreto. Si no es posible
enumerarlos, entonces es un entorno continuo.
EJEMPLOS DE PROBLEMAS BIEN DEFINIDOS Y SOLUCIÓN

Los chatbots o bots conversacionales son programas informáticos que han sido
diseñados para simular conversaciones con personas a través del teclado o
mediante la voz.

En el ejemplo de Agente Inteligente que examinamos anteriormente, el agente


bien puede ser un chatbot que responda a las preguntas que se le hacen sobre la
carga normal, en este caso el agente se ofrecerá para tomar parte de la búsqueda
de carga normal y los resultados obtenidos serán presentados al usuario estavez
en forma de dialogo.
Base de Datos
Percepción
Sensores
Entorno

Acciones

Actuadores
Agente
Inteligente
En el siguiente enlace puede verse otra aplicación de chatbot en la industria
de procesos mineros.

https://www.anm.gov.co/?q=mina-el-chatbot-de-la-anm-ya-esta-disponible

Entre las características que tiene MINA se puede observar la habilidad de


responder al lenguaje informal ya que cuenta con un motor propio de
reconocimiento de lenguaje natural (similar al que utiliza Google), que le permite
responder de forma ágil y rápida, e incluso reconoce notas de voz. Se convierte
en un canal de interacción que está disponible las 24 horas del día y los siete
días de la semana
MACHINE LEARNING (ML)

Toma de
Procesamiento Salidas de Datos Decisiones
Registro de Datos de Datos

Sensores Arreglos Categorías


Cámaras Matrices Probabilidades
Bases de Datos Textos embebidos Representaciones
Teclados Normalización Secuencia de Datos Actuadores
Escalamiento Canales de Ejecución
Punto flotante Actualización de tablero
Números enteros Almacenamiento y
Transmisión

“Artificial intelligence is basically where machines make sense, learn, and interact with the external world without human beings having to specifically
program it.”
Nidhi Chappell, Intel’s director of machine learning

ML interacciona con el mundo a través de varias etapas de manipulación e


interpretación de datos para lograr una integración general del sistema.
La salida que obtienen en ML en correspondencia con la entrada, generalmente va a requerir
algún tipo de interpretación. Por ejemplo, si la salida es un vector de probabilidades de que los
objetos se clasifiquen para pertenecer a un grupo o a otro, dentro de un patrón de reconocimiento
de fallas en un entorno minero, entonces puede ser necesario interpretarlo.

Es posible que necesite saber qué tan bajas son las probabilidades para tener en cuenta la
incertidumbre asociada, o puede que necesite saber qué tan diferentes son las probabilidades
para tener en cuenta aún más tipos de incertidumbres.

El procesamiento de salida sirve como factor de conexión entre ML y el mundo de la toma de


decisiones mediante el uso de reglas comerciales.

Regla If – Them : "Si la probabilidad predicha del máximo es dos veces mayor que el segundo
máximo, entonces emita una predicción; de lo contrario, no proceda a tomar una decisión".

O pueden ser reglas basadas en fórmulas o sistemas de ecuaciones más complejos


Finalmente, en la etapa de toma de decisiones, el algoritmo ML está listo para interactuar con el
mundo.

Ejemplos

Conectando un motor a través de un actuador

Alertando a un gerente que la empresa se agotará el


inventario en tres días y necesitan comprar más artículos

Por ahora, puede pensar en este proceso como una caja negra de ML que se revelará a medida
que continúe leyendo.
Casos en las que la aplicación del aprendizaje automático puede brindarle una ventaja
competitiva (*).

I. Cuando no hay experiencia humana disponible sobre un tema. La navegación reciente


a Plutón se basó en el aprendizaje automático, ya que no había experiencia humana sobre
ello.
II. Cuando los humanos no pueden explicar sus habilidades o experiencia. ¿Cómo
reconoces la voz de alguien? El reconocimiento de voz es una habilidad profundamente
arraigada, pero hay tantos factores en juego que no puede decir por qué o cómo reconoce la
voz de alguien.
III. Cuando las soluciones cambian con el tiempo. Temprano en un viaje en hora punta, el
camino está despejado. Una hora más tarde, hay un accidente, la autopista se detiene y las
calles laterales también se congestionan más. La mejor ruta para llegar al trabajo a tiempo
cambia minuto a minuto.

IV. Cuando las soluciones varían de un caso a otro. Cada caso médico es diferente. Los
pacientes tienen alergias a medicamentos, síntomas múltiples, antecedentes familiares de
determinadas enfermedades, etc. Las soluciones deben buscarse de forma individual.
(*) ML Becomes Mainstream: How to increase Your Competitive Advantage. By Ronald Van Loon
EJEMPLO DE ENTRENAMIENTO DE UN ALGORITMO DE ML A PARTIR DE LOS
DATOS.

Suponga un conjunto de datos definidos de la siguiente forma,


𝑁
𝐷 = 𝑋𝑖 , 𝑌𝑖 𝑖=0
Donde Y es la salida deseada correspondiente al vector de entrada X.

En este caso, la motivación de ML es usar los datos para encontrar transformaciones lineales y no
lineales sobre X usando multiplicaciones y sumas de tensor (vector) altamente complejas, o simplemente
encontrar formas de medir similitudes o distancias entre puntos de datos, con el propósito final de predecir
Y dado X.
Una forma común de solucionar el problema es aproximar a una cierta función desconocida que
dependa de la variable independiente X

𝑓 𝑥 = 𝑤𝑇𝑥 + 𝑏 = 𝑦

Siendo w un vector desconocido que facilita l transformación de x junto con b.

Observe que es una transformación linear y esto ilustra cuan simple puede ser el modelo de
aprendizaje en ML.

En este caso simple, los algoritmos ML giran en torno a encontrar el mejor set de datos en
que w y b produce la aproximación más cercana (si no exacta) a y, la salida deseada
Los parámetros entrenables de una neurona son w y b, y se desconocen.

Podemos usar datos de entrenamiento D para determinar estos parámetros usando alguna
estrategia de aprendizaje.

De la imagen, x1 multiplica w1, luego x2 multiplica w2 y b se multiplica por 1; Se agregan todos


estos productos, que se pueden simplificar de la siguiente manera:

𝑥1 𝑤1 + 𝑥2 𝑤2 + 𝑏 = 𝑤 𝑇 𝑥 + 𝑏

La función de activación opera como una forma de asegurar que la salida esté dentro del rango de
salida deseado.

Considere que se desea una activación lineal simple, entonces la función z () se puede considerar
de la siguiente forma

𝑧(𝑤 𝑇 𝑥 + 𝑏) = signo (𝑤 𝑇 𝑥 + 𝑏)
Donde la función signo es:

𝑇 +1 𝑠𝑖 𝑤 𝑇 𝑥 + 𝑏 ≥ 0
𝑠𝑖𝑔𝑛𝑜(𝑤 𝑥 + 𝑏) = ቊ
−1 𝑑𝑒 𝑜𝑡𝑟𝑎 𝑓𝑜𝑟𝑚𝑎

Ello permite incluir el algoritmo de aprendizaje del perceptrón (PLA).

El conjunto de datos bidimensionales se puede generar en forma


aleatoria utilizando herramientas de Python. Por ahora, debería ser
evidente que puede trazar una línea entre los dos grupos y dividirlos.

Con los pasos descritos anteriormente, el PLA puede encontrar


una solución, es decir, una línea de separación que satisfaga
completamente los resultados del objetivo de datos de
entrenamiento en pocas iteraciones en este caso particular.

Los gráficos después de cada actualización se representan en


los siguientes gráficos con la línea correspondiente que se
encuentra en la actualización.
Omar Aguilar Martinez, Ph.D Ciencias FÍsicas
Diaman Consulting Services
SKYPE: diaman.consulting
Canal Youtube: diamanconsulting
http://diaman-consulting-services.simplesite.com/
Email: diaman.consulting@gmail.com
View publication stats

También podría gustarte