Está en la página 1de 43

Introducción a la Inteligencia

Artificial Aplicada

Jorge Bedoya
¿Qué es la Inteligencia Artificial (IA)?
• “Hace pensar en Robots humanoides que se comportan y actuan igual que
un ser humano”
Asimo
Atlas

Autómata humanoide
Da Vinci (1495 aprox.)
Mini Cheetah
¿Qué es la Inteligencia Artificial (IA)?
• Máquina que imita las funciones “cognitivas”: percibir, razonar, aprender y resolver problemas1

• Rama de las ciencias computacionales encargada de estudiar modelos de cómputo capaces de


realizar actividades propias de los seres humanos en base a dos de sus características
primordiales: el razonamiento y la conducta2

• La capacidad de un sistema para interpretar correctamente datos externos, para aprender de


dichos datos y emplear esos conocimientos para lograr tareas y metas concretas a través de la
adaptación flexible3

1. Poole, David. «Computational Intelligence: A Logical Approach»


2. Takeya
3. Andreas Kaplan y Michael Haenlein
Avances reconocidos de Ia IA
• En 1997, se hizo famoso el computador Deep Blue por
derrotar al campeón mundial de ajedrez Gary Kaspárov

• En 2011, Watson, ganó jugando en el popular programa


televisivo Jeopardy.

• En 2014, Eugene, superó con éxito el test de Turing


haciendo creer a un interrogador que se trataba de un chico
de 13 años.

• En 2016 y 2017, software AlphaGo, desarrollado por


Google, venció en el milenario juego Go a su campeón
mundial, el chino Ke Jie​ (y a Lee Se-dol mejor jugador de los
últimos 20 años)

• En 2019, Google presentó su Doodle en que, con ayuda de


la IA, hace un homenaje a Johann Sebastian Bach, en el que,
añadiendo una simple melodía de dos compases la IA crea el
resto. https://www.google.com/doodles/celebrating-johann-sebastian-bach
¿Escuelas del pensamiento de AI?
• AI Convencional (Simbólico-deductiva)

Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes
problemas.

• AI computacional (Subsimbólica-inductiva)

Implica desarrollo o aprendizaje interactivo. El aprendizaje se realiza basándose en datos


empíricos
AI Deductiva
• Razonamiento basado en casos: ayuda a tomar decisiones mientras se
resuelven ciertos problemas concretos.
• Sistemas expertos: infieren una solución a través del conocimiento previo del
contexto en que se aplica y de ciertas reglas o relaciones.
• Redes bayesianas: propone soluciones mediante inferencia estadística.
• IA basada en comportamientos: sistemas complejos que tienen autonomía y
pueden auto-regularse y controlarse para mejorar.
AI Inductiva
Principales técnicas:

• Máquina de vectores soporte: sistemas que permiten reconocimiento de


patrones genéricos de gran potencia.
• Redes neuronales: sistemas con grandes capacidades reconocimiento de
patrones.
• Modelos ocultos de Markov: aprendizaje basado en dependencia temporal de
eventos probabilísticos.
Aplicaciones AI
https://www.ebankingnews.com/noticias/10-aplicaciones-de-inteligencia-artificial-para-no-quedarse-atras-en-el-2018-0040490
Aplicaciones
 Financieras y de banca
 Análisis de riesgos de crédito
 Obtención de patrones de fraude en tarjetas de crédito
 Correlaciones entre indicadores financieros
 Análisis de mercado
 Análisis de canasta de compra
 Segmentación de clientes
 Análisis de fidelidad de clientes. Reducción de fuga
 Seguros y salud privada
 Predicción de clientes que contratarán nuevas pólizas.
 Determinación de clientes que podrían ser potencialmente
caros.
Aplicaciones
 Educación
 Selección o captación de estudiantes
 Detección de abandonos o fracaso
 Medicina
 Identificación de patologías
 Recomendación priorizada de fármacos
 Biología
 Análisis de secuencias de genes
 Modelos de calidad del agua
 Telecomunicaciones
 Procesos industriales
 ETC.
Metodologías

Perspectiva técnica
https://gin.cl/business-intelligence-inteligencia-empresarial/
KDD: Knowledge Discovery in Databases process
KDD: Knowledge Discovery in Databases process

1. SELECCIÓN:

Selección e integración de los datos objetivo provenientes


de fuentes múltiples y heterogéneas
KDD: Knowledge Discovery in Databases process

2. PREPROCESAMIENTO:

• Eliminación de ruido y datos aislados o outliers.

• Uso del conocimiento previo para


Eliminar las inconsistencias y los
duplicados.
• Escogencia y uso de estrategias para
manejar la información faltante en los
datasets.
KDD: Knowledge Discovery in Databases process

3. TRANSFORMACIÓN:

• Preparación de los datos para el análisis

• Uso de transformaciones de atributos


como: numerización, discretización, etc.
• El resultado es un conjunto de filas y
columnas denominado vista minable
KDD: Knowledge Discovery in Databases process

4. MINERÍA DE DATOS:

• Análisis de los patrones o relaciones a descubrir

• Se comprende de 3 pasos:

o Selección de la tarea
o Selección del algoritmo(s)
o Aplicación/Entrenamiento del
algoritmo.
KDD: Knowledge Discovery in Databases process

5. INTERPRETACION/EVALUACIÓN:

• Implementación, interpretación o difusión del modelo


KDD: Knowledge Discovery in Databases process

6. ACTUALIZACIÓN Y MONITORIZACIÓN

• Consiste en ir revalidando el modelo con


cierta frecuencia sobre nuevos datos,
con el objetivo de detectar si el modelo
requiere una actualización
CRISP DM
Cross Industry Standard
Process for Data Mining
CRISP DM

1. Entender las necesidades del


negocio
CRISP DM

2. Entendimiento de los datos, para


identificar variables de interés y
posibles inconsistencias
CRISP DM

3. Preparar los datos para el análisis:


calidad de datos, completar datos
(Vista minable)
CRISP DM

4. Descubrir de manera automática


información de valor por medio
de técnicas de minería de datos
CRISP DM

5. Evaluación de los resultados de


acuerdo a la técnica utilizada
CRISP DM

6. Distribuir los análisis de los


resultados efectivamente, con el
fin de mejorar los procesos de
negocio.
Big Data Analysis Pipeline
Big Data Analysis Pipeline

Desafíos en el Análisis de
Big Data
Big Data Analysis Pipeline

1. Heterogeneidad e incompletitud

Desafíos en el Análisis de
Big Data
Big Data Analysis Pipeline

2. Escalar: Volumen de datos

Desafíos en el Análisis de
Big Data
Big Data Analysis Pipeline

3. Puntualidad (timeliness): Velocidad

Desafíos en el Análisis de
Big Data
Big Data Analysis Pipeline

4. Privacidad

Desafíos en el Análisis de
Big Data
Big Data Analysis Pipeline

5. Colaboración humana: Un sistema


de análisis de Big Data debe admitir la
aportación de múltiples expertos
humanos y la exploración compartida
de resultados.
Desafíos en el Análisis de
Big Data
Arquitectura

https://ingenieriadelsoftwareuah2015.wordpress.com/2015/04/05/inteligencia-de-negocios/
Técnicas

(Covering Algorithm -
Basado en reglas)

Radial-Basis Function

José Hernández Orallo - Extracción Automática de Conocimiento en


Bases de Datos e Ingeniería del Software
Herramientas

https://www.kdnuggets.com/2017/05/poll-analytics-data-science-machine-learning-software-leaders.html

https://www.maximaformacion.es/blog-dat/r-vs-python-2018-cual-es-mejor/
Herramientas

https://www.kdnuggets.com/2019/05/poll-top-data-science-machine-learning-platforms.html

https://www.maximaformacion.es/blog-dat/r-vs-python-2018-cual-es-mejor/
Herramientas

La herramienta está formada por diferentes modulos


entre ellos: RapidMiner Studio, RapidMinder Server,
RapidMiner Radoop, RapidMiner Real-Time Scoring,
cada uno encargado de una técnica diferente de
minería de datos

El punto fuerte de RapidMiner, si se compara con el


resto de software de data mining, reside en
los análisis predictivos
Herramientas

Presenta una eficiencia notable en el tratamiento


previo de los datos así como en su extracción,
transformación y carga. Debido a su
segmentación en módulos, sirve principalmente
como software de data mining orientado al flujo
de datos.
Herramientas

SAS constituye la data mining tool principal en el


análisis en el sector de los negocios y, de hecho, se
considera como el programa más adecuado para
grandes empresas, aunque también sea el software
con un coste económico mayor de todos los aquí
descritos
Se caracteriza por su gran escalabilidad, pues permite
aumentar progresivamente su eficiencia aumentando
los recursos de hardware o de cualquier otro tipo, sin
olvidar que para aquellos usuarios con menos afinidad
técnica la herramienta dispone de una interfaz de
usuario gráfica.
Herramientas

Es una herramienta de gran capacidad de IBM para el


análisis de datos.

La solución incluye para ello funcionalidades como:

Analítica de texto.
Análisis de entidades.
Gestión de decisiones y optimización.
Herramientas

R es un lenguaje ampliamente usado para el análisis


de datos y computación estadística

La inclusión de paquetes poderosos en R lo ha hecho


más y más poderoso con el tiempo

R tiene suficientes disposiciones para implementar


algoritmos de aprendizaje automático de una manera
rápida y sencilla.
Herramientas

Es un lenguaje bastante eficiente con una sintaxis


bastante amigable (No es muy complejo)

Cada vez se está usando más este lenguaje. Tanto por


informáticos como por científicos e ingenieros.

Las numerosas librerías creadas para el análisis de datos


son:
• Numpy y Pandas que implementan funciones para
cálculos matemáticos y estadísticos
• Mlpy con algoritmos de aprendizaje máquina
• Matploit que permite la visualización y representación
gráfica de los datos. Su integración con aplicaciones como MongoDB,
Hadoop o Pentaho.
Herramientas

Weka
Es un software de código abierto desarrollado por la
Universidad de Waikato.

Presenta un sinnúmero de funciones de aprendizaje


automático y secunda tareas tan relevantes del data
mining como el análisis de clústeres, de correlación o
de regresión, así como la clasificación de datos, punto
fuerte este último del data mining software al usar
redes de neuronas artificiales, árboles de decisión y
algoritmos ID3 o C4.5.

También podría gustarte