Está en la página 1de 23

INTRODUCCIÓN AL

APRENDIZAJE AUTOMÁTICO

(MACHINE-LEARNING)

Profesor:
Joaquin Collantes Lozano

Fechas de impartición
8 y 10 de mayo de 18:00 a 21:00
Programa del curso
1. INTRODUCCIÓN AL MACHINE LEARNING (Aprendizaje Automático)

2. EXTRACCIÓN DE ESTRUCTURA DE LOS DATOS: CLUSTERING

3. SISTEMAS DE RECOMENDACIÓN Y CLASIFICACIÓN

4. REDES NEURONALES Y DEEP LEARNING

5. SISTEMAS DE ELECCIÓN

6. PROCESAMIENTO DE LENGUAJE NATURAL


3. SISTEMAS DE RECOMENDACIÓN Y CLASIFICACIÓN
APRENDIZAJE NO SUPERVISADO

Aprendizaje no supervisado: el Algoritmo K-Means:

• En Machine Learning, las técnicas de aprendizaje no supervisado nos


permiten descubrir estructuras ocultas en los datos. De esta manera, al
no contar con datos etiquetados, sólo podemos descubrir los patrones
que se producen de forma natural en el conjunto de datos.

• Una de las principales técnicas del aprendizaje no supervisado es el


clustering. El objetivo del clustering consiste en encontrar grupos de
instancias (llamados clusters) que están relacionadas entre sí.

• Esta técnica tiene innumerables aplicaciones como la segmentación de


clientes o los sistemas de recomendación.

• Hay diferentes tipos de algoritmos de clustering aquí nos centraremos


en el popular algoritmo k-means, el cual busca instancias centradas en
un punto determinado, llamado centroide. Después de explicar su
funcionamiento, lo aplicaremos en lenguaje Python a un conjunto de
datos y visualizaremos los resultados obtenidos.
APRENDIZAJE AUTOMÁTICO SUPERVISADO: Tipos de Técnicas

Técnicas de Clasificación Vs. Técnicas de Regresión:

El aprendizaje automático supervisado es construir un modelo que hace


predicciones basadas en evidencias bajo la presencia de la incertidumbre.

Un algoritmo de aprendizaje supervisado toma un conjunto de datos de


entrada y respuestas conocidas a los datos (salida) y entrena un modelo para
generar predicciones razonables para el respuesta a nuevos datos.

El aprendizaje supervisado utiliza las “Técnicas de Clasificación” y las “Técnicas


de Regresión” para desarrollar modelos predictivos.

Las Técnicas de Clasificación predicen respuestas discretas, por ejemplo, si un


correo electrónico es deseado o no deseado, o si un tumor es canceroso o
benigno. Aquí, Los modelos clasifican los datos de entrada en categorías. Las
aplicaciones típicas de esta técnica incluyen imágenes médicas,
reconocimiento de voz, y puntuación de créditos financieros.

Las Técnicas de Regresión predicen respuestas continuas, por ejemplo,


cambios de temperatura o fluctuaciones en la demanda de energía. Las
aplicaciones típicas incluyen electricidad pronóstico de carga y negociación
algorítmica.
EJEMPLO APRENDIZAJE AUTOMÁTICO SUPERVISADO: Ataque cardiaco

Aprendizaje supervisado para predecir ataques cardíacos:

Supongamos que los médicos quieren predecir si alguien


tendrá un ataque al corazón dentro de un año.

• Tienen datos de pacientes anteriores, incluyendo edad,


peso, altura y presión arterial.

• Ellos saben si los pacientes anteriores habían tenido


ataques al corazón hace un año.

• Entonces el problema es combinar los datos existentes en


un modelo que pueda predecir si una nueva persona tendrá
un ataque al corazón dentro de un año
4. REDES NEURONALES Y DEEP LEARNING
¿QUÉ ES DEEP LEARNING?

• No dejan de aparecer avances y mejoras de los algoritmos más


tradicionales, desde los conjuntos de clasificadores hasta el
Deep Learning, que está muy de moda en la actualidad por sus
capacidad de acercarse cada vez más a la potencia perceptiva
humana.

• Deep Learning o aprendizaje profundo es una forma de


aprendizaje automático, donde una máquina intenta imitar al
cerebro humano utilizando redes neuronales artificiales con
más de tres capas que le permiten hacer predicciones con una
gran precisión.

• El Deep Learning representa un acercamiento más íntimo al


modo de funcionamiento del sistema nervioso humano.
Nuestro encéfalo tiene una microarquitectura de gran
complejidad, en la que se han descubierto núcleos y áreas
diferenciados cuyas redes de neuronas están especializadas
para realizar tareas específicas.
¿QUÉ ES DEEP LEARNING? EL PROCESO DE ANÁLISIS

El valor de la información y de los datos en el Deep Learning

• Una vez que las empresas disponen de los datos y los sistemas
capaces de procesarlos es el momento de entrar de lleno en la
siguiente fase: la comprensión de los datos, la adquisición del
conocimiento y la extracción del valor.

• A pequeña escala esto es algo que tradicionalmente hacemos los


humanos, accedemos a los datos, los interpretamos usando nuestro
cerebro y tomamos decisiones supuestamente inteligentes.

• Sin embargo, cuando hablamos de gigabytes, terabytes o incluso


petabytes de información, junto con la necesidad de tomar
decisiones en escalas temporales del orden de los milisegundos.

• Nos encontramos ante una “tormenta perfecta”, originada gracias a


la convergencia de las tecnologías Cloud, Móvil, IoT, Big Data y
Computación Cognitiva.

• Las empresas han invertido más de 35.000 millones de dólares en


sistemas cognitivos artificiales desde 2019.
COMPARACIÓN ENTRE EL DEEP LEARNING Y EL MACHINE LEARNING

Si Deep Learning es un subconjunto de Machine Learning, ¿en qué se


diferencian?

• Deep learning se distingue del machine learning clásico por el tipo de datos con
los que trabaja y los métodos mediante los cuales aprende.

• Los algoritmos de machine learning aprovechan los datos estructurados, no


estructurados y etiquetados para realizar predicciones, lo que conlleva la
definición de características específicas durante la entrada de datos para el
modelo y su organización en tablas normalmente pasa por algún
procesamiento previo para organizarlos en un formato estructurado.

• Deep Learning elimina parte del procesamiento previo de datos que requiere
machine learning.

• Por ejemplo, pongamos que tenemos un conjunto de fotos de diferentes mascotas,


y queremos categorizarlo por "gato ", "perro", "hámster", etc. Los algoritmos de
deep learning pueden determinar qué características (por ejemplo, las orejas) son
las más importantes para distinguir a un animal de otro. En machine learning, esta
jerarquía de características la establece manualmente un experto humano.
¿CÓMO FUNCIONA DEEP LEARNING?

• Las redes neuronales profundas constan de varias capas de nodos


interconectados, cada uno sobre la capa anterior para refinar y
optimizar la predicción o categorización.

• Esta progresión de cálculos a través de la red se denomina


propagación hacia delante. Las capas de entrada y salida de una red
neuronal profunda se denominan capas visibles. La capa de entrada
es donde el modelo de Deep Learning ingiere los datos para el
procesamiento, y la capa de salida es donde se realiza la predicción o
clasificación final.

• Otro proceso llamado propagación inversa utiliza algoritmos, como


pendiente de gradiente, para calcular errores en las predicciones y
luego ajusta las ponderaciones y los sesgos de la función moviéndose
hacia atrás a través de las capas con la finalidad de entrenar el
modelo.

• Juntas, la propagación hacia delante y la propagación inversa


permiten a la red neuronal realizar predicciones y corregir los
errores en consecuencia. Con el tiempo, el algoritmo va ganando
precisión.
APLICACIONES REALES DE DEEP LEARNING

• Las aplicaciones de Deep Learning del mundo real forman parte de


nuestra vida diaria, pero en la mayoría de los casos, están tan bien
integradas en los productos y servicios que los usuarios desconocen el
complejo procesamiento de datos que se está realizando en segundo
plano.

Algunos de estos ejemplos son:

• Cumplimiento de la Ley

• Servicios Financieros

• Servicio al cliente

• Aplicaciones sanitarias
DETALLLE DE APLICACIONES REALES DE DEEP LEARNING

• Cumplimiento de la Ley:
Los algoritmos de Deep Learning pueden analizar y aprender de los datos transaccionales para identificar patrones
peligrosos que indican posible actividad delictiva o fraudulenta. El reconocimiento de voz, la visión computacional
y otras aplicaciones de Deep Learning pueden mejorar la eficiencia y la efectividad del análisis de investigación.

• Servicios Financieros
Las instituciones financieras normalmente utilizan análisis predictivo para aplicar algoritmos al comercio de
acciones, evaluar riesgos de negocio para la aprobación de préstamos, detectar fraudes y ayudar a gestionar carteras
de crédito e inversión a sus clientes

• Servicio al cliente
Muchas organizaciones incorporan tecnología de Deep Learning en sus procesos de servicio al cliente. Los
chatbots, que se utilizan en una gran variedad de aplicaciones, servicios y portales de servicio al cliente, son una
forma directa de IA. Los chatbots tradicionales utilizan lenguaje natural e incluso reconocimiento visual, que se
encuentran comúnmente en los menús de los centros de llamada.

• Aplicaciones sanitarias
El sector de la asistencia sanitaria se ha beneficiado enormemente de las prestaciones de Deep Learning desde la
digitalización de las imágenes y los registros de los hospitales. Las aplicaciones de reconocimiento de imágenes
prestan soporte a los especialistas en imágenes médicas y radiólogos, ayudándoles a analizar y evaluar más
imágenes en menos tiempo.
5. SISTEMAS DE ELECCIÓN
SISTEMAS DE ELECCIÓN: SELECCIÓN DE CARACTERÍSTICAS
Selección de características en machine learning

• Los conjuntos de datos, en ocasiones pueden ser pequeños o tremendamente grandes en tamaño, en especial
cuando cuentan con un gran número de características, ocasionando que sean muy difícil de procesar.

• Cuando se tiene este de tipo de conjuntos de datos de alta dimensión y se utilizan todas para la creación de
modelos de Machine Learning esto puede ocasionar:

• Las características adicionales actúen como un ruido el cual hace que el modelo de Machine Learning
tenga un rendimiento bajo.

• El modelo tarda más tiempo en entrenarse.

• Asignación de recursos innecesarios para estas características.

• La selección de características en machine learning es una funcionalidad que busca reducir el número de
características basadas en filtros para obtener así subconjuntos de características. Lo que hace el algoritmo de
selección es crear métodos de selección que hacen la eliminación de una o más características dentro de un
conjunto de datos.

• Existen diversas motivaciones para ejecutar un proceso de selección de características en machine learning.
Entre ellas están:

• Interpretabilidad

• Reducir costos computacionales del entrenamiento

• Evitar el sobreajuste u overfitting


SISTEMAS DE ELECCIÓN: SELECCIÓN DE CARACTERÍSTICAS
Interpretabilidad
• A menos variables de entrada, más fácil es explicar luego cómo afecta cada una de ellas en el
resultado final. Esto se puede hacer de dos formas:

1. Eliminando variables irrelevantes


2. Entendiendo mejor los datos.

Reducir costos computacionales del entrenamiento:

• Usar la selección de características en machine learning para reducir costos no debería ser un factor
demasiado crítico.

• Existen mejores soluciones a este problema que asumir una pérdida de información y un potencial
empeoramiento de los resultados para reducir los costos del entrenamiento con la selección de
características en machine learning.

Evitar el sobreajuste u overfitting

• Podríamos decir que es la más importante, si lo miramos a simple vista, pero en realidad no es así,
ya que en el análisis exploratorio que se hace de los datos (en la selección de características en
machine learning que se hace inicialmente) se suele enfocar la atención en la interpretabilidad.

• Es decir, en los análisis previos se busca quitar las variables que no están aportando información.
Ya después de eso, si resulta que entrenamos con esos datos restantes y estamos en overfitting,
volvemos y hacemos una selección de características mayor.
SELECCIÓN DE CARACTERÍSTICAS: Metodologías y Técnicas

A continuación, analizaremos varias metodologías y técnicas que puedes utilizar para que tus modelos funcionen mejor y de manera
más eficiente.

• Métodos de Filtro:

• Métodos de Envoltura:

Métodos Integrados: El Método de Filtro + Método de Envoltura = LASSO y RIDGE


SELECCIÓN DE CARACTERÍSTICAS: Métodos de Filtros

Correlación de Pearson: se usa como una medida para cuantificar la


Los métodos de filtro se utilizan generalmente como un
dependencia lineal entre dos variables continuas X e Y, su valor varía de
paso de preprocesamiento de datos, la selección de
-1 a +1.
características es independiente de cualquier algoritmo
de Machine Learning.
LDA: el análisis discriminante lineal se usa para encontrar una
combinación lineal de características que caracteriza o separa dos o
Las características se clasifican según los puntajes
más clases, o niveles, de una variable categórica.
estadísticos que tienden a determinar la correlación de
las características con la variable de resultado, ten en
ANOVA: significa análisis de la varianza y es similar a LDA, excepto por
cuenta que la correlación es un término muy contextual
el hecho de que opera mediante una o más funciones independientes
y varía de un trabajo a otro.
categóricas y una función dependiente continua. Proporciona una
prueba estadística de si las medias de varios grupos son iguales o no.
En la siguiente tabla puedes utilizarla para definir los
coeficientes de correlación para diferentes tipos de
Chi-cuadrado: es una prueba estadística que se aplica a los grupos de
datos, en este caso, continuo y categórico.
características categóricas para evaluar la probabilidad de correlación o
asociación entre ellos utilizando su distribución de frecuencia.
SELECCIÓN DE CARACTERÍSTICAS: Métodos de Envoltura

Los métodos de envoltura necesitan un algoritmo Algunos ejemplos de métodos de Envoltura:


de Machine Learning y utilizan su rendimiento como
criterio de evaluación. Estos método buscan una
• Selección hacia delante (Forward Selection): 
característica que sea más adecuada para el
algoritmo y tienen como objetivo mejorar el
rendimiento. • Eliminación hacia atrás (Backward Selection): 

Por lo tanto, tratamos de usar un subconjunto de


características y entrenamos un modelo usándolos, • Eliminación de características recursivas (Recursive Feature Elimination): 
basándonos en las inferencias que extraemos del es un algoritmo de optimización que busca encontrar el subconjunto de funciones con mejor
modelo anterior, decidimos agregar o eliminar rendimiento. Crea repetidamente modelos y deja de lado la mejor o la peor característica de
características de su subconjunto. El problema se rendimiento en cada iteración.
reduce esencialmente a un problema de búsqueda.
Estos métodos suelen ser computacionalmente
muy caros.
SELECCIÓN DE CARACTERÍSTICAS: Diferencias entre métodos

Las principales diferencias entre métodos son:

• Los métodos de filtro no incorporan un modelo de Machine Learning para determinar si una característica es buena o mala, mientras que métodos de
envoltura si lo utilizan y lo capacitan para decidir si es esencial o no.

• Los métodos de filtro son mucho más rápidos en comparación con los métodos de envoltura, ya que no implican la capacitación de los modelos.

• Los métodos de envoltura son computacionalmente costosos, y en el caso de conjuntos de datos masivos, los métodos de envoltura no son el método
de selección de características más efectivo a considerar.

• Los métodos de filtro pueden no encontrar el mejor subconjunto de características en situaciones en las que no hay suficiente datos para modelar la
correlación estadística de las características, pero los métodos de envoltura siempre pueden proporcionar el mejor subconjunto de características
debido a su naturaleza exhaustiva.

• El uso de características de los métodos de envoltura en su modelo final de Machine Learning puede llevar a un ajuste excesivo, ya que los métodos de
envoltura ya capacitan a los modelos de Machine Learning con las características y afectan el verdadero poder del aprendizaje.

• Las características de los métodos de filtro no conducirán a sobreajustes en la mayoría de los casos.

Vs.
6. PROCESAMIENTO DE LENGUAJE NATURAL
QUÉ ES EL PROCESAMIENTO DEL LENGUAJE NATURAL (PLN o NLP)

• El procesamiento del lenguaje natural (PLN o NLP) es un campo dentro de la inteligencia


artificial y la lingüística aplicada que estudia las interacciones mediante uso del lenguaje
natural entre los seres humanos y las máquinas.

• Más concretamente se centra en el procesamiento de las comunicaciones humanas,


dividiéndolas en partes, e identificando los elementos más relevantes del mensaje.

• Con la Comprensión y Generación de Lenguaje Natural, busca que las máquinas consigan
entender, interpretar y manipular el lenguaje humano.

• Los asistentes virtuales o chatbots son una de las utilidades más conocidas de la PLN,
pero no son la única.

• Además, es importante entender que el PNL no dota de inteligencia a un chatbot, sólo le


da la capacidad de procesar y generar lenguaje humano.

• En caso de querer dotar de inteligencia a un asistente virtual, habría que utilizar sistemas
como reglas o redes neuronales.

• Muchas veces cuando se habla de procesamiento de lenguaje natural, algunas personas


únicamente lo relacionan con los chatbots, por eso vamos a ver otros usos del PLN.
¿PARA QUÉ SE UTILIZA EL PROCESAMIENTO DEL LENGUAJE NATURAL?

El procesamiento del lenguaje natural (PLN o NLP), se utiliza actualmente en diferentes áreas y para distintas funciones.

Como por ejemplo:

• Comprensión del lenguaje natural (CLN o NLU)

• Generación del lenguaje natural (GLN o NLG)

• Recuperación de información (RI o IR)

• Reconocimiento y síntesis del habla

• Traducción automática

• Resumen y clasificación de textos

• Detección de sentimientos o emociones

También podría gustarte