Está en la página 1de 34

MF1: Inteligencia artificial

Unidad Didáctica 1: Aplicativos basados en inteligencia artificial.


Clasificaciones. Chatbot, reconocedores de imágenes, herramientas
predictivas, entre otras.

Proyecto financiado por el Ministerio de Educación y Formación Profesional - U.E. Next Generation
Dirección de proyecto UGT España:
Fernando Montalvo Martín
Coordinación de proyecto UGT España:
Manuela Jiménez Luna

Diseño y adaptación pedagógica UGT España:


Érika Cruz Torres
Miriam Escribano Cotera

Revisión de contenidos UGT España:


Érika Cruz Torres
Miriam Escribano Cotera
Javier Vaquero Andaluz
Carlos Sayalero Caballero

Dirección de proyecto Telefónica Educación Digital:


Gemma-Ruth Lazovsky
Coordinación de proyecto Telefónica Educación Digital:
Yesmariana Gómez Fernández

Coordinación pedagógica Telefónica Educación Digital:


Nines Ruiz-Valdepeñas del Amo

Autoría contenidos Telefónica Educación Digital:


Mirella Jiménez Gutiérrez
Angélica Comesaña Comesaña
Mª de las Nieves Pardo Díaz
Ana Castro Antonio
Laura Gutiérrez Pérez

Diseño gráfico y producción audiovisual Telefónica Educación Digital:


Erick Biain Galán
Ismael Sanz Sánchez

Revisión y edición de contenidos Telefónica Educación Digital:


Naiara San Pedro Zamora
María Luisa Belmonte Carmona

2
Índice
1. INICIO ......................................................................................................................................................... 5
1.1 Consideraciones previas ........................................................................................................................ 5
1.2 Introducción............................................................................................................................................. 5
¿Qué vas a aprender en esta unidad? ...................................................................................................... 6
¿Cómo vas a conseguir el gran reto de este módulo formativo? ........................................................... 6
2. INTELIGENCIA ARTIFICIAL ....................................................................................................................... 8
2.1 Introducción a la inteligencia artificial ................................................................................................... 8
2.2 Inteligencia artificial vs. inteligencia humana ....................................................................................... 9
2.3 Utilidades de la IA.................................................................................................................................. 10
Aprendizaje profundo .............................................................................................................................. 11
Robótica ................................................................................................................................................... 11
Visión artificial ......................................................................................................................................... 11
Sistemas de colaboración ...................................................................................................................... 12
Crowdsourcing y computación humana................................................................................................. 12
Teoría algorítmica de juegos y elección social ..................................................................................... 13
Internet de las cosas o IdC (Internet of Things, IoT) ............................................................................. 13
Computación neuromórfica .................................................................................................................... 14
3. MACHINE LEARNING ............................................................................................................................... 15
3.1 Introducción al Machine Learning ......................................................................................................... 15
3.2 Machine Learning vs Deep Learning ...................................................................................................... 16
Estructura y arquitectura del modelo ..................................................................................................... 17
Representación y procesamiento de datos ........................................................................................... 17
Requisitos de datos y tamaño del conjunto de entrenamiento ............................................................ 18
3.3 Caso de uso ........................................................................................................................................... 18
Entrenamiento para el reto ..................................................................................................................... 19
4. PROCESAMIENTO DEL LENGUAJE NATURAL ...................................................................................... 20
4.1 Áreas dentro del NLP ............................................................................................................................ 20
Generación de lenguaje natural .............................................................................................................. 20
Comprensión del lenguaje natural .......................................................................................................... 21
Comprensión del lenguaje hablado ........................................................................................................ 21
4.2 Tokenización ......................................................................................................................................... 21
Bag of words ............................................................................................................................................ 21
Latent Semantic Analysis ........................................................................................................................ 22
Expresiones regulares ............................................................................................................................. 22
Part of Speech Tagging (PoS) ................................................................................................................. 22
4.3 Speech to text ......................................................................................................................................... 23

3
¿Cómo se realiza este proceso?............................................................................................................. 24
5. CHATBOTS ............................................................................................................................................... 25
6. RECOMENDADORES AUTOMÁTICOS .................................................................................................... 26
6.1 Técnicas de filtrado .............................................................................................................................. 26
Filtrado colaborativo ............................................................................................................................... 27
Filtrado basado en contenido ................................................................................................................. 27
Filtrado demográfico ............................................................................................................................... 27
Filtrado basado en conocimiento ........................................................................................................... 28
Modelado de asociación ......................................................................................................................... 28
6.1 Hibridación de técnicas ........................................................................................................................ 28
6.2 Casos de uso ......................................................................................................................................... 29
Entrenamiento para el reto ..................................................................................................................... 30
7. CIERRE...................................................................................................................................................... 31
7.1¿Qué has aprendido en esta unidad?..................................................................................................... 31
7.2 Referencias bibliográficas .................................................................................................................... 32
8. ANEXOS ................................................................................................................................................... 33
8.1 Glosario .................................................................................................................................................. 33
Algoritmo ................................................................................................................................................. 33
Aprendizaje profundo .............................................................................................................................. 33
Bot ............................................................................................................................................................ 33
Chatbot ..................................................................................................................................................... 33
ChatGPT ................................................................................................................................................... 33
Condicionamiento operante ................................................................................................................... 33
Internet de las cosas ............................................................................................................................... 34
Lematización ........................................................................................................................................... 34
Machine Learning .................................................................................................................................... 34
Ocurrencia ................................................................................................................................................ 34
Prueba de Turing ..................................................................................................................................... 34
Tokenización............................................................................................................................................ 34

4
1. INICIO

1.1 Consideraciones previas

A lo largo del documento encontrarás algunas palabras con un enlace que te llevará al glosario del
curso para que puedas consultar su significado si así lo necesitas.
También encontrarás otros enlaces a vídeos o páginas web externas. Te recomendamos que los abras
pulsando el botón derecho del ratón y seleccionando la opción “Abrir hipervínculo” para que se muestren
en una ventana emergente distinta a la actual.

1.2 Introducción

En esta unidad vamos a conocer qué es la Inteligencia Artificial (IA), cómo fue evolucionando desde sus
inicios y la compararemos con la inteligencia humana.

Veremos algunos trending topics como son la robótica, la visión artificial, el internet de las cosas y la
computación neuromórfica. Es decir, hablaremos de los robots de cocina, de las luces que se encienden
cuando notan nuestra presencia, de la forma de los trenes alta velocidad, etc.

Nos introduciremos en el Machine Learning para entender qué hay detrás de Siri o Alexa, entrando, por
tanto, en el procesamiento del lenguaje y la transformación de la voz al texto.

Por último, nos acercaremos a los chatbots, que tanta polémica han generado últimamente; y cómo se
llevan a cabo las recomendaciones automáticas en nuestros dispositivos después de que nosotros
hacemos una búsqueda.

Si quieres saber un poco más sobre todos estos temas, esta es tu oportunidad. ¡Vamos a ello!

5
¿Qué vas a aprender en esta unidad?

1. Inteligencia Artificial (IA).


a. Inteligencia artificial vs. inteligencia humana.

b. Utilidades de la IA.

2. Machine Learning (ML).


a. Machine Learning vs. Deep Learning.

3. Procesamiento del Lenguaje Natural (PLN).

a. Procesamiento, generación y comprensión del lenguaje natural y hablado.

b. Tokenización.

c. Speech to text.

4. Chatbots.

5. Recomendaciones automáticas.
a. Técnicas de filtrado.

b. Hibridación de técnicas.

¿Cómo vas a conseguir el gran reto de este módulo formativo?

Te planteamos el siguiente objetivo que te ayudará a lograrlo:


• Clasificar aplicativos basados en inteligencia artificial, describiendo sus aplicaciones y
objetivos.

6
7
2. INTELIGENCIA ARTIFICIAL

2.1 Introducción a la inteligencia artificial

La Inteligencia Artificial (IA) es una expresión muy utilizada hoy en día, rodeada de conceptos
malinterpretados y preguntas sobre su finalidad y su alcance real. Aparte de sus conocidos retos éticos
y filosóficos, la IA puede ser el catalizador de grandes avances en materia de cambios sociales,
económicos y tecnológicos.

La Inteligencia Artificial es una disciplina en computación que aspira a desarrollar sistemas capaces de
emular los procesos cognitivos humanos.

Si bien mucha gente la percibe como algo completamente novedoso, en realidad surgió en la década de
los 50. A lo largo de los años, la IA se ha desarrollado en diversos ámbitos de la industria. Pero es ahora
cuando se ha abierto camino hasta nuestros hogares y nos provee de muchas aplicaciones que nos
ayudan en nuestras tareas cotidianas.

La eclosión de sistemas como ChatGPT ha disparado las expectativas del gran público; sin embargo, es
importante no olvidar sus limitaciones. Porque el hecho es que la IA aún está muy lejos de tener una
inteligencia general similar a la humana.

8
2.2 Inteligencia artificial vs. inteligencia humana

En 1966, Joseph Weizenbaum creó un programa que aseguraba poder pasar la prueba de Turing. La
prueba de Turing es un grupo de preguntas en donde un robot por medio de sus respuestas debe
engañar a los jueces de forma que crean que el interlocutor es humano. Este programa era conocido
como ELIZA y funcionaba a través del análisis del texto escrito por el usuario en busca de palabras
clave. En caso de encontrar una palabra clave, una regla que transformaba el comentario del usuario
entraba en acción y se contestaba con una frase relacionada con la misma. Si no detectaba ninguna
palabra clave, daba una respuesta genérica o repetía uno de los comentarios anteriores.

ELIZA replicaba el comportamiento de un psicoterapeuta con conversaciones muy abiertas, pidiendo al


interlocutor o interlocutora que le hablara más de alguno de los temas asociados a sus palabras clave,
dando lugar a conversaciones inacabables.

De esta forma, ELIZA fue capaz de engañar a algunas personas haciéndolas creer que hablaban con
alguien real; y se considera uno de los programas (probablemente el primero) en pasar la prueba de
Turing, aunque existe cierta controversia al respecto.

El poder de la IA reside en la velocidad de las operaciones informáticas porque puede analizar


instantáneamente conjuntos de datos masivos y sugerir variaciones y mejoras en el diseño.

Sin embargo, para lo que al cerebro humano lleva segundos, la IA necesita algoritmos intrincados y
ejemplos de aprendizaje para simular el proceso de pensamiento, como, por ejemplo:

9
• Reconocimiento facial (face recognition)
• Reconocimiento de voz (speech recognition)
• Reconocimiento de imágenes (image processing)
• Análisis de datos
• Predicción
• Aprendizaje (Machine Learning/Deep Learning)
• Resolución de tareas

2.3 Utilidades de la IA

La IA es un área muy extensa, con multitud de aplicaciones y subáreas de investigación. Hoy en día está
presente en prácticamente todos los sectores de la industria y de la vida cotidiana, como en los robots
de cocina o de limpieza, GPS, Siri, Alexa... En este apartado revisaremos algunas de las utilidades de la
IA que más están llamando la atención de compañías y organizaciones.

10
Aprendizaje profundo

Se llama aprendizaje profundo al proceso que realizan los ordenadores identificando patrones
complejos de forma que puedan ofrecer una información precisa. La capacidad de entrenar con éxito
redes neuronales convolucionales ha beneficiado sobre todo al campo de la visión artificial, con
aplicaciones como el reconocimiento de objetos, el etiquetado de vídeos, el reconocimiento de
actividades y diversas variantes de las mismas. Por ejemplo, cuando el sistema de seguridad instalado
en tu coche detecta que hay un obstáculo en la carretera y frena para evitar una colisión.
El aprendizaje profundo o deep learning también está haciendo incursiones significativas en otras áreas
de la percepción, como el audio, el habla y el procesamiento del lenguaje natural.

Robótica

La robótica es una ciencia en la que se unen diferentes tecnologías para la creación de máquinas
programadas que puedan realizar tareas específicas.
Los esfuerzos actuales se centran en cómo entrenar a un robot para que interactúe con el mundo que
le rodea de forma generalizable y predecible. Los avances en la percepción fiable de las máquinas: la
visión artificial, la fuerza y la percepción táctil; en gran parte impulsados por los avances en aprendizaje
automático, son los elementos clave para hacer avanzar las capacidades de la robótica. Por ejemplo, en
el campo de la medicina, gracias al uso del robot denominado Da Vinci, son posibles cirugías menos
invasivas y mucho más precisas.

Visión artificial

La visión artificial es actualmente la forma más destacada de percepción artificial. Ha sido la subárea
de la IA más transformada por el auge del aprendizaje profundo.
Por ejemplo, hasta hace pocos años, los métodos de reconocimiento facial se basaban en vectores y
álgebra lineal. Pero la confluencia de la computación a gran escala con grandes conjuntos de datos y el
perfeccionamiento de los algoritmos de redes neuronales han dado lugar a mejoras espectaculares en
este campo. De esta manera, la visión artificial se usa en el reconocimiento facial para, por ejemplo,
desbloquear nuestro móvil.

11
Sistemas de colaboración

La investigación sobre sistemas colaborativos estudia modelos y algoritmos que ayudan a desarrollar
sistemas autónomos capaces de trabajar en colaboración con otros sistemas y con los seres humanos.

Cada vez hay más situaciones en las que se aprovecha la complementariedad entre humanos y
máquinas, para que los humanos asistan a los sistemas de IA, superando sus limitaciones, y para que
los agentes aumenten las capacidades y actividades humanas.

Crowdsourcing y computación humana

Crowdsorucing viene de la unión de dos palabras inglesas: crowd –que significa multitud– y sourcing –
que significa fuente, abastecimiento-. Seguro que ya se te ha venido a la mente un ejemplo muy usado
en nuestra vida cotidiana: la Wikipedia.

Wikipedia es un repositorio de conocimientos que mantienen y actualizan los internautas, y que supera
con creces en escala y profundidad a las fuentes de información compiladas tradicionalmente. Esta
colaboración de personas que no se conocen permite que siempre esté actualizada, pero además, si un
colaborador, por ejemplo, utiliza una palabrota, el programa que lo sustenta la eliminaría
automáticamente.

Dado que las capacidades humanas son superiores a los métodos automatizados para realizar muchas
tareas, la investigación sobre crowdsourcing y computación humana estudia métodos para aumentar
los sistemas informáticos utilizando la inteligencia colectiva para resolver problemas que los
ordenadores por sí solos no pueden resolver bien.

El crowdsourcing se centra en idear formas innovadoras de aprovechar la inteligencia humana. El


trabajo en este campo ha facilitado avances en el desarrollo de aplicaciones de IA al permitir recopilar
en poco tiempo grandes cantidades de datos de entrenamiento.

12
Teoría algorítmica de juegos y elección social

Cada vez se presta más atención a las dimensiones económicas y de computación social de la IA,
incluidas las estructuras de incentivos. La IA distribuida y los sistemas multiagente se estudian desde
principios de los años 80, adquirieron importancia a finales de los 90 y se aceleraron con Internet.
Entre los temas a los que se presta atención se encuentran:
● El diseño computacional de mecanismos. Por ejemplo, aplicado a la recaudación de impuestos. La
administración debe recaudar una cierta cantidad de dinero, de la forma menos costosa posible;
así que diseña un mecanismo (un sistema de impuestos) que valora todas las estrategias y la
respuesta de los contribuyentes a las nuevas figuras impositivas.
● La elección social computacional. Por ejemplo, una teoría sobre cómo agregar órdenes de
clasificación de alternativas en una selección de personal, de manera que pueda escoger de entre
todas las soluciones generadas, la óptima o la que mejor satisfaga los objetivos.
● La obtención de información alineada con los incentivos. Por ejemplo, en los mercados de
predicción, reuniendo los datos y estableciendo la respuesta más adecuada.
● La teoría algorítmica de juegos. Los equilibrios de los mercados, los juegos en red y los juegos de
salón. Este análisis de algoritmos implican un comportamiento estratégico para la toma de
decisiones, como en el juego del prisionero.

Internet de las cosas o IdC (Internet of Things, IoT)

Cada vez se investiga más la idea de que una amplia gama de dispositivos con capacidad de conexión
a Internet, pueden recoger y compartir información de sus sensores; esto es lo que se define como
Internet de las Cosas. Estos dispositivos pueden incluir electrodomésticos, vehículos, edificios, cámaras
y otros elementos.

Mientras que conectar los dispositivos es una cuestión de tecnología y redes inalámbricas, la IA puede
procesar y utilizar las enormes cantidades de datos resultantes para mejorar nuestra vida cotidiana.

Por ejemplo, nuestra casa inteligente tiene una aplicación de detección de movimiento, que se unirá a un
temporizador y al GPS de nuestro móvil y apagará todos los dispositivos cuando salgamos hacia el
trabajo, y los encenderá cuando estemos a punto de regresar.

13
Computación neuromórfica

El concepto de computación neuromórfica se centra en replicar la estructura de sistemas nerviosos


biológicos para construir arquitecturas de computación más eficientes para estos propósitos. Es decir,
que imiten la estructura y el comportamiento de las neuronas reales. Como por ejemplo el procesador
de olor de Intel o la red neuronal de Google Brain para distinguir moléculas olorosas.
Este campo es altamente experimental, y no se han conseguido todavía resultados reseñables que
hagan viables estas arquitecturas alternativas a las tradicionales.

14
3. MACHINE LEARNING

3.1 Introducción al Machine Learning

El enfoque del aprendizaje automático, o Machine Learning (ML), se basa en que un sistema puede
aprender y evolucionar de varias formas. En general, se puede decir que una IA aprende a base de
descubrir patrones (de datos), errores y aciertos (ensayo y error).

A diferencia de la programación convencional, el aprendizaje automático empieza por el final, de modo


que no se codifica la solución, sino que la propia máquina aprende a partir de un conjunto de reglas.

Se podría decir que el aprendizaje automático es la estrategia que permite el desarrollo de sistemas
computacionales orientados a descubrir patrones en un conjunto de datos de entrada. Se basa en que
los algoritmos aprenden y mejoran sus resultados utilizando datos y creando relación entre ellos.

Uno de los principales objetivos actuales es adaptar los algoritmos existentes a conjuntos de datos
extremadamente grandes (big data). La extensión de los modelos a grandes volúmenes de datos puede
permitir extraer conclusiones más completas

Existen cinco modalidades de aprendizaje automático:

MODALIDADES
DE APRENDIZAJE
AUTOMÁTICO

1 2 3 4 5

Aprendizaje Aprendizaje Aprendizaje Aprendizaje Aprendizaje


supervisado no supervisado semi supervisado por refuerzo transductivo

15
● Aprendizaje supervisado: implica entrenar un modelo con ejemplos etiquetados para hacer
predicciones precisas en nuevos datos. Por ejemplo, entrenamos un modelo con imágenes de
perros y gatos junto con sus etiquetas correspondientes y gracias a ello, el modelo es capaz de
distinguir entre perros y gatos en nuevas imágenes nunca vistas antes.
● Aprendizaje no supervisado: es una técnica de aprendizaje automático en la que el modelo se
entrena sin ejemplos etiquetados. En lugar de recibir datos con respuestas conocidas,
conseguimos que el modelo busque patrones, estructuras o relaciones en los datos por sí mismo.
En este caso, podríamos tener unas imágenes de animales sin etiquetas. El modelo está preparado
para analizar estos datos y buscará similitudes, agrupando las imágenes que tienen características
similares. Por ejemplo, podría agrupar todas las imágenes de perros juntos y todas las imágenes de
gatos juntos, incluso sin haber sido informado previamente de qué animales son.
● Aprendizaje semisupervisado: este modelo utiliza una pequeña cantidad de datos etiquetados
(costosos de generar) y una gran cantidad de datos sin etiquetar con el objetivo de hacer
predicciones.
Si recordáis el ejemplo que pusimos sobre Wikipedia y la colaboración anónima, hablábamos de
que el algoritmo reconoce las palabrotas entre todo lo que escriben los colaboradores con el fin de
eliminarlas.
● Aprendizaje por refuerzo: Se entrena a un agente para que ejecute determinadas acciones en un
entorno sin un conjunto de datos. Es un método de entrenamiento basado en reforzar los
comportamientos deseados y/o reprimir los no deseados, muy relacionado con el
condicionamiento operante en biología y psicología.

En general, un agente de aprendizaje por refuerzo es capaz de percibir e interpretar su entorno,


emprender acciones y aprender por ensayo y error. Tiene que determinar la mejor secuencia de
acciones para maximizar la recompensa recibida, es decir, tiene que diseñar una estrategia o
política de acciones que produzcan la mejor respuesta.

Pensemos cómo funciona esto en un videojuego, donde la persona jugadora va aprendiendo


basándose en errores y aciertos cuáles son las mejores decisiones o acciones que debe tomar para
poder avanzar niveles. En su entrenamiento perderá varias veces, pero servirá de aprendizaje para
próximas partidas.
• Aprendizaje transductivo: Este modelo se basa en los conjuntos de datos etiquetados para deducir
las etiquetas de los que están sin etiquetar. Se utiliza, por ejemplo, para identificar flores en un
conjunto de imágenes

La transducción no construye un modelo, solo hace predicciones basadas en el conjunto de


entrenamiento

3.2 Machine Learning vs Deep Learning

Para finalizar este apartado, haremos una comparativa entre Machine Learning (ML) y Deep Learning
(DL), dos subcampos del aprendizaje automático que se diferencian en varios aspectos clave.

En esta primera tabla se analiza la estructura y la arquitectura del modelo de ambos modelos de
aprendizaje.

16
Estructura y arquitectura del modelo

Machine Learning Deep Learning

Los modelos se construyen a partir de Los modelos se construyen utilizando redes


algoritmos y técnicas que se centran en extraer neuronales artificiales de múltiples capas, o
características relevantes de los datos de redes neuronales profundas compuestas por
entrada y entrenar modelos basados en esas múltiples capas ocultas.
características.
Utilizan algoritmos de aprendizaje específicos,
Suele incluir: como retropropagación, para ajustar los pesos
y realizar la inferencia.
● Árboles de decisión.
● Regresión logística. Son capaces de aprender automáticamente
● Máquinas de vectores de soporte. características y representaciones más
● K-Nearest Neighbors (k-NN). complejas de los datos.

Son eficaces en:


● Procesamiento de imágenes.
● Procesamiento de lenguaje natural.
● Reconocimiento de voz.

En el siguiente cuadro se presenta una comparativa de cómo se representan y se procesan los datos en
ambos casos.

Representación y procesamiento de datos

Machine Learning Deep Learning

Los datos se representan mediante un Los datos se representan directamente como


conjunto de características seleccionadas o tensores multidimensionales, y el modelo de red
diseñadas manualmente por expertos en el neuronal aprende automáticamente las
dominio que se utilizan como entradas para características y representaciones relevantes
los modelos de ML. durante el proceso de entrenamiento.
Se requiere un conjunto de datos Aunque los modelos pueden beneficiarse de
relativamente grande y diverso para entrenar grandes conjuntos de datos, las redes
modelos con buen rendimiento. neuronales profundas aprenden de manera
efectiva incluso con conjuntos de datos más
La selección y extracción manual de pequeños.
características puede ser un proceso
laborioso. En lugar de depender de características
diseñadas manualmente, estas redes aprenden
automáticamente las representaciones y
características relevantes durante el
entrenamiento.

En esta última tabla se reflejan los requisitos de datos y tamaño del conjunto que son adecuados para el
ML y para el DL.

17
Requisitos de datos y tamaño del conjunto de entrenamiento

Machine Learning Deep Learning

Los modelos son más interpretables y Los modelos tienen una capacidad de modelado
pueden ser adecuados para problemas con más potente y son capaces de trabajar en
datos limitados y donde se requiere una problemas complejos con grandes cantidades
comprensión clara de las relaciones entre de datos, especialmente en tareas que
las características y la variable “objetivo”. involucran imágenes, texto o señales
secuenciales.

Sin embargo, las redes neuronales profundas


suelen ser más difíciles de interpretar debido a
su arquitectura y la cantidad de parámetros
involucrados.

3.3 Caso de uso

¿Sabías qué el reciente éxito de AlphaGo, un programa informático desarrollado por Google Deepmind,
que venció al campeón humano de Go en un combate a cinco partidas, se debió en gran parte al
aprendizaje por refuerzo?

AlphaGo se entrenó inicializando un agente automatizado con una base de datos de expertos humanos,
pero posteriormente se perfeccionó jugando un gran número de partidas contra sí mismo y aplicando el
aprendizaje por refuerzo.

18
Entrenamiento para el reto

¡Pon a prueba lo aprendido!


Estás investigando sobre la seguridad en la red. Decides buscar información para aprender más sobre
ello y te das cuenta que el concepto de "contraseña" está desactualizado y podrías aportar algo más.
¿Qué tipo de herramienta permite la participación colaborativa?
a) Google.
b) Crowdsourcing.
c) Visión artificial.

Feedback general: Crowdsourcing es la herramienta que permite una participación colaborativa.

Has programado la calefacción para que se encienda una hora antes de que llegues a casa. ¿Qué estás
utilizando?
a) Internet de las cosas.
b) Crowdsourcing.
c) Visión artificial.

Feedback general: El uso de dispositivos que recogen datos y los transmiten por internet para
facilitarnos las tareas cotidianas, es lo que llamamos Internet de las Cosas.

19
4. PROCESAMIENTO DEL LENGUAJE NATURAL
El Procesamiento del Lenguaje Natural o en su uso más común en inglés, Natural Language Processing
(NLP), es una rama de la inteligencia artificial y la lingüística computacional que se enfoca en la
interacción entre los humanos y las máquinas a través del lenguaje humano (lenguaje natural).

El objetivo principal del NLP es crear procedimientos computacionales eficientes para comprender,
interpretar, manipular y generar lenguaje natural de manera válida.

¿Cómo se materializa este NLP en nuestra vida diaria? Por ejemplo, cuando vamos en el coche y le
indicamos al ordenador de a bordo que llame a un número determinado o las respuestas de Siri o Alexa
cada vez que les hacemos una petición, se generan por comandos de voz creados con el NLP.

Este tipo de tecnología se está convirtiendo rápidamente en un producto básico para las lenguas
corrientes con grandes conjuntos de datos. La investigación se orienta ahora hacia el desarrollo de
sistemas refinados, capaces de interactuar con las personas a través del diálogo, y no solo de
reaccionar a peticiones simples.

En este sentido, ChatGPT se ha convertido en el abanderado de esta transformación, proporcionando un


entorno de interacción que casi logra que nos olvidemos de que estamos hablando con una máquina.

4.1 Áreas dentro del NLP

El NLP abarca diversas tareas y disciplinas, pero hay dos conceptos fundamentales en este campo: la
Generación de Lenguaje Natural (Natural Language Generation, NLG) y la Comprensión de Lenguaje
Natural (Natural Language Understanding, NLU).

Aunque están estrechamente relacionados, tienen enfoques diferentes y desempeñan roles distintos en
el procesamiento del lenguaje.

Generación de lenguaje natural

La generación de lenguaje natural se refiere a la capacidad de un algoritmo de software para producir


texto o discurso en lenguaje humano de manera autónoma.

En NLG, una computadora toma información o datos en una forma estructurada y los transforma en un
texto coherente y legible que puede ser entendido por los seres humanos. Esta tarea implica una
comprensión profunda del contenido y la intención comunicativa por los programadores de estos
algoritmos, que se basan en elementos de gramática, la coherencia y la cohesión textual.

Los sistemas de generación de lenguaje natural se utilizan en una amplia gama de aplicaciones, como
la redacción automática de informes, la creación de contenidos y noticias para redes sociales y webs,
los chatbots y los asistentes virtuales.

20
Comprensión del lenguaje natural

La comprensión del lenguaje natural se refiere a generar algoritmos que permitan identificar los
patrones para entender y extraer significado del lenguaje humano. Es decir, que sean capaces de
interpretar y procesar el lenguaje en su forma natural, comprendiendo las intenciones, los conceptos, la
semántica y la estructura del texto o el habla. Esta tarea implica reconocer y clasificar entidades,
analizar la gramática, identificar relaciones entre palabras y frases, y comprender el contexto.
La comprensión de lenguaje natural es esencial en aplicaciones como los motores de búsqueda, los
sistemas de respuesta automática, los sistemas de procesamiento de texto y la asistencia en la
traducción. En este último cuando escribimos una frase en un idioma, el programa nos ofrece una
respuesta contextualizada valorando los posibles sinónimos y utilizando el más adecuado.

Comprensión del lenguaje hablado

La característica principal de las técnicas SLU (Spoken Language Understanding) o comprensión del
lenguaje hablado, no es solo comprender la función de frase, sino comprender el significado del
mensaje hablado en sí.
Para extraer el significado del mismo, normalmente se recoge un texto a partir del habla, ya sea de una
voz con un software ASR (Automatic Speech Recognition), o de un chatbot, y después se debe convertir
el texto no estructurado en datos gramaticales estructurados, que serán procesados. En el traductor del
ejemplo anterior, no sólo se puede escribir, también podemos utilizar la voz para averiguar el significado
de la frase o el párrafo que queremos traducir.

4.2 Tokenización

La tokenización consiste en sustituir los datos sensibles por símbolos de identificación únicos que
conservan toda la información esencial. El primer paso en este procesamiento del lenguaje natural es
dividir una oración en tokens que representan cada una de las partes que lo componen: palabras, signos
de puntuación, números…

La tokenización es difícil debido a la frecuencia de entradas ambiguas o mal formadas que incluyen:
términos con más de una palabra (por ejemplo, “Nueva York”), contracciones, abreviaturas y otros. Estos
tokens se pueden analizar utilizando una serie de técnicas para crear varias estructuras de datos
diferentes que procesará el administrador de diálogos.

Entre las técnicas tradicionales para llevar a cabo esta tokenización, destacan las siguientes:

Bag of words

En la técnica de la bolsa de palabras se ignoran la estructura de las frases, el orden y la sintaxis. Solo se
cuentan las ocurrencias de cada palabra, que se emplean para generar un modelo de vector en el que
se ignoran las palabras auxiliares (como los artículos, por ejemplo) y las flexiones (verbales) en un
proceso denominado lematización. Este modelo encaja bien cuando se trata de realizar inferencias
basadas en modelos de reglas.

21
Latent Semantic Analysis

Esta técnica es similar a la anterior, con la diferencia de que no considera las palabras como unidades
básicas para la comparación, sino los conceptos. Durante el procesamiento, los grupos de palabras que
aparecen juntos con frecuencia son agrupados en una única entrada. Finalmente, se calcula la distancia
entre el vector representando cada expresión y el documento que mejor se ajuste.

Expresiones regulares

Las frases son tratadas como expresiones regulares de forma que se pueda aplicar reconocimiento de
patrones.

Part of Speech Tagging (PoS)

Se etiqueta cada palabra en el texto de entrada con su categoría morfológica (es decir: nombre, verbo,
adjetivo, etc.). Este etiquetado permite almacenar información relevante a título contextual y semántico.
También es útil para determinar el tipo de respuesta que se debe generar.

22
4.3 Speech to text

La conversación es la forma más natural y potente de comunicación, y posiblemente en un futuro se


establezca como el medio estándar de interacción con las máquinas.

La conversión de voz a texto (speech to text) comienza con el proceso de reconocimiento automático
de voz (Automatic Speech Recognition, ASR), que tiene que ser capaz de hacerlo con independencia del
hablante y abarcando un amplio vocabulario (Large Vocabulary Continuous Speech Recognition, LVCSR).

La calidad del LVCSR puede medirse a partir de la amplitud del vocabulario, la capacidad de reconocer
hablantes específicos para personalizar las respuestas, la habilidad para procesar un flujo continuo de
palabras incluso sin pausas entre ellas, la capacidad de eliminar ruido y de procesar la voz a diferentes
distancias del micrófono.

Cada vez que un hablante dice una palabra, el sonido resultante dependerá del ruido, la distancia al
micrófono, el estado de ánimo, etc. No hay una correspondencia directa entre sonido y fonema, y el
sistema de ASR debe extraer las características acústicas más destacadas, generando un vector de
características, que será decodificado para asignar las palabras más probables.

Un ejemplo de este proceso de reconocimiento de voz y conversión en texto son los subtitulados
automáticos y la traducción a diferentes idiomas de los vídeos en plataformas como YouTube, Twitch o
en los programas y emisiones de televisión en directo.

23
¿Cómo se realiza este proceso?

En primer lugar, se necesita un modelo acústico que, dada una palabra (W), nos dé la probabilidad de
que escuchemos un sonido determinado (X), es decir, ᴩ(X/W). La representación estadística de cada
palabra generada a partir del análisis de un corpus de sonidos se representa tradicionalmente como un
Modelo de Markov Oculto (Hidden Markov Model, HMM), donde cada palabra es independiente del resto
de palabras.

A continuación, el reconocimiento de voz se tratará como un problema de clasificación, en el que se


aplicará el modelo de Bayes. Dado un sonido, la regla de Bayes proporcionará un ranking de las palabras
más probables. Se seleccionará la más probable, y el resto se almacenará para reforzar los algoritmos
de aprendizaje.

• Creación del modelo acústico HMM.


• Aplicación del modelo de Bayes para clasificar palabras.
• Ranking de las palabras más probables.
• Selección de la más probable.
• Los descartes refuerzan el algoritmo.

24
5. CHATBOTS
Un chatbot es un sistema de diálogo online humano – computador basado en lenguaje natural.

Las funciones básicas que se esperan de un chatbot son principalmente:


• Agente dialogístico: un chatbot debe entender al usuario, es decir, se espera que proporcione una
capacidad de comprensión. Los bots reciben una entrada de texto en lenguaje natural que será
procesado por las herramientas correspondientes, y del que se espera que proporcione una
respuesta acorde.
• Agente racional: debe tener acceso a una base de conocimiento y sentido común (corpus
específico), de forma que pueda proporcionar un comportamiento competente y responder a las
preguntas de los usuarios. Para ello, podrá valerse de información específica.

• Agente personificado: debe proporcionar cierta presencia (aunque esta característica podría ser
opcional), ya que se ha demostrado que resulta esencial para los usuarios ordinarios. Incluso los
primeros bots (ELIZA, CHARLIE, ALICE…) tenían un nombre de persona asociado. Actualmente, el
esfuerzo en materia de experiencia de usuario se focaliza en aplicar personas para transmitir mayor
confianza a los usuarios y dotarlos de personalidad.

Existen varias arquitecturas modelo para chatbots; posiblemente los más conocidos sean ChatGPT,
basado en el motor GPT, Apple Siri, Amazon Alexa e IBM Watson.

El Generador de Respuestas (RG) es posiblemente el componente más importante de la arquitectura de


un chatbot. Recibe un texto estructurado y genera una respuesta para entregar al usuario. Para tomar la
decisión sobre qué responder al usuario, se hace uso de tres componentes: una base de datos de
conocimiento, un historial de diálogo y una fuente de datos externa.

Las formas en las que un robot puede emitir una respuesta son mediante los modelos basados en
reglas, los basados en la Recuperación de Información (IR), los generativos de traducción automática
estadística (Statistical Machine Translation, SMT), los de Secuencia a Secuencia (Sequence-to-Sequence,
Seq2Seq), y los de aprendizaje de refuerzo con bots Seq2Seq.

El modelo basado en reglas se basa en que el robot tiene una base de conocimiento con documentos,
donde cada documento tiene un patrón y una plantilla. Cuando el robot recibe una entrada que coincide
con el patrón, envía como respuesta el mensaje almacenado en la plantilla.

25
6. RECOMENDADORES AUTOMÁTICOS
Los sistemas de recomendación automática se han convertido en nuestros mejores aliados para el
descubrimiento de contenido valioso en un mundo de la información abrumador.

Un recomendador automático es un sistema o procedimiento computacional diseñado para seleccionar


un subconjunto de elementos conforme a una serie de preferencias inferidas a partir de información de
un conjunto de usuarios.

Las diferentes técnicas de recomendación emplean enfoques diversos para la generación de


recomendaciones personalizadas. La hibridación o uso combinado de estas técnicas permite superar
las limitaciones de cada técnica individual y proporcionar recomendaciones más precisas y
contextualmente relevantes.

Estos sistemas engloban el conjunto de técnicas y algoritmos utilizados para proporcionar


recomendaciones personalizadas a los usuarios en contextos con un elevado volumen de información
del que hay que seleccionar ciertos ítems.

Estos sistemas analizan y procesan datos, incluyendo información sobre preferencias y


comportamiento de los usuarios, así como características del contenido disponible.

El objetivo principal de los sistemas de recomendación automática es ayudar a los usuarios a descubrir
y acceder a contenido relevante y personalizado, superando la sobrecarga de información y
proporcionando sugerencias adaptadas a las necesidades y preferencias individuales de cada usuario.

También responden al interés de las empresas u organizaciones que programan y difunden estos
sistemas recomendadores. Venden a los proveedores de productos y servicios el acceso a nuestros
datos e intereses y el orden en que sus productos aparecen en nuestras búsquedas.

6.1 Técnicas de filtrado

Los sistemas de recomendación automática se fundamentan en diversas técnicas, entre las que se
incluyen el filtrado colaborativo, el filtrado basado en contenido, el filtrado demográfico y el filtrado
basado en conocimiento.

26
Estas técnicas se aplican para analizar los datos recopilados, modelar las preferencias de los usuarios
y generar recomendaciones basadas en similitudes y relaciones identificadas. Además, los sistemas de
recomendación pueden emplear enfoques híbridos que combinan múltiples técnicas con el fin de
mejorar la precisión y relevancia de las recomendaciones, compensando las limitaciones inherentes a
cada enfoque individual.

Filtrado colaborativo

Esta técnica se basa en la idea de que las preferencias de un usuario se pueden predecir a partir del
comportamiento de usuarios similares. Utiliza datos históricos de usuarios para identificar patrones de
preferencia y hacer recomendaciones en función de la similitud entre usuarios.

Filtrado basado en contenido

Esta técnica analiza las características y propiedades del contenido (como películas, productos o
artículos) para encontrar similitudes entre ellos y recomendar elementos que sean similares a los que
un usuario ha mostrado interés previo.

Filtrado demográfico

Esta técnica emplea información demográfica y características socioeconómicas de los usuarios para

27
hacer recomendaciones. Se basa en la idea de que personas con características similares pueden tener
preferencias similares.

Filtrado basado en conocimiento

Esta técnica usa conocimiento experto o reglas específicas del dominio para hacer recomendaciones.
Se emplea cuando hay restricciones o limitaciones específicas en la generación de recomendaciones,
como en el ámbito de la salud o la educación.

Modelado de asociación

Esta técnica identifica asociaciones o relaciones entre elementos y utiliza esos patrones para hacer
recomendaciones. Por ejemplo, si un usuario compra un producto A y otro producto B ha sido comprado
por la mayoría de los usuarios que también compraron A, entonces se recomendará el producto B al
usuario.

En muchas tiendas online por ejemplo, nos hace sugerencias en este sentido indicando qué productos
se suelen comprar juntos.

6.1 Hibridación de técnicas

La hibridación de diferentes técnicas de recomendación permite compensar las carencias inherentes a


cada estrategia individual. Al combinar técnicas, se aprovechan las fortalezas de cada enfoque y se
superan sus limitaciones.

28
Por ejemplo:
● La hibridación del filtrado colaborativo y el filtrado basado en contenido permite mitigar el
problema de arranque en frío, donde no se tienen suficientes datos de un usuario nuevo. El filtrado
basado en contenido proporciona recomendaciones iniciales basadas en características de
contenido, mientras que el filtrado colaborativo se emplea a medida que se recopilan más datos de
preferencia del usuario.
● La hibridación del filtrado colaborativo y el filtrado demográfico permite proporcionar
recomendaciones más precisas al considerar tanto las preferencias individuales del usuario como
las similitudes demográficas con otros usuarios.

La hibridación de técnicas de recomendación ofrece la flexibilidad y la capacidad de adaptarse a


diferentes situaciones y contextos, mejorando así la calidad y la relevancia de las recomendaciones
proporcionadas a los usuarios.
Con el continuo avance tecnológico y el crecimiento de la cantidad de datos disponibles, la
investigación y el desarrollo de sistemas de recomendación híbridos seguirán siendo áreas de interés
clave para brindar experiencias de recomendación aún más efectivas y personalizadas a los usuarios.

6.2 Casos de uso

El uso de recomendadores está muy extendido, especialmente en todas aquellas plataformas


orientadas a la elección de productos, servicios o contenidos por parte de los usuarios. Por tanto, no
resultarán sorprendentes los ejemplos que se listan a continuación:

Netflix utiliza una combinación de filtrado colaborativo y filtrado basado en contenido. Recomienda
películas y programas de televisión en función de las calificaciones y preferencias de visualización
anteriores del usuario, así como de características de contenido como género, actores y directores.

Spotify emplea técnicas de filtrado colaborativo y modelado de asociación. Recomienda canciones y


listas de reproducción en función de las preferencias musicales del usuario, así como de las canciones
y listas de reproducción populares entre los usuarios con gustos similares

29
Entrenamiento para el reto

¡Pon a prueba lo aprendido!


Cuando hablamos de segmentación de palabras en un texto para su posterior procesamiento nos
referimos a
a) Reconocimiento óptico de caracteres (OCR).
b) Hibridación
c) Tokenización.

Feedback: La tokenización divide la oración en partes más pequeñas.

¿Cuál de las siguientes afirmaciones es un ejemplo de uso de un sistema de recomendación basado en


contenidos?
a) Un servicio de streaming que recomienda películas y series similares a las que ha visto el usuario.
b) Una plataforma de comercio electrónico que sugiere productos basados en las compras de
personas con características similares.
c) Un sitio web de noticias que recomienda artículos en función de las sugerencias que indican los
expertos.

Feedback: La recomendación basada en contenidos analiza las elecciones previas del individuo

30
7. CIERRE

7.1¿Qué has aprendido en esta unidad?

En esta unidad has aprendido que la inteligencia artificial pretende desarrollar sistemas que imiten los
procesos cognitivos humanos desde 1950, y nos hemos familiarizado con términos como robótica,
internet de las cosas, teoría algorítmica del juego, crowdsourcing, visión artificial y el aprendizaje
automático.

Este aprendizaje automático, en donde la propia máquina aprende a través de un conjunto de datos y
relaciones, y los avances en los procesos de lenguaje natural, facilitaron la evolución los chatbots a al
tan famoso chatGPT, utilizando la tokenización y aprovechando el desarrollo en speech to text.

Y por último, has aprendido cuál es el proceso y cómo se filtra la información que usan diferentes
páginas para realizarte las recomendaciones automáticas .

Pero además del reconocimiento del lenguaje, que hemos tratado en esta unidad, está evolucionando
cada vez más el reconocimiento de imágenes que ya utilizamos, por ejemplo, para desbloquear el
teléfono móvil.

En la siguiente unidad nos adentraremos en el mundo del entrenamiento del sistema con el aprendizaje
automático, los escenarios de entrenamiento y los algoritmos de aprendizaje supervisado y no
supervisado. Parece interesante, ¿verdad? Pues te animamos a que continúes.

Recuerda que ponemos a tu disposición el documento Mediateca, donde encontrarás contenido


adicional para ampliar información. Te animamos también a entrar en el foro del Módulo Formativo,
donde encontrarás actividades e información de actualidad para comentar con el resto de participantes.

31
7.2 Referencias bibliográficas

A continuación, puedes ver la relación de recursos (artículos, estudios, investigaciones, páginas web...)
que se han consultado y citado para elaborar el contenido de esta Unidad Didáctica:
• Alfonseca, Manuel (2014): ¿Basta la prueba de Turing para definir la “inteligencia artificial”?.
Scientia et Fides 2(2):129. Recuperado de:
https://www.researchgate.net/publication/287545860_Basta_la_prueba_de_Turing_para_definir
_la_inteligencia_artificial [06/05/2023].
• Benko, A., & Lányi, C. S. (2009). History of artificial intelligence. In Encyclopedia of Information
Science and Technology, Second Edition (pp. 1759-1762). IGI Global.

• DiariDigital (2023). Un proyecto pionero desarrollará sensores con material orgánico que imitan el
funcionamiento del cerebro. (21/06/2023). DiariDigital Univeristat Rovira i Virgili. Recuperado de:
https://diaridigital.urv.cat/es/un-proyecto-pionero-desarrollara-sensores-con-material-organico-
que-imitan-el-funcionamiento-del-cerebro/ [06/05/2023]
• Dot CSV. (s.f.) ¡Redes Neuronales CONVOLUCIONALES! ¿Cómo funcionan? Recuperado de:
https://youtu.be/V8j1oENVz00?t=211 [06/05/2023].
• Grossfeld, Brett (19 de junio de 2023). Aprendizaje profundo vs. aprendizaje automático. ¿En
qué se diferencian?. Blog de Zendesk. Recuperado de: https://www.zendesk.es/blog/machine-
learning-and-deep-learning/ [06/05/2023].
• Holcomb, S. D., Porter, W. K., Ault, S. V., Mao, G., & Wang, J. (2018). Overview on deepmind and
its alphago zero ai. In Proceedings of the 2018 international conference on big data and
education (pp. 67-71).

• Linares-Barranco, Bernabé (19 de noviembre de 2019). Computación Neuromórfica y


Nanotecnologías: ¿Hasta dónde podría llegar la inteligencia artificial? Seminario del Grupo
Ciencia, Razón y Fe. Universidad de Navarra. Recuperado de:
https://www.unav.edu/web/ciencia-razon-y-fe/computacion-neuromorfica-y-nanotecnologias
[06/05/2023].
• López, José M. (s.f.) La computación del futuro será cuántica, biológica y neuromórfica. Think
Big. Recuperado de: https://blogthinkbig.com/computacion-cuantica-biologica-neuromorfica
[06/05/2023].
• McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity.
The bulletin of mathematical biophysics, 5, 115-133.
• Simeone, O. (2018). A brief introduction to machine learning for engineers. Foundations and
Trends® in Signal Processing, 12(3-4), 200-431.
• Turing, A. M. (1956). Can a machine think. The world of mathematics, 4, 2099-2123.
• Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language
communication between man and machine. Communications of the ACM, 9(1), 36-45.
• Wiener, N., & von Neumann, J. (1949). Cybernetics or Control and Communication in the Animal
and the Machine. Physics Today, 2(5), 33-34.

¡Has terminado la unidad!

32
8. ANEXOS

8.1 Glosario

Algoritmo

Conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un
tipo de problemas.
Volver al contenido

Aprendizaje profundo

Subcampo del aprendizaje automático que estructura algoritmos en niveles para crear una red neuronal
artificial capaz de aprender y tomar decisiones inteligentes por sí misma.

Volver al contenido

Bot

Programa informático que efectúa automáticamente tareas reiterativas mediante Internet.

Volver al contenido

Chatbot

Programa de inteligencia artificial capaz que permite una conversación en tiempo real por texto o por
voz.

Volver al contenido

ChatGPT

Sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial.

Volver al contenido

Condicionamiento operante

Relacionado con la Biología y la Psicología, donde un ser humano o un animal aprende o modifica un
comportamiento cuando recibe una recompensa positiva (refuerzo) o negativa (castigo).

Volver al contenido

33
Internet de las cosas

Sistema tecnológico que permite que los objetos se conecten a Internet y entre sí.
Volver al contenido

Lematización

Proceso lingüístico, técnica en la recuperación de datos en los sistemas de información basándose en


el lema de cada palabra.

Volver al contenido

Machine Learning

Es el aprendizaje automático. Es una rama de la inteligencia artificial que permite que las máquinas
obtengan conocimientos de patrones a partir de datos sin ser específicamente programadas.

Volver al contenido

Ocurrencia

Indica cantidad de veces que aparece un recurso, palabra, suceso…

Volver al contenido

Prueba de Turing

Test de preguntas en donde un robot por medio de sus respuestas debe engañar a los jueces de forma
que crean que el interlocutor es humano.

Volver al contenido

Tokenización

En NLP es el proceso de convertir las secuencias de caracteres, palabras o párrafos en inputs para la
computadora.

Volver al contenido

34

También podría gustarte