Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Proyecto financiado por el Ministerio de Educación y Formación Profesional - U.E. Next Generation
Dirección de proyecto UGT España:
Fernando Montalvo Martín
Coordinación de proyecto UGT España:
Manuela Jiménez Luna
2
Índice
1. INICIO ......................................................................................................................................................... 5
1.1 Consideraciones previas ........................................................................................................................ 5
1.2 Introducción............................................................................................................................................. 5
¿Qué vas a aprender en esta unidad? ...................................................................................................... 6
¿Cómo vas a conseguir el gran reto de este módulo formativo? ........................................................... 6
2. INTELIGENCIA ARTIFICIAL ....................................................................................................................... 8
2.1 Introducción a la inteligencia artificial ................................................................................................... 8
2.2 Inteligencia artificial vs. inteligencia humana ....................................................................................... 9
2.3 Utilidades de la IA.................................................................................................................................. 10
Aprendizaje profundo .............................................................................................................................. 11
Robótica ................................................................................................................................................... 11
Visión artificial ......................................................................................................................................... 11
Sistemas de colaboración ...................................................................................................................... 12
Crowdsourcing y computación humana................................................................................................. 12
Teoría algorítmica de juegos y elección social ..................................................................................... 13
Internet de las cosas o IdC (Internet of Things, IoT) ............................................................................. 13
Computación neuromórfica .................................................................................................................... 14
3. MACHINE LEARNING ............................................................................................................................... 15
3.1 Introducción al Machine Learning ......................................................................................................... 15
3.2 Machine Learning vs Deep Learning ...................................................................................................... 16
Estructura y arquitectura del modelo ..................................................................................................... 17
Representación y procesamiento de datos ........................................................................................... 17
Requisitos de datos y tamaño del conjunto de entrenamiento ............................................................ 18
3.3 Caso de uso ........................................................................................................................................... 18
Entrenamiento para el reto ..................................................................................................................... 19
4. PROCESAMIENTO DEL LENGUAJE NATURAL ...................................................................................... 20
4.1 Áreas dentro del NLP ............................................................................................................................ 20
Generación de lenguaje natural .............................................................................................................. 20
Comprensión del lenguaje natural .......................................................................................................... 21
Comprensión del lenguaje hablado ........................................................................................................ 21
4.2 Tokenización ......................................................................................................................................... 21
Bag of words ............................................................................................................................................ 21
Latent Semantic Analysis ........................................................................................................................ 22
Expresiones regulares ............................................................................................................................. 22
Part of Speech Tagging (PoS) ................................................................................................................. 22
4.3 Speech to text ......................................................................................................................................... 23
3
¿Cómo se realiza este proceso?............................................................................................................. 24
5. CHATBOTS ............................................................................................................................................... 25
6. RECOMENDADORES AUTOMÁTICOS .................................................................................................... 26
6.1 Técnicas de filtrado .............................................................................................................................. 26
Filtrado colaborativo ............................................................................................................................... 27
Filtrado basado en contenido ................................................................................................................. 27
Filtrado demográfico ............................................................................................................................... 27
Filtrado basado en conocimiento ........................................................................................................... 28
Modelado de asociación ......................................................................................................................... 28
6.1 Hibridación de técnicas ........................................................................................................................ 28
6.2 Casos de uso ......................................................................................................................................... 29
Entrenamiento para el reto ..................................................................................................................... 30
7. CIERRE...................................................................................................................................................... 31
7.1¿Qué has aprendido en esta unidad?..................................................................................................... 31
7.2 Referencias bibliográficas .................................................................................................................... 32
8. ANEXOS ................................................................................................................................................... 33
8.1 Glosario .................................................................................................................................................. 33
Algoritmo ................................................................................................................................................. 33
Aprendizaje profundo .............................................................................................................................. 33
Bot ............................................................................................................................................................ 33
Chatbot ..................................................................................................................................................... 33
ChatGPT ................................................................................................................................................... 33
Condicionamiento operante ................................................................................................................... 33
Internet de las cosas ............................................................................................................................... 34
Lematización ........................................................................................................................................... 34
Machine Learning .................................................................................................................................... 34
Ocurrencia ................................................................................................................................................ 34
Prueba de Turing ..................................................................................................................................... 34
Tokenización............................................................................................................................................ 34
4
1. INICIO
A lo largo del documento encontrarás algunas palabras con un enlace que te llevará al glosario del
curso para que puedas consultar su significado si así lo necesitas.
También encontrarás otros enlaces a vídeos o páginas web externas. Te recomendamos que los abras
pulsando el botón derecho del ratón y seleccionando la opción “Abrir hipervínculo” para que se muestren
en una ventana emergente distinta a la actual.
1.2 Introducción
En esta unidad vamos a conocer qué es la Inteligencia Artificial (IA), cómo fue evolucionando desde sus
inicios y la compararemos con la inteligencia humana.
Veremos algunos trending topics como son la robótica, la visión artificial, el internet de las cosas y la
computación neuromórfica. Es decir, hablaremos de los robots de cocina, de las luces que se encienden
cuando notan nuestra presencia, de la forma de los trenes alta velocidad, etc.
Nos introduciremos en el Machine Learning para entender qué hay detrás de Siri o Alexa, entrando, por
tanto, en el procesamiento del lenguaje y la transformación de la voz al texto.
Por último, nos acercaremos a los chatbots, que tanta polémica han generado últimamente; y cómo se
llevan a cabo las recomendaciones automáticas en nuestros dispositivos después de que nosotros
hacemos una búsqueda.
Si quieres saber un poco más sobre todos estos temas, esta es tu oportunidad. ¡Vamos a ello!
5
¿Qué vas a aprender en esta unidad?
b. Utilidades de la IA.
b. Tokenización.
c. Speech to text.
4. Chatbots.
5. Recomendaciones automáticas.
a. Técnicas de filtrado.
b. Hibridación de técnicas.
6
7
2. INTELIGENCIA ARTIFICIAL
La Inteligencia Artificial (IA) es una expresión muy utilizada hoy en día, rodeada de conceptos
malinterpretados y preguntas sobre su finalidad y su alcance real. Aparte de sus conocidos retos éticos
y filosóficos, la IA puede ser el catalizador de grandes avances en materia de cambios sociales,
económicos y tecnológicos.
La Inteligencia Artificial es una disciplina en computación que aspira a desarrollar sistemas capaces de
emular los procesos cognitivos humanos.
Si bien mucha gente la percibe como algo completamente novedoso, en realidad surgió en la década de
los 50. A lo largo de los años, la IA se ha desarrollado en diversos ámbitos de la industria. Pero es ahora
cuando se ha abierto camino hasta nuestros hogares y nos provee de muchas aplicaciones que nos
ayudan en nuestras tareas cotidianas.
La eclosión de sistemas como ChatGPT ha disparado las expectativas del gran público; sin embargo, es
importante no olvidar sus limitaciones. Porque el hecho es que la IA aún está muy lejos de tener una
inteligencia general similar a la humana.
8
2.2 Inteligencia artificial vs. inteligencia humana
En 1966, Joseph Weizenbaum creó un programa que aseguraba poder pasar la prueba de Turing. La
prueba de Turing es un grupo de preguntas en donde un robot por medio de sus respuestas debe
engañar a los jueces de forma que crean que el interlocutor es humano. Este programa era conocido
como ELIZA y funcionaba a través del análisis del texto escrito por el usuario en busca de palabras
clave. En caso de encontrar una palabra clave, una regla que transformaba el comentario del usuario
entraba en acción y se contestaba con una frase relacionada con la misma. Si no detectaba ninguna
palabra clave, daba una respuesta genérica o repetía uno de los comentarios anteriores.
De esta forma, ELIZA fue capaz de engañar a algunas personas haciéndolas creer que hablaban con
alguien real; y se considera uno de los programas (probablemente el primero) en pasar la prueba de
Turing, aunque existe cierta controversia al respecto.
Sin embargo, para lo que al cerebro humano lleva segundos, la IA necesita algoritmos intrincados y
ejemplos de aprendizaje para simular el proceso de pensamiento, como, por ejemplo:
9
• Reconocimiento facial (face recognition)
• Reconocimiento de voz (speech recognition)
• Reconocimiento de imágenes (image processing)
• Análisis de datos
• Predicción
• Aprendizaje (Machine Learning/Deep Learning)
• Resolución de tareas
2.3 Utilidades de la IA
La IA es un área muy extensa, con multitud de aplicaciones y subáreas de investigación. Hoy en día está
presente en prácticamente todos los sectores de la industria y de la vida cotidiana, como en los robots
de cocina o de limpieza, GPS, Siri, Alexa... En este apartado revisaremos algunas de las utilidades de la
IA que más están llamando la atención de compañías y organizaciones.
10
Aprendizaje profundo
Se llama aprendizaje profundo al proceso que realizan los ordenadores identificando patrones
complejos de forma que puedan ofrecer una información precisa. La capacidad de entrenar con éxito
redes neuronales convolucionales ha beneficiado sobre todo al campo de la visión artificial, con
aplicaciones como el reconocimiento de objetos, el etiquetado de vídeos, el reconocimiento de
actividades y diversas variantes de las mismas. Por ejemplo, cuando el sistema de seguridad instalado
en tu coche detecta que hay un obstáculo en la carretera y frena para evitar una colisión.
El aprendizaje profundo o deep learning también está haciendo incursiones significativas en otras áreas
de la percepción, como el audio, el habla y el procesamiento del lenguaje natural.
Robótica
La robótica es una ciencia en la que se unen diferentes tecnologías para la creación de máquinas
programadas que puedan realizar tareas específicas.
Los esfuerzos actuales se centran en cómo entrenar a un robot para que interactúe con el mundo que
le rodea de forma generalizable y predecible. Los avances en la percepción fiable de las máquinas: la
visión artificial, la fuerza y la percepción táctil; en gran parte impulsados por los avances en aprendizaje
automático, son los elementos clave para hacer avanzar las capacidades de la robótica. Por ejemplo, en
el campo de la medicina, gracias al uso del robot denominado Da Vinci, son posibles cirugías menos
invasivas y mucho más precisas.
Visión artificial
La visión artificial es actualmente la forma más destacada de percepción artificial. Ha sido la subárea
de la IA más transformada por el auge del aprendizaje profundo.
Por ejemplo, hasta hace pocos años, los métodos de reconocimiento facial se basaban en vectores y
álgebra lineal. Pero la confluencia de la computación a gran escala con grandes conjuntos de datos y el
perfeccionamiento de los algoritmos de redes neuronales han dado lugar a mejoras espectaculares en
este campo. De esta manera, la visión artificial se usa en el reconocimiento facial para, por ejemplo,
desbloquear nuestro móvil.
11
Sistemas de colaboración
La investigación sobre sistemas colaborativos estudia modelos y algoritmos que ayudan a desarrollar
sistemas autónomos capaces de trabajar en colaboración con otros sistemas y con los seres humanos.
Cada vez hay más situaciones en las que se aprovecha la complementariedad entre humanos y
máquinas, para que los humanos asistan a los sistemas de IA, superando sus limitaciones, y para que
los agentes aumenten las capacidades y actividades humanas.
Crowdsorucing viene de la unión de dos palabras inglesas: crowd –que significa multitud– y sourcing –
que significa fuente, abastecimiento-. Seguro que ya se te ha venido a la mente un ejemplo muy usado
en nuestra vida cotidiana: la Wikipedia.
Wikipedia es un repositorio de conocimientos que mantienen y actualizan los internautas, y que supera
con creces en escala y profundidad a las fuentes de información compiladas tradicionalmente. Esta
colaboración de personas que no se conocen permite que siempre esté actualizada, pero además, si un
colaborador, por ejemplo, utiliza una palabrota, el programa que lo sustenta la eliminaría
automáticamente.
Dado que las capacidades humanas son superiores a los métodos automatizados para realizar muchas
tareas, la investigación sobre crowdsourcing y computación humana estudia métodos para aumentar
los sistemas informáticos utilizando la inteligencia colectiva para resolver problemas que los
ordenadores por sí solos no pueden resolver bien.
12
Teoría algorítmica de juegos y elección social
Cada vez se presta más atención a las dimensiones económicas y de computación social de la IA,
incluidas las estructuras de incentivos. La IA distribuida y los sistemas multiagente se estudian desde
principios de los años 80, adquirieron importancia a finales de los 90 y se aceleraron con Internet.
Entre los temas a los que se presta atención se encuentran:
● El diseño computacional de mecanismos. Por ejemplo, aplicado a la recaudación de impuestos. La
administración debe recaudar una cierta cantidad de dinero, de la forma menos costosa posible;
así que diseña un mecanismo (un sistema de impuestos) que valora todas las estrategias y la
respuesta de los contribuyentes a las nuevas figuras impositivas.
● La elección social computacional. Por ejemplo, una teoría sobre cómo agregar órdenes de
clasificación de alternativas en una selección de personal, de manera que pueda escoger de entre
todas las soluciones generadas, la óptima o la que mejor satisfaga los objetivos.
● La obtención de información alineada con los incentivos. Por ejemplo, en los mercados de
predicción, reuniendo los datos y estableciendo la respuesta más adecuada.
● La teoría algorítmica de juegos. Los equilibrios de los mercados, los juegos en red y los juegos de
salón. Este análisis de algoritmos implican un comportamiento estratégico para la toma de
decisiones, como en el juego del prisionero.
Cada vez se investiga más la idea de que una amplia gama de dispositivos con capacidad de conexión
a Internet, pueden recoger y compartir información de sus sensores; esto es lo que se define como
Internet de las Cosas. Estos dispositivos pueden incluir electrodomésticos, vehículos, edificios, cámaras
y otros elementos.
Mientras que conectar los dispositivos es una cuestión de tecnología y redes inalámbricas, la IA puede
procesar y utilizar las enormes cantidades de datos resultantes para mejorar nuestra vida cotidiana.
Por ejemplo, nuestra casa inteligente tiene una aplicación de detección de movimiento, que se unirá a un
temporizador y al GPS de nuestro móvil y apagará todos los dispositivos cuando salgamos hacia el
trabajo, y los encenderá cuando estemos a punto de regresar.
13
Computación neuromórfica
14
3. MACHINE LEARNING
El enfoque del aprendizaje automático, o Machine Learning (ML), se basa en que un sistema puede
aprender y evolucionar de varias formas. En general, se puede decir que una IA aprende a base de
descubrir patrones (de datos), errores y aciertos (ensayo y error).
Se podría decir que el aprendizaje automático es la estrategia que permite el desarrollo de sistemas
computacionales orientados a descubrir patrones en un conjunto de datos de entrada. Se basa en que
los algoritmos aprenden y mejoran sus resultados utilizando datos y creando relación entre ellos.
Uno de los principales objetivos actuales es adaptar los algoritmos existentes a conjuntos de datos
extremadamente grandes (big data). La extensión de los modelos a grandes volúmenes de datos puede
permitir extraer conclusiones más completas
MODALIDADES
DE APRENDIZAJE
AUTOMÁTICO
1 2 3 4 5
15
● Aprendizaje supervisado: implica entrenar un modelo con ejemplos etiquetados para hacer
predicciones precisas en nuevos datos. Por ejemplo, entrenamos un modelo con imágenes de
perros y gatos junto con sus etiquetas correspondientes y gracias a ello, el modelo es capaz de
distinguir entre perros y gatos en nuevas imágenes nunca vistas antes.
● Aprendizaje no supervisado: es una técnica de aprendizaje automático en la que el modelo se
entrena sin ejemplos etiquetados. En lugar de recibir datos con respuestas conocidas,
conseguimos que el modelo busque patrones, estructuras o relaciones en los datos por sí mismo.
En este caso, podríamos tener unas imágenes de animales sin etiquetas. El modelo está preparado
para analizar estos datos y buscará similitudes, agrupando las imágenes que tienen características
similares. Por ejemplo, podría agrupar todas las imágenes de perros juntos y todas las imágenes de
gatos juntos, incluso sin haber sido informado previamente de qué animales son.
● Aprendizaje semisupervisado: este modelo utiliza una pequeña cantidad de datos etiquetados
(costosos de generar) y una gran cantidad de datos sin etiquetar con el objetivo de hacer
predicciones.
Si recordáis el ejemplo que pusimos sobre Wikipedia y la colaboración anónima, hablábamos de
que el algoritmo reconoce las palabrotas entre todo lo que escriben los colaboradores con el fin de
eliminarlas.
● Aprendizaje por refuerzo: Se entrena a un agente para que ejecute determinadas acciones en un
entorno sin un conjunto de datos. Es un método de entrenamiento basado en reforzar los
comportamientos deseados y/o reprimir los no deseados, muy relacionado con el
condicionamiento operante en biología y psicología.
Para finalizar este apartado, haremos una comparativa entre Machine Learning (ML) y Deep Learning
(DL), dos subcampos del aprendizaje automático que se diferencian en varios aspectos clave.
En esta primera tabla se analiza la estructura y la arquitectura del modelo de ambos modelos de
aprendizaje.
16
Estructura y arquitectura del modelo
En el siguiente cuadro se presenta una comparativa de cómo se representan y se procesan los datos en
ambos casos.
En esta última tabla se reflejan los requisitos de datos y tamaño del conjunto que son adecuados para el
ML y para el DL.
17
Requisitos de datos y tamaño del conjunto de entrenamiento
Los modelos son más interpretables y Los modelos tienen una capacidad de modelado
pueden ser adecuados para problemas con más potente y son capaces de trabajar en
datos limitados y donde se requiere una problemas complejos con grandes cantidades
comprensión clara de las relaciones entre de datos, especialmente en tareas que
las características y la variable “objetivo”. involucran imágenes, texto o señales
secuenciales.
¿Sabías qué el reciente éxito de AlphaGo, un programa informático desarrollado por Google Deepmind,
que venció al campeón humano de Go en un combate a cinco partidas, se debió en gran parte al
aprendizaje por refuerzo?
AlphaGo se entrenó inicializando un agente automatizado con una base de datos de expertos humanos,
pero posteriormente se perfeccionó jugando un gran número de partidas contra sí mismo y aplicando el
aprendizaje por refuerzo.
18
Entrenamiento para el reto
Has programado la calefacción para que se encienda una hora antes de que llegues a casa. ¿Qué estás
utilizando?
a) Internet de las cosas.
b) Crowdsourcing.
c) Visión artificial.
Feedback general: El uso de dispositivos que recogen datos y los transmiten por internet para
facilitarnos las tareas cotidianas, es lo que llamamos Internet de las Cosas.
19
4. PROCESAMIENTO DEL LENGUAJE NATURAL
El Procesamiento del Lenguaje Natural o en su uso más común en inglés, Natural Language Processing
(NLP), es una rama de la inteligencia artificial y la lingüística computacional que se enfoca en la
interacción entre los humanos y las máquinas a través del lenguaje humano (lenguaje natural).
El objetivo principal del NLP es crear procedimientos computacionales eficientes para comprender,
interpretar, manipular y generar lenguaje natural de manera válida.
¿Cómo se materializa este NLP en nuestra vida diaria? Por ejemplo, cuando vamos en el coche y le
indicamos al ordenador de a bordo que llame a un número determinado o las respuestas de Siri o Alexa
cada vez que les hacemos una petición, se generan por comandos de voz creados con el NLP.
Este tipo de tecnología se está convirtiendo rápidamente en un producto básico para las lenguas
corrientes con grandes conjuntos de datos. La investigación se orienta ahora hacia el desarrollo de
sistemas refinados, capaces de interactuar con las personas a través del diálogo, y no solo de
reaccionar a peticiones simples.
El NLP abarca diversas tareas y disciplinas, pero hay dos conceptos fundamentales en este campo: la
Generación de Lenguaje Natural (Natural Language Generation, NLG) y la Comprensión de Lenguaje
Natural (Natural Language Understanding, NLU).
Aunque están estrechamente relacionados, tienen enfoques diferentes y desempeñan roles distintos en
el procesamiento del lenguaje.
En NLG, una computadora toma información o datos en una forma estructurada y los transforma en un
texto coherente y legible que puede ser entendido por los seres humanos. Esta tarea implica una
comprensión profunda del contenido y la intención comunicativa por los programadores de estos
algoritmos, que se basan en elementos de gramática, la coherencia y la cohesión textual.
Los sistemas de generación de lenguaje natural se utilizan en una amplia gama de aplicaciones, como
la redacción automática de informes, la creación de contenidos y noticias para redes sociales y webs,
los chatbots y los asistentes virtuales.
20
Comprensión del lenguaje natural
La comprensión del lenguaje natural se refiere a generar algoritmos que permitan identificar los
patrones para entender y extraer significado del lenguaje humano. Es decir, que sean capaces de
interpretar y procesar el lenguaje en su forma natural, comprendiendo las intenciones, los conceptos, la
semántica y la estructura del texto o el habla. Esta tarea implica reconocer y clasificar entidades,
analizar la gramática, identificar relaciones entre palabras y frases, y comprender el contexto.
La comprensión de lenguaje natural es esencial en aplicaciones como los motores de búsqueda, los
sistemas de respuesta automática, los sistemas de procesamiento de texto y la asistencia en la
traducción. En este último cuando escribimos una frase en un idioma, el programa nos ofrece una
respuesta contextualizada valorando los posibles sinónimos y utilizando el más adecuado.
La característica principal de las técnicas SLU (Spoken Language Understanding) o comprensión del
lenguaje hablado, no es solo comprender la función de frase, sino comprender el significado del
mensaje hablado en sí.
Para extraer el significado del mismo, normalmente se recoge un texto a partir del habla, ya sea de una
voz con un software ASR (Automatic Speech Recognition), o de un chatbot, y después se debe convertir
el texto no estructurado en datos gramaticales estructurados, que serán procesados. En el traductor del
ejemplo anterior, no sólo se puede escribir, también podemos utilizar la voz para averiguar el significado
de la frase o el párrafo que queremos traducir.
4.2 Tokenización
La tokenización consiste en sustituir los datos sensibles por símbolos de identificación únicos que
conservan toda la información esencial. El primer paso en este procesamiento del lenguaje natural es
dividir una oración en tokens que representan cada una de las partes que lo componen: palabras, signos
de puntuación, números…
La tokenización es difícil debido a la frecuencia de entradas ambiguas o mal formadas que incluyen:
términos con más de una palabra (por ejemplo, “Nueva York”), contracciones, abreviaturas y otros. Estos
tokens se pueden analizar utilizando una serie de técnicas para crear varias estructuras de datos
diferentes que procesará el administrador de diálogos.
Entre las técnicas tradicionales para llevar a cabo esta tokenización, destacan las siguientes:
Bag of words
En la técnica de la bolsa de palabras se ignoran la estructura de las frases, el orden y la sintaxis. Solo se
cuentan las ocurrencias de cada palabra, que se emplean para generar un modelo de vector en el que
se ignoran las palabras auxiliares (como los artículos, por ejemplo) y las flexiones (verbales) en un
proceso denominado lematización. Este modelo encaja bien cuando se trata de realizar inferencias
basadas en modelos de reglas.
21
Latent Semantic Analysis
Esta técnica es similar a la anterior, con la diferencia de que no considera las palabras como unidades
básicas para la comparación, sino los conceptos. Durante el procesamiento, los grupos de palabras que
aparecen juntos con frecuencia son agrupados en una única entrada. Finalmente, se calcula la distancia
entre el vector representando cada expresión y el documento que mejor se ajuste.
Expresiones regulares
Las frases son tratadas como expresiones regulares de forma que se pueda aplicar reconocimiento de
patrones.
Se etiqueta cada palabra en el texto de entrada con su categoría morfológica (es decir: nombre, verbo,
adjetivo, etc.). Este etiquetado permite almacenar información relevante a título contextual y semántico.
También es útil para determinar el tipo de respuesta que se debe generar.
22
4.3 Speech to text
La conversión de voz a texto (speech to text) comienza con el proceso de reconocimiento automático
de voz (Automatic Speech Recognition, ASR), que tiene que ser capaz de hacerlo con independencia del
hablante y abarcando un amplio vocabulario (Large Vocabulary Continuous Speech Recognition, LVCSR).
La calidad del LVCSR puede medirse a partir de la amplitud del vocabulario, la capacidad de reconocer
hablantes específicos para personalizar las respuestas, la habilidad para procesar un flujo continuo de
palabras incluso sin pausas entre ellas, la capacidad de eliminar ruido y de procesar la voz a diferentes
distancias del micrófono.
Cada vez que un hablante dice una palabra, el sonido resultante dependerá del ruido, la distancia al
micrófono, el estado de ánimo, etc. No hay una correspondencia directa entre sonido y fonema, y el
sistema de ASR debe extraer las características acústicas más destacadas, generando un vector de
características, que será decodificado para asignar las palabras más probables.
Un ejemplo de este proceso de reconocimiento de voz y conversión en texto son los subtitulados
automáticos y la traducción a diferentes idiomas de los vídeos en plataformas como YouTube, Twitch o
en los programas y emisiones de televisión en directo.
23
¿Cómo se realiza este proceso?
En primer lugar, se necesita un modelo acústico que, dada una palabra (W), nos dé la probabilidad de
que escuchemos un sonido determinado (X), es decir, ᴩ(X/W). La representación estadística de cada
palabra generada a partir del análisis de un corpus de sonidos se representa tradicionalmente como un
Modelo de Markov Oculto (Hidden Markov Model, HMM), donde cada palabra es independiente del resto
de palabras.
24
5. CHATBOTS
Un chatbot es un sistema de diálogo online humano – computador basado en lenguaje natural.
• Agente personificado: debe proporcionar cierta presencia (aunque esta característica podría ser
opcional), ya que se ha demostrado que resulta esencial para los usuarios ordinarios. Incluso los
primeros bots (ELIZA, CHARLIE, ALICE…) tenían un nombre de persona asociado. Actualmente, el
esfuerzo en materia de experiencia de usuario se focaliza en aplicar personas para transmitir mayor
confianza a los usuarios y dotarlos de personalidad.
Existen varias arquitecturas modelo para chatbots; posiblemente los más conocidos sean ChatGPT,
basado en el motor GPT, Apple Siri, Amazon Alexa e IBM Watson.
Las formas en las que un robot puede emitir una respuesta son mediante los modelos basados en
reglas, los basados en la Recuperación de Información (IR), los generativos de traducción automática
estadística (Statistical Machine Translation, SMT), los de Secuencia a Secuencia (Sequence-to-Sequence,
Seq2Seq), y los de aprendizaje de refuerzo con bots Seq2Seq.
El modelo basado en reglas se basa en que el robot tiene una base de conocimiento con documentos,
donde cada documento tiene un patrón y una plantilla. Cuando el robot recibe una entrada que coincide
con el patrón, envía como respuesta el mensaje almacenado en la plantilla.
25
6. RECOMENDADORES AUTOMÁTICOS
Los sistemas de recomendación automática se han convertido en nuestros mejores aliados para el
descubrimiento de contenido valioso en un mundo de la información abrumador.
El objetivo principal de los sistemas de recomendación automática es ayudar a los usuarios a descubrir
y acceder a contenido relevante y personalizado, superando la sobrecarga de información y
proporcionando sugerencias adaptadas a las necesidades y preferencias individuales de cada usuario.
También responden al interés de las empresas u organizaciones que programan y difunden estos
sistemas recomendadores. Venden a los proveedores de productos y servicios el acceso a nuestros
datos e intereses y el orden en que sus productos aparecen en nuestras búsquedas.
Los sistemas de recomendación automática se fundamentan en diversas técnicas, entre las que se
incluyen el filtrado colaborativo, el filtrado basado en contenido, el filtrado demográfico y el filtrado
basado en conocimiento.
26
Estas técnicas se aplican para analizar los datos recopilados, modelar las preferencias de los usuarios
y generar recomendaciones basadas en similitudes y relaciones identificadas. Además, los sistemas de
recomendación pueden emplear enfoques híbridos que combinan múltiples técnicas con el fin de
mejorar la precisión y relevancia de las recomendaciones, compensando las limitaciones inherentes a
cada enfoque individual.
Filtrado colaborativo
Esta técnica se basa en la idea de que las preferencias de un usuario se pueden predecir a partir del
comportamiento de usuarios similares. Utiliza datos históricos de usuarios para identificar patrones de
preferencia y hacer recomendaciones en función de la similitud entre usuarios.
Esta técnica analiza las características y propiedades del contenido (como películas, productos o
artículos) para encontrar similitudes entre ellos y recomendar elementos que sean similares a los que
un usuario ha mostrado interés previo.
Filtrado demográfico
Esta técnica emplea información demográfica y características socioeconómicas de los usuarios para
27
hacer recomendaciones. Se basa en la idea de que personas con características similares pueden tener
preferencias similares.
Esta técnica usa conocimiento experto o reglas específicas del dominio para hacer recomendaciones.
Se emplea cuando hay restricciones o limitaciones específicas en la generación de recomendaciones,
como en el ámbito de la salud o la educación.
Modelado de asociación
Esta técnica identifica asociaciones o relaciones entre elementos y utiliza esos patrones para hacer
recomendaciones. Por ejemplo, si un usuario compra un producto A y otro producto B ha sido comprado
por la mayoría de los usuarios que también compraron A, entonces se recomendará el producto B al
usuario.
En muchas tiendas online por ejemplo, nos hace sugerencias en este sentido indicando qué productos
se suelen comprar juntos.
28
Por ejemplo:
● La hibridación del filtrado colaborativo y el filtrado basado en contenido permite mitigar el
problema de arranque en frío, donde no se tienen suficientes datos de un usuario nuevo. El filtrado
basado en contenido proporciona recomendaciones iniciales basadas en características de
contenido, mientras que el filtrado colaborativo se emplea a medida que se recopilan más datos de
preferencia del usuario.
● La hibridación del filtrado colaborativo y el filtrado demográfico permite proporcionar
recomendaciones más precisas al considerar tanto las preferencias individuales del usuario como
las similitudes demográficas con otros usuarios.
Netflix utiliza una combinación de filtrado colaborativo y filtrado basado en contenido. Recomienda
películas y programas de televisión en función de las calificaciones y preferencias de visualización
anteriores del usuario, así como de características de contenido como género, actores y directores.
29
Entrenamiento para el reto
Feedback: La recomendación basada en contenidos analiza las elecciones previas del individuo
30
7. CIERRE
En esta unidad has aprendido que la inteligencia artificial pretende desarrollar sistemas que imiten los
procesos cognitivos humanos desde 1950, y nos hemos familiarizado con términos como robótica,
internet de las cosas, teoría algorítmica del juego, crowdsourcing, visión artificial y el aprendizaje
automático.
Este aprendizaje automático, en donde la propia máquina aprende a través de un conjunto de datos y
relaciones, y los avances en los procesos de lenguaje natural, facilitaron la evolución los chatbots a al
tan famoso chatGPT, utilizando la tokenización y aprovechando el desarrollo en speech to text.
Y por último, has aprendido cuál es el proceso y cómo se filtra la información que usan diferentes
páginas para realizarte las recomendaciones automáticas .
Pero además del reconocimiento del lenguaje, que hemos tratado en esta unidad, está evolucionando
cada vez más el reconocimiento de imágenes que ya utilizamos, por ejemplo, para desbloquear el
teléfono móvil.
En la siguiente unidad nos adentraremos en el mundo del entrenamiento del sistema con el aprendizaje
automático, los escenarios de entrenamiento y los algoritmos de aprendizaje supervisado y no
supervisado. Parece interesante, ¿verdad? Pues te animamos a que continúes.
31
7.2 Referencias bibliográficas
A continuación, puedes ver la relación de recursos (artículos, estudios, investigaciones, páginas web...)
que se han consultado y citado para elaborar el contenido de esta Unidad Didáctica:
• Alfonseca, Manuel (2014): ¿Basta la prueba de Turing para definir la “inteligencia artificial”?.
Scientia et Fides 2(2):129. Recuperado de:
https://www.researchgate.net/publication/287545860_Basta_la_prueba_de_Turing_para_definir
_la_inteligencia_artificial [06/05/2023].
• Benko, A., & Lányi, C. S. (2009). History of artificial intelligence. In Encyclopedia of Information
Science and Technology, Second Edition (pp. 1759-1762). IGI Global.
• DiariDigital (2023). Un proyecto pionero desarrollará sensores con material orgánico que imitan el
funcionamiento del cerebro. (21/06/2023). DiariDigital Univeristat Rovira i Virgili. Recuperado de:
https://diaridigital.urv.cat/es/un-proyecto-pionero-desarrollara-sensores-con-material-organico-
que-imitan-el-funcionamiento-del-cerebro/ [06/05/2023]
• Dot CSV. (s.f.) ¡Redes Neuronales CONVOLUCIONALES! ¿Cómo funcionan? Recuperado de:
https://youtu.be/V8j1oENVz00?t=211 [06/05/2023].
• Grossfeld, Brett (19 de junio de 2023). Aprendizaje profundo vs. aprendizaje automático. ¿En
qué se diferencian?. Blog de Zendesk. Recuperado de: https://www.zendesk.es/blog/machine-
learning-and-deep-learning/ [06/05/2023].
• Holcomb, S. D., Porter, W. K., Ault, S. V., Mao, G., & Wang, J. (2018). Overview on deepmind and
its alphago zero ai. In Proceedings of the 2018 international conference on big data and
education (pp. 67-71).
32
8. ANEXOS
8.1 Glosario
Algoritmo
Conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un
tipo de problemas.
Volver al contenido
Aprendizaje profundo
Subcampo del aprendizaje automático que estructura algoritmos en niveles para crear una red neuronal
artificial capaz de aprender y tomar decisiones inteligentes por sí misma.
Volver al contenido
Bot
Volver al contenido
Chatbot
Programa de inteligencia artificial capaz que permite una conversación en tiempo real por texto o por
voz.
Volver al contenido
ChatGPT
Volver al contenido
Condicionamiento operante
Relacionado con la Biología y la Psicología, donde un ser humano o un animal aprende o modifica un
comportamiento cuando recibe una recompensa positiva (refuerzo) o negativa (castigo).
Volver al contenido
33
Internet de las cosas
Sistema tecnológico que permite que los objetos se conecten a Internet y entre sí.
Volver al contenido
Lematización
Volver al contenido
Machine Learning
Es el aprendizaje automático. Es una rama de la inteligencia artificial que permite que las máquinas
obtengan conocimientos de patrones a partir de datos sin ser específicamente programadas.
Volver al contenido
Ocurrencia
Volver al contenido
Prueba de Turing
Test de preguntas en donde un robot por medio de sus respuestas debe engañar a los jueces de forma
que crean que el interlocutor es humano.
Volver al contenido
Tokenización
En NLP es el proceso de convertir las secuencias de caracteres, palabras o párrafos en inputs para la
computadora.
Volver al contenido
34