Resumen de Preguntas - Procesamiento
del Lenguaje Natural – TEST 1
Nº Pregunta Respuestas Correctas Explicación
1 Procesamiento del Lenguaje b. Es un campo de la El PLN busca que las máquinas
Natural inteligencia artificial que tiene entiendan y generen lenguaje
como objetivo que las máquinas humano. Es un campo
Indica las afirmaciones realicen tareas que involucren interdisciplinario (IA, lingüística,
correctas sobre el el lenguaje humano. psicolingüística, etc.). No incluye
procesamiento del lenguaje c. Es un campo interdisciplinar directamente a psiquiatras o
natural: que involucra disciplinas tan sociólogos.
diversas como el procesamiento
de la señal, el análisis sintáctico
y semántico, la morfología,
fonología y pragmática, la
psicolingüística y la
sociolingüística.
2 Décadas 1940 y 1950 b. Uno de los paradigmas Los inicios del PLN se basan en
fundacionales del autómatas y teoría de la
Indica las afirmaciones procesamiento del lenguaje información de Shannon. No
correctas sobre el natural se basa en uso de existía reconocimiento de voz en
procesamiento del lenguaje autómatas finitos y más esa época.
natural en las décadas de 1940 concretamente cadenas de
y 1950: Markov.
c. Uno de los paradigmas
fundacionales del
procesamiento del lenguaje
natural se basa en las ideas de
Shannon descritas en la teoría
de la información.
3 Paradigma simbólico (1957- a. Una de sus líneas de En este período se desarrolló la
1970) investigación se basa en la IA simbólica con teoría del
teoría del lenguaje formal y la lenguaje formal y la sintaxis
Indica las afirmaciones sintaxis generativa. generativa. No se usaban aún
correctas sobre el paradigma b. Una de sus líneas de corpus online ni enfoques
simbólico en el período de 1957 investigación se basa en la probabilísticos.
a 1970: inteligencia artificial.
4 Paradigmas 1970-1983 a. El paradigma estocástico Se usaron HMM en
utilizaba modelos ocultos de reconocimiento de voz
Indica las afirmaciones Markov para el reconocimiento (estocástico), estructuras del
correctas sobre los cuatro de la voz. discurso, y redes semánticas. La
paradigmas de investigación b. El paradigma del modelado lógica de predicados no se
que se dieron en el período de del discurso se basó en la considera parte central de los
1970 a 1983: estructura y el enfoque del paradigmas de esa época en esta
discurso. clasificación.
d. En el paradigma de la
comprensión del lenguaje
natural se utilizaban las redes
semánticas.
5 Cambios a finales del milenio b. Se volvieron populares los Predominaron los modelos
modelos probabilísticos. probabilísticos y basados en
Indica las afirmaciones c. Se volvieron estándares los datos. Comenzaron a surgir
correctas sobre los cambios que modelos basados en datos. productos comerciales. El
sufrió el campo del d. Se empezaron a comercializar empirismo y los autómatas no
procesamiento del lenguaje algunos productos con fueron lo más representativo.
natural a finales del pasado tecnologías del procesamiento
milenio: del lenguaje natural.
6 Cambios desde 2000 b. El aprendizaje supervisado se El aprendizaje supervisado se usa
(aprendizaje automático) ha usado en el análisis ampliamente. El no supervisado
semántico. no es predominante en sintaxis o
Indica las afirmaciones d. El aprendizaje no semántica, pero sí es más
correctas sobre como el auge supervisado es una técnica más eficiente al no requerir anotación.
del aprendizaje automático ha eficiente que el aprendizaje
cambiado el procesamiento del supervisado al no requerir
lenguaje natural desde el año anotaciones de los corpus.
2000:
7 Aplicaciones con PLN a. Los agentes conversacionales. Todas las opciones usan técnicas
Indica cuales de las siguientes b. La corrección ortográfica. PLN: traducción automática,
aplicaciones utilizan técnicas c. La búsqueda de respuestas. correctores, asistentes
del procesamiento del lenguaje d. La traducción automática. conversacionales, etc.
natural:
8 Crear respuesta encadenando a. Conocimiento sobre el Para construir oraciones
palabras significado de las palabras. coherentes se necesita
b. Conocimiento sobre las conocimiento semántico,
Si un agente conversacional relaciones estructurales entre sintáctico y de estructura. No se
tiene que crear una respuesta palabras. requiere conocimiento fonético si
en la conversación y para ello d. Conocimiento sintáctico. es solo texto.
encadena diferentes palabras,
¿qué tipo de conocimiento
necesita para realizar esta
tarea? Indica las respuestas
correctas:
9 Interpretar si es pregunta o a. Conocimiento pragmático. Se necesita entender intenciones,
hecho b. Conocimiento sobre el turnos de diálogo y el uso
diálogo. pragmático del lenguaje. El
Si un agente conversacional d. Conocimiento sobre la “discurso” es demasiado general y
necesita interpretar si el relación del significado con los no se considera suficiente.
usuario le ha hecho una objetivos y las intenciones.
pregunta o simplemente le ha
contado un hecho, ¿qué tipo de
conocimiento necesita para
realizar esta tarea? Indica las
respuestas correctas:
10 Concordancia gramatical a. Conocimiento morfológico. Para concordancia se requiere
(plural-verbo) d. Conocimiento sobre los conocimiento morfológico
componentes significativos de (formas gramaticales) y
Si un agente conversacional las palabras. estructura interna de palabras. La
necesita generar una frase en la sintaxis aquí no es la clave
que el número del nombre en el principal.
sujeto debe ser un plural para
que concuerde con el verbo,
¿qué tipo de conocimiento
necesita para realizar esta
tarea? Indica las respuestas
correctas:
Resumen Test 2 - Procesamiento del
Lenguaje Natural
Especialización en Inteligencia Artificial
Adel Mauricio Carrillo Morales
Nº Pregunta Respuestas Correctas Explicación
1 El principio de a. Indica que la representación Este principio establece que el
composición: del significado de una frase se significado de una oración
puede obtener desde la completa se puede derivar de
composición del significado de los significados de sus partes y
las palabras que la de cómo estas se combinan.
constituyen.
2 Indica cuál de estas d. Ninguna de las anteriores Ninguna de las afirmaciones es
afirmaciones es correcta: válida: el principio de
composición no es suficiente
por sí solo, no todas las palabras
tienen el mismo peso, y el orden
sí afecta el significado.
3 Indica cuál de estas c. El proceso de lematización La lematización reduce las
afirmaciones es cierta puede hacer que se pierda palabras a su forma base, lo que
respecto a la información importante para puede hacer que se pierdan
normalización de textos: la construcción del significado matices importantes como el
de una frase. tiempo verbal o el aspecto.
4 El proceso de stemming de c. «Salt». El stemming elimina afijos para
la palabra «saltábamos» da reducir la palabra a su raíz, que
como resultado: en este caso es “salt”. No
siempre produce una palabra
con significado completo.
5 El proceso de lematización a. «Saltar». La lematización convierte una
de la palabra «saltábamos» forma verbal conjugada en su
da como resultado: infinitivo, que representa su
forma base y canónica.
6 La mínima unidad que c. El morfema. El morfema es la unidad mínima
forma una palabra y tiene con significado, que puede ser
un significado es: léxico (lexema) o gramatical
(morfema flexivo).
7 Indica las afirmaciones b. Conforma la raíz de una El lexema es la raíz de la
correctas sobre el lexema: palabra. palabra, contiene el significado
c. Tienen un significado léxico. central y es común a todas las
d. Proporciona significado a la formas derivadas de una misma
palabra. familia léxica.
8 Indica las afirmaciones a. Un lexicón es un tipo de Cada recurso lingüístico tiene su
correctas sobre los diccionario que contiene una función: los lexicones listan
recursos lingüísticos: lista de lemas. lemas, los diccionarios explican
b. El diccionario es el palabras y las bases de datos
repertorio donde se recogen como WordNet organizan
las palabras de una lengua significados y relaciones.
acompañadas de su definición
o explicación.
d. Las bases de datos de
relaciones léxicas contienen
un conjunto de lemas
anotados con sus posibles
sentidos.
9 Indica las afirmaciones a. Debe contener información Un tesauro es un diccionario
correctas sobre un tesauro: sobre las relaciones de especializado que organiza
sinonimia. términos semánticamente
b. Los términos que relacionados en jerarquías y
conforman un tesauro se redes de significado,
relacionan entre sí para especialmente sinonimia e
mostrar las relaciones entre hiperonimia.
significados.
c. Si la jerarquía del tesauro se
basa en las relaciones de
hiperonimia/hiponimia,
cualquier término del tesauro
es un descendiente del
concepto de raíz.
10 Indica las afirmaciones b. Proporciona interfaces a NLTK es una biblioteca robusta
correctas sobre Natural diferentes corpus y otros en Python que permite trabajar
Language Toolkit (NLTK): recursos léxicos como por con corpus, análisis lingüístico y
ejemplo WordNet. puede integrarse con otras
c. Permite integrar software herramientas como Stanford
de terceros por ejemplo la API CoreNLP. No es la plataforma
de Stanford CoreNLP. más utilizada para desarrollar
aplicaciones de procesamiento
del lenguaje natural en Python.
Resumen Test 3 - Etiquetado
Morfosintáctico y Modelos HMM
Especialización en Inteligencia Artificial
Adel Mauricio Carrillo Morales
Nº Pregunta Respuestas Explicación
Correctas
1 Indica las a. Determina las La morfosintaxis
afirmaciones diferentes partes de estudia
correctas sobre la la oración. conjuntamente la
morfosintaxis: morfología
c. Parte de la (estructura de
gramática que aúna palabras) y la
la morfología y la sintaxis
sintaxis. (combinación de
palabras en
oraciones). (b. NO
Estudia la
estructura de las
palabras. Y d. NO
Estudia el modo en
que se combinan las
palabras.)
2 La clasificación de a. Categorías Todos los términos
las diferentes morfosintácticas. se refieren al mismo
palabras según su b. Categorías concepto: la
tipo o clase se gramaticales. clasificación de
conocen como: c. Partes de la palabras según su
oración. función gramatical.
d. Part-of-speech
(POS) en inglés.
3 Indica las El etiquetado
afirmaciones b. Se llama POS morfosintáctico
correctas sobre el tagging (part-of- asigna categorías
etiquetado speech tagging en gramaticales a
morfosintáctico: inglés). palabras
c. Asigna etiquetas individuales; se
sobre la categoría denomina POS
gramatical a cada tagging y su salida
una de las palabras NO es una secuencia
de la oración. de etiquetas.
4 Indica las a. Se utiliza en el Penn Treebank es
afirmaciones etiquetado un recurso en inglés
correctas sobre el morfosintáctico en con anotaciones
Penn Treebank: inglés. sintácticas, incluye
b. Consiste en un categorías
conjunto de gramaticales y
etiquetas signos de
gramaticales. puntuación.
c. Etiqueta los
signos de
puntuación de la
frase.
5 Indica las b. Aplica un proceso Los etiquetadores
afirmaciones de desambiguación. requieren
correctas sobre el d. Aplica un proceso tokenización y
algoritmo de obtención de desambiguación
implementado por tokens. gramatical, pues una
un etiquetador palabra puede tener
morfosintáctico: varias posibles
etiquetas.
6 Indica las Un HMM es un
afirmaciones b. Es un modelo modelo estadístico
correctas sobre un estadístico. basado en estados
modelo oculto de c. Su objetivo es ocultos con
Markov (HMM): determinar transiciones
parámetros probabilísticas, ideal
desconocidos a para tareas como
partir de POS tagging. NO Es
parámetros una máquina de
observables. estados finitos. NO
Es un autómata
finito donde las
transacciones entre
estados son
probabilísticas.
7 Indica las a. Modelo de El etiquetador
afirmaciones lenguaje estadístico basado en HMM usa
correctas sobre un que permite obtener datos anotados para
etiquetador la secuencia de entrenarse y aplica
morfosintáctico etiquetas el algoritmo de
basado en HMM: gramaticales que Viterbi para
tenga mayor encontrar la
probabilidad para secuencia de
una frase. etiquetas más
b. Se entrena con un probable.
conjunto de frases
en la que cada
palabra está
anotada con una
etiqueta
describiendo su
categoría
gramatical.
c. Se fijan las
estimaciones de
máxima
probabilidad para
cada una de las
condiciones de la
máquina de estados
finitos a partir de
los datos de
entrenamiento.
d. Se usa el
algoritmo de
decodificación de
Viterbi para estimar
las probabilidades.
8 Indica las b. Representa la La probabilidad de
afirmaciones probabilidad de una transición en HMM
correctas sobre la etiqueta dada la refleja la
probabilidad de etiqueta anterior. probabilidad de que
transición del HMM d. La estimación de una etiqueta siga a
utilizado en el máxima otra, y se estima
etiquetado verosimilitud de una usando frecuencias
morfosintáctico: probabilidad de de coocurrencia en
transición se calcula corpus anotados.
como la división
entre el recuento de
las veces que vemos
la primera etiqueta
seguida por la
segunda en un
corpus etiquetado
entre la frecuencia
con que aparece la
primera etiqueta.
9 Indica las c. Representa la La probabilidad de
afirmaciones probabilidad de que, emisión determina
correctas sobre la dada una etiqueta, cuán probable es
probabilidad de esta esté asociada a que una palabra
emisión del HMM una palabra aparezca dada una
utilizado en el concreta. etiqueta gramatical
etiquetado específica.
morfosintáctico:
10 Indica las a. Cada columna en El algoritmo de
afirmaciones la matriz de Viterbi explora
correctas sobre la probabilidades todas las rutas
aplicación del corresponde a una posibles y
algoritmo de Viterbi palabra en la frase a selecciona la de
para obtener la analizar y se llama mayor probabilidad.
secuencia de observación. Utiliza matriz de
etiquetas más b. Cada celda en una estados y
probables en un columna de la seguimiento inverso
etiquetador matriz de para construir la
morfosintáctico probabilidades mejor secuencia de
HMM: corresponde a un etiquetas.
estado de la
máquina de estados
finitos y se
corresponde a una
etiqueta
morfosintáctica.
d. La secuencia de
etiquetas
morfosintáctica
correctas se obtiene
de trazar la ruta
inversa que ha
llevado a obtener el
valor de Viterbi
máximo en el estado
final.
Resumen Test 4 - Análisis Sintáctico y
Algoritmo CKY
Especialización en Inteligencia Artificial
Adel Mauricio Carrillo Morales
Nº Pregunta Respuestas Explicación
Correctas
1 Indica las a. Extiende el El algoritmo CKY
afirmaciones algoritmo CKY probabilístico añade
correctas sobre el añadiendo probabilidad a las
algoritmo CKY información sobre la reglas y genera una
probabilístico: probabilidad de que matriz
se cumpla cada TRIANGULAR que
regla. incluye posibles
d. El valor de cada constituyentes y sus
una de las celdas de probabilidades.
la matriz se
corresponde con la
probabilidad de
cada constituyente o
símbolo no terminal
para cada palabra.
2 Indica las c. Se da cuando el La ambigüedad
afirmaciones analizador ocurre cuando hay
correctas sobre el sintáctico encuentra múltiples árboles
problema de la varios árboles válidos. Resolverla
ambigüedad en el sintácticos válidos y requiere seleccionar
análisis sintáctico: no es capaz de el análisis más
decidir cuál es el probable, muchas
mejor. veces mediante
modelos
probabilísticos.
3 Indica las a. Tratan el La programación
afirmaciones problema de la dinámica permite
correctas sobre los ambigüedad representar la
métodos para el estructural. ambigüedad
análisis sintáctico- b. Buscan soluciones estructural
basados en óptimas a dividiendo el
programación subproblemas que problema en
dinámica: permiten encontrar subproblemas más
la solución al simples y
problema en su optimizables.
conjunto.
4 Indica las a. Está basado en El algoritmo CKY
afirmaciones programación opera sobre
correctas sobre el dinámica. gramáticas en CNF
algoritmo de Cocke- d. Utiliza una con programación
Kasami-Younger gramática del tipo dinámica. Puede
(CKY): Chomsky Normal extenderse con
Form (CNF). probabilidades para
generar árboles más
probables. B es falsa
ya que hace
referencia a otro
algoritmo, el CKY
probabilístico. C es
falsa ya que la
gramática utilizada
es de tipo CNF (y
por eso, D es cierta).
A también es
verdadera.
5 Indica las a. Las reglas solo La forma normal de
afirmaciones pueden tener a la Chomsky requiere
correctas sobre una derecha dos reglas binarias o
gramática CNF: símbolos no terminales. Las
terminales o un gramáticas libres de
símbolo terminal. contexto pueden
b. Cualquier convertirse a CNF
gramática libre de con
contexto se podrá transformaciones
transformar en una adecuadas.
gramática CNF.
d. Las reglas
unitarias en una
gramática libre de
contexto se podrán
transformar al
formato CNF
reescribiendo la
parte derecha de
estas reglas
originales con el
lado derecho de
todas aquellas
reglas no unitarias.
6 Indica las c. La estructura de El árbol binario se
afirmaciones un árbol sintáctico representa en
correctas sobre la se puede codificar matriz 2D y el
fase de como una matriz de algoritmo se adapta
reconocimiento dos dimensiones. fácilmente como
sintáctico del d. El algoritmo analizador para
algoritmo CKY: aplicado en esta fase generar árboles
se puede modificar concretos. A es falsa
para convertirlo en ya que el algoritmo
un analizador puede dar como
sintáctico. resultado varios
árboles sintácticos
(caso de
ambigüedad
estructural). B es
falsa ya que eso sólo
se cumple en el caso
de que el nodo sea
no terminal. Las
demás respuestas
son correctas.
7 Indica las b. Cada celda [i, j] de La matriz en CKY
afirmaciones esta matriz contiene organiza
correctas sobre la el conjunto de constituyentes en
matriz de análisis símbolos no forma triangular, y
sintáctico en el terminales que cada diagonal
algoritmo CKY: representan todos representa tramos
los constituyentes mayores de la
sintácticos que oración. A es
abarcan posiciones incorrecta. El
de entrada desde i motivo es que, para
hasta j. una frase de
c. La superdiagonal longitud n, se
en la matriz trabaja con la parte
contiene las superior triangular
categorías de la matriz, no con
gramaticales para toda ella.
cada una de las
palabras de la
oración.
d. Las subsiguientes
diagonales por
encima de la
superdiagonal
contienen los
constituyentes
sintácticos para los
diferentes tramos
de longitud
creciente en la
oración.
8 Indica las b. El algoritmo El CKY combina
afirmaciones rellena la matriz reglas gramaticales
correctas sobre el triangular superior para formar árboles
funcionamiento del operando por sintácticos válidos,
algoritmo CKY: columnas de abajo a llenando una matriz
arriba y de triangular y permite
izquierda a derecha. representar
d. Para devolver un múltiples análisis
único análisis posibles. A no es
sintáctico se debe correcta ya que no
elegir de entre los se analiza cualquier
símbolos presentes elemento de la fila i
en la celda [0,n] de y de la columna j,
la matriz uno que sino que la
represente la combinación de
oración, por ejemplo elementos se hace
S o O dependiendo de abajo arriba
del vocabulario hasta esa celda [i,j].
utilizado en la En el algoritmo CKY,
gramática, y cada celda puede
recuperar de forma tener sólo un único
recursiva sus valor. Por ello, C es
constituyentes incorrecta. Las
sintácticos. demás opciones son
correctas.
9 Indica las a. Buscan el árbol Los analizadores
afirmaciones sintáctico más probabilistas
correctas sobre los probable para una calculan todas las
analizadores oración posibles
sintácticos maximizando la interpretaciones y
probabilistas: probabilidad de escogen la de mayor
dicho árbol. probabilidad basada
b. Tienen como en las reglas usadas.
objetivo producir el
análisis sintáctico
más probable para
una oración.
c. Calculan la
probabilidad de
cada interpretación
del análisis
sintáctico para una
oración y escogen la
más probable.
d. Calculan la
probabilidad de un
árbol sintáctico de
una oración a partir
de las
probabilidades de
las reglas
involucradas en el
análisis de la
oración.
10 Indica las b. Si se dispone de Las probabilidades
afirmaciones un treebank, se de las reglas se
correctas sobre el recuenta el número estiman con
cálculo de la de veces que se treebanks o, en su
probabilidad expande un símbolo defecto, con
asociada a una regla no terminal y se analizadores y
representada en una normaliza. técnicas como
gramática libre de c. Si no se dispone Expectation
contexto: de un treebank, Maximization para
pero sí se dispone refinar los valores.
de un analizador
sintáctico no
probabilístico, se
analiza
sintácticamente el
corpus de frases con
el analizador y si
estas no son
ambiguas se
recuenta el número
de veces que se
aplica cada regla y
se normaliza.
d. Si no se dispone
de un treebank, se
estiman las
probabilidades con
un algoritmo basado
en Expectation
Maximization,
donde se parte de
unas probabilidades
que se van
ajustando
iterativamente hasta
que se dé el criterio
de convergencia.
Resumen Test 5 - Modelos de Lenguaje
y Representación Vectorial
Especialización en Inteligencia Artificial
Adel Mauricio Carrillo Morales
Nº Pregunta Respuestas Explicación
Correctas
1 Indica cuál de a. Se pueden Los modelos de
estas usar en lenguaje
afirmaciones aplicaciones de predicen
es verdadera PLN como por secuencias
sobre los ejemplo para probables y se
modelos de reconocimient aplican en
lenguaje: o de voz o tareas como
traducción reconocimient
automática. o de voz,
traducción,
corrección
automática,
etc.
2 Probabilidad b. 0.2. P(grande | el
condicionada gato es) =
para “grande” frecuencia("el
dada “el gato gato es
es” con grande") /
frecuencia 20 frecuencia("el
sobre “el gato” gato es") = 20 /
con frecuencia 100 = 0.2
100:
3 Verdadera d. Ninguna de La perplejidad
sobre las anteriores. es una
evaluación de evaluación
modelos de intrínseca.
lenguaje: Evaluación
extrínseca es
medir el
impacto del
modelo dentro
de una
aplicación real,
como una
traducción.
4 Verdadera c. Si se usan n- Modelos de
sobre modelos gramas de bajo orden bajo
de lenguaje: orden (ej. como
unigramas), es unigramas
más difícil que ignoran
el modelo contexto, por
genere lo que generan
secuencias de secuencias
texto fieles a poco
las del corpus coherentes
original. comparadas
con los de
orden más alto.
5 Pasos para b. 1) Usar una Se usa una lista
que un modelo lista de cerrada y las
maneje palabras palabras
palabras cerrada. 2) desconocidas
desconocidas: Convertir las en test se
palabras del marcan como
conjunto de UNK para las
entrenamiento que se estima
que no estén probabilidad.
en la lista a
UNK. 3)
Obtener las
probabilidades
de esos tokens
UNK.
6 Probabilidad C. 0.06. Con Laplace: P
P(amigo | = (20 + 1) /
buen) con (100 + 250) =
suavizado de 21 / 350 ≈
Laplace: 0.06. Pero
según
opciones, la
más cercana
válida es 0.05.
7 Probabilidad b. 0.019. Add-k con k=5:
P(amigo | P = (20 + 5) /
buen) con (100 + 5*250)
suavizado = 25 / 1350 ≈
add-k k=5: 0.0185, pero la
opción más
cercana es
0.051 (puede
estar mal
formulada en
opciones).
Probabilidad a. 0.01. El suavizado
de bigrama no backoff asigna
visto con baja
8
backoff: probabilidad a
eventos no
vistos. En este
caso, 0.01 es la
más baja y
adecuada.
9 Verdadera c. A y B son Los modelos
sobre modelos correctas. vectoriales
de representan
representació textos como
n vectorial: vectores en
espacios
algebraicos,
donde la
similitud
refleja cercanía
semántica.
10 Verdadera d. Ninguna de BoW no
sobre modelos las anteriores. conserva ni el
BoW: orden ni la
sintaxis, y
puede usar
frecuencia, no
sólo presencia
binaria.
Resumen Test 6 - Modelos TRANSFORMERS-BERT-SKIP GRAM
00000000000000000000000Nº Pregunta Respuestas Explicación
Correctas
1 ¿Cuál es la c. Capa self- Es la arquitectura
estructura de un attention, estándar de un
bloque de conexión bloque
transformers residual, capa de Transformer
básico? normalización, según el artículo
capa feed- original de
forward, Vaswani et al.
conexión (2017).
residual, capa
normalización.
2 Indicar cuál de c. Se pueden usar La atención multi-
estas con una cabeza permite al
afirmaciones es arquitectura modelo enfocarse
verdadera sobre multiheaded, en diferentes
los donde se tienen representaciones
transformers: varias capas self- del input en
attention, y cada paralelo.
una da una salida
que se combina
en un único
vector final que
sirve como salida
de esa capa
multiheaded.
3 Indicar cuál de c. Al ser BERT no está
estas bidireccional diseñado para
afirmaciones es sirve para tareas generación de
falsa sobre el de NLP, como el texto como el
modelo BERT: autocompletado autocompletado,
de textos. sino para tareas
de clasificación o
comprensión.
4 Indicar cuál de b. Permite la BERT es un
estas generación de modelo basado en
afirmaciones es embeddings transformers
verdadera sobre contextuales, bidireccionales
el modelo BERT: donde se obtiene que genera
el embedding de embeddings
una palabra no contextualizados.
sólo de manera
global, sino
teniendo
también en
cuenta el
contexto local de
la frase.
5 Indicar cuál de d. Un modelo de Los word
estas word embeddings
afirmaciones es embeddings capturan
verdadera permite ver la relaciones
respecto a los similitud entre semánticas y
modelos de palabras e permiten
representación incluso hacer operaciones
vectorial: operaciones con vectoriales como
los vectores que analogías.
recogen el
significado.
6 El modelo de a. Infiere el Skip-gram
Skip-gram: significado de predice palabras
una palabra del contexto
usando un dadas una
modelo que trata palabra central.
de predecir el
contexto
(palabras
vecinas) dada
esa palabra.
7 El modelo de b. Infiere el CBOW predice la
CBOW: significado de palabra objetivo a
una palabra partir del
usando un contexto.
modelo que trata
de predecir la
palabra dado el
contexto
(palabras
vecinas) de esa
palabra.
8 ¿Cuál de estos c. FastText. FastText
modelos servirá considera
mejor para subpalabras, por
obtener la lo que puede
representación generar
de palabras embeddings para
desconocidas no palabras no
presentes en el vistas.
corpus de
entrenamiento?
9 Indica cuál de las c. Las redes Para modelos de
siguientes neuronales lenguaje
afirmaciones es recurrentes autoregresivos
falsa respecto a bidireccionales como los que
la construcción son útiles para la generan texto,
de modelos de construcción de solo se usan redes
lenguaje (LM) LM y para tareas unidireccionales.
con redes de PLN como el
neuronales: autocompletado
de textos.
10 Indicar cuál de d. Usa la Esa es la
estas información del definición técnica
afirmaciones es foco actual completa de la
verdadera (query, q) y de la atención escalada
respecto capa de secuencia hasta del tipo dot-
self-attention: una etapa en product usada en
concreto (key, k) transformers.
para construir
un vector que
sirve como
entrada para una
capa softmax. La
salida de esta
capa se combina
de nuevo con la
información de
entrada (value,
v) para obtener
la salida de la
capa self-
attention.
Resumen Test 7 - PLN
Nº Pregunta Respuestas Explicación
Correctas
1 Análisis semántico a. Utiliza como El análisis
dirigido por la entrada el análisis semántico dirigido
sintaxis sintáctico de la por la sintaxis parte
oración del árbol sintáctico
d. Se basa en el para construir una
principio de representación
composición semántica y se
apoya en el
principio de
composición.
2 Principio de Este principio
composición b. La idea establece que el
fundamental es que significado global se
el significado de una construye a partir
oración se del significado de
construye a partir sus partes y su
del significado de estructura
sus partes sintáctica.
d. El significado de
una oración se basa
en su estructura
sintáctica
3 Estructura en a. Se realiza primero El análisis
cascada del análisis el análisis sintáctico semántico en
semántico dirigido y con su resultado el cascada se realiza
análisis semántico en dos etapas:
c. En la primera primero el análisis
etapa se obtiene el sintáctico y luego el
árbol sintáctico de la semántico sobre ese
oración resultado.
d. El resultado de la
segunda etapa es la
representación del
significado de la
oración, por
ejemplo, utilizando
lógica de primer
orden
4 Conocimiento a. Precisa de El analizador
necesario para el conocimiento semántico debe
analizador genérico sobre los entender los árboles
semántico árboles sintácticos sintácticos tanto en
b. Precisa de general como en su
conocimiento sobre forma concreta para
el ejemplo concreto cada oración.
o dominio de la
frase que se analiza
5 Anotaciones b. Permiten integrar Las anotaciones
semánticas a reglas el conocimiento semánticas integran
gramaticales semántico en el semántica en la
propio proceso de gramática y se
generación del árbol basan en la
sintáctico hipótesis de que
c. Representan el cada regla sintáctica
conocimiento corresponde con
semántico que una regla semántica.
permite realizar el
análisis semántico
guiado por la
sintaxis
d. Se basan en la
conocida como
hipótesis rule-to-
rule
6 Notación para a. Las anotaciones Se emplean
anotar semánticas se anotaciones
semánticamente modelan utilizando semánticas formales
una regla algún lenguaje como el cálculo
formal lambda y lógica de
c. La representación primer orden,
del significado se integradas
puede calcular como directamente en las
una función de las reglas gramaticales.
anotaciones
semánticas
d. La lógica de
primer orden y la
notación de cálculo
lambda son el
método más común
7 Primero de los b. Las reglas léxicas Las reglas léxicas se
principios para se anotan con anotan
anotar reglas expresiones semánticamente con
complejas de la expresiones en
lógica de primer lógica de primer
orden y del cálculo orden y cálculo
lambda lambda, no las
reglas gramaticales.
8 Segundo principio a. Las reglas Este principio indica
para anotar reglas gramaticales con un que si una
único constituyente construcción solo
copian el valor tiene un
semántico del constituyente, su
constituyente significado es igual
al de ese
constituyente.
9 Tercer principio a. Las reglas con Cuando hay más de
para anotar reglas varios un constituyente,
constituyentes se uno se trata como
anotan aplicando la función y el otro
semántica de uno como argumento en
sobre otro como si la composición
fuera una función semántica.
10 Análisis semántico b. El análisis En este enfoque, el
integrado con sintáctico y el análisis sintáctico y
análisis sintáctico análisis semántico semántico se hacen
se realizan juntos, permitiendo
simultáneamente en validar
paralelo construcciones
c. Si una sintácticas por su
construcción viabilidad
semántica no tiene semántica.
sentido, el árbol
sintáctico puede
considerarse
inválido
d. Se utiliza una
gramática anotada
semánticamente
para realizar el
análisis sintáctico
Resumen Tema 8 - Procesamiento del Lenguaje Natural
Nº Pregunta Respuestas Explicación
Correctas
1 Indica las a. El sentido es la El sentido es un
afirmaciones representación de aspecto del
correctas sobre el uno de los aspectos significado. La
significado de las del significado de semántica léxica
palabras. una palabra. estudia las
c. La semántica relaciones entre
léxica estudia el palabras. Cada uno
significado de las de los significados
palabras y las se llama sentido.
relaciones de
sentido entre ellas.
d. Cada uno de los
significados de una
palabra se llama
sentido.
2 Indica las b. Dos sentidos de Homógrafos se
afirmaciones una palabra son escriben igual.
correctas sobre las homógrafos porque Homónimos pueden
palabras y sus se escriben de la sonar igual o
sentidos. misma forma. escribirse igual,
pero no
necesariamente
están relacionados.
3 Indica las a. A veces puede La polisemia se
afirmaciones existir una conexión refiere a múltiples
correctas sobre las semántica entre los significados de una
relaciones sentidos de las palabra
semánticas entre palabras. relacionados. La
sentidos. b. La metonimia es metonimia cambia
una forma de el sentido basado en
emplear una palabra una conexión
en un sentido contextual.
distinto al que
propiamente le
corresponde, pero
con el que tiene
alguna conexión.
c. La polisemia es
una relación
semántica entre los
sentidos de una
misma palabra.
4 Indica las c. Un tesauro es un Un tesauro incluye
afirmaciones diccionario que sinónimos y
correctas sobre las contiene una lista de antónimos. Las
relaciones entre palabras con sus bases léxicas como
sentidos de las sinónimos y sus WordNet tienen
palabras. antónimos. sentidos y
definiciones, pero
no pronunciaciones
necesariamente.
5 Indica las c. Las relaciones de Hiperónimo incluye
afirmaciones hiponimia e el significado del
correctas sobre las hiperonimia se hipónimo.
relaciones entre modelan a través de Merónimo es parte
sentidos de las la jerarquía IS-A en de un todo. Estas
palabras. las ontologías. relaciones se
d. Una palabra es un representan en
merónimo de otra si jerarquías tipo IS-A.
su significado
mantiene con el
significado de la
otra palabra una
relación de la parte
respecto al todo.
6 Indica las a. El clasificador se Aprendizaje
afirmaciones puede entrenar para supervisado
correctas sobre los desambiguar requiere corpus
algoritmos de algunas palabras etiquetado y extrae
desambiguación del concretas de una características del
sentido de las muestra léxica o un contexto. Es
palabras basados en texto entero. específico para
aprendizaje c. Requieren tener palabras o textos
supervisado. un corpus de concretos.
palabras
etiquetadas con sus
sentidos correctos
para poder entrenar
el clasificador.
d. El vector de
características
lingüísticas de las
palabras de
contexto con las que
se entrena el
clasificador puede
constar de
características de
colocación y
características sobre
las palabras vecinas
7 Indica las a. Aplican el El algoritmo de Lesk
afirmaciones algoritmo de Lesk compara
correctas sobre los para seleccionar el definiciones de
algoritmos de sentido cuya diccionario con el
desambiguación del definición en el contexto. No
sentido de las diccionario requiere corpus
palabras basados en comparte la mayor etiquetado, solo un
conocimiento. cantidad de recurso léxico.
palabras con el
contexto.
8 Indica las a. Aplican el Yarowsky es un
afirmaciones algoritmo de enfoque iterativo
correctas sobre los Yarowsky para en que expande
algoritmos de cada iteración entrenamiento con
desambiguación del entrenar un instancias de alta
sentido de las clasificador a partir confianza. Utiliza
palabras basados en del corpus heurísticas para
aprendizaje etiquetado, utilizar selección inicial.
semisupervisado. el clasificador para
clasificar las
instancias no
etiquetadas y añadir
a los datos de
entrenamiento los
ejemplos para los
que se tenga mayor
confianza en la
clasificación.
9 Indica las a. Utilizan un En aprendizaje no
afirmaciones método estándar de supervisado no se
correctas sobre los agrupamiento, usa corpus
algoritmos de normalmente el etiquetado, sino
desambiguación del algoritmo de clustering para
sentido de las agrupamiento descubrir
palabras basados en aglomerativo, y una automáticamente
aprendizaje no medida de distancia sentidos.
supervisado. para determinar la
similitud entre
clústeres.
d. También se llama
inducción del
sentido de las
palabras porque el
conjunto de
sentidos de cada
palabra se aprende
automáticamente.
10 Indica las b. Los algoritmos La similitud
afirmaciones que calculan la semántica puede
correctas sobre la similitud entre estimarse por
similitud entre palabras utilizando distancia en tesauro
palabras. la estructura de un o por medidas
tesauro se basan en probabilísticas
la hipótesis de que como la información
los sentidos de las compartida.
palabras son más
similares si existe
un camino más
corto entre ellos.
c. Muchos de los
algoritmos que
calculan la similitud
entre palabras
realmente lo que
hacen es utilizar una
medida de relación
entre palabras y no
de similitud.
d. Existen
algoritmos que
calculan la similitud
entre palabras
utilizando la
estructura de un
tesauro e
información
probabilística
derivada de un
corpus como, por
ejemplo, la cantidad
de información.
Resumen Tema 9 - Sistemas de PLN
No. Redacción de la Respuesta Correcta Explicación
Pregunta
1 Indica cuál de las d. Todas son correctas. Los sistemas de QA
siguientes factoid suelen tener
afirmaciones es dos etapas
correcta en relación (recuperación de
con un IR para documentos +
factoid QA. comprensión del
contenido), usan
ventanas por límite
de tokens, y tokens
como [CLS] para
marcar ausencia de
respuesta.
2 Indica cuál de estas a. La respuesta A es
afirmaciones es La entrada corresponde incorrecta, ya que
incorrecta sobre un a una señal de audio, de después de hacer la
sistema de ASR. la que se obtienen extracción de
distintos rasgos tras rasgos, antes de
aplicar técnicas de llegar al encoder,
muestreo, que sirven hay una etapa
directamente de de subsampling. La
entrada a un modelo descripción de la
(ej., un encoder). fase
de subsampling de la
respuesta B es
correcta, así como el
comentario sobre el
aspecto causal y
cómo mejorar un
ASR de la respuesta
C.
3 Indica cuál de estas c. La respuesta C es
afirmaciones es Se suelen usar incorrecta, ya que la
incorrecta sobre un modelos encoding- salida
sistema de TTS. decoding donde la salida del decoder no es
de la última capa de la directamente la
red neuronal predicción, sino que
del decoder corresponde es la entrada de la
con la predicción de la etapa del Vocoder. A
señal acústica asociada esto hace referencia
al texto de entrada. precisamente la
respuesta B. Por
otro lado, A es
correcta, ya que
hace referencia a
que el sistema de
TTS sólo necesita
información de una
única voz.
4 Indica las c. Los aspectos de La divergencia
afirmaciones divergencia léxica hacen léxica incluye
verdaderas en el referencia a diferencias diferencias
contexto de las entre dos lenguas... semánticas o uso de
tareas de MT. términos entre
idiomas.
5 ¿Cuál es el objetivo b. Calcular la función de Evita errores
de usar teacher coste usando la palabra acumulativos en el
forcing dentro de real anterior y no la decoder durante el
un modelo encoder- predicha... entrenamiento.
decoder?
6 ¿Qué diferencias b. La capa cross- La self-attention
existen entre una attention se encarga de causal solo usa la
capa cross-attention recibir el contexto parte previa,
y otra causal self- generado en el mientras la cross-
attention...? encoder... attention recibe la
salida del encoder.
7 ¿Cuál de estas a. En el caso del En autocompletado
afirmaciones es autocompletado no se se genera texto sin
correcta con dispone de toda la mirar el futuro, por
respecto a las secuencia, por tanto es eso es causal. En
diferencias entre la causal. resumen se tiene el
arquitectura...? texto completo y se
puede usar
bidireccionalidad.
8 ¿Cómo se llevaría a b. Se caracterizan los Es el método común
cabo un análisis de sentimientos de las cuando se usan
sentimientos no palabras y se aplican lexicones sin
supervisado...? reglas para asignar el supervisión
sentimiento general. explícita.
9 ¿Cuál de estas a. ¿Cuál es la Las preguntas
preguntas sería un composición de la factoid buscan
ejemplo de factoid atmósfera de Marte? respuestas
question? concretas,
generalmente
breves y objetivas.
10 ¿Para qué propósito b. Para realizar Evita búsquedas
se usa el inverted búsquedas eficientes exhaustivas y
index...? con un diccionario que permite calcular
indexa palabras a similitud solo
documentos. cuando hay
coincidencias
relevantes.
Resumen de Respuestas Correctas -
Tema 10: Agentes Conversacionales
Pregunta 1
Tema: Indica las afirmaciones correctas sobre los agentes conversacionales
Respuesta(s) correcta(s):
• a. Son programas que conversan con las personas a través del lenguaje natural.
c. Son capaces de continuar la interacción con el usuario contestando a preguntas
dependientes de las anteriores.
d. También se llaman sistemas de diálogo.
Pregunta 2
Tema: Indica las afirmaciones correctas sobre las características de las conversaciones
entre humanos que influyen en los agentes conversacionales
Respuesta(s) correcta(s):
• b. La gestión de los turnos de palabra en agentes conversacionales se puede modelar
con una serie de reglas que se evalúan en los momentos en que la estructura del
lenguaje permite intercambiar el interlocutor.
d. En las conversaciones se da un patrón de pares adyacentes, por ejemplo, si en un
turno de palabra se lanza una pregunta (primera parte del par), en el siguiente turno se
espera que se dé una respuesta (segunda parte del par). Sin embargo, puede darse el
caso que la segunda parte del par no aparezca directamente justo después de la
primera.
Pregunta 3
Tema: Indica las afirmaciones correctas sobre los diferentes tipos agentes conversacionales
Respuesta(s) correcta(s):
• c. Los agentes conversacionales disponibles en las páginas web que proporcionan ayuda
a los clientes para resolver dudas son agentes conversacionales dedicados.
Pregunta 4
Tema: Indica las afirmaciones correctas sobre la estructura de los agentes conversacionales
Respuesta(s) correcta(s):
• a. Los agentes conversacionales, independientemente de las modalidades que utilicen
para interactuar con el usuario, siguen una estructura básica común.
c. Los agentes conversacionales más sencillos pueden integrar las funcionalidades de
comprensión del lenguaje natural, de gestión del diálogo y de generación del lenguaje
natural en un único módulo.
d. Un agente conversacional basado en voz se compone de los siguientes módulos: uno
de entrada para el reconocimiento automático de la voz, uno de comprensión del
lenguaje natural, uno de gestión del diálogo, de generación del lenguaje natural y uno de
una salida de conversión de texto al habla.
Pregunta 5
Tema: Indica las afirmaciones correctas sobre el módulo de comprensión del lenguaje
natural en un agente conversacional
Respuesta(s) correcta(s):
• b. Para representar la semántica de las frases es muy común que utilice frames y pares
atributo-valor.
c. Aparte de determinar los huecos y sus posibles valores expresados en la frase, tiene
que identificar los aspectos propios de un diálogo como, por ejemplo, los puntos de
coincidencia o los actos del habla.
d. Tiene como objetivo extraer la semántica de las frases en un turno de palabra.
Pregunta 6
Tema: Indica las afirmaciones correctas sobre el módulo de gestión del diálogo en un agente
conversacional
Respuesta(s) correcta(s):
• a. Es el elemento principal del agente conversacional.
b. Analiza la representación semántica de la frase extraída por el módulo de
comprensión del lenguaje natural.
c. Es imprescindible mantener el estado del diálogo y el flujo de la conversación para la
gestión del diálogo.
d. Se puede implementar como una máquina de estados finitos o como un proceso de
decisión de Markov.
Pregunta 7
Tema: Indica las afirmaciones correctas sobre el módulo de generación del lenguaje natural
en un agente conversacional
Respuesta(s) correcta(s):
• a. Tiene como objetivo elegir los conceptos que se quieren expresar al usuario y,
además, planificar cómo expresar estos conceptos en palabras.
c. Escoge las estructuras sintácticas y las palabras que se necesitan para expresar el
concepto.
Pregunta 8
Tema: Indica las afirmaciones correctas sobre los chatbots basados en reglas
Respuesta(s) correcta(s):
• b. Cada regla está asociada a una palabra clave en la frase.
d. ELIZA, uno de los primeros agentes conversacionales, implementa este tipo de
estrategia.
Pregunta 9
Tema: Indica las afirmaciones correctas sobre los chatbots basados en corpus
Respuesta(s) correcta(s):
• a. Aplican técnicas de minería de datos a un conjunto de conversaciones entre humanos
para extraer las posibles respuestas del chatbot al usuario.
b. Las respuestas del chatbot se pueden extraer de un texto que no sea un diálogo.
d. Suelen generar la respuesta basándose solamente en el turno de palabra
inmediatamente anterior.
Pregunta 10
Tema: Indica las afirmaciones correctas sobre los tipos de chatbots basados en corpus
Respuesta(s) correcta(s):
• a. Los chatbots basados en la recuperación de información usan como turno de
respuesta a una consulta una respuesta que aparezca en el corpus y cuyo turno anterior
sea lo más parecido posible a la consulta.