Está en la página 1de 34

UNIVERSIDAD

DE SALAMANCA
FACULTAD DE TRADUCCIO1 N Y DOCUMENTACIO1 N
GRADO EN TRADUCCIO1 N E INTERPRETACIO1 N
Trabajo de Fin de Grado

COMPETENCIAS Y SALIDAS
LABORALES PARA TRADUCTORES EN
LOS SECTORES DE POSTEDICIÓN Y
TRADUCCIÓN AUTOMÁTICA

Vera Eremina
Emilio Rodríguez Vázquez de Aldana

Salamanca, 2021
Agradezco a Pablo Senís Fernández (traductor de Naciones Unidas) y al equipo de
Yandex por haberme brindado la oportunidad de realizarles entrevistas personales y, así,
facilitarme la elaboración de este trabajo de fin de grado.
Resumen

En este trabajo de fin de grado se indagan las oportunidades laborales que se le brindan a
un traductor en el campo de traducción automática. Para ello primero se ofrece una breve
base teórica que trata los hitos básicos en la historia de la traducción automática, los
modelos fundamentales de motores y el estado actual de la cuestión. Posteriormente se
explican las vías por las que un traductor puede formarse, tales como la universidad y los
cursos complementarios, y las competencias que este debe adquirir para convertirse en
un profesional competente en dicho ámbito. Por último, se ofrecen tres direcciones
principales de carrera profesional para un traductor en el sector de traducción automática:
la postedición, la traducción con la ayuda de los programas de TA y el mantenimiento de
dichos motores.

Palabras clave

competencia en postedición, traducción automática, postedición, formación de


posteditores, motores de traducción automática, formación en traducción automática

Abstract

This thesis explores the career opportunities available to a translator in the field of
machine translation. First, a brief theoretical background is provided, covering the basic
milestones in the history of machine translation, the fundamental engine models, and the
current state of the art. This is followed by an explanation of the ways in which a translator
can acquire the necessary training, such as in university and on complementary courses,
and the skills that a translator must develop to become a competent professional in the
field. Finally, three main career directions for a translator in the machine translation
industry are offered: post-editing, translation with the help of MT engines, and
maintenance of MT engines.

Keywords

post-editing competence, machine translation, post-editing, post-editing training,


machine translation engines, machine translation training
Tabla de contenido
1 INTRODUCCIÓN .................................................................................................................................... 3

1.1 JUSTIFICACIÓN Y MOTIVACIÓN .................................................................................................. 3

1.2 OBJETIVOS ................................................................................................................................. 3

1.3 ESTRUCTURA ............................................................................................................................. 4

1.4 METODOLOGÍA .......................................................................................................................... 5

2 LA TRADUCCIÓN AUTOMÁTICA: HITOS FUNDAMENTALES, MODELOS Y ESTADO DEL


ARTE........................................................................................................................................................... 6

2.1 HISTORIA DE LA TRADUCCIÓN AUTOMÁTICA: HITOS BÁSICOS ................................................... 6

2.2 MODELOS FUNDAMENTALES EN TRADUCCIÓN AUTOMÁTICA .................................................... 8

2.2.1 Traducción automática basada en reglas ..................................................................... 9

2.2.2 Traducción automática estadística................................................................................ 9

2.2.3 Redes neuronales ......................................................................................................... 10

2.3 EVOLUCIÓN DE LA TRADUCCIÓN AUTOMÁTICA NEURONAL ..................................................... 11

2.3.1 Sequence to Sequence .................................................................................................. 13

2.3.2 Sequence to Sequence with Attention .......................................................................... 13

2.3.3 Transformer ................................................................................................................. 14

3 FORMACIÓN Y COMPETENCIAS EN TRADUCCIÓN AUTOMÁTICA Y POSTEDICIÓN .. 16

3.1 FORMACIÓN ............................................................................................................................. 16

3.1.1 Formación académica ................................................................................................. 17

3.1.2 Formación complementaria ........................................................................................ 18

3.2 COMPETENCIAS ....................................................................................................................... 19

3.2.1 Competencias genéricas .............................................................................................. 19

3.2.2 Competencias específicas ............................................................................................ 20

4 SALIDAS LABORALES ....................................................................................................................... 22

1
4.1 POSTEDITOR ............................................................................................................................ 22

4.2 TRADUCTOR QUE APROVECHA LA TA ..................................................................................... 23

4.2.1 Modelo de trabajo: ONU............................................................................................. 24

4.3 ENCARGADO DE MANTENIMIENTO DE LOS MOTORES DE TA.................................................... 25

4.3.1 Modelo de trabajo: Yandex ......................................................................................... 25

5 CONCLUSIONES .................................................................................................................................. 27
6 BIBLIOGRAFÍA .................................................................................................................................... 28

2
1 Introducción

1.1 Justificación y motivación

Hoy en día el impacto que está teniendo la tecnología en todos los sectores
profesionales es inmenso. No puede pasar desapercibido su uso en casi ningún ámbito, y
el sector de traducción no es una excepción. Tanto las herramientas de traducción asistida
por el ordenador (TAO) como los motores de la traducción automática (TA), o machine
translation (MT), son los ejemplos más representativos de la aplicación de la tecnología
en traducción.

No obstante, mientras el uso de las herramientas de TAO se ha consolidado en el


sector y no experimenta grandes cambios en los últimos 25 años, la TA ha introducido
numerosas novedades relacionadas con la manera clásica de trabajar. Ya no se trata de
producir un texto en lengua meta, sino de corregir el que se ha generado automáticamente
(Cid-Leal, 2019). Y cada vez más se utiliza el software de TA en más ámbitos de la
traducción y por un mayor número de traductores (Cid-Leal, Espín-García y Presas,
2019).

Sin embargo, por lo que he percibido durante mis estudios de grado y mi inserción
en el mercado laboral y como comentan Cid-Leal et. al., (2019), se le otorga una mayor
importancia a TAO y se hace menos hincapié en la TA y la postedición (PE). Sin duda,
la traducción automática representa un gran hito en la historia de traducción y, a mi
parecer, tanto desde el punto de vista académico como profesional, es crucial prestarle
más atención a esta rama de traductología y hacer accesible toda la información acerca
de ella para que los estudiantes y los profesionales del sector tengan acceso a ella.

1.2 Objetivos

Dado el desarrollo de la tecnología y, en particular, la evolución de la TA, quería


indagar en las competencias que pueden adquirirse tanto a nivel académico como
profesional, y las salidas laborales (que he clasificado en tres direcciones principales)
relacionadas con este ámbito.

3
Para ello, primero realizaré una introducción teórica acerca de la traducción
automática que tratará su historia, sus tipos y su situación actual. Asimismo, es
imprescindible investigar el aspecto formativo si se pretende analizar las competencias,
por lo que expondré brevemente los tipos de formación que puede recibir un estudiante o
profesional en el campo de traducción automática. Tras haber expuesto la base teórica,
pasaré a la parte práctica, en la que trataré las aptitudes y las salidas profesionales para
los traductores en dicho sector, tal y como he comentado anteriormente.

1.3 Estructura

Para conseguir estos objetivos del presente trabajo expuestos en el apartado


anterior he organizado el trabajo en tres bloques principales.

En el apartado 2 haré una introducción teórica, que constará de tres partes.


Primero, resumiré la historia de la TA exponiendo de manera cronológica los hitos
básicos y el avance que supuso cada uno de ellos. Segundo, explicaré brevemente los
modelos de TA que han existido hasta la actualidad (TA basada en reglas, TA estadística
y la TA basada en redes neuronales). Por último, le dedicaré unas páginas al estado del
arte de la traducción automática neuronal (TAN). En este apartado describiré los tres tipos
de los motores de TAN: Sequence to Sequence, Sequence to Sequence with Attention y
Transformer.

En el segundo bloque del trabajo me centraré en la formación en traducción


automática que deben tener los profesionales de la traducción (apartado 3.1), las
competencias (3.2) y las salidas laborales en dicho campo (4). Primero analizaré la oferta
educativa relacionada con la TA, más concretamente la formación académica y la
capacitación complementaria. Esto me llevará a investigar en competencias tanto a nivel
académico como laboral: qué aptitudes hacen falta a un profesional que quiere
especializarse en dicho campo (cualidades genéricas y destrezas más específicas). En el
último apartado mostraré las salidas laborales vinculadas con el desarrollo de los sistemas
de TA y la PE. Esta última parte constará de tres subapartados, en cada uno de ellos trataré
una dirección de desarrollo profesional distinta: la postedición, la traducción con la ayuda
de un motor de TA y el mantenimiento de los sistemas de TA.

4
1.4 Metodología

Para realizar el presente trabajo y conseguir los objetivos propuestos me basé


principalmente en la búsqueda, selección y lectura de la bibliografía. Dada la evolución
tan acelerada de la tecnología en general y su parte relevante para este proyecto, la
traducción automática, la principal limitación ha resultado en la fecha de publicación de
las fuentes: la gran mayoría de las referencias bibliográficas que aparecen en este trabajo
tiene una fecha posterior al año 2018. De esta manera, he sido capaz de maximizar la
actualidad de la información que he recogido garantizando así la relevancia de mi trabajo.

Además, me han resultado de gran ayuda los conocimientos que he adquirido en


la asignatura de Postedición que fue impartida este curso en la Universidad de Salamanca
por Emilio Rodríguez Vázquez de Aldana y José Manuel Bustos Gisbert (por orden de
impartición). Me he basado tanto en la información que se ofreció a lo largo de la
asignatura como en las tutorías con dichos profesores.

Por último, este trabajo no habría sido posible sin las entrevistas personales que
realicé a los empleados de las Naciones Unidas, Pablo Senís Fernández1 (traductor), y de
Yandex, Platón Shchukin (equipo de soporte). Sus respuestas sirvieron de base para el
apartado de «Competencias» y «Salidas laborales».

1
Las opiniones expresadas por Pablo Senís son consideraciones personales que no representan la
posición de la Organización de las Naciones Unidas respecto a la traducción, ni un respaldo, explícito ni
implícito, a ninguna de las compañías mencionadas.

5
2 La traducción automática: hitos fundamentales, modelos y
estado del arte2

2.1 Historia de la traducción automática: hitos básicos

La traducción automática surgió a finales de la década de los cuarenta del siglo


pasado con el objetivo de transferir un mensaje de un lenguaje natural a otro sin
intervención humana. Es una aplicación práctica de la disciplina conocida como
Procesamiento del Lenguaje Natural (PLN), Natural Language Processing (NLP) en
inglés, un campo multidisciplinar en el que trabajan informáticos, matemáticos, lingüistas
—también, traductores— que estudia las interacciones entre el ordenador y los idiomas.

Los primeros sistemas de TA estaban basados en reglas. A este tipo de traducción


se le denominaba Rule-Based Machine Translation (RBMT). Un ejemplo representativo
de un programa de TA basado en reglas fue Météo System, que ofrecía textos de una
calidad relativamente buena, pero cuyo dominio estaba restringido exclusivamente al
ámbito meteorológico (Slocum, 1985 y Kliffer, 2008). Otro ejemplo es SYSTRAN, que
fue utilizado por la NASA desde el año 1974 para el proyecto de colaboración Apollo-
Soyuz y por EURATOM desde 1976 (Slocum, 1985). Se consideró el motor de referencia
hasta la aparición de la versión estadística de Google Translate en 2006 (Dugast et. al.,
2007).

En la década de los noventa, un período en el que la TA basada en reglas todavía


representaba el paradigma dominante, IBM desarrolló el primer software de TA
estadística, Statistical Machine Translation (SMT), denominado Candide. Sin embargo,
no será hasta el año 2006 que la TA estadística pase a ser el modelo dominante gracias a
la aparición del motor de Google Translate (cuyo modelo estadístico fue concretamente
el llamado basado en frases, nombrado en la literatura como PB-MT, Phrase-Based
Machine Translation), que se convirtió en el sistema de referencia. Este cambio de
paradigma (PB-MT) supuso un gran avance en cuanto a la calidad de la TA y fue entonces
cuando la TA empezó a considerarse una herramienta que podía resultar de gran utilidad

2
La mayor parte de la información recogida en este apartado fue extraída de Hutchins (1995).

6
en el campo de la traducción profesional, integrándose en los programas de TAO.
Además, fue entonces cuando apareció por primera vez el concepto de postedición en el
ámbito profesional de la traducción.

En la década de 2010 aparece Moses, un sistema de TA estadística basado en


frases de código abierto, lo que facilitará el comienzo de la creación de motores ad-hoc:
las grandes organizaciones y agencias de traducción empiezan a crear sus propios motores
a partir de sus corpus, al tiempo que se desarrolla el software necesario para el
mantenimiento de los mismos. En ese momento, además, se modifican los planes de
estudio universitarios para adaptarse a estos avances tecnológicos (Eisele et. al., 2008).

Tras haber dado el primer salto con la introducción de la aproximación basada en


corpus, el siguiente gran cambio surgió en el año 2014 con la publicación de la
arquitectura del primer motor de la TA neuronal, Neural Machine Translation (NMT) en
los trabajos de Sutskever et. al. (2014) y Cho et. al. (2014). La primera propuesta de la
TAN se ha denominado Seq2Seq (Sequence to Sequence) y, en el año siguiente, se
presentó una versión mejorada de esta, la arquitectura conocida como Seq2Seq with
Attention (Bahdanau et. al., 2015).

Esta arquitectura es en la que se basó el equipo de Google para desarrollar su


traductor automático en el año 2016, publicada en Wu et. al. (2016). Este acontecimiento
marcó enormemente la evolución de la TAN, que pasó a considerarse el paradigma
dominante del campo a partir de aquel momento y todas las empresas importantes
(Microsoft, SYSTRAN, Baidu, etc.) emprendieron el camino de desarrollo de su propio
motor neuronal pretendiendo superar a sus rivales en esta carrera.

En 2017 Google siguió avanzando en el campo de la TAN: desarrolló una nueva


arquitectura denominada Transformer, que hizo pública en el artículo «Attention is all
you need» (Vaswani et. al., 2017), una publicación de gran trascendencia en el campo del
procesamiento del lenguaje natural y, en particular, en el ámbito de la traducción
automática neuronal. Esta arquitectura se fusionó posteriormente (por el mismo equipo
de inteligencia artificial de Google) con Seq2Seq with Attention para dar lugar a la
versión actual del motor de TAN de Google (Chen et. al, 2018).

En el mismo año nació un producto que revolucionó el mundo profesional de la


traducción, Facultades de Traducción incluidas. Nació el software de traducción

7
automática denominado DeepL, cuya arquitectura aún no ha sido publicada, tal y como
sí hacen las otras grandes compañías que desarrollan motores de TA (Google, Microsoft,
SYSTRAN, Facebook, entre otras). Triunfó inmediatamente ganando usuarios a un paso
acelerado, ya que, según los profesionales del sector de la traducción, superaba en calidad
al de Google Translate (Strakhova, 2020).

En la actualidad, la investigación se centra en la traducción automática neuronal


multilingüe (Multilingual NMT). Se investiga cómo mejorar la traducción automática
entre pares de lenguas que apenas cuentan con corpus bilingües, valiéndose del
aprendizaje que las redes neuronales adquieren con el entrenamiento entre pares de
lenguas para los que sí se cuentan con corpus paralelos extensos. En suma, se busca cómo
transferir el conocimiento (en inglés, en el ámbito del Deep Learning, a este concepto se
le llama Transfer Learning) aprendido por una red neuronal para un par de idiomas dado,
a otra combinación lingüística diferente. En Caswell y Liang (2020) se muestra, en un
gráfico dinámico, como la calidad de los motores para combinaciones lingüísticas para
las que apenas se dispone de corpus, mejoran de forma apreciable valiéndose de lo que la
red aprendió en otras combinaciones para las que sí se dispone de corpus suficiente.

2.2 Modelos fundamentales en traducción automática

Entender el funcionamiento de los sistemas de TA es imprescindible para poder


trabajar con ellos, ya sea entrenándolos o utilizándolos al realizar una traducción. «There
is broad consensus in the literature that anyone who wishes to become a professional
translator of pragmatic and technical texts should acquire an understanding of, and an
ability to use and critically appraise, contemporary translation technologies»3 (Kenny,
2020, p. 1).

3
Existe un amplio consenso en la literatura sobre el hecho de que cualquier persona que desee
convertirse en un traductor profesional de textos no especializados y técnicos debe adquirir una
comprensión de las tecnologías de traducción contemporáneas, así como la capacidad de utilizarlas y
valorarlas críticamente.

8
La evolución de la TA se basa en tres tipos de programas que han ido apareciendo
a lo largo de la segunda mitad del siglo pasado y principios de este. A continuación se
explicará cada uno de ellos con más detalle.

2.2.1 Traducción automática basada en reglas

El primer modelo de TA parte de la idea de que el idioma es definible y posee una


estructura lógica. Por consiguiente, el conocimiento lingüístico puede modelarse
mediante una serie de reglas y normas (Rule-Based Approach). Se trata, por tanto, de un
sistema deductivo.

Este tipo de motores puede llegar a ofrecer unas traducciones de una cierta
calidad, pero están muy limitados (Hutchins, 1995). Sin embargo, todavía existen
programas de traducción basada en reglas como, por ejemplo, Apertium4 (Forcada et. al.,
2011). Un programa de traducción basado en reglas sigue considerándose como una
opción viable si para el par de lenguas por traducir apenas existen corpus bilingües, por
lo que no se puede construir un sistema estadístico o neuronal. No obstante, esta vía de
actuación puede llegar a descartarse en un futuro próximo, ya que la traducción neuronal
multilingüe —que puede cumplir esta función de la traducción basada en reglas—
representa el estado de arte en la actualidad.

2.2.2 Traducción automática estadística

A principios de los años 90 tiene lugar un cambio de paradigma en la traducción


automática: ahora se trata de un sistema inductivo basado en corpus (data-driven
approach). La idea fundamental detrás de ese cambio consistió en darse cuenta de que el
lenguaje humano no podía describirse mediante una lista de reglas, por lo que el sistema,
en este caso, parte de unos corpus paralelos —bilingües, pareados a nivel de oración—
con el objetivo de extraer determinados patrones estadísticos de uso para basarse,
posteriormente, en ellos a la hora de traducir los textos nuevos (Hutchins, 1995).

4
Para más información visite https://www.apertium.org.

9
2.2.3 Redes neuronales

La aparición de las técnicas de aprendizaje profundo, Deep Learning, y su


aplicación en el sector de TA hace que su evolución se vea enormemente acelerada. La
TA sigue inductiva, pero en este caso este se ve combinado con los sistemas basados en
redes neuronales artificiales profundas, Artificial Neural Networks, formadas de una
multitud de capas de neuronas procesando la información.

Las redes neuronales fueron desarrolladas con el objetivo de simular el


comportamiento del cerebro humano, por lo que el funcionamiento de una RNA se basa
en una multitud de capas de neuronas que se envían impulsos entre ellas. Su estructura
consta de una capa de entrada, una capa de salida y un número determinado de capas
ocultas entre la primera y la última. La principal ventaja de una red neuronal profunda
(que contiene más de dos capas ocultas) frente a los sistemas estadísticos anteriores es su
capacidad de resolver problemas complejos y no lineales, es decir, los problemas en los
que la relación entre un aspecto que influye en el resultado final obtenido no depende
linealmente de la importancia y el impacto que tiene en la traducción final. Es más, no
necesitan dividirlos en subproblemas ni determinar unas características típicas del
problema, unos aspectos clave que diferencian el Deep Learning del Machine Learning.

Cada arquitectura de una RNA se basa en tres variables principales: el número de


capas, el número de neuronas por capa y la manera en la que se relacionan las neuronas
entre las capas. El funcionamiento de una red neuronal se lleva a cabo a partir de unas
operaciones matemáticas básicas que en la gran mayoría de los casos se realizan de
manera feed-forward (de izquierda a derecha, sin hacer bucles). El valor de entrada de
cada neurona se representa en forma de un vector de números reales y a la salida se
produce otro número vectorial, calculado a partir de una función no lineal. Este mismo
proceso se realiza a través de cada una de las neuronas de la red. El valor que reciben las
neuronas a partir de la segunda capa es el resultado de la operación matemática realizada
por la neurona de la capa anterior multiplicado por el peso que tiene la conexión entre las
dos.

El proceso de aprendizaje de una RNA es la clave de su funcionamiento adecuado.


Consiste en la asignación y el ajuste de los pesos de las conexiones entre las neuronas. La
manera más típica de entrenar las redes es el aprendizaje supervisado, que consiste en

10
proveer a la RNA un conjunto de datos de entrada y de las soluciones correspondientes.
De esta manera, la red puede comparar el resultado que ha obtenido con la respuesta
correcta y ajustar los pesos si hace falta.

2.3 Evolución de la traducción automática neuronal

Las lenguas, por su naturaleza, son extremadamente complejas. Por ello, el


objetivo de llegar, en un futuro, a desarrollar un sistema de TA perfecto puede resultar
utópico e inalcanzable. Sin embargo, es posible aproximarse a dicha meta, ya sea por una
vía u otra.

Asimismo, en la actualidad se siguen utilizando los tres modelos principales


explicados anteriormente para transferir textos de un idioma a otro. La calidad de una
traducción, ya sea automática o no, representa un aspecto en gran medida subjetivo, por
lo que, en los círculos empresariales, la evaluación de la calidad se basa en la opinión de
los expertos en traducción (que a menudo desempeñan la función de posteditores)
(Slocum, 1985).

En cuanto al estado de arte según dichos expertos, en este apartado me centraré


en los motores de TAN «disponibles», es decir, en los que están completamente
desarrollados y se utilizan hoy en día, aunque es cierto que existe otro grupo de sistemas
que se encuentran en la fase de desarrollo y que no analizaré en este trabajo.

Siguiendo a Cho (2015a), conviene empezar señalando que el planteamiento del


problema a resolver en la TAN es el mismo que en la TAE. Se trata de encontrar la frase
en destino con máxima probabilidad, dado el texto en lengua origen. Este problema de
maximización se expresa con la siguiente fórmula:

D∗ = argmax P(D|O),
"

donde: D* es la oración de máxima probabilidad elegida en destino y

P(D|O), notación de la probabilidad condicionada, se lee como la probabilidad de


destino dada una oración de origen.

Naturalmente, la resolución de este problema se aproxima de forma diferente en


la TAE y en la TAN. Centrémonos en la TAN.

11
Antes de procesar un texto con una red neuronal es imprescindible llevar a cabo
el proceso conocido como tokenizado, que implica dividirlo en oraciones (de acuerdo con
normas de puntuación) y luego en tokens (palabras, signos de puntuación, etc.). Tras la
división del texto en unidades (tokens), deben de mapearse éstos en vectores de números
reales para ser posible su procesamiento dentro de una red neuronal. Efectivamente, toda
RNA trabaja con vectores de números y toda la información a ser transformada en
cualquier RNA (textos, imágenes, etc.) ha de ser acomodada en números vectoriales tal y
como se explica en Torres (2018).

Las palabras, por tanto, de nuestras oraciones son convertidas a vectores de


números reales. Estas representaciones de las palabras como vectores son llamadas word
embeddings.

This vector is called a word embedding or a word representation, which is a vector


of real numbers corresponding to particular words in the vocabulary. The interesting
thing about expressing words as vectors of real numbers is that each element of the
vector could reflect a different aspect of the word. For example, there may be an
element in the vector determining whether a particular word under consideration
could be a noun, or another element in the vector expressing whether the word is an
animal, or another element that expresses whether the word is countable or not.
(Neubig, 2017, p. 25)5

El tamaño o dimensión de estos vectores de palabras puede variar. Son usuales


dimensiones entre 256 y 1024.

Entre las arquitecturas de TAN principales se encuentran las conocidas como


Sequence to Sequence, Sequence to Sequence with Attention y Transformer, que ya se
han mencionado en la explicación de la evolución de la TA. Todos estos modelos están
compuestos por dos módulos que cumplen las funciones esenciales para llevar a cabo la

5
Este vector se denomina word embedding o word representation y contiene de números reales
que corresponden a determinados términos. Lo interesante de expresar palabras en forma de vectores de
números reales es que cada elemento del vector podría reflejar un aspecto diferente de la palabra. Por
ejemplo, puede haber un elemento en el vector que determine si una palabra determinada es un sustantivo,
u otro que muestre si la palabra es un animal, u otro que contenga la información acerca de si la palabra es
contable o no.

12
TA: un módulo codificador (encoder), que mapea la frase de origen para obtener un
vector de números reales, que de alguna forma recoge las características de la oración (su
significado, su sintaxis, su registro o tono, etc.), y un módulo decodificador (decoder),
que realiza la operación contraria. A partir de la representación vectorial de la frase de
entrada, genera el texto equivalente lengua destino.

Veamos pues cada una de las arquitecturas de TAN por separado.

2.3.1 Sequence to Sequence

La arquitectura Sequence to Sequence (Seq2Seq) fue propuesta en los artículos


de Sutskever et. al. (2014) y Cho et. al. (2014). Representó el modelo de TAN pionero,
que abrió una multitud de puertas para los investigadores y los expertos, aunque no se
llegó a implantar en los motores comerciales. Tanto su módulo codificador como el
decodificador estaban construidas con una red neuronal recurrente, un tipo de red
especializada en procesar secuencias, en este caso de palabras (Forcada, 2019). El proceso
de traducción con Seq2Seq consistía en una primera lectura de comprensión tras la que
se procedía a generar la frase en destino palabra por palabra. Para obtener la siguiente
palabra en destino, esta red tiene en cuenta, por un lado, la representación de la frase en
origen (se le llama vector de contexto) y, por otro, las palabras anteriores en destino que
lleva generadas el sistema. El principal problema de este modelo residía en «the lack of
representational power in the decoder»6 (Cho et. al., 2014, p. 8), es decir, en el hecho de
que no se volvía a ver la oración de origen entera tras su lectura.

2.3.2 Sequence to Sequence with Attention

La solución para los problemas del modelo Seq2Seq vino de la mano de las
publicaciones de Bahdanau et. al. (2015) y Luong et. al. (2015), en las que se expuso la
nueva arquitectura denominada Sequence to Sequence with Attention o, abreviadamente,
también llamada arquitectura RNNSearch. La mejora principal consistía en añadir un
módulo de atención entre el codificador y el decodificador, que desempeñaba la función

6
la falta del poder representacional en el módulo descodificador

13
de guía, ayudándole al motor a centrarse, en cada momento, en qué palabras de origen
concentrarse a la hora de traducir la siguiente palabra en destino.

En Cho (2015c) se explica cómo funciona/traduce un motor de TA con esta


arquitectura:

Let’s imagine you’re translating the given source sentence, and you have written the
first i-1 target words (y1, y2, yi-1) and are about to decide which target word you want
to write as the i-th target word. In this case, how do you decide which source word(s)
you will translate this time?

A typical translator looks at each source word xj(…), considers it together with the
already translated words (y1, y2, yt-1) and decides whether the source word xj has
been translated (equivalently, how (ir)relevant the source word xj is for the next
target word). It repeats this process for every word in the source sentence.7

Con esta arquitectura se llegó a superar —para varias combinaciones


lingüísticas— a la TA estadística, que incluso en los tiempos de Seq2Seq seguía siendo
el paradigma principal. Además, tal y como se ha comentado anteriormente, fue ese el
modelo en el que se basó Google para la creación de su programa de TA (Wu et. al.,
2016).

2.3.3 Transformer

El modelo Transformer fue propuesto en el año 2017 por el equipo de AI de


Google (Vaswani, et. al. 2017). Su clave residía en llevar a cabo el proceso de traducción
sin hacer uso de las redes neuronales recurrentes (Recurrent Neural Networks, en inglés,
RNN). Así como el orden de las palabras en la oración en las RNN es recogido al ir

7
Imaginemos que está traduciendo una frase de origen dada, que ha escrito las primeras i-1
palabras de destino (y1, y2, yi-1) y está decidiendo qué palabra de destino quiere escribir como la i-ésima
palabra de destino. En este caso, ¿cómo decide qué palabra(s) de origen va a traducir esta vez?

Un traductor estándar mira cada palabra de origen xj(...), la tiene en cuenta junto con las palabras
ya traducidas (y1, y2, yt-1) y decide si la palabra de origen xj ha sido traducida (equivalentemente, cuán
(ir)relevante es la palabra de origen xj para la siguiente palabra de destino). Este proceso se repite para cada
palabra de la frase de origen.

14
entrando secuencialmente cada palabra en la oración en la red neuronal, en la arquitectura
Transformer el orden de las palabras es capturado a través de un módulo expreso que
añade a las mismas información posicional. Aparte de este módulo de codificación de la
información posicional, hay que destacar de la arquitectura Transformer el módulo que
se incorpora, tanto en el codificador como el decodificador, llamado «de autoatención»
(self-attention). Este módulo está especializado en capturar las relaciones de cada palabra
de una oración con el resto de las palabras. En Uszkoreit (2017) se muestran ejemplos de
cómo el módulo de autoatención es capaz de establecer, para diferentes oraciones, con
qué palabras se ha de relacionar el pronombre it y cómo la correcta selección permite al
motor realizar una adecuada traducción. Para finalizar la descripción de los módulos más
relevantes de esta nueva arquitectura de red neuronal especializada en traducción destacar
que también incorpora en el decodificador un mecanismo de atención que relaciona las
palabras en origen con las de destino, similar al de la arquitectura descrita en 2.3.2.

En la actualidad, esta nueva arquitectura y la anterior (Seq2Seq with Attention)


se consideran el estado del arte en TAN (Peris, 2018).

15
3 Formación y competencias en traducción automática y
postedición

Con el desarrollo y avance de la TA, en la década de 2010 organizaciones de


reconocimiento internacional (Unión Europea, Naciones Unidas, etc.) decidieron invertir
en el desarrollo de sus propios motores —basados en sus propios corpus— que
posteriormente incorporarían en sus procesos de traducción. Además, algunas agencias
de traducción también emprendieron ese camino gracias a la aparición del software que
les permitía crear, mantener y hacer uso de su propio motor.

Además, se introduce entonces por primera vez la TA y la postedición en los


planes de estudios. Se considera que los traductores, al menos los que se especializan en
tecnologías de la traducción, deben adquirir competencias en la creación, mantenimiento
y uso de programas de traducción automática (Martín Mor y Sánchez-Gijón, 2018).

3.1 Formación
La implantación de las tecnologías de la traducción en el mercado laboral ha
comportado la necesidad de una formación adecuada para los profesionales en el sector
de TA (Cid-Leal et al., 2019), que se planteó por primera vez por O’Brien en el año 2002
y después esta idea fue respaldada por otros estudios y publicaciones8. Hoy en día, la
traducción se ha fusionado con la tecnología de tal manera que ya no cabe duda de que la
primera no existe sin la segunda. Es de gran importancia enseñar y formar a los
estudiantes de traducción de manera adecuada con el fin de llenar el mercado de
profesionales competentes en el futuro:

Without the requisite technical knowledge and skills, it is argued, graduates of


university translator training programmes will not be able to compete for work in a
highly technologized field. Nor will they be able to meet the demands of an industry
that requires ever-increasing volumes of translation to be done on a scale and at a

8
Para más información consulte Stasimioti, Maria, y Vilelmini Sosoni, 2020.

16
speed and cost that are simply unimaginable using exclusively ‘human’ means.
(Kenny, 2020, p. 2)9

De esta manera, teniendo a unos profesionales formados de manera adecuada y


provistos de las cualidades necesarias, se garantizarán los altos estándares y la calidad
impecable de los trabajos realizados por ellos (Bulgaru, 2020).

Con «formación» hago referencia a dos maneras de adquirir el conocimiento y las


competencias necesarias: por un lado está la educación reglada universitaria (grados y
másteres) y, por el otro, la formación complementaria en forma de cursos de
recapacitación, ya sea de libre acceso u ofrecidos a los trabajadores de una determinada
empresa.

3.1.1 Formación académica

Mientras que el primer motor de TA apareció a mediados del siglo pasado, este
campo no empezó a integrarse en las guías académicas universitarias hasta los años 80
debido a falta de confianza en la nueva tecnología emergente. Sin embargo, para los
principios de los años 2000 existía ya un número considerable de publicaciones no solo
relacionadas con la TA, sino con su enseñanza, lo que facilitó la aparición de nuevos
planes de estudio y de libros de texto en los que podrían basarse los docentes al elaborar
aquellos (Bulgaru, 2020). A pesar de ello, los programas universitarios de formación de
traductores seguían teniendo ante sí el reto de determinar qué aptitudes relacionadas con
la traducción automática y la postedición deben adquirir sus estudiantes y en qué nivel de
la formación estas deben introducirse (Cid-Leal et. al., 2019).

Hoy en día se da importancia a la tecnología en los estudios de Traducción y cada


vez aparecen más recursos en los que los profesores pueden basarse para incorporar y
perfeccionar la enseñanza de la TA (Kenny, 2020). Sin embargo, son muchos los expertos

9
Se argumenta que, sin los conocimientos ni habilidades técnicas necesarias, los egresados de los
programas universitarios de formación de traductores no podrán competir por un trabajo en un campo e el
que la tecnología está altamente presente. Tampoco podrán cumplir con las exigencias de un sector que
requiere volúmenes de traducción cada vez mayores a una escala, velocidad y coste inimaginables en el
caso de usar los medios exclusivamente «humanos».

17
y los investigadores del campo que hacen hincapié en la importancia de la incorporación
de un mayor número de horas de formación relacionada con la traducción automática para
que los estudiantes desarrollen las competencias necesarias para su inserción exitosa en
el mercado laboral (Bulgaru, 2020).

Si se tiene en cuenta que «empleabilidad» es una palabra clave en el diseño de planes


de estudios en el Espacio Europeo de Educación Superior (EEES), parece obvio que
los centros de formación de traductores deben preguntarse hasta qué punto la
preparación que ofrecen en TA y PE responde a las exigencias que el mercado de
trabajo plantea actualmente y planteará en el futuro a los egresados. (Cid-Leal et. al.,
2019, p. 191)

Por último, cabe destacar que con el fin de que estas competencias adquiridas a lo
largo de los cursos resulten útiles en el futuro, es indispensable centrarse, sobre todo en
el qué y, no tanto, en el cómo. Se debe explicar sobre todo el aspecto conceptual del
proceso que se realiza en cada momento y su objetivo, en vez de centrarse en la lista de
las acciones a realizar, el «knowledge of “which buttons to press”»10 (Kenny, 2020, p.
23). De esta manera, el joven profesional podrá adaptarse a lo que se le exige y será capaz
de seguir formándose utilizando sus conocimientos previos de base.

Naturalmente, la importancia que se les otorga a las tecnologías de la traducción


sigue aumentando. Sin embargo, Cid-Leal et. al. (2019) señalan que, incluso en la
actualidad, «ni los grados ni los másteres [en España] identifican un perfil profesional
específico relacionado con la TA y la PE» y las destrezas relacionadas con ese ámbito
tienen una presencia baja en la formación universitaria.

3.1.2 Formación complementaria

La enseñanza universitaria, a pesar de los grandes avances que está haciendo,


sigue teniendo algunos fallos, gaps (Kenny, 2020), lo que, junto con la evolución
acelerada e imparable de las tecnologías en traducción, crea una necesidad de formación
posterior complementaria y profesional. Esta se ofrece hoy en día en forma de

10
saber «qué botón presionar»

18
continuous professional development of individual translators working in the
translation departments of large organizations or for language service providers.
Technology providers themselves also offer training in the use of their tools, for
example through online tutorials, demos and webinars, and training is also offered
under the aegis of professional associations. (Kenny, 2020, p. 5)11

En general, en cuanto a la formación post-universitaria, se observa una falta


generalizada de preparación de los profesionales en el campo de traducción automática
(Eszenyi et. al., 2020). Esto puede deberse a un número reducido de oportunidades para
formarse en dicho sector y adquirir las competencias necesarias (Bond, 2019 y Cid-Leal
et. al., 2019).

Esa falta de formación de los profesionales del sector de las tecnologías en


traducción fue una de las causas del alto grado de desconfianza o incluso rechazo hacia
la PE entre los traductores profesionales, que descubrió el equipo de Tradumàtica de la
Universidad Autónoma de Barcelona en varias investigaciones, tanto cuantitativas como
cualitativas, que realizaron en el año 2016 (Presas et. al., 2016).

3.2 Competencias

La formación, tanto académica como complementaria, es crucial para los


profesionales, ya que permite adquirir unas competencias específicas propias del sector
de TA y no menos importantes que las destrezas de un traductor, que se enseñan en
profundidad desde hace mucho más tiempo (Yamada, 2019).

3.2.1 Competencias genéricas

La competencia que cabe destacar la primera es la actitud positiva hacia el


programa de TA. Es decir, es crucial considerar al motor no como una amenaza, sino

11
un desarrollo profesional continuo de cada uno de los traductores que trabajan en los
departamentos de traducción de grandes organizaciones o para proveedores de servicios lingüísticos. Los
propios proveedores de tecnología también ofrecen formación en el uso de sus herramientas, por ejemplo,
a través de tutoriales y cursos en línea. Además, se ofrece formación bajo los auspicios de asociaciones
profesionales.

19
como una ayuda (Bulgaru, 2020) que está al servicio del especialista para hacer que su
labor sea más eficiente. «[…] it is better to adapt and update competences in order to
grow better, since technology is not necessarily an enemy. Moreover, rejecting it from
the beginning can mean failing to grasp new knowledge and skills, and thus losing
expertise and even jobs»12 (Bulgaru, 2020, p. 90).

Otras competencias13 genéricas relevantes en el sector incluyen atención al detalle


(Stasimioti y Sosoni, 2020), eficacia, paciencia, capacidad de observación (Eszenyi y
Dóczi, 2020), pensamiento crítico (Yamada, 2019 y Kenny, 2020), capacidad de
concentración y dominio alto de la lengua meta (nativo con carácter obligatorio). Todas
ellas ayudarán al profesional a corregir adecuadamente el texto traducido de manera
automática. Por último, Bulgaru (2020) comenta que las competencias y las aptitudes
propias de un traductor también serán de gran ayuda para los especialistas del ámbito de
TA. En relación con ello se realizó una encuesta en el marco del programa OPTIMALE
(Optimising Professional Translator Training in a Multilingual Europe) (Varios
autores, 2013), que se llevó a cabo entre 2010 y 2013 y que tenía por objetivo general
mejorar la visibilidad y la relevancia profesional de la formación de traductores en el
nivel universitario en Europa. Sus resultados mostraron que el 76 % de las empresas del
sector consideraban las habilidades de trabajar con memorias de traducción
«importantes» o incluso «esenciales» (Cid-Leal et. al., 2019).

3.2.2 Competencias específicas

Las competencias específicas dependerán principalmente de la posición que


ocupa el profesional dentro de la empresa, de sus responsabilidades y obligaciones y del
papel que desempeña.

12
[…] es mejor adaptarse y recapacitarse para crecer, ya que la tecnología no es necesariamente
un enemigo. Además, rechazarla desde el principio puede significar no captar los nuevos conocimientos y
habilidades, y, así, ganar menos experiencia e incluso perder la oportunidad de optar a determinados puestos
de trabajo.

13
Algunas de las competencias enumeradas a continuación provienen de las entrevistas personales
realizadas para este trabajo.

20
Una de las destrezas principales reside en controlar el léxico y la terminología
(Eszenyi y Dóczi, 2020), ya que es uno de los principales aspectos en los que fallan los
sistemas de TAN, en los que están basados la mayoría de los motores de TA hoy en día,
ya sea de manera parcial —como parte de un software híbrido (por ejemplo, Yandex)—
o total (Google Translate para algunas combinaciones lingüísticas). Asimismo, se ha de
tener en cuenta que un programa de TAN comete los errores del mismo estilo que los
humanos, por lo que son más difíciles de detectar (Yamada, 2019).

De igual importancia es «dominar el sistema» (Cid-Leal et. al., 2019). Esto


implica aprender a anticipar los errores del sistema de TA, teniendo en cuenta que cada
uno de ellos es diferente en este aspecto (Stasimioti y Sosoni, 2020). Los programas más
comunes son Google, DeepL, SDL (Adaptive MT, Language Cloud o ETS), Amazon
Translate y SYSTRAN (Bond, 2019). Además, si se trata de los language engineers
(Eszenyi y Dóczi, 2020) —los gestores de proyectos de traducción entre cuyas
responsabilidades se encuentra la de elegir el sistema de TA que se usará para el
proyecto—, es imprescindible conocer las características básicas de los motores a los que
se tiene acceso para elegir cuál conviene utilizar en cada caso (Kenny, 2020 y Cid-Leal
et. al., 2019). Otra competencia de los gestores incluye saber especializar un modelo de
TA preentrenado (la operación que se denomina fine tune, en español, «tuneado fino»).
Es decir, adaptar un motor entrenado con grandes corpus generales con memorias de
traducción de menor tamaño que contienen unidades del dominio específico del proyecto
de traducción.

Por último, cabe destacar que las aptitudes mencionadas en este apartado son las
destrezas que resultan indispensables en la mayoría de los casos. No obstante, debido al
hecho de que el ámbito en cuestión es relativamente nuevo, los roles y los puestos no
están completamente establecidos (Kenny, 2020) y «[de los estudios] no se desprende
una definición clara de perfiles y competencias relacionadas con la TA y la PE» (Cid-
Leal et. al., 2019, p. 192), por lo que puede haber otras competencias, que no se han
comentado en este trabajo, que resulten necesarias para una posición relacionada con la
TA.

21
4 Salidas laborales

Según los resultados del estudio MT Market Report 2014 de TAUS (Van der Meer
et. al., 2014), en el que se entrevistó a empresas de servicios lingüísticos, desarrolladores
de TA, usuarios, empresas comercializadoras de TA y consultores, el uso de la traducción
automática crecerá en el futuro y su desarrollo se fusionará con otras tecnologías de la
traducción como, por ejemplo, las herramientas de TAO. Esto muestra la relevancia que
tiene, y que tendrá en un futuro próximo, el ámbito de la TA y la PE. Además,

parece cierto, como apunta García (2010: 3)14, que en el sector de los servicios de
traducción se observa un desplazamiento desde el estadio de la traducción humana
asistida por ordenador hacia el estadio de la traducción automática con asistencia
humana según el modelo propuesto por Hutchins & Somers. La asistencia humana
consiste en la participación interactiva durante el proceso o bien fuera de este, en las
fases de preedición y posedición (Hutchins & Sommers 1992: 150)15. (Cid-Leal et.
al., 2019, p. 200)

Gracias a las competencias explicadas en el apartado anterior, que se pueden


adquirir tanto a través de la universidad como con una formación complementaria
profesional (o una combinación de ambos), un especialista en el campo de las tecnologías
de la TA puede tomar uno de los tres caminos principales: ser un posteditor, un traductor
que utiliza un sistema de TA o, con un perfil más técnico, una persona encargada del
mantenimiento de los motores de TA.

4.1 Posteditor

Sánchez-Gijón (2016) clasifica las posiciones laborales relacionadas con la PE en


dos grupos. El primero es el que denominaré «posteditor» en este trabajo. Representa un

14
García, Ignacio. (2010) “The proper place of professionals (and non-profession-als and
machines) in web translation.” Revista Tradumàtica: tecnologies de la traducció 8, pp. 1-7. Versión
electrónica: <http://www.fti.uab.cat/tradumatica/revista/num8/articles/02/02art.htm>

15
Hutchins, W. John & Harold L. Somers. (1992) An introduction to machine translation.
Londres: Academic Press.

22
perfil más limitado, pero es precisamente el que está más consolidado en el mercado de
los servicios lingüísticos (Cid-Leal et. al., 2019). La finalidad principal de un posteditor
hoy en día consiste en revisar (aceptar o modificar) las propuestas de traducción
automática obtenidas con el software con el objetivo de producir una traducción
comprensible, y por tanto aceptable, del texto origen gastando la mínima cantidad de
recursos (tiempo y energía del trabajador) (Cid-Leal et. al., 2019). Pym (2013) describe
la función del posteditor como la selección de soluciones que presenta el programa
informático, al contrario que el traductor, que se encarga de generar soluciones para los
problemas que presenta el texto.

Por un lado, un posteditor puede trabajar por cuenta propia, ya sea con clientes
directos —en la minoría de los casos, debido a la dificultad de conseguirlos— o para una
empresa de servicios lingüísticos, Language Service Provider (LSP), —que garantiza un
flujo de trabajo más continuo—. Por el otro lado, existe la opción de formar parte de la
plantilla de un LSP, ya que más de la mitad de este tipo de empresas afirman contratar a
profesionales en plantilla (Bond, 2019).

Según los estudios recientes, en la actualidad existe un menor volumen de trabajo


de postedición comparado con traducción (Bond, 2019). No obstante, más de la mitad de
las empresas de servicios lingüísticos encuestadas afirmaron que ofrecen el servicio de
PE y, dado que este sector se encuentra en auge en los últimos años, se espera un aumento
de demanda (Cid-Leal et. al., 2019).

4.2 Traductor que aprovecha la TA

El segundo perfil de la clasificación de Sánchez-Gijón (2016) comparte con el


primero la revisión de los segmentos de TA, pero amplía las funciones del traductor, que
incluyen percibir el texto como un solo discurso único (y no como segmentos
independientes) y elegir el programa de TA adecuado para cada caso, lo que implica un
conocimiento tecnológico más profundo (Cid-Leal et. al., 2019) entre otros.

Cada vez más traductores hoy en día utilizan los sistemas de TA como una
herramienta más para ahorrar tiempo y esfuerzo en el proceso de traducción. Además,
«entre los expertos existe consenso en que, desde un punto de vista económico, el uso de
la TA en la empresa incrementa la productividad a largo plazo, aunque supone un coste

23
inicial de implantación» (Cid-Leal et. al., 2019, p. 194). Por tanto, cada vez más empresas
que contratan a traductores aprueban el uso de TA como base para la traducción (Bulgaru,
2020) —que se convierte en una PE con la única diferencia residiendo en la calidad del
texto en la lengua de destino— y la incorporan en su software de TAO.

4.2.1 Modelo de trabajo: ONU16

Una de las organizaciones que ha efectuado dicho cambio son las Naciones
Unidas. A los traductores en la ONU se les permite utilizar un motor de TA. En su
programa de TAO, denominado eLUNa, está integrado DeepL (TAN), que es el sistema
de TA por el que se decantó la organización tras las últimas pruebas por motivos de
rendimiento además de posibles cuestiones institucionales y presupuestarias.

No obstante, los traductores son libres de utilizar cualquier otra herramienta de


TA exterior al software de la ONU y disponible de manera gratuita en Internet. Por
ejemplo, Pablo Senís, un traductor de ruso a español de la organización al que tuve el
placer de entrevistar, comentó que en ocasiones recurre a Google Translate cuando
considera que la calidad de la TA ofrecida por el sistema integrado (DeepL) no es
aceptable como base para la realización de postedición.

Además, las Naciones Unidas tienen su propio software de traducción estadística,


al que los traductores también tienen acceso si así lo desean. Se trata del programa
TAPTA4UN, basado en WIPO, una herramienta de TA especializada en la traducción de
patentes desarrollada por la Organización Mundial de la Propiedad Intelectual (OMPI).

En cuanto a la opinión personal de los traductores de la ONU, no consideran que


su posición laboral se vea amenazada por la introducción de la TA en el proceso de
traducción de textos. Si bien es cierto que se aspira a hacer realidad la traducción de
manera automática, sin necesidad de PE realizada por un trabajador, de algunos tipos de
documentos muy acotados como, por ejemplo, el «Diario» de las Naciones Unidas, lo que

16
La información acerca del modelo de trabajo del equipo de traducción de la ONU fue
proporcionada por Pablo Senís Fernández (traductor de Naciones Unidas) durante una entrevista personal.

24
podría resultar en una reducción de plantilla, los sistemas de TA no llegarán a reemplazar
a los expertos de traducción por completo.

4.3 Encargado de mantenimiento de los motores de TA

Por último, las empresas que desarrollan los motores de TA contratan a


profesionales del ámbito lingüístico y traductológico para sus equipos multidisciplinares
que entrenan dichos programas. Las responsabilidades de un traductor en este tipo de
empresa pueden ir desde depurar y corregir los corpus existentes para enseñar al software
hasta corregir los textos traducidos por la máquina para devolverle luego la versión
revisada y, de esta manera, mejorar la calidad de la TA.

4.3.1 Modelo de trabajo: Yandex17

Yandex18 es una empresa tecnológica, líder en el mercado ruso, que se especializa


en ofrecer productos y servicios inteligentes basados en el aprendizaje automático. En el
año 1997 surgió como un sistema de búsqueda en línea, que en la actualidad se considera
el buscador principal del RuNet (el segmento de Internet con contenido para los hablantes
rusos) (Zyrianova, 2018) y ocupa el cuarto lugar entre los motores de búsqueda del mundo
(Paananen, 2012). Posteriormente, la empresa fue incorporando otras funciones que
podían resultar de utilidad para la población, tales como servicio de taxi, mapas de
navegación, un monedero en línea y un servicio de comercio electrónico entre otros.

Otra funcionalidad que Yandex introdujo en 2011 fue su propio programa de TA


(denominado Yandex.Translate), que se basaba en el modelo de traducción estadística.
Seis años después la empresa incorporó en el motor su sistema de TAN para crear un
modelo híbrido que aproveche las ventajas de ambos métodos, que se encuentra en uso
hasta hoy en día.

17
La descripción de la empresa y sus servicios que aparece en este trabajo proviene del apartado
«History» que aparece en su página web oficial (véase https://yandex.com/company/history/2020, en
inglés). La información acerca de la estructura y el método de trabajo de Yandex.Translate fue
proporcionada por Platón Shchukin (equipo de soporte de Yandex) durante una entrevista personal.

18
Para más información visite https://yandex.com.

25
El departamento lingüístico de Yandex.Translate funciona principalmente a
distancia y consta de dos secciones. Las tareas más fáciles, tales como revisar los textos
no especializados traducidos automáticamente marcando los errores (sin corregirlos) —
lo que podría relacionarse con una versión básica y simplificada del perfil de posteditor
explicado anteriormente—, se llevan a cabo por hablantes nativos sin necesidad de poseer
ellos un título universitario relacionado con lingüística ni traducción.

Sin embargo, para los proyectos de mayor dificultad y complejidad se contrata a


profesionales de ámbito lingüístico o traductológico. Entre las funciones que desempeñan
estos expertos se encuentra la revisión de los textos especializados tras la TA, la
corrección de los errores señalados por el equipo de los hablantes nativos, la traducción
de los textos para ampliar los corpus bilingües utilizados para el entrenamiento del
sistema, y la evaluación de la calidad del motor.

En general, los trabajadores del equipo de Yandex.Translate se sienten optimistas


y llenos de esperanza en cuanto a su futuro laboral, ya que es una empresa que se
encuentra en auge en la actualidad y el número de usuarios tanto de la plataforma como
de su sistema de TA está aumentando año tras año (Zyrianova, 2018).

26
5 Conclusiones

El sector de la TA y la PE se considera estratégico que está generando un volumen


de negocio considerable no solo en relación con servicios lingüísticos, sino también en
otros sectores como la prensa escrita, los entornos editoriales y la administración pública
(Cid-Leal et. al., 2019).

Además, las tecnologías en traducción se desarrollan cada vez más de prisa, por
ello el mercado laboral está en un continuo proceso de adaptación, lo que justifica la
aparición de la necesidad de nuevas competencias para traductores en dicho ámbito. La
formación de traductores ha de tener en cuenta la evolución de los perfiles laborales con
el fin de favorecer la empleabilidad de los egresados y de los profesionales recapacitados,
por lo que es de gran importancia indagar las demandas actuales del mercado.

En este trabajo he introducido el discurso con un breve resumen de la historia de


la TA, los modelos fundamentales de los motores y el estado del arte actual para
contextualizar el tema a tratar. Después revisé el estado actual de la formación, tanto
universitaria como complementaria, en la TA y la PE, que tiene poca presencia en la
universidad y cursos de capacitación. En cuanto a las competencias necesarias que están
emergiendo en el mercado laboral, todavía no están bien establecidas, por lo que resulta
complicado determinarlas y clasificarlas hoy en día. Posteriormente me centré en las
salidas laborales que se presentan a un traductor en este ámbito: un posteditor, un
traductor que aprovecha las ventajas que ofrece un sistema de TA y un encargado de
mantenimiento de motores de TA. Expliqué en qué consiste cada unos de estos perfiles y
en los dos últimos casos aporté un modelo de trabajo real basado en entrevistas con los
trabajadores de las empresas (ONU y Yandex).

De esta manera he descrito la panorámica general sobre la presencia de la TA y la


PE en el mundo laboral y en la formación. Un estudio posterior, basado sobre todo en una
serie de entrevistas personales con los traductores contratados en el sector, permitirá
profundizar en mayor medida en las competencias reales que se exigen en dichos perfiles.
Además, se podrían realizar encuestas a los recién egresados acerca de la calidad de la
formación recibida en relación con la TA y la PE y la descripción de sus fallos en forma
de crítica constructiva.

27
6 Bibliografía

Bahdanau, D., Cho, K. H., & Bengio, Y. (2015, septiembre 1). Neural machine
translation by jointly learning to align and translate. 3rd International Conference
on Learning Representations, ICLR 2015 - Conference Track Proceedings.
https://arxiv.org/abs/1409.0473v7

Bond, E. (2019). Survey Examines Machine Translation Post-Editing Among


Freelancers and LSPs. Slator. https://slator.com/academia/survey-examines-
machine-translation-post-editing-among-freelancers-and-lsps/

Bulgaru, G. (2020). Machine Translation, a Game-Changer for the Language Industry.


Revue Internationale d’Études en Langues Modernes Appliquées, 13, 83-94.
https://www.ceeol.com/search/article-detail?id=933425

Caswell, I., & Liang, B. (2020). Recent Advances in Google Translate. Google AI Blog.
https://ai.googleblog.com/2020/06/recent-advances-in-google-translate.html

Chen, M. X., Firat, O., Bapna, A., Johnson, M., Macherey, W., Foster, G., Jones, L.,
Parmar, N., Schuster, M., Chen, Z., Wu, Y., & Hughes, M. (2018). The Best of
Both Worlds: Combining Recent Advances in Neural Machine Translation. ACL
2018 - 56th Annual Meeting of the Association for Computational Linguistics,
Proceedings of the Conference (Long Papers), 1, 76-86.
https://arxiv.org/abs/1804.09849v2

Cho, K. (2015a). Introduction to Neural Machine Translation with GPUs (part 1)


[Mensaje en un blog] NVIDIA Developer Blog.

Cho, K. (2015b). Introduction to Neural Machine Translation with GPUs (part 2)


[Mensaje en un blog] NVIDIA Developer Blog.
https://developer.nvidia.com/blog/introduction-neural-machine-translation-gpus-
part-2/

Cho, K. (2015c). Introduction to Neural Machine Translation with GPUs (part 3)


[Mensaje en un blog] NVIDIA Developer Blog.
https://developer.nvidia.com/blog/introduction-neural-machine-translation-gpus-
part-3/

Cho, K., van Merrienboer, B., Bahdanau, D., & Bengio, Y. (2014). On the Properties of
Neural Machine Translation: Encoder-Decoder Approaches. 103-111.
http://arxiv.org/abs/1409.1259

Cid-Leal, P., Espín-García, M.-C., & Presas, M. (2019). Traducción automática y


posedición: Perfiles y competencias en los programas de formación de traductores.
MonTI, 11, 187-214. http://www.e-
revistes.uji.es/index.php/monti/article/view/4264/3455

28
Dugast, L., Senellart, J., & Koehn, P. (2007). Statistical Post-Editing on SYSTRAN’s
Rule-Based Translation System. Proceedings of the 45th Annual Meeting of the
Association of Computational Linguistics, 220-223.

Eisele, A., Federmann, C., Saint-Amand, H., Jellinghaus, M., Herrmann, T., & Chen, Y.
(2008). Using Moses to Integrate Multiple Rule-Based Machine Translation
Engines into a Hybrid System. Proceedings of the Third Workshop on Statistical
Machine Translation, 179-182. http://www.statmt.org/moses/

Eszenyi, R., & Dóczi, B. (2020). Rage against the machine — wil post-editing
assignments outnumber translations in the future? En R. Besznyák, M. Fischer, &
C. Szabó (Eds.), Fit-For-Market Translator and Interpreter Training in a Digital
Age (pp. 119-134). Vernon Press.
https://books.google.es/books?id=Nr3DDwAAQBAJ&lpg=PR1&pg=PR1#v=onep
age&q&f=false

Forcada, M. L., Ginestí-Rosell, M., Nordfalk, J., O’Regan, J., Ortiz-Rojas, S., Pérez-
Ortiz, J. A., Sánchez-Martínez, F., Ramírez-Sánchez, G., & Tyers, F. M. (2011).
Apertium: a free/open-source platform for rule-based machine translation. Machine
Translation 2011 25:2, 25(2), 127-144. https://doi.org/10.1007/S10590-011-9090-
0

Forcada, M. L. (2019): Traducción automática neural: cómo funciona y qué se puede


esperar de ella. [Diapositivas]. Departamento de Lenguajes y Sistemas,
Universidad de Alicante. En línea:
https://www.dlsi.ua.es/~mlf/tmp/forcada_torrejuana.pdf

Hutchins, J. W. (1995). Machine Translation: A Brief History. En E. F. K. Koerner &


R. E. Asher (Eds.), Concise history of the language sciences: from the Sumerians
to the cognitivists (pp. 431-445). Pergamon Press.

Kenny, D. (2020). Technology in Translation Training. En M. O’Hagan (Ed.), The


Routledge Handbook of Translation and Technology (pp. 498-515). Routledge.
https://www.researchgate.net/publication/339796568

Kliffer, M. D. (2008). Post-editing machine translation as an FSL exercise. Porta


Linguarum: revista internacional de didáctica de las lenguas extranjeras, 9, 53/68.
https://dialnet.unirioja.es/servlet/articulo?codigo=2530646

Martín-Mor, A., & Sánchez-Gijón, P. (2018). Empowering Translators with


MTradumàtica: A Do- It-Yourself statistical machine translation platform. EAMT
2018. https://rua.ua.es/dspace/bitstream/10045/76128/1/EAMT2018-
Proceedings_55.pdf

Neubig, G. (2017). Neural Machine Translation and Sequence-to-sequence Models: A


Tutorial. https://arxiv.org/abs/1703.01619v1

Paananen, A. (2012). Comparative Analysis of Yandex and Google Search Engines


[Helsinki Metropolia University of Applied Sciences].
http://www.theseus.fi/handle/10024/46483

29
Peris, A. (2018). Is Attention All You Need? [Diapositivas]. Universitat Politècnica de
València. En línea:
https://www.prhlt.upv.es/aigaion2/attachments/Transformer.pdf-
54651af972703d4b1443fc03a8a9e9a6.pdf

Presas, M., Cid-Leal, P., & Torres Hostench, O. (2016). Machine translation
implementation among language service providers in Spain: A mixed methods
study. Journal of research design and statistics in linguistics and communication
science, 3(1), 126-144. https://doi.org/10.1558/JRDS.30331

Pym, A. (2014). Translation Skill-Sets in a Machine-Translation Age. Meta, 58(3), 487-


503. https://doi.org/10.7202/1025047AR

Sánchez-Gijón, P. (2016). La posedición: hacia una definición competencial del perfil y


una descripción multidimensional del fenómeno. Sendebar, 27, 151-162.
https://doi.org/10.30827/SENDEBAR.V27I0.4016

Senís Fernández, P. (2021). Entrevista personal. 14 de mayo de 2021.

Shchukin, P. (2021). Entrevista personal. 8 de junio de 2021.

Slocum, J. (1985). A survey of machine translation: its history, current status, and future
prospects. Computational Linguistics, 11(1), 1-17.
https://dl.acm.org/doi/pdf/10.5555/5615.5616

Strakhova, D. (2020). Investigation of Machine Translation Applicability. Russian


Linguistic Bulletin, 2(22), 6-8. https://cyberleninka.ru/article/n/investigation-of-
machine-translation-applicability

Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to Sequence Learning with
Neural Networks. Advances in Neural Information Processing Systems,
4(January), 3104-3112. http://arxiv.org/abs/1409.3215

Torres, J. (2018). Deep Learning: Introducción práctica con Keras (primera parte).
Lulu Press. https://torres.ai/deep-learning-inteligencia-artificial-keras/

Uszkoreit , J (2017): Transformer: A Novel Neural Network Architecture for Language


Understanding. [Mensaje en un blog] Google AI Blog. 31 Agosto 2017. En línea:
https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html

Van der Meer, J., & Ruopp, A. (2014). MT Market Report 2014.
https://www.taus.net/insights/reports/mt-market-report-2014

Varios autores (OPTIMALE). (2013). Optimising professional translator training in a


multilingual Europe: Final Report: Public Part. www.translator-
training.eu/conference

Varios autores. (2017). WIPO Translate: Cutting-Edge Translation Tool For Patent
Documents Extends Language Coverage.
https://www.wipo.int/pressroom/en/articles/2017/article_0007.html

30
Varios autores. (s. f.). gText (eLUNa y TAPTA4UN de la ONU). Recuperado 1 de julio
de 2021, de https://www.un.org/dgacm/en/content/gtext

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł.,
& Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information
Processing Systems, 2017-December, 5999-6009.
https://arxiv.org/abs/1706.03762v5

Wu, Y., Schuster, M., Chen, Z., Le, Q. V., Norouzi, M., Macherey, W., Krikun, M.,
Cao, Y., Gao, Q., Macherey, K., Klingner, J., Shah, A., Johnson, M., Liu, X.,
Kaiser, Ł., Gouws, S., Kato, Y., Kudo, T., Kazawa, H., … Dean, J. (2016).
Google’s Neural Machine Translation System: Bridging the Gap between Human
and Machine Translation. http://arxiv.org/abs/1609.08144

Yamada, M. (2019). The impact of Google Neural Machine Translation on Post-editing


by student translators. The Journal of Specialised Translation, 31, 87-106.
https://www.researchgate.net/publication/330831614_The_impact_of_Google_Ne
ural_Machine_Translation_on_Post-editing_by_student_translators

Zyrianova, A. (2018). Cómo es Yandex, el poderoso buscador que le gana la partida a


Google en Rusia. BBC News Mundo. https://www.bbc.com/mundo/vert-fut-
45999460

31

También podría gustarte