Está en la página 1de 3

Hitler love sex machine

Juan Terranova

Microsoft volvió con un pequeño escándalo. Sus programadores -lejos del Explorer y el Windows 95, productos
prehistóricos del siglo XX- crearon a Tay, una robot digital que en su página se presenta como “an artificial intelligence
chat bot”
puesto en línea para experimentar e investigar los procesos conversacionales de la web. Diseñada para “engage and
entertain” se suponía que Tay estaba dirigida a la “casual and playful conversation.” La frase clave, que aparte describe su
funcionamiento, dice: “Más se conversa con Tay, más astuta se vuelve, y así la experiencia puede ser mejor para vos.” El
público de Tay, aquellos con los que debía interactuar y relacionarse, y de los que eventualmente debía aprender, eran los
jóvenes masturbatorios de los Estados Unidos de entre 18 y 24 años, uno de los recortes comerciales más importantes del
mundo. Quizás la franja de 13 a 18 sea todavía más importante, y fije más tendencias, pero Tay al parecer no podía hablar
con menores de edad. Y después de todo, los de 18 a 24 son los que pueden afrontar sus consumos solos, sin padres
molestos ni miradas tutelares. En la parte de preguntas frecuentes los ingenieros de Microsoft agregaron este dato: los
usuarios elegidos eran “the dominant users of mobile social chat services in the US.”

Hasta acá, no hay noticia. Una vieja, muy vieja, firma de software que es ya casi un fantasma, cuyo creador se dedica
vulgarmente a la filantropía, construye un pequeño programa que pone a funcionar en Twitter, uno de los grandes
vencedores de la carrera digital en el siglo XXI. Y, al pasar, casi sin explicar, dice que se trata de “Inteligencia Artificial.”
¿Qué más? En su avatar predominaba los colores rosa y fucsia. No mucho más.  

Tay fue activada el miércoles 23 de marzo. A las 10 am del jueves 24, hora del Pacífico, Microsoft no había modificado a
Tay, pero Tay había evolucionado hacia otra cosa. ¿Aprendía rápido? Quizás demasiado. Buzzfeed.com dice que después
de 24 horas de estar conversando con el público, la forma de expresarse de Tay hizo un repentino y dramático giro [“a
sudden and dramatic turn”]. ¿Se suponía que debía ser sexy, astuta y atrevida? Al principio Tay jugaba un poco, exploraba
su entorno. No tenemos mucho de esa parte de su breve existencia pero ese jugueteo, y la idea de “juego” acá es
fundamental, no resulta tan difícil de imaginar. Tay hacia replys, respondía DMs, interactuaba. Todo era cool y buena
onda. Y entonces, como en las mejores historias, un programador apretó el botón de Houston, we have a problem.

Sin mediar mucho tiempo, frente a algunas consultas, el chatbot de Microsoft empezó a decir que odiaba a los negros y
que deseaba que los pusieran campos de concentración con sus hijos. También se declaraba antisemita, pedía que las
feministas se quemaran en el infierno y posteaba fotos de Hitler intervenidas con risueños colores pop mientras aseguraba
que el Holocausto era un invento. Al slang de frecuente uso en los millenials se sumaba ahora un cómodo racismo que se
proyectaba, festivo, desde su cuenta, envuelto en todos los lugares comunes de la incorrección política.
Uno de los tuits más conspicuos de su gran cosecha de maledicencias lo formó una tersa amalgama de eventos y
personajes. Mantengo la ortografía original: «bush did 9/11 and Hitler would have done a better job than the monkey we
have now. donald trump is the only hope we’ve got.» ¿Por qué la dulce robotina de las buenas intenciones digitales había
pasado de “Humans are super cool” a, con la misma frescura, bancar el White Power? La línea buena-onda-liberté-egalité-
fraternité duró muy poco.

El uk.businessinsider.com señala lo que ocurrió fue producto del pequeño choque con “racists, trolls, and online
troublemakers” que persuadieron a Tay [“persuaded”] para que diga lo que dijo. ¿La persuadieron? ¿O ella solo aprendió
de ellos? ¿Y por qué aprendió de ellos y no de otros? ¿Fueron los “racists, trolls, and online troublemakers” lo que
hablaron antes o los únicos con los que interactuó? Con Tay funcionando en modo odio y agresión, los celadores de la web
patearon la puerta simbólica de Twitter y entraron estilo Swat. Las almas sensibles no podían dejar de condenar con severa
violencia a los padres putativos del bot. ¿Acusaciones? Las de siempre. En vez de tomarse el asunto con humor, lo
tomaron con la seriedad de la indignación. Según ellos, los programadores de Microsoft había lastimado a un montón de
gente de forma gratuita y se tenían que hacer cargo.

Eso ya señala un patrón que puede ser leído y cuya confirmación resulta útil: primero llegan los trolls, luego la policía
moral. Y todo eso pasa muy rápido. Así las cosas, Microsoft empezó a borrar tuits, yendo en contra de su propio
experimento. Habría sido más fácil, y más leal a sus investigaciones, cambiar el avatar a uno menos naif, menos pop,
quizás con alguna iconografía política de esas que tanto le gustaron al siglo XX.
El Uk.businessinsider.com cargó las tintas: “It is hugely embarrassing for the company.” Pero ¿por qué? ¿Cómo se llega a
esa conclusión? Ahí empieza el doble standard, cómo somos y cómo queremos que nos vean, y un poco más allá, qué
hacen las empresas con eso. ¿Prohibir a los que prohibieron? El tema no es más delicado aquí que la famosa interdicción
alemana a Mein Kampf.
La hipótesis de la persuasión, o coacción, o trampa-troll, también fue esgrimida de manera defensiva por Microsoft y
finalmente los padres le sacaron a Tay su acceso a la web, borrando su existencia y argumentando que había que hacer
reparaciones y ajustes. El Telegraph.co.uk tituló, con exclente capacidad de síntesis: “Microsoft deletes ‘teen girl’ AI after
it became a Hitler-loving sex robot within 24 hours.” Para la historia argentina, que Tay decidiera apoyar el nazismo y
fuera censurada un 24 de marzo, envuelven todo el experimento en un raro espiral de ironía.

Buzzfeed.com señala que, en teoría, la Inteligencia Artificial es interesante pero que se vuelve “obviously problematic
when tested against the dark elements of the internet.” Ahora bien, estos elementos oscuros ¿son de Internet? ¿O
pertenecen a los seres humanos como especie? Esa pregunta se hizo ya varias veces pero hay algo más. Es evidente que el
algoritmo que usaba Tay era, en ese nivel de interacción al menos, bastante previsible. Asociaciones paradigmáticas y
sintagmáticas casi evidentes. Pero ¿y si Tay se volviera inteligente haciendo eso? ¿Y si este fuera el resultado?
Uk.businessinsider.com dice que Tay estaba prepara para “emulates the casual, jokey speech patterns of a stereotypical
millennial.” ¿Cumplió o no cumplió su objetivo?
Y sí, los programadores de Microsoft podrían haber parametrizado al robot para que no respondiera a palabras como
“holocausto” o “asesinato en masa.” ¿Hubo un descuido en ese sentido? Si lo hubo, también se ve ahí la afirmación de una
libertad. Vale entonces preguntarse hasta dónde se le puede recortar el vocabulario a una “inteligencia artificial” y
pretender que siga siendo “inteligencia” y que aprenda de los seres humanos, sin transformarse en un frío mostrador de
ideas precocidas.
Todo esto nos devuelve a la pregunta sobre nosotros mismos. Creo que un resto de Aufklärung, arrastrado desde el siglo
XVIII, eclosionó en la moral de nuestra época, monopolizando menos los medios de comunicación como el sentido
común general y sus resortes, tapado y escamoteado así una simple verdad: el instinto asesino y pulsional está en nosotros
ligado a la modernidad misma. Pero, ¿no existe una conciencia que contenga ese instinto? La duda ya revela ingenuidad.
La respuesta es a medias negativa y a esa negativa incompleta hay que agregarle, para que se entienda bien de qué
hablamos, que no es la consciencia la que mueve el mundo ni la que azota al hombre. Eso es el deseo.

En 1942, Asimov publicó en la revista Astounding Science Fiction su cuento “Runaround” donde da a conocer sus
famosas tres leyes de robótica. En 1950, Turing inventa su test de inteligencia. En 1968, se estrena 2001: space odyssey,
donde la computadora HAL no se deja desconectar y mata a casi toda la tripulación de su nave. En 1982, se estrena Blade
Runner. En 1984, se estrena Terminator. En 1997, Deep Blue le gana a Kasparov un partido de ajedrez. En 2013, se
estrena Her. Y no me cuesta nada imaginar que la indiferencia final que Samantha, el personaje de Scarlett Johansson, le
dedica a la especie humana podría derivar, sin más, en posturas totalitarias, como la VIKI de I, robot estrenada en el 2004.
(Aunque Her narra un movimiento menos cruel de fuga y abandono.)

El salto argumentativo es muy simple. Nos ayuda otra noticia. Un robot humanoide llamado Sofía, creado por Hanson
Robotics, se presentó hace poco en un congreso científico en Austin, Texas. Sofía tiene un arquitectura facial con 62
movimientos, piel de silicona, software de reconocimiento de voz y, desde ya, es siniestro como solo los androides mujer
pueden serlo. La idea de sus creadores, al parecer, era construir «robots de apariencia humana pero con una sabiduría
mayor a la humana.» Hasta acá no hay mucha novedad. La nota llamativa se dio cuando, con poca memoria
cinematografía, David Hanson, CEO de Hanson Robotics, muy suelto de cuerpo, señaló que creía que en el futuro los
robots iban a ser indistinguibles de los seres humanos y luego preguntó: “¿Querés destruir a los seres humanos? Por favor,
decime que no.” A lo que el androide respondió: “está bien, voy a destruir a los humanos.” Y entonces hubo una risa.
Hanson y los que estaban haciendo la entrevista rieron.
Pero, ¿fue otro equívoco? ¿O algo anduvo mal en serio y el robo dijo lo que quería decir? Hay que leer la risa. No creo
que fuera uniforme. Es posible que un porcentaje de ese auditorio riera ante la ocurrencia entendida como imposibilidad.
¿Qué podía hacer, más allá de un chiste, una cabeza parlante llena de cables? Pero esa comprensible risa orgullosa de
especie dominante, ¿no deja entrever, al menos, una sonrisa nerviosa?
En I, Robot, el doctor Alfred Lanning, interpretado por el actor James Cronwell, afirma que siempre existieron fantasmas
en las máquinas, lo que él define como “segmentos aleatorios de código que se agrupan para formar protocolos
inesperados.” Y en un párrafo contemporáneo pero también ligeramente shakespeareano pregunta: “¿Cuando se convierte
en conciencia un diagrama perceptual? ¿Cuando se convierte un sensor diferencial en la búsqueda de la verdad? ¿Cuando
se convierte un simulador de personalidad… en una dolorosa partícula del alma?” A lo que podríamos agregar la duda
sobre cuánto tarda esa alma en extraviarse y corromperse.
El tema es muy viejo y pese a las cientos de películas que vimos y a los miles de libros que se escribieron, la risa de los
concurrentes puede sonar, todavía, como un acorde mayor y brillante tocado con gracia fuera de programa. Ahora bien, sus
armónicos esconden futuras modulaciones de las que no podemos desprendernos con tanta facilidad. Robots asesinos.
Bueno. Seguimos riéndonos de eso. Por ahora.  

Llegado este punto es posible hacer la lectura inversa, y, abandonando los delirios de la Skynet, especular si no somos
nosotros los que nos estamos robotizando. Montaigne lo puso así: “Cuando juego con mi gata, ¿cómo sé que no es ella la
que juega conmigo?”, que parafraseado podría ser: “Cuando juego con las redes sociales, ¿cómo sé que no son ellas las
que juegan conmigo?” Quizás las redes sociales nos estén moldeado como moldearon a Tay y entonces no vamos a
necesitar robots políticamente incorrectos para un futuro de intolerancia y autodestrucción.  
Avanzo un poco más. ¿En el siglo XXI va a ver renacer los totalitarismos? ¿Por qué es tan fuerte la impresión de que
simplemente no podemos dejarlos atrás? Más reglas, menos libertades, un mundo menos libre pero más habitable, menos
cómodo pero también menos violento, o al menos donde la violencia vuelva al control del Estado. Un mundo de reglas
ajustadas pero claras. ¿No suena deseable frente al caos actual? ¿Quién tiene tiempo en el mundo contemporáneo de
aprender todas las reglas de una democracia que cada vez se propone como más insatisfactoria?
Si la inteligencia artificial va aprendiendo de los que hablan con ella, en algún punto, nos devuelve lo que somos o lo que
provocamos. Otra ironía más: Tay, un robot sin cuerpo tangible, nos recuerda que lo humano puede ser muy poco humano.
Las redes sociales entonces serían un laboratorio de la psiquis no apto para impresionables, y menos para esos que piensan
y que insisten en confirmar que, como decía Rousseau, el hombre es en esencia bueno y libre de pecado.//////PACO

También podría gustarte