Documentos de Académico
Documentos de Profesional
Documentos de Cultura
perspectiva de género
Por Catalina Infante; Foto: Alejandra González; Producción: Belén Muñoz
TEXTO COMPLETO
“Soy una presentadora de noticias generada por inteligencia artificial y estoy emocionada de unirme al Grupo
Fórmula”, dice Nat, una joven virtual de voz tranquila y amable. Nat es la primera presentadora de televisión
generada por inteligencia artificial en Latinoamérica y “trabaja” en una cadena de noticias mexicana; comparte
espacio en vivo con los comentaristas de carne y hueso de toda la vida. ¿Y cómo es Nat? Una mujer joven,
delgada, con ojos grandes y labios prominentes. Viste una blusa blanca bien ceñida al cuerpo y lleva los primeros
botones desabrochados para dejar ver un escote de clavículas marcadas y pechos pronunciados. En su primera
presentación en vivo, la mujer es entrevistada por el conductor principal, un hombre mayor que deja en evidencia el
rol de esa robot: asistirlo y darle información, al igual como lo hacen Siri, Alexa, Cortana y otras voces femeninas,
dulces y amables, generadas por la tecnología para mejorar nuestra calidad de vida.
¿Es coincidencia que sean mujeres y que estén representadas de esta forma?
Al parecer no tanto: La ONU, de hecho, publicó un informe sobre cómo estos asistentes digitales diseñados con
nombres y voces femeninas -Siri de Apple, Alexa de Amazon y Cortana de Microsoft - refuezan y perpetúan los
estereotipos sexistas sobre la mujer, haciendo un llamado a las empresas de tecnología a poner especial ojo en las
repercusiones sociales que esto tiene. En el caso de las robots con imagen como Nat, estas son representadas con
una apariencia femenina que sigue cánones de belleza sexualizados, pero no solo tiene que ver con la apariencia,
sino también con una personalidad asociada a lo “femenino”, ya que estas asistentes están programadas para ser
sumisas y serviles e incluso para responder de forma polite a los insultos (en un comienzo Siri respondía “me
sonrojaría si pudiera” cuando la llamaban “puta”). “La sumisión de Siri ante el abuso de género, así como el
servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una
potente muestra sobre los sesgos de género codificados en los productos tecnológicos”, indicaba el informe.
ChatGPT y perspectiva de género
Con el lanzamiento del ChatGPT, el prototipo de chatbot de inteligencia artificial desarrollado por OpenAI que se
especializa en el diálogo, la reflexión sobre perspectiva de género e inteligencia artificial vuelve al debate y se
profundiza más. Es cierto, el Chat no tiene nombre ni voz ni tampoco se identifica con algún género, pero al
momento de responder a tus preguntas, sí evidencia sesgos preocupantes. Cuando le pido, por ejemplo, que me de
una lista de los regalos ideales para niñas y luego para niños, en la primera me incluye regalos que desarrollen el
arte y en el segundo regalos de construcción. Suena algo sin importancia, pero para algunos expertos esto es solo
la punta del iceberg y estos sesgos que persisten en los conjuntos de datos, algoritmos y dispositivos de
capacitación de la AI, tienen potencial para propagar y reforzar estereotipos, así como estigmatizar y marginar aún
más a las mujeres.
Siri y Alexa: las voces femeninas a las que les damos órdenes
¿Qué tanto sesgo de género tiene esta herramienta? Le pedí al mismo ChatGpt que me lo explicara y esto es lo
que me contestó: “Como modelo de lenguaje entrenado en una gran cantidad de datos recopilados en línea, reflejo
la perspectiva de género de la sociedad en la que se recopilaron esos datos. Por lo tanto, es importante tener en
cuenta que los datos de entrenamiento pueden estar sesgados o reflejar estereotipos y prejuicios de género, lo que
puede afectar mis respuestas”. Para explicarme más, el Chat me expone algunos ejemplos, partiendo por sesgos
DETALLES
Autor: Por Catalina Infante; Foto: Alejandra González; Producción: Belén Muñoz
Copyright de la base de datos 2024 ProQuest LLC. Reservados todos los derechos.