Está en la página 1de 3

El derecho a una Inteligencia Artificial con

perspectiva de género
Por Catalina Infante; Foto: Alejandra González; Producción: Belén Muñoz

Enlace de documentos de ProQuest

TEXTO COMPLETO
“Soy una presentadora de noticias generada por inteligencia artificial y estoy emocionada de unirme al Grupo
Fórmula”, dice Nat, una joven virtual de voz tranquila y amable. Nat es la primera presentadora de televisión
generada por inteligencia artificial en Latinoamérica y “trabaja” en una cadena de noticias mexicana; comparte
espacio en vivo con los comentaristas de carne y hueso de toda la vida. ¿Y cómo es Nat? Una mujer joven,
delgada, con ojos grandes y labios prominentes. Viste una blusa blanca bien ceñida al cuerpo y lleva los primeros
botones desabrochados para dejar ver un escote de clavículas marcadas y pechos pronunciados. En su primera
presentación en vivo, la mujer es entrevistada por el conductor principal, un hombre mayor que deja en evidencia el
rol de esa robot: asistirlo y darle información, al igual como lo hacen Siri, Alexa, Cortana y otras voces femeninas,
dulces y amables, generadas por la tecnología para mejorar nuestra calidad de vida.
¿Es coincidencia que sean mujeres y que estén representadas de esta forma?
Al parecer no tanto: La ONU, de hecho, publicó un informe sobre cómo estos asistentes digitales diseñados con
nombres y voces femeninas -Siri de Apple, Alexa de Amazon y Cortana de Microsoft - refuezan y perpetúan los
estereotipos sexistas sobre la mujer, haciendo un llamado a las empresas de tecnología a poner especial ojo en las
repercusiones sociales que esto tiene. En el caso de las robots con imagen como Nat, estas son representadas con
una apariencia femenina que sigue cánones de belleza sexualizados, pero no solo tiene que ver con la apariencia,
sino también con una personalidad asociada a lo “femenino”, ya que estas asistentes están programadas para ser
sumisas y serviles e incluso para responder de forma polite a los insultos (en un comienzo Siri respondía “me
sonrojaría si pudiera” cuando la llamaban “puta”). “La sumisión de Siri ante el abuso de género, así como el
servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una
potente muestra sobre los sesgos de género codificados en los productos tecnológicos”, indicaba el informe.
ChatGPT y perspectiva de género
Con el lanzamiento del ChatGPT, el prototipo de chatbot de inteligencia artificial desarrollado por OpenAI que se
especializa en el diálogo, la reflexión sobre perspectiva de género e inteligencia artificial vuelve al debate y se
profundiza más. Es cierto, el Chat no tiene nombre ni voz ni tampoco se identifica con algún género, pero al
momento de responder a tus preguntas, sí evidencia sesgos preocupantes. Cuando le pido, por ejemplo, que me de
una lista de los regalos ideales para niñas y luego para niños, en la primera me incluye regalos que desarrollen el
arte y en el segundo regalos de construcción. Suena algo sin importancia, pero para algunos expertos esto es solo
la punta del iceberg y estos sesgos que persisten en los conjuntos de datos, algoritmos y dispositivos de
capacitación de la AI, tienen potencial para propagar y reforzar estereotipos, así como estigmatizar y marginar aún
más a las mujeres.
Siri y Alexa: las voces femeninas a las que les damos órdenes
¿Qué tanto sesgo de género tiene esta herramienta? Le pedí al mismo ChatGpt que me lo explicara y esto es lo
que me contestó: “Como modelo de lenguaje entrenado en una gran cantidad de datos recopilados en línea, reflejo
la perspectiva de género de la sociedad en la que se recopilaron esos datos. Por lo tanto, es importante tener en
cuenta que los datos de entrenamiento pueden estar sesgados o reflejar estereotipos y prejuicios de género, lo que
puede afectar mis respuestas”. Para explicarme más, el Chat me expone algunos ejemplos, partiendo por sesgos

PDF GENERADO POR PROQUEST.COM Page 1 of 3


en los datos de entrenamiento: “Las IA aprenden a través de conjuntos de datos que contienen patrones y
relaciones entre diferentes conceptos y palabras. Si los datos de entrenamiento están sesgados hacia un género en
particular, la IA puede replicar estos sesgos en sus respuestas. Por ejemplo, si un conjunto de datos de
entrenamiento para una IA de contratación de personal incluye principalmente perfiles de candidatos masculinos, la
IA podría ser más propensa a recomendar candidatos masculinos para puestos de trabajo en el futuro.” Aquí
evidentemente ya no se trata de algo anécdotico, sino de una realidad que podría profundizar la brecha laboral
entre hombres y mujeres. El Chat también reconoce un sesgo en el modelo linguístico, que es cuando el lenguaje
utilizado por una IA puede reflejar sesgos de género subconscientes, como estereotipos y roles de género
tradicionales. “Por ejemplo, una IA puede utilizar pronombres masculinos para referirse a un grupo de personas de
género mixto, lo que sugiere que los hombres son más importantes o relevantes que las mujeres”. Por último, el
sesgo en diseño y programación: “Si un equipo de desarrollo de IA está compuesto en su mayoría por hombres, es
posible que la IA resultante refleje los puntos de vista y experiencias de los hombres de manera desproporcionada.”
Efectivamente los ejemplos que da el ChatGPT son parte de las principales preocupaciones en materia de igualdad
de género e IA; la discriminación que podría generar sesgos presentes en los datos que nutren los sistemas y un
mal diseño en los algoritmos que terminen invisibilizando a la mujer. “Es importante tener en cuenta que estos
sesgos pueden ser sutiles y difíciles de detectar, y que pueden tener efectos negativos significativos en la vida de
las personas. Es necesario trabajar en el desarrollo de metodologías y prácticas para identificar y mitigar estos
sesgos, para asegurarnos de que la IA se utilice de manera justa y equitativa para todas las personas,
independientemente de su género”, me dice GPT. Es decir, la intención está, pero aún no es suficiente
¿Qué opinan las expertas?
La académica Jocelyn Dunstan, Licenciada y Magíster en Física de la Universidad de Chile y Doctora en
Matemática Aplicada de la Universidad de Cambridge, afirma la necesidad de crear modelos no sesgados, lo cual,
dice, es un tópico actual en ciencias de la computación, ya que desde varias perspectivas esto es preocupante.
“Las máquinas aprenden de los datos de entradas, y puesto que en la web hay lenguaje de odio contra mujeres y
etnias, el chat GPT y los modelos en general los reproducen y amplifican”. Por su parte, Barbara Poblete,
académica del Departamento de Computación, Universidad de Chile, Investigadora del Centro Nacional de
Inteligencia Artificial (CENIA) explica que, por defecto, las tecnologías basadas en LLMs (large language models o
modelos de lenguaje grandes) como ChatGPT no están hechas para fomentar un mundo más igualitario: ojo con
eso: “Esto ha sido ampliamente documentado en investigaciones realizadas en esta área. En este sentido, la
automatización de procesos que pueden impactar la vida de las personas presenta un riesgo importante de
perpetuar desigualdades. Es necesario trabajar proactivamente para que la IA sea equitativa, ya que no siempre se
desarrolla con esto en mente. Es necesario incluir la perspectiva de grupos diversos, en particular de las mujeres,
en todo diseño tecnológico, sobre todo si éste tendrá efectos en la vida de las personas. Es muy difícil detectar
problemas en el diseño de las cosas si estos problemas nunca te van a afectar personalmente. Esto pasa mucho
cuando hablamos de tecnología, que se caracteriza por ser desarrollada principalmente por hombres blancos en el
Norte Global.”
CREDIT: Por Catalina Infante / Foto: Alejandra González / Producción: Belén Muñoz

DETALLES

Título: El derecho a una Inteligencia Artificial con perspectiva de género

Autor: Por Catalina Infante; Foto: Alejandra González; Producción: Belén Muñoz

Título de publicación: CE Noticias Financieras, Spanish ed.; Miami

PDF GENERADO POR PROQUEST.COM Page 2 of 3


Año de publicación: 2023

Fecha de publicación: Apr 6, 2023

Editorial: ContentEngine LLC, a Florida limited liability company

Lugar de publicación: Miami

País de publicación: US Minor Outlying Islands, Miami

Materia de publicación: Business And Economics

Tipo de fuente: Fuente por cable

Idioma de la publicación: Spanish

Tipo de documento: News

ID del documento de 2797591189


ProQuest:

URL del documento: http://www.espaciotv.es:2048/referer/secretcode/wire-feeds/el-derecho-una-


inteligencia-artificial-con/docview/2797591189/se-2?accountid=142712

Copyright: La Tercera, Chile - Distributed by ContentEngine LLC

Última actualización: 2023-04-08

Base de datos: ProQuest Central; ProQuest One Business

Copyright de la base de datos  2024 ProQuest LLC. Reservados todos los derechos.

Términos y condiciones Contactar con ProQuest

PDF GENERADO POR PROQUEST.COM Page 3 of 3

También podría gustarte