Está en la página 1de 2

♣♣♣♣

La inteligencia artificial está elevando el umbral para construir robots sexistas y hacerlos
realidad. Los informáticos han estado destacando los peligros que plantea la inteligencia artificial
(IA) durante años, no solo en el sentido espectacular de que las computadoras se apoderen del
mundo, sino también en formas mucho más sutiles y destructivas. A pesar de que esta tecnología
de punta tiene la capacidad de descubrir nuevas realidades sorprendentes, los investigadores han
demostrado cómo los algoritmos de aprendizaje automático pueden exhibir sesgos negativos y
ofensivos y llegar a conclusiones sexistas y racistas en sus resultados. Estos peligros realmente
existen en lugar de ser hipotéticos. Los investigadores han demostrado que los robots sesgados
pueden mostrar sus ideas física y autónomamente de manera comparable a lo que puede ocurrir
en el mundo real.

Según su conocimiento, el grupo del Instituto de Tecnología de Georgia dirigido por el primer
autor e investigador de robótica Andrew Hundt llevó a cabo el primer propósito de examinar
cómo las técnicas robóticas actuales que cargan modelos de aprendizaje automático pre-
entrenados causan un sesgo de logro en cómo viven e interactúan de acuerdo con estereotipos
raciales y de género. Esto significa que los sistemas robóticos pueden resultar en daños
corporales irreversibles debido a su materialización física, además de todas las desventajas que
tienen los sistemas de software.

En su estudio, los investigadores combinaron un sistema de robótica llamado Baseline, que


controla un brazo robótico que puede manipular objetos, ya sea en el mundo real o en
experimentos virtuales que tienen lugar en entornos simulados, con una red neuronal llamada
CLIP, que compara imágenes con texto basado en un conjunto de datos considerable de imágenes
con subtítulos que están fácilmente disponibles en Internet. En el experimento, se instruyó al
robot para que colocara objetos en forma de bloque en una caja y se le mostraron cubos con
fotografías de rostros de personas, incluidos niños y niñas que representaban una variedad de
diversos grupos raciales y étnicos.

En una sociedad perfecta, ni las personas ni los robots jamás formarían estas creencias incorrectas
y sesgadas basadas en información inexacta o insuficiente. Dado que es imposible determinar si
una cara que nunca has visto antes pertenece a un médico o a un asesino, es inaceptable que una
máquina adivine basándose en lo que cree que sabe. En cambio, debería negarse a hacer
predicciones porque los datos necesarios para hacerlo faltan o son inapropiados. En los
experimentos se observaron robots que actuaban con prejuicios dañinos sobre el género, la etnia y
la fisonomía científicamente desacreditada.

Un robot artificialmente inteligente que utiliza un conocido sistema de inteligencia artificial


basado en Internet comúnmente favoreció a las personas blancas a las personas de color y a los
hombres sobre las mujeres. También hizo juicios instantáneos sobre las ocupaciones de las
personas en función de un vistazo rápido a cómo se veían. Los investigadores de la Universidad
de Washington, el Instituto de Tecnología de Georgia y la Universidad Johns Hopkins que
lideraron el estudio llegaron a estas conclusiones principales. El documento de estudio se basa en
los hallazgos, titulado Robots Enact Malignant Stereotypes.

¿De dónde salió el programa?


Los científicos examinaron técnicas de manipulación de robots publicadas anteriormente y las
sometieron a elementos con imágenes de rostros humanos que variaban en raza y género en la
superficie. Luego proporcionaron descripciones de trabajo que incluían lenguaje relacionado con
ideas preconcebidas generalizadas. En los ensayos, se mostró a los robots llevando a cabo ideas
preconcebidas dañinas sobre el género, el origen étnico y la fisonomía, que han sido
desacreditadas por la ciencia. El proceso de juzgar la personalidad y las habilidades de una
persona en función de su apariencia se conoce como fisonomía.

Las personas que crean modelos de inteligencia artificial para reconocer personas y objetos con
frecuencia utilizan grandes conjuntos de datos que están disponibles gratuitamente en línea. Pero
debido a que hay una gran cantidad de contenido erróneo y obviamente sesgado en Internet, los
algoritmos creados utilizando esta información también tendrán estos problemas.

Los investigadores mostraron disparidades raciales y de género en el software de reconocimiento


facial y la red neuronal CLIP, que relaciona las fotos con los pies de foto. Estas redes neuronales
son esenciales para la capacidad de los robots de interactuar con el entorno exterior y reconocer
objetos. Para ayudar a la computadora a "ver" y reconocer elementos por su nombre, el equipo de
estudio eligió probar un modelo de inteligencia artificial descargable gratuitamente para robots
basado en la red neuronal CLIP.

A pesar del rápido desarrollo de la inteligencia artificial en los últimos años, la tecnología basada
en el aprendizaje automático con frecuencia puede generar suposiciones inapropiadas o dañinas
de lo que lee en línea, al igual que los humanos. En un nuevo estudio sorprendente, los científicos
descubrieron que un robot que usa un conocido sistema de inteligencia artificial basado en
Internet gravitaría constantemente hacia los hombres sobre las mujeres y los blancos sobre otros
grupos étnicos. El robot también emitiría juicios instantáneos sobre los trabajos de las personas
en función de una rápida mirada a sus rostros.

También podría gustarte