Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La inteligencia artificial está elevando el umbral para construir robots sexistas y hacerlos
realidad. Los informáticos han estado destacando los peligros que plantea la inteligencia artificial
(IA) durante años, no solo en el sentido espectacular de que las computadoras se apoderen del
mundo, sino también en formas mucho más sutiles y destructivas. A pesar de que esta tecnología
de punta tiene la capacidad de descubrir nuevas realidades sorprendentes, los investigadores han
demostrado cómo los algoritmos de aprendizaje automático pueden exhibir sesgos negativos y
ofensivos y llegar a conclusiones sexistas y racistas en sus resultados. Estos peligros realmente
existen en lugar de ser hipotéticos. Los investigadores han demostrado que los robots sesgados
pueden mostrar sus ideas física y autónomamente de manera comparable a lo que puede ocurrir
en el mundo real.
Según su conocimiento, el grupo del Instituto de Tecnología de Georgia dirigido por el primer
autor e investigador de robótica Andrew Hundt llevó a cabo el primer propósito de examinar
cómo las técnicas robóticas actuales que cargan modelos de aprendizaje automático pre-
entrenados causan un sesgo de logro en cómo viven e interactúan de acuerdo con estereotipos
raciales y de género. Esto significa que los sistemas robóticos pueden resultar en daños
corporales irreversibles debido a su materialización física, además de todas las desventajas que
tienen los sistemas de software.
En una sociedad perfecta, ni las personas ni los robots jamás formarían estas creencias incorrectas
y sesgadas basadas en información inexacta o insuficiente. Dado que es imposible determinar si
una cara que nunca has visto antes pertenece a un médico o a un asesino, es inaceptable que una
máquina adivine basándose en lo que cree que sabe. En cambio, debería negarse a hacer
predicciones porque los datos necesarios para hacerlo faltan o son inapropiados. En los
experimentos se observaron robots que actuaban con prejuicios dañinos sobre el género, la etnia y
la fisonomía científicamente desacreditada.
Las personas que crean modelos de inteligencia artificial para reconocer personas y objetos con
frecuencia utilizan grandes conjuntos de datos que están disponibles gratuitamente en línea. Pero
debido a que hay una gran cantidad de contenido erróneo y obviamente sesgado en Internet, los
algoritmos creados utilizando esta información también tendrán estos problemas.
A pesar del rápido desarrollo de la inteligencia artificial en los últimos años, la tecnología basada
en el aprendizaje automático con frecuencia puede generar suposiciones inapropiadas o dañinas
de lo que lee en línea, al igual que los humanos. En un nuevo estudio sorprendente, los científicos
descubrieron que un robot que usa un conocido sistema de inteligencia artificial basado en
Internet gravitaría constantemente hacia los hombres sobre las mujeres y los blancos sobre otros
grupos étnicos. El robot también emitiría juicios instantáneos sobre los trabajos de las personas
en función de una rápida mirada a sus rostros.