Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Llamó la atención del público por primera vez el caso destapado por
ProPublica referente a E.U. Northpointe, una empresa que diseñó una
caja negra para predecir si los presos estadounidenses acabarían
reincidiendo o no, una información que luego se empleaba para decidir
si se les concedería la libertad condicional. Tras un análisis detallado,
se hizo evidente que el algoritmo era, de alguna manera, «racista»: a
los presos afroamericanos se les asignaban, con independencia de su
historial, peores predicciones que a los blancos, asumiendo que
reincidirían con mayor frecuencia. Para comprender este problema,
conocido como «sesgo algorítmico»,es necesario profundizar en lo que
realmente son la IA y los métodos de aprendizaje automático.
CONTENIDOS RELACIONADOS
Otro ejemplo reciente es el que emergió en una red social que señalaba
con mucha más frecuencia las fotos de mujeres no blancas como
contenido inapropiado. Al parecer, el algoritmo se entrenaba con
fotografías publicitarias como ejemplo de contenido válido, y con
pornografía como ejemplo de contenido no permitido. Aparentemente
la base de datos de pornografía era mucho más racialmente diversa que
la de publicidad, lo que llevó al algoritmo a generalizar con más
facilidad que la foto de una mujer no blanca correspondía a contenido
inapropiado.