Los algoritmos pueden predecir factores como los ingresos de los hogares y los patrones de voto simplemente identificando
los coches en la calle.
Gebru fue la ú nica ponente que no era un profesional, un inversor o un representante de una empresa tecnoló gica, pero, como recuerda uno de los organizadores, su charla generó má s interés que ninguna otra. Steve Jur vetson, amigo de Elon Musk y uno de los primeros inversores en Tesla, publicó con entusiasmo fotos de sus diapositivas en Facebook. Aficionado a la IA desde hace tiempo, no le sorprendió que los algoritmos de lectura mecá nica pudieran identificar coches concretos. Pero la forma en que Gebru había extraído señ ales sobre la sociedad a partir de las fotos ilustraba có mo la tecnología podía sacar oro de fuentes inesperadas, al menos para quienes tenían muchos datos que extraer. Fue como decir: "Dios mío, piensa en todos los datos que tiene Google", dice Jurvetson. Me hizo darme cuenta del poder de tener el mayor conjunto de datos". Para Gebru, el evento podría haber sido un punto de encuentro entre su trabajo de graduació n en IA y un trabajo de creació n de algoritmos para los gigantes tecnoló gicos. Pero decidió que quería ayudar a contener el poder de la tecnología en lugar de expandirlo. En el resumen de 2017, aceptó un trabajo en un grupo de investigació n de Microsoft que había participado en el movimiento FATML desde el principio. Gebru escribió su giro en el capítulo final de su tesis: "Uno de los problemas emergentes má s importantes que plagan nuestra sociedad hoy en día es el del sesgo algorítmico. La mayoría de los trabajos basados en la minería de datos, incluidos los míos descritos en esta tesis, sufren este problema", escribió . Su plan para una carrera, continuó , era "hacer contribuciones para idear y mitigar estos problemas". MIENTRAS GEBRU terminaba su tesis en Stanford, Margaret Mitchell desarrollaba sus propias dudas sobre la IA, 800 millas al norte, en el verde campus de Microsoft en las afueras de Seattle. En 2015, Mitchell, experta en software que genera lenguaje a partir de imá genes, trabajaba en una aplicació n para invidentes que ofrecía descripciones visuales del mundo. La había bautizado como Seeing AI, y le encantaba la idea de que el floreciente poder del aprendizaje automá tico pudiera levantar a los má s vulnerables de la sociedad. Pero Microsoft no parecía dispuesta a invertir seriamente en este tipo de proyectos en aquel momento. Mitchell también observó algunos errores preocupantes en los sistemas de aprendizaje automá tico que estaba entrenando. En otra prueba, una imagen de un incendio en un depó sito de petró leo fue calificada de "gran visió n". Empezó a temer que la IA estuviera llena de minas terrestres y que la industria no prestara suficiente atenció n a encontrarlas. "Oh, mierda", recuerda haber pensado. "Hay problemas graves que tenemos que resolver ahora mismo porque nadie má s está trabajando en ellos y esta tecnología está evolucionando". En 2016, Mitchell se trasladó a Google para trabajar a tiempo completo en esos problemas. La empresa parecía estar adoptando esta nueva y concienzuda vertiente de la investigació n en IA. Un par de semanas antes de su incorporació n, Google publicó su primer documento de investigació n sobre la equidad en el aprendizaje automá tico. En él se estudiaba có mo garantizar que un sistema que hace predicciones sobre las personas -por ejemplo, evaluando su riesgo de sufrir una infracció n- ofrezca un trato igualitario a los individuos, independientemente de su sexo, raza, religió n u otra identidad de grupo. La empresa destacó su investigació n en una entrada de blog para una audiencia general y se inscribió , junto con Microsoft, como patrocinador corporativo del taller FATML. Cuando Mitchell llegó a Google, descubrió una realidad má s complicada tras la entrada de la empresa en la investigació n sobre la equidad. Ese primer artículo se había retrasado durante meses por las deliberaciones internas sobre si Google debía aventurarse pú blicamente en un discurso sobre el potencial discriminatorio del có digo informá tico, que a los directivos les parecía má s complejo y delicado que la producció n habitual de sus laboratorios. La primera publicació n de Mitchell en la empresa, sobre có mo hacer que los algoritmos de detecció n de sonrisas funcionen bien para personas de diferentes razas y géneros, también se encontró con un grado de vacilació n corporativa que no parecía entorpecer los proyectos de IA má s convencionales. Eligió trabajar en las sonrisas en parte por sus asociaciones positivas; aun así, tuvo que soportar rondas de reuniones con abogados sobre có mo manejar las discusiones de género y raza. En otras ocasiones, el trabajo de Mitchell dentro de Google encontró poca resistencia, pero también poco entusiasmo. "Era como si la gente apreciara realmente lo que decía, y luego no pasaba nada", dice. Aun así, Mitchell no esperaba cambiar la empresa a lo largo del tiempo, y poco a poco sus esfuerzos ganaron impulso. A finales de 2017 formó un pequeñ o equipo dedicado a la "investigació n ética de la IA" y se embarcó en una campañ a de reuniones con equipos de todo Google para difundir el mensaje y ofrecer ayuda. Esta vez la gente parecía má s receptiva, quizá s en parte porque las actitudes má s amplias estaban cambiando. Algunos de los rivales de Google, como Microsoft, parecían tomarse la justicia de la IA má s en serio. El bombo de la industria sobre la IA seguía siendo intenso, pero la cultura del sector se estaba volviendo má s reflexiva. Uno de los impulsores de este cambio fue Timnit Gebru, a quien un conocido le presentó a Mitchell por correo electró nico cuando Gebru estaba a punto de incorporarse a Microsoft. Los dos se hicieron amigos y compartieron el deseo de denunciar las injusticias en la sociedad y en la industria tecnoló gica. "Timn it y yo congeniamos enseguida", dice Mitchell. "Nos llevamos bien en todas las dimensiones.