Está en la página 1de 1

Los algoritmos pueden predecir factores como los ingresos de los hogares y los patrones de voto simplemente identificando

los coches en la calle.


Gebru fue la ú nica ponente que no era un profesional, un inversor o un representante de una empresa tecnoló gica, pero,
como recuerda uno de los organizadores, su charla generó má s interés que ninguna otra. Steve Jur vetson, amigo de Elon
Musk y uno de los primeros inversores en Tesla, publicó con entusiasmo fotos de sus diapositivas en Facebook. Aficionado a
la IA desde hace tiempo, no le sorprendió que los algoritmos de lectura mecá nica pudieran identificar coches concretos.
Pero la forma en que Gebru había extraído señ ales sobre la sociedad a partir de las fotos ilustraba có mo la tecnología podía
sacar oro de fuentes inesperadas, al menos para quienes tenían muchos datos que extraer. Fue como decir: "Dios mío, piensa
en todos los datos que tiene Google", dice Jurvetson. Me hizo darme cuenta del poder de tener el mayor conjunto de datos".
Para Gebru, el evento podría haber sido un punto de encuentro entre su trabajo de graduació n en IA y un trabajo de creació n
de algoritmos para los gigantes tecnoló gicos. Pero decidió que quería ayudar a contener el poder de la tecnología en lugar de
expandirlo. En el resumen de 2017, aceptó un trabajo en un grupo de investigació n de Microsoft que había participado en el
movimiento FATML desde el principio. Gebru escribió su giro en el capítulo final de su tesis: "Uno de los problemas
emergentes má s importantes que plagan nuestra sociedad hoy en día es el del sesgo algorítmico. La mayoría de los trabajos
basados en la minería de datos, incluidos los míos descritos en esta tesis, sufren este problema", escribió . Su plan para una
carrera, continuó , era "hacer contribuciones para idear y mitigar estos problemas".
MIENTRAS GEBRU terminaba su tesis en Stanford, Margaret Mitchell desarrollaba sus propias dudas sobre la IA, 800 millas
al norte, en el verde campus de Microsoft en las afueras de Seattle.
En 2015, Mitchell, experta en software que genera lenguaje a partir de imá genes, trabajaba en una aplicació n para
invidentes que ofrecía descripciones visuales del mundo. La había bautizado como Seeing AI, y le encantaba la idea de que el
floreciente poder del aprendizaje automá tico pudiera levantar a los má s vulnerables de la sociedad. Pero Microsoft no
parecía dispuesta a invertir seriamente en este tipo de proyectos en aquel momento.
Mitchell también observó algunos errores preocupantes en los sistemas de aprendizaje automá tico que estaba entrenando.
En otra prueba, una imagen de un incendio en un depó sito de petró leo fue calificada de "gran visió n". Empezó a temer que la
IA estuviera llena de minas terrestres y que la industria no prestara suficiente atenció n a encontrarlas. "Oh, mierda",
recuerda haber pensado. "Hay problemas graves que tenemos que resolver ahora mismo porque nadie má s está trabajando
en ellos y esta tecnología está evolucionando".
En 2016, Mitchell se trasladó a Google para trabajar a tiempo completo en esos problemas. La empresa parecía estar
adoptando esta nueva y concienzuda vertiente de la investigació n en IA. Un par de semanas antes de su incorporació n,
Google publicó su primer documento de investigació n sobre la equidad en el aprendizaje automá tico. En él se estudiaba
có mo garantizar que un sistema que hace predicciones sobre las personas -por ejemplo, evaluando su riesgo de sufrir una
infracció n- ofrezca un trato igualitario a los individuos, independientemente de su sexo, raza, religió n u otra identidad de
grupo. La empresa destacó su investigació n en una entrada de blog para una audiencia general y se inscribió , junto con
Microsoft, como patrocinador corporativo del taller FATML.
Cuando Mitchell llegó a Google, descubrió una realidad má s complicada tras la entrada de la empresa en la investigació n
sobre la equidad. Ese primer artículo se había retrasado durante meses por las deliberaciones internas sobre si Google debía
aventurarse pú blicamente en un discurso sobre el potencial discriminatorio del có digo informá tico, que a los directivos les
parecía má s complejo y delicado que la producció n habitual de sus laboratorios. La primera publicació n de Mitchell en la
empresa, sobre có mo hacer que los algoritmos de detecció n de sonrisas funcionen bien para personas de diferentes razas y
géneros, también se encontró con un grado de vacilació n corporativa que no parecía entorpecer los proyectos de IA má s
convencionales. Eligió trabajar en las sonrisas en parte por sus asociaciones positivas; aun así, tuvo que soportar rondas de
reuniones con abogados sobre có mo manejar las discusiones de género y raza.
En otras ocasiones, el trabajo de Mitchell dentro de Google encontró poca resistencia, pero también poco entusiasmo. "Era
como si la gente apreciara realmente lo que decía, y luego no pasaba nada", dice. Aun así, Mitchell no esperaba cambiar la
empresa a lo largo del tiempo, y poco a poco sus esfuerzos ganaron impulso. A finales de 2017 formó un pequeñ o equipo
dedicado a la "investigació n ética de la IA" y se embarcó en una campañ a de reuniones con equipos de todo Google para
difundir el mensaje y ofrecer ayuda. Esta vez la gente parecía má s receptiva, quizá s en parte porque las actitudes má s
amplias estaban cambiando. Algunos de los rivales de Google, como Microsoft, parecían tomarse la justicia de la IA má s en
serio. El bombo de la industria sobre la IA seguía siendo intenso, pero la cultura del sector se estaba volviendo má s reflexiva.
Uno de los impulsores de este cambio fue Timnit Gebru, a quien un conocido le presentó a Mitchell por correo electró nico
cuando Gebru estaba a punto de incorporarse a Microsoft. Los dos se hicieron amigos y compartieron el deseo de denunciar
las injusticias en la sociedad y en la industria tecnoló gica. "Timn it y yo congeniamos enseguida", dice Mitchell. "Nos
llevamos bien en todas las dimensiones.

También podría gustarte