Documentos de Académico
Documentos de Profesional
Documentos de Cultura
A partir de los debates suscitados por el uso del algoritmo COMPAS para la predicción de
reincidencia en los tribunales norteamericanos, ha habido una creciente producción de literatura filosófica
en torno a los problemas presentados por los algoritmos predictivos. En simultáneo, algunos debates
tradicionales sobre la teoría de la decisión y la filosofía del derecho adquirieron nueva relevancia y
pasaron al centro de la escena.
En este contexto, el propósito del simposio es explorar algunas dimensiones del uso de algoritmos
en ámbitos estatales. Estas herramientas prometen mejoras en la toma de decisiones, pero presentan al
mismo tiempo numerosas aristas problemáticas que ameritan elucidación filosófica.
Una primera dimensión problemática es epistémica. La información producida por los algoritmos
predictivos parecería compartir los problemas característicos de la evidencia estadística, identificados hace
varias décadas por autores como Thomson (1986) o Schmalbeck (1986). De ser así, no está claro qué clase
de aserciones están justificadas en virtud de los outputs de sistemas algorítmicos, ni qué tipo de
fundamentos proporcionan para distintos cursos de acción. El problema es particularmente relevante en
contextos judiciales, en donde el uso de información producida por este tipo de sistemas resulta
especialmente atractivo, en virtud de la promesa de mejorar la precisión de las decisiones de los
tribunales.
En tercer lugar, aun si damos por supuesta la existencia de algoritmos epistémicamente confiables
e implementables de modo legítimo, nos topamos un tercer problema, sobre el que se ha producido una
extensa bibliografía en años recientes: la cuestión de la equidad. A partir de resultados como los de
Chouldechova (2017) sabemos que, en condiciones habituales, los algoritmos predictivos no pueden
satisfacer simultáneamente todos los requisitos de equidad que nos parecen deseables. Esto nos enfrenta a
dos discusiones distintas. Por un lado, se vuelve necesario esclarecer en qué consiste el perjuicio que
padecen los individuos a quienes un criterio particular les resulta desfavorable. Por el otro, el problema da
pie a la búsqueda de meta-criterios que nos permitan determinar qué criterios de equidad deberíamos
priorizar.
Los trabajos de este simposio procuran aportar herramientas conceptuales para esclarecer, y
eventualmente contribuir a solucionar, los problemas aquí presentados.
Este resultado de imposibilidad generó en los últimos años una nutrida bibliografía,
especialmente en relación al uso de dichos algoritmos en el ámbito legal, por ejemplo para tomar
decisiones sobre prisión preventiva o libertad condicional. Diferentes autores han argumentado a favor de
privilegiar uno u otro criterio, o han propuesto criterios alternativos o secundarios. Otros (entre los que me
cuento) entienden que el escenario descrito favorece una conclusión escéptica: no existe un sentido
objetivo de equidad en algoritmos predictivos.
En este trabajo exploro el uso de herramientas de teoría de la elección social para conceptualizar
los problemas existentes a la hora de elegir un algoritmo particular sobre otros posibles. Dado un conjunto
predeterminado de algoritmos “sensatos” (en un sentido a precisar), los diferentes criterios típicamente
darán lugar a rankings de preferencia diferentes.
Podríamos intentar agregar dichos rankings de algún modo. Sin embargo, puede mostrarse que la
situación es análoga a la planteada por Arrow en su célebre teorema de imposibilidad. Arrow muestra en
1951 que, para una comunidad finita de votantes, si pedimos que se cumplan una serie de propiedades que
intuitivamente corresponden a una buena regla de agregación (Dominio Irrestricto, Pareto Débil, e
Independencia de las Alternativas Irrelevantes), y hay tres o más opciones en juego, la única regla posible
es dictatorial, es decir que el ranking final de opciones siempre coincide con el de uno de los votantes.
Aquí los “votantes” son los diferentes criterios estadísticos, y el conjunto de “opciones sociales” es un
conjunto de diferentes algoritmos predictivos. Argumento que propiedades análogas a las de Arrow
intuitivamente querríamos que se satisfagan aquí también.
El uso de algoritmos computacionales para predecir el comportamiento humano plantea diversos desafíos
éticos y jurídicos. Uno de ellos es el de si estos algoritmos pueden ser injustos o inequitativos con algunos
individuos en virtud de su pertenencia a un determinado grupo social, económico o étnico.
El ejemplo más discutido de este tipo de posible injusticia es COMPAS, un algoritmo diseñado
para predecir la reincidencia en casos penales. En 2016, la ONG ProPublica publicó un estudio en el que
acusaba al COMPAS de dar resultados sesgados en detrimento de los afroamericanos (Angwin et al.
2016). ProPublica descubrió que la tasa de falsos positivos y falsos negativos era diferente en ambos
grupos. Sin embargo, la empresa (Northpointe) respondió a esta objeción argumentando que el resultado
señalado por ProPublica se debe a que las “tasas base” (es decir, las tasas de reincidencia) de los dos
grupos son diferentes. Según la empresa, lo relevante no es la tasa diferencial de falsos positivos o falsos
negativos, sino que el valor predictivo del algoritmo sea el mismo para los miembros de ambos grupos. Y
estos valores, argumenta la compañía, son similares para blancos y afroamericanos (Dieterich 2016). A
pesar de ser contraintuitivo, se ha demostrado que, en condiciones realistas (es decir, con tasas base
diferentes), un algoritmo que tenga igual valor predictivo arrojará desiguales tasas de error (Chouldechova
2017; Kleinberg 2016).
Mi objetivo en este trabajo es determinar cuáles son exactamente los reclamos que válidamente
puede realizar un miembro de un grupo desaventajado por el hecho de que un algoritmo de este tipo arroje
una tasa mayor de falsos positivos a ese grupo. Exploro diversos posibles reclamos y argumento que los
reclamos justificados son, fundamentalmente, de tres tipos. En primer lugar, existe un reclamo legítimo
por parte de aquellos que son, efectivamente, falsos positivos, independientemente de a qué grupo
pertenezcan. Este reclamo es muy general y no se debe a una desigualdad en la tasa de error entre grupos.
En segundo lugar, hay un reclamo justificado por parte de los individuos falsos positivos que pertenecen al
grupo con mayor proporción de falsos positivos, por el hecho de ser tratados desigualmente frente a los
“verdaderos negativos”. Por último, existe un tercer posible reclamo legítimo en algunos casos en los que
el que el individuo clasificado como falso positivo pertenece a un grupo con una tasa de falsos positivos
más alta que otro. Analizo cuáles son las condiciones necesarias para que ese reclamo esté justificado e
identifico dos: que el grupo sea socialmente desaventajado y que exista alguna conexión causal clara entre
esa desventaja y la diferencia en la tasa base relevante (es decir, la que explica la desigual tasa de error).
Las decisiones estatales son un ámbito en el que esta búsqueda es evidentemente relevante. Contar
con reglas generales hipersensibles al contexto podría acercarnos a la promesa moderna de reducción de la
discrecionalidad soberana, lo que se condice con nuestra preocupación por que las decisiones estatales
sean imparciales y respeten la autonomía de las personas. Automatizar decisiones estatales podría
acercarnos a un mundo más respetuoso de algunos valores que tenemos en alta estima.
La tarea a la que nos abocaremos, entonces, es determinar qué tipos de decisiones es posible
automatizar y qué tipos de decisiones es deseable automatizar. A tal efecto, discutiremos una posible
distinción entre decisiones administrativas y decisiones legislativas. Caracterizaremos como decisiones
administrativas a aquellas que implementan un criterio normativo preexistente, mientras que llamaremos
decisiones legislativas a aquellas que instituyen un criterio que hasta el momento estaba indeterminado.
Respecto de la primera tarea, ofreceremos algunos lineamientos para caracterizar las decisiones
estatales susceptibles de automatización. La segunda tarea requiere reevaluar el argumento según el cual la
inevitabilidad de la discrecionalidad se deriva ante todo de razones epistémicas (ya sea el conocimiento
incompleto o el lenguaje impreciso). Sostendremos que, dados los medios técnicos disponibles
actualmente, esa caracterización es compatible con un grado mayor de discrecionalidad que el que se ha
tendido a creer, pero que de todos modos pueden existir razones no epistémicas, relativas a la preservación
de los lazos sociales, para la preservación de ciertos espacios de discrecionalidad.
Mi preocupación aquí será otra. En primer lugar, examinaré qué estamos justificados en creer en
base al hecho de que, de acuerdo al algoritmo, es el caso que p o es altamente probable que p. Uno podría
pensar que, si el algoritmo es lo suficientemente preciso, o está lo suficientemente bien calibrado,
entonces estamos justificados en creer que p, sin más. Pero esto es un error. En este sentido, argumentaré
que la evidencia algorítmica sólo puede justificar creencias probabilísticas (credences) pero no puede
justificar creencias no-probabilísticas (full beliefs). Sostendré, además, que esto no ocurre con todo tipo de
evidencia: muchas veces estamos justificados en creer que p, incluso reconociendo que no excluye la
posibilidad de que p sea falsa.
Ahora bien, uno podría pensar que esto no tiene mayor importancia, esto es, que a todo efecto
práctico una probabilidad suficientemente alta de que p es equivalente al hecho de que p, o que, en todo
caso, bastará con decidir teniendo en cuenta la probabilidad de error, de acuerdo al valor esperado de la
decisión o algún otro método de decisión bajo riesgo. Pero esto también es un error. Las creencias
no-probabilísticas juegan un rol central en nuestras vidas que las creencias probabilísticas no pueden
desempeñar adecuadamente.
Por un lado, las creencias no-probabilísticas son fundamentales para construir narrativas o
historias. En este sentido, las creencias probabilísticas no son fácilmente agregables. Incluso si p1, p2, …
pn, son, cada una de ellas, probablemente verdaderas, su conjunción será probablemente falsa. Para narrar
una historia necesitamos apelar a lo que sucedió (o sucederá), no a lo que es probable que haya sucedido
(o suceda).
Por otro lado, las creencias no-probabilísticas son fundamentales para ciertas emociones. Es
adecuado estar orgulloso por haber recibido un premio, pero no porque es probable que lo haya recibido;
es adecuado reprochar a alguien porque realizó una acción moralmente incorrecta, pero no porque es
probable que la haya realizado.
Estas dos limitaciones de las creencias probabilísticas afectan el tipo de decisiones que estamos
justificados en adoptar en base a ellas. Muchas veces es moralmente importante que la decisión que
tomemos se pueda justificar a la luz de una narrativa (eg, mi decisión de casarme) y muchas veces la
justificación de ciertas decisiones depende de la adecuación de ciertas emociones (eg, la justificación de
castigar depende de que sea apropiado reprochar al castigado). Por lo tanto, hay decisiones socialmente
importantes que no pueden fundarse única ni fundamentalmente en evidencia algorítmica.