Está en la página 1de 23

Algocracia: la democracia será reemplazada por el

gobierno de los algoritmos


Medios y Tecnología
Por: Alejandro Martinez Gallardo - 01/16/2014

El big data y la vigilancia informática construyen un alambrado de púas invi-


sible que amenaza con regular a la sociedad a través de un gobierno algo-
rítmico.

Entre otras cosas, el 2013 podrá ser recordado como el año en el que descu-
brimos la muerte de la privacidad. Si bien muchos sospechaban que las co-
sas iban en esa dirección (por la fusión de los intereses del marketing y del
gobierno), que nuestra información estaba siendo minada de manera masi-
va, como si fuera una especie de capital expropiado; con las filtraciones de
Eward Snowden amanecimos a un estado de vigilancia global ciberpanópti-
ca que no desmerece la distopía imaginada por Orwell.
Hoy sabemos que entrar a Internet y navegar por los grandes sitios o utili-
zar gadgets y conexiones de las grandes compañías de tecnología tiene el
precio de entregar nuestra información privada. No sabemos, sin embar-
go, bien a bien, qué se hace con esa información o qué implicaciones tiene
para el panorama geopolítico y sociocultural presente y futuro.
Algunos creen que esta información, que engorda las arcas de computado-
ras que sueñan ya con la inteligencia artificial en la selva pletórica del big
data, será utilizada para hacer más eficiente nuestra vida y no debemos de
preocuparnos demasiado, al menos no aquellos de nosotros que no tene-
mos nada que ocultar. La inspiración y lo que avala el desarrollo de esta
tecnología en un proceso democrático es que es el bastión de nuestra pro-
tección, el medio que asegura la preeminencia de la democracia misma,
que es amenazada por aquellos que permanecen en la sombra, utilizando
su privacidad para conspirar en contra de los valores que sustentan nues-
tra sociedad --y que, a su vez, son nuestra elección, es el programa mismo
que nos permite elegir entre tantas cosas.
Evgenzy Morozov una de las voces más críticas de los efectos que tiene la
tecnología en la psique y en la sociedad moderna (también acusado de ser
un neoludita) sugiere que el efecto no reconocido de la eliminación de la
privacidad y el procesamiento masivo de información personal por parte
de los gobiernos y las corporaciones es que podría reemplazar a la demo-
cracia por un gobierno algorítmico, de procesos automatizados, en los que
los ciudadanos perderían el poder de decisión que al menos hoy simulan te-
ner a través del voto y de la participación ciudadana.
Morozov argumenta que el problema de la privacidad y el desequilibrio de
poder que otorga el manejo de información al gobierno o a un grupo selec-
to de corporaciones no es algo nuevo "consecuencia de que Mark Zucker-
berg le haya vendido su alma y nuestros perfiles al NSA", es algo que viene
de origen a la tecnología informática, parte del medio mismo, y que fue re-
conocido desde un principio. En 1967 Paul Baran escribió el ensayo The Futu-
re Computer Utility, en el que advertía de los peligros venideros de almace-
nar grandes cantidades de información privada en computadoras (pues no
existían mecanismos para salvaguardar su integridad de intereses ajenos).
En un análisis que evoca la visión de McLuhan de que cada medio tiene una
serie de condiciones determinadas que afectan a sus usuarios y a su entor-
no, independientemente del uso que se le dé, Morozov argumenta que las
redes digitales desde siempre tuvieron embebido un carácter de vigilancia
y automatización. Muchos entusiastas del ciberespacio, que consideraron
que Internet era una poderosa puerta de libertad informativa, piensan
ahora que el espionaje digital y los anuncios personalizados del big data
son aberraciones que pueden ser revertidas con mejores leyes de encrip-
tamiento y empoderamiento de los usuarios. "La sensación de emancipa-
ción a través de la información que muchas personas aún atribuyen a la dé-
cada de los '90 fue probablemente sólo una alucinación prolongada. Tanto
el capitalismo como la administración burocrática se acomodan fácilmente
al nuevo régimen digital; ambos florecen en flujos de información, entre
más automatizados, mejor", escribe Morozov. Brillantes analistas, como
Douglas Rushkoff, en la cresta de la ola noventera imaginaban tecnoparaí-
sos de conciencias elevadas por la orgía ciberdélica, para luego tener que
cobrar mayor cautela y ser más críticos de las promesas que cifraban las
máquinas.

La convergencia entre los intereses de las corporaciones y el Estado puede


en algunos casos ser la fórmula del fascismo. Actualmente los intereses co-
merciales de las compañías de tecnología y las agencias de gobierno con-
vergen: "ambas están interesadas en la recolección y el rápido análisis de
los datos de los usuarios. Google y Facebook están llamados a recolectar
más datos para mejorar las efectividad de los anuncios que venden. Las
agencias de gobierno necesitan la misma data (que pueden recolectar por
sí mismas o en colaboración con las compañías de tecnologías) para perse-
guir sus propios programas", escribe Morozov.
El big data, el procesamiento de enormes cantidades de información, en
ocasiones con el fin de encontrar patrones y de eficientar prácticas, permi-
te la emergencia de lo que se conoce como el "estado-niñera", en el que el
gobierno no sólo puede vigilar todo lo que hacemos, sino que puede corre-
gir nuestras conductas. Algunos ejemplos: el gobierno de Italia empieza a
usar una herramienta llamada redditometro que analiza patrones de gasto
para identificar el perfil de personas con el potencial de evadir impuestos.
Asimsimo, la propuesta del alcalde neoyorkino Michael Bloomberg de prohi-
bir la venta de refrescos de más de 16 onzas en establecimientos sigue el
análisis estadístico de la relación entre el consumo de estas bebidas y la
obesidad. Nos encontramos ante un nuevo paternalismo, ilustrado por el
análisis de la información, que prohíbe y obliga por "nuestro propio bien".
Escribe Morozov:
Este fenómeno tiene un nombre fácil de memetizarse: "regulación algorít-
mica". En esencia, las democracias ricas en información han llegado al pun-
to en el que quieren resolver los problemas sin tener que explicarse o justi-
ficarse ante los ciudadanos. En cambio, pueden simplemente apelar a
nuestro propio interés personal --y saben lo suficiente de nosotros para di-
señar una perfecta, altamente personalizada e irresistible persuasión.
El problema de la pérdida de la privacidad en el contexto de la democracia
fue identificado, atisba Morozov, por Spiros Simitis en 1985. "Cuando la priva-
cidad es desmantelada, tanto la posibilidad de formar juicios personales
del proceso político, como de mantener un estilo de vida particular, se pier-
den". Es decir, en un sentido radical, compartir nuestra información de ma-
nera hiperpermeable con máquinas que automatizan nuestros significados
genera una sociedad de autómatas.

La complejidad del procesamiento de nuestros datos y el aura de poder


que mantiene, intercambiando la omnividencia (la supervigilancia) por la
omnisciencia (que sólo es simulada por la totalidad del ánalisis), permiten
que el Estado, como el mismo Google ya hace, mantenga secreto su algorit-
mo. "Sería difícil que el gobierno generara una respuesta detallada cuando
se le pregunte por qué un individuo fue señalado para recibir un tratamien-
to distinto por un sistema de recomendación automatizada. Lo más que el
gobierno podría decir es que esto fue lo que el algoritmo halló basándose
en casos previos".

Así se forma un "alambrado de púas invisible". Ya que creemos que somos li-
bres de ir a todas partes, el alambrado de púas se mantiene invisible. No
tenemos a quien culpar: ciertamente no a Google, no a Dick Cheney o a la
NSA. Es el resultado de diferentes lógicas y sistemas (del capitalismo moder-
no, del gobierno burocrático o de la administración de riesgos) que cobran
fuerza por la automatización del procesamiento de información y la despo-
litización de la política.
Nos enfrentamos a lo que Habermas advertía en 1963 que se podía desen-
cadenar de "una civilización exclusivamente técnica": la "segmentación de
los seres humanos en dos clases: los ingenieros sociales y los internos de
esas instituciones sociales cerradas". Tal vez debemos de imaginar Inter-
net, después de ese sueño de libertad inicial, también como una prisión, de
barras invisibles. Una prisión en la que incluso los mismos "ingenieros socia-
les" podrían quedar atrapados, como el arquitecto de un laberinto dema-
siado complejo.
La privacidad, éste es el argumento central de Morozov, entonces se con-
vierte en el instrumento político fundamental para mantener vivo el espíri-
tu de la democracia, bajo la creencia de que aún somos capaces de refle-
xionar —y la reflexión se da mejor bajo el sosiego de la privacidad, sin la mi-
rada invasiva de la maquinaria estatal— sobre los problemas y las posibles
soluciones que enfrentamos como sociedad e individuos; reflexionar bajo
la creencia en que el espíritu humano sigue teniendo más capacidad para
decidir y dirigir su destino que los procesos automatizados y los algoritmos
que corren por las venas de las computadoras.
Con información de Technology Review
«Big data» y política El poder de los algoritmos
En tiempos de redes sociales, los mensajes se acomodan a los gustos de ca-
da usuario. Las nuevas formas de comunicación filtradas por algoritmos
generan un desafío a la política. ¿Los candidatos deberían decirle a cada
uno lo que quiere escuchar? La experiencia de la última campaña presiden-
cial en Estados Unidos muestra el potencial de dirigir mensajes específicos
a los votantes para acceder al poder, aunque queda abierta la pregunta
sobre sus limitaciones a la hora de gobernar. En América Latina estos pro-
cesos están menos desarrollados, pero allá vamos.

Por Esteban Magnani


Mayo - Junio 2017

PDF
«El electorado informado (...) no es más que 10% en América Latina». La
afirmación pertenece al polémico asesor de imagen ecuatoriano Jaime Du-
1
rán Barba . En la misma entrevista, agregaba que los políticos tradicionales
«tienen miedo de hablar de sexo; creen que no es de buen gusto; que no es
importante. Hasta ahora, había que hablar del ‘Che’ Guevara». Durán Bar-
ba fue un pilar fundamental para la victoria de Mauricio Macri como jefe
de gobierno de la ciudad de Buenos Aires en 2007 y como presidente de Ar-
gentina en 2015. El consultor ya había construido su reputación asesorando
a candidatos de centroderecha (por ejemplo, colaboró en la campaña que
llevó a Felipe Calderón a la Presidencia de México en 2006 y se desempeñó
como secretario de la Administración Pública de Ecuador durante la gestión
de Jamil Mahuad, el presidente que inició la dolarización de la economía
ecuatoriana). Este personaje afecto a las frases polémicas (en una entre-
2
vista en 2013 dijo que «Hitler era un tipo espectacular» y defendió la despe-
3
nalización del aborto en plena campaña presidencial ), mal que les pese a
quienes les disgusta su estilo, ha sabido conducir el barco de Propuesta
Republicana (pro) al éxito: mientras el partido gobernante anterior, el Fren-
te para la Victoria (fpv), hablaba de Estado, patria y pueblo, Durán Barba,
con la convicción de que a la mayoría de la gente no le interesa la política,
apoyó la campaña en globos, el «tren de la alegría» y sonrisas por doquier.
Por supuesto, el eje política/antipolítica no alcanza por sí solo para explicar
la victoria final del candidato de pro, pero obliga a repensar las campañas
de acuerdo con un fenómeno que Durán Barba simplifica pero ya ha sido
analizado: «La fragmentación social se extiende ya que las identidades se
4
vuelven más específicas y aumenta la dificultad de compartirlas» , resumía
Manuel Castells ya en 1996. Otros autores coinciden: la sociedad aparece
cada vez más segmentada por los consumos o los estilos de vida que por
una condición de clase o una posición política. La autopercepción de los su-
jetos modernos, sobre todo en el siglo xxi, se ha fragmentado hasta un
punto de difícil retorno: lo saben quienes usan el marketing para llegar con
mensajes específicos a sus potenciales clientes. Entonces, ¿cómo se seduce
a ciudadanos acostumbrados a mensajes que los invitan a ser diferentes
del resto? ¿Cómo sumarlos a un proyecto común? ¿Hay que obligarlos a po-
sicionarse políticamente acerca de temas claves o aceptar hablar sobre
cualquier tema que les interese?
De los medios a las redes
Desde la aparición de la prensa, la radio, el cine y la televisión, junto con el
desarrollo de las democracias y la necesidad de sumar más votantes, los
políticos tienen claro que deben usar los medios de comunicación masiva
para acceder al electorado. Aunque no les gustara, su mensaje debió ser
mediado por estas corporaciones cuyo poder se incrementó con el correr
del tiempo: era fundamental que se sintieran cómodos en cada uno de
ellos. El formato de ese tipo de diálogos, más allá de alguna interacción
controlada, o incluso simulada, es la comunicación desde un emisor hacia
numerosos receptores. Lo que se diga tiene que tener la lógica del catch all
(atrapa todo), porque se necesita seducir a la mayoría para acceder al po-
der. Los candidatos, si querían hacerse entender, debían hacerse escu-
char para establecer los parámetros de su discurso e interesar a su públi-
co acerca de, por ejemplo, lo que significa el desarrollismo, cómo se contro-
la la inflación o para qué sirven los impuestos. De alguna manera, a través
de esos medios no solo construían la agenda política, sino también la cultu-
ral, económica, social, de seguridad, etc., gracias a un (limitado) diálogo so-
cial que pone el debate dentro de cierto marco.
Pero ¿qué pasa cuando cada vez más gente, sobre todo las nuevas genera-
ciones, acceden a consumos de cualquier lugar del mundo, en cualquier
formato, en cualquier horario y en cualquier pantalla? ¿Cómo se capta su
atención que, para peor, es dispersa y no suele admitir un instante de abu-
rrimiento?
Las redes sociales revolucionaron la forma de llegar a este nuevo tipo de
individuo, aunque en principio con fines publicitarios. Vale la pena detener-
se a entender cómo funciona el negocio de corporaciones como Facebook,
que reúne cotidianamente grandes cantidades de datos o big data (como
se los suele llamar) de sus usuarios: intereses, lugares adonde van, redes
de amigos, horarios de conexión, instituciones a las que pertenecen y mu-
cho (pero mucho) más. Con esta información, crea perfiles que le permiten
ubicar las publicidades de una manera selectiva: pañales para las madres
de niños pequeños, whisky para los amantes de las bebidas, viajes a México
para quienes visitaron la página de una agencia de viajes. Facebook no so-
lo recaba la información que los usuarios colocan en sus páginas, sino tam-
bién la de otros sitios en los que aparece un pulgar para indicar un «me
gusta». Esta empresa, como otras, se nutre de datos: por eso pagó 19.000
millones de dólares por Whatsapp en 2014. Esa aplicación, que apenas re-
caudaba dinero por el cobro de un dólar al año a algunos usuarios, valía
más que multinacionales consolidadas. Whatsapp era también una forma
de llegar a los celulares, es decir, la puerta de entrada a la intimidad de
una porción cada vez más grande de la población mundial. En 2015, el núme-
ro de líneas móviles igualó el de los habitantes del planeta (aunque distri-
buidas de forma desigual, claro). Quien pueda acceder a esa información
podrá establecer patrones y correlaciones y tener el detalle de informa-
ción social en tiempo real, recortada según la necesidad de quien la use.
Obviamente, no es que haya alguien mirando las conversaciones (eso se
llama espionaje), sino que programas informáticos pueden sondear de qué
habla la gente, en qué horarios, con quiénes, desde dónde, etc.
Gracias a esa monumental cantidad de datos a los que accede y a la capa-
cidad de procesarlos en tiempo real, Facebook puede ser considerada co-
mo una empresa de publicidad con sondeos y encuestas permanentes que
le permiten elaborar mensajes individualizados. El negocio es aún mejor si
se considera que son los mismos clientes potenciales de esas publicidades
quienes, además, producen los contenidos que mantendrán a otros clien-
tes interesados. Allí donde otros medios de comunicación deben pagar a
productores, locutores, periodistas, fotógrafos, camarógrafos, etc. para
producir los contenidos que mantendrán activo el flujo de visitantes, las re-
des sociales crean una plataforma para que supuestos usuarios hagan el
trabajo.
Otra diferencia fundamental con los medios tradicionales es que no hay
una persona decidiendo a quién ofrecerle pañales o whisky, sino que esa
tarea la hará un algoritmo, es decir, un programa que al ser alimentado
con big data «aprenderá» qué ofrecer a cada quien según sus intereses.
Estos algoritmos, además, son capaces de aprender por prueba y error pa-
ra mejorar su performance: si a mujeres de cierta localidad, edad, nivel
cultural, etc. les interesó tal producto, probablemente a otras con el mismo
perfil también les interese.
Facebook es un ejemplo del potencial del big data, pero existen muchos
más. Google Maps y otras aplicaciones pueden decirnos qué camino tomar
para evitar atascos gracias a quienes mantienen el gps de sus celulares
encendidos: con algoritmos que aprenden de lo que ocurrió otras veces,
pueden predecir qué ocurrirá ahora. Si se equivoca, el algoritmo se reajus-
ta para calcular mejor la próxima vez. Las tarjetas de crédito cruzan los da-
tos de sus clientes con la información meteorológica para conocer mejor el
comportamiento de los consumidores en los días de lluvia: ¿será preferible
lanzar cierto tipo de ofertas cuando llueve? El big data puede tener tam-
bién otros usos sociales: por ejemplo, hacer periodismo de datos y ordenar
grandes cantidades de información (como ocurrió con los «Panamá Pa-
pers») para permitir detectar casos relevantes o presentarlos de forma
más fácilmente comprensible. Los ejemplos de nuevos usos del big data se
multiplican cotidianamente.Como explicaba en una entrevista el doctor en
Comunicación y especialista en estas temáticas Martin Hilbert,
La disponibilidad de big data convirtió a las ciencias sociales, de las que
siempre se burlaron, en las ciencias más ricas en datos. (...) Nosotros nun-
ca tuvimos datos, y por eso nunca funcionaban las políticas públicas. Y de
la noche a la mañana, 95% de los sujetos que estudiamos pasó a tener un
sensor de sí mismo 24 horas al día. Los biólogos siempre dijeron «eso no es
ciencia, no tienen datos». Pero ellos no saben dónde están las ballenas en
el mar. Hoy nosotros sí sabemos dónde están las personas, pero también
sabemos qué compran, qué comen, cuándo duermen, cuáles son sus ami-
5
gos, sus ideas políticas, su vida social.
A través del big data, los grandes números permiten prever comportamien-
tos estadísticamente probables y, sobre todo, aprender de las experiencias
anteriores. La información fluye, surgen nuevas formas de procesarla y, a
partir de ahí, de lograr un conocimiento sumamente detallado de la pobla-
ción, desde los estados de ánimo hasta los consumos, pasando por los hábi-
tos para moverse o quiénes son sus amigos. Quien accede a esa informa-
ción y tiene la capacidad de procesarla posee una poderosa herramienta
para influir sobre la población.
¿Qué pasa con este conocimiento cuando se lo lleva al terreno de la políti-
ca? La pregunta no es totalmente nueva: de la misma manera que durante
décadas los empresarios encargaron encuestas para vender, por ejemplo,
champú, los políticos comenzaron a pedir a sus asesores que midieran el
pulso de la sociedad. Con esa información supuestamente representativa,
parcial y muchas veces poco confiable, los candidatos debían tomar regis-
tro de quiénes podían ser sus potenciales votantes y diseñar sus mensajes
con cuidado para seducir, pero sin espantar. ¿Cómo resolver esta tensión?
La respuesta la da la experiencia con las redes sociales.
El producto político
En tiempos de redes, algunos candidatos comprendieron que las encuestas
atrasaban y que, tal como hacen los analistas del marketing de productos,
debían afinar y mejorar su información. En una sociedad segmentada en
una miríada de identidades (vegetarianos, rockers, hippies, feministas, ca-
tólicos, surfers, padrazos, deportistas, hipsters, hombres de negocios, paci-
fistas, homosexuales, inclasificables, etc.) y sus numerosos matices y zonas
de cruces (el mundo lgbt es un buen ejemplo), resulta casi imposible formu-
lar mensajes capaces de seducir a la mitad de la población. ¿Cómo hacer?
La respuesta surge de las redes sociales. El primero en aprovechar en es-
cala este recurso fue Barack Obama, candidato en 2008 a presidente de Es-
tados Unidos, uno de los países donde el uso de las herramientas digitales
en la vida cotidiana está más desarrollado. Allí también tienen la particulari-
dad de que no solo es optativo votar sino que además es necesario empa-
dronarse previamente. Lo que hizo el equipo de Obama fue clasificar a los
usuarios de las redes sociales de acuerdo con las posiciones políticas que
revelaban sus amigos para reconocer a 3,5 millones de potenciales votan-
tes demócratas no empadronados. Luego estudió sus intereses específicos
y «customizó» las propuestas que vería cada uno en Facebook: leyes de gé-
nero para las feministas, propuestas verdes para los ecologistas, retirada
de Afganistán para los pacifistas y así. El nivel de precisión de esta campa-
ña resultó muy superior al de los típicos afiches con candidatos sonrientes
que no pueden decir nada por miedo de espantar a quien piense distinto.
En lugar de un catch all, lo que hizo Obama fue más bien un catch each (to-
mar a cada uno).
Finalmente, el equipo de Obama determinó que al menos un millón de sus
targets se había registrado para votar. Aunque es imposible conocer la
efectividad exacta de la campaña digital o saber quiénes votaron finalmen-
te, se puede ser generoso en las presunciones. Obama ganó por menos de
cinco millones de votos en todo el país y en estados como Florida, clave pa-
ra la victoria, la diferencia con su oponente fue de menos de 70.000. El de-
mócrata ganó las elecciones apoyado por algoritmos que señalaron zonas
sensibles de sus potenciales votantes e indicaron con qué sería mejor sedu-
cirlos.
Donald Trump aprendió la lección para la campaña de 2016: también mandó
a analizar perfiles, pero lo hizo con todos los ciudadanos en condiciones de
votar. La escala del trabajo era muy superior a cualquier antecedente. Pa-
ra ese trabajo, Trump contrató a Cambridge Analytica, una empresa britá-
nica que había asesorado a Ted Cruz hasta su renuncia y también a la cam-
paña a favor del Brexit. Con información aportada por Facebook, Twitter,
pero también tarjetas de crédito, supermercados y bases de datos de todo
tipo, se construyeron perfiles estadísticamente confiables de cada ciuda-
dano para detectar a quienes podrían llegar a votar por el candidato. Uno
de los hallazgos de esta metodología fue el descubrimiento de la veta de
potenciales votantes del «cinturón de óxido» de Michigan o Wisconsin. Vale
la pena aclararlo: el cinturón de óxido no es una creación del big data y po-
siblemente algún político con olfato podría haber visto en este sector de
ex-trabajadores fabriles, actuales desocupados y expelidos del sueño ame-
ricano a potenciales votantes de Trump. Lo que sí permitió el uso de big da-
ta fue detectar con precisión quiénes respondían a ese perfil, su nivel de
frustración con el sistema, el rechazo que les generaban los inmigrantes o
la decepción con la clase dirigente de los últimos años, que no parecía te-
nerlos en cuenta. En realidad, en estos casos, las hipótesis acerca de los
porqués no son lo más relevante: lo importante era encontrar mensajes
que interpelaran a los distintos perfiles para generar likes, compartir, re-
tuits o lo que fuera posible. ¿Cómo lograrlo? Hilbert lo explicaba con un
ejemplo:
si Trump dice «estoy por el derecho a tener armas», algunos reciben esa
frase con la imagen de un criminal que entra a una casa, porque es gente
más miedosa, y otros que son más patriotas la reciben con la imagen de un
tipo que va a cazar con su hijo. Es la misma frase de Trump y ahí tienes dos
versiones, pero aquí crearon 175.000. Claro, te lavan el cerebro. No tiene
nada que ver con democracia. Es populismo puro, te dicen exactamente lo
que quieres escuchar.
El poder de la comunicación personalizada y guiada por algoritmos en una
sociedad donde buena parte de la vida pasa por las redes es enorme:
Whatsapp, Facebook, buscadores como Google, correo electrónico, mapas,
tuits, Instagram, Uber, compras electrónicas, celulares omnipresentes, etc.
permiten monitorear permanentemente a la sociedad, y esa información es
tremendamente valiosa para aquel que acceda a ella y pueda procesarla.
Trump y su equipo encontraron la forma de usar ese poder y asestaron un
golpe tan brutal como inesperado a la autoestima de los medios de comuni-
cación masiva estadounidenses, que de forma mayoritaria se opusieron al
candidato republicano. El rechazo fue tan fuerte que Trump los describió
6
como «un partido de oposición» . Las corporaciones 2.0 también rechaza-
ron la candidatura del empresario pero sufrieron, además de la derrota, la
culpa de ser ellos mismos una fuente inagotable de información clave para
la campaña de ese candidato. Incluso parte del periodismo y algunos secto-
res intelectuales los acusaron de ser culpables de la derrota debido a que
a través de las redes circularon profusas mentiras destinadas a movilizar
a los votantes republicanos. Fue tal la envergadura de las noticias falsas
que la campaña de Trump se enmarcó en la lógica de la «política de la pos-
7
verdad» , un término acuñado para describir una realidad marcada por lo
que es verosímil para algunos aunque los hechos concretos lo contradigan.
Este tipo de campañas digitales es posible en países como eeuu donde las
redes sociales son la segunda fuente de noticias: según el Pew Research
Center, 38% de la población se informa en primer lugar a través de estas
8
redes , solo por detrás de la televisión. Esto permite una manipulación im-
portante de la comunicación a la que accede el público gracias a algorit-
mos y mensajes pagos dirigidos específicamente a los usuarios: si la reali-
dad es sobre todo percibida a través de las redes y los mensajes que ve-
mos a través de ellas son filtrados por algoritmos, dos vecinos pueden vivir
en realidades totalmente distintas. Es que los algoritmos simplemente cum-
plen su tarea de mantener interesado a quien mira la pantalla y lo hacen
sobre la base de lo que le interesó antes. Así el proceso de fragmentación
ya iniciado hace tiempo se profundiza cada vez más y la sociedad misma se
transforma en una acumulación de compartimentos estancos, donde el diá-
logo por fuera de ellos se vuelve un fenómeno cada vez más inusual. En
una realidad construida para cada persona con un horizonte de verosimili-
tud individualizado, las dificultades para un proyecto común son enormes.
Allá vamos
Como señalamos más arriba, el caso de la sociedad hipertecnologizada de
eeuu puede no ser representativo de lo que ocurre en América Latina, pe-
ro todo indica que hacia allá vamos. Para volver al caso de Argentina, exis-
ten cada vez más evidencias de que los rumores acerca de un equipo de
comunicación digital vinculado al gobierno nacional y especializado en
«construir realidad» en las redes, sobre todo Twitter, realmente existe: re-
pentinos trending topics, perfiles de Twitter con pocos seguidores que insis-
ten en horario laboral sobre un tema y con un hashtag particular, mientras
retuitean y son retuiteados por otros perfiles de características similares.
Uno de los estudios más exhaustivos y detallados en ese sentido fue publi-
9
cado por el sitio El Gato y la Caja . Allí se describe una investigación basada
en 156.000 interacciones entre 29.000 usuarios de Twitter entre el 10 y el 21 de
diciembre de 2016 que incluyeran referencias al Consejo Nacional de Inves-
tigaciones Científicas y Técnicas (Conicet), institución científica con la que
el gobierno argentino mantenía una disputa por la reducción de su presu-
puesto. Los tuits considerados contrarios partían en cantidad y de un nú-
mero relativamente bajo de cuentas que funcionaban principalmente en
días de semana y en horarios laborables. Los tuits con referencias positi-
vas hacia los científicos, por su parte, provenían de una red más descen-
tralizada y dispersa, también en el plano temporal. La conclusión más pro-
bable es que el ataque hacia los científicos argentinos fue orquestado in-
tencionalmente para «crear realidad», es decir, poner en circulación sufi-
cientes mensajes como para generar la idea de que una porción significati-
va de la población criticaba la resistencia de los científicos a los recortes.
Por supuesto, el peso de este tipo de campañas es relativo y afecta a aque-
llos que se informan principalmente mediante las redes, pero es uno de los
primeros síntomas del peso creciente de las redes sociales en la construc-
ción del imaginario social y la búsqueda de controlar también estos espa-
cios. En este caso, las redes sociales no se utilizaron solo para medir el pul-
so de la sociedad, sino también para operar sobre ella y favorecer ciertas
lecturas. Es difícil saber hasta qué punto lo logran, pero seguramente sus
acciones no son inocuas.
¿Qué pasará con la política si los datos comprueban que a la población no
le interesa la política? pro en Argentina ha sido muy hábil para explotar in-
tereses específicos y fomentarlos. Durán Barba comenta con frecuencia
los resultados de los focus groups, reuniones con ciudadanos representati-
vos de ciertos sectores de la población con los que le toma el pulso a la so-
ciedad y detecta sus intereses. Ese tipo de información permitiría explicar
que mientras se recortan programas en ciencia, educación, salud o conten-
ción social, se hacen campañas para renovar las plazas permanentemente
o se utilizan recursos comunicacionales que parecen tangenciales. Un
ejemplo es la insistencia de pro con las mascotas: el mismo Macri publicó fo-
10
tos de su perro, Balcarce , sentado en el sillón presidencial a poco de ga-
nar las elecciones. En febrero de 2017 se autorizó a las mascotas a viajar en
el transporte subterráneo de la ciudad de Buenos Aires. Ya durante la ges-
tión de Macri como jefe de gobierno, la página web del gobierno de la ciu-
dad incorporó una sección dedicada a los animales domésticos. De la mis-
ma manera se puede interpelar a cada sector de la sociedad con una medi-
da específica que en otro momento habría parecido una desviación respec-
to de los pilares sobre los que se construyen la política y la gestión tradicio-
nales.El poder de este tipo de comunicación puede tener patas cortas: por
debajo de la comunicación existe una realidad sobre la que se pueden esta-
blecer relatos, pero que resulta muy peligroso negar. La experiencia del
pasado reciente latinoamericano indica que cuando no existen canales de-
mocráticos para gestionar las necesidades reales de la población se acu-
mula presión, y que esta puede desembocar en violencia y muerte. Por otro
lado, la política sigue siendo un aglutinante poderoso incluso desde la di-
versidad, como demostraron las multitudinarias manifestaciones en apoyo
a los docentes o por el aniversario del golpe de Estado en Argentina en el
mes de marzo de este año, mientras se escribía esta nota. Pueden no ser
suficientes en sí mismas para ganar una elección, pero distan de ser irrele-
vantes. Por el lado gubernamental, como señaló el analista de opinión públi-
ca Rosendo Fraga, la marcha «en defensa de la democracia», organizada
por simpatizantes del gobierno, repuso al macrismo en la calle, un espacio
11
político que suele negarla .
Simplificando la discusión: si realmente hay gente a la que le interesan más
las mascotas que la política, ¿está mal tomar medidas que los interpelen?
¿Debería un buen político buscar que la población se interese, en cambio,
por la situación del país o por entender una política económica? ¿Podría lo-
grarlo y ganar elecciones? La respuesta no es fácil, pero puede ser suicida
para un político no planteársela siquiera.

¿Democracia sin políticos? La engañosa fe en los algoritmos


09.05.2018
Por Juan Pablo Luna y Cristian Pérez Muñoz
Temas: Democracia, Inteligencia Artificial, Política, Tecnología
Índice
INICIO
II
III
REFERENCIAS:

El físico César Hidalgo propuso reemplazar a los políticos por inteligencia


artificial. Para los que están hartos de la corrupción y las promesas electo-
rales con letra chica es un avance. Pero, ¿mejoraría nuestra democracia?
J.P. Luna y C. Pérez, del Instituto Milenio de Investigación en Datos, piensan
que la inteligencia artificial puede ayudar, pero no apagará los incendios
que acosan al sistema, como la falta de participación y legitimidad. Remar-
can que cuando potentes algoritmos influyen en el voto de los usuarios de
Facebook, manipulando sus miedos, como mostró lo hecho por Cambridge
Analytica, el problema no es sólo cómo hacer que los políticos acaten la vo-
luntad popular, sino entender cómo se forma la opinión de los ciudadanos y
qué poderes la manipulan.
Franchise (Sufragio Universal) es el título de una historia corta del escritor
ruso, nacionalizado estadounidense, Isaac Asimov. Este cuento de 1955 na-
rra la historia de Norman Muller, un ciudadano del Estado de Indiana, quien
es seleccionado por una supercomputadora llamada Multivac para ser el
único votante de las elecciones de 2008. Entre otras cosas, Multivac es ca-
paz de elegir y decidir la nómina de gobernadores y legisladores a distintos
niveles de gobierno mediante el análisis de las opiniones, ideas y reaccio-
nes de un solo ciudadano. Ese ciudadano es el representante ideal de los
habitantes del país. Esta nueva forma de elegir gobernantes –nos cuenta
Asimov—promete eliminar los gastos en campañas políticas y las competi-
ciones partidarias. Pero sobre todo, permite optimizar la representación de
los intereses y posiciones de los ciudadanos. Todo ello gracias al trabajo de
una inteligencia artificial que es capaz de analizar las preferencias de to-
dos los ciudadanos y elegir el votante más representativo de ese conjunto
de billones de preferencias y factores relevantes.
La persona elegida no es la más inteligente, la más informada en política, la
más afortunada, ni la más fuerte. Nada de eso. Simplemente se trata de la
persona más representativa. Una vez elegido, ese votante es interrogado
por Multivac para ajustar más la información recabada de toda la ciudada-
nía y, por fin, decidir los futuros gobernantes.
La historia de Asimov transcurre en 2008. Y si bien todavía no tenemos una
Multivac decidiendo elecciones, no es desacertado decir que la política está
siendo asediada por el uso e irrupción de distintas formas de inteligencia
artificial. Por este motivo, no es sorprendente que muchos de los temas y
problemáticas que surgen en esa vieja historia de Asimov se estén discu-
tiendo en este minuto.
Los políticos corruptos tienen una ventaja ante el algoritmo. Uno los puede
ver, los puede controlar, y eventualmente los puede botar con el voto.
¿Qué podemos hacer, en cambio, cuando sintamos que un algoritmo mági-
co no nos representa?”.
Las propuestas de debate van desde la adopción de formas de inteligencia
artificial para influir en el comportamiento de los electores hasta su uso pa-
ra crear gobernadores y legisladores no humanos. Por ejemplo, quienes de-
fienden esta última idea sostienen que el uso de inteligencia artificial nos
puede permitir minimizar distintos males de la política tal como la conoce-
mos (por ejemplo, corrupción, favoritismos –muchas veces inducidos por el
lobby y el financiamiento electoral, crisis de representación política). Un
agente de inteligencia artificial nos puede ayudar a tomar mejores decisio-
nes a nivel colectivo (diseñando y legislando mejores leyes y políticas) y ge-
nerando una representación más robusta de las preferencias e intereses
de los ciudadanos. Pensando en la democracia chilena, César Hidalgo nos
invita a pensar:
“Imagínate un futuro en el cual cada persona tiene un senador personali-
zado, pero ese senador personalizado no es una persona, es un software,
un agente de inteligencia artificial, que toma datos sobre tus hábitos de lec-
tura, sobre tus interacciones en redes sociales, tu test de personalidad, in-
formación que tú le provees a esa persona virtual para que te represente
cada vez que una ley o una legislación se va a votar“.
La propuesta no es única en el mundo. En Nueva Zelanda, por ejemplo, ya
existe SAM, un político virtual “motivado por el deseo de cerrar la brecha
entre lo que los políticos quieren y lo que los políticos prometen, así como
sobre lo que los políticos finalmente consiguen”. Los impulsores de SAM
creen que este agente de inteligencia artificial puede actuar como repre-
sentante de todos los neozelandeses y generar mejores políticas públicas
que los políticos de carne y hueso. A través del uso de redes sociales, SAM
analiza las opiniones de los neozelandeses (es decir, de aquellos que se
manifiestan en redes sociales) y el impacto de los posibles cursos de ac-
ción. Sus creadores esperan que SAM pueda competir en las elecciones de
2020. Algo similar ya ocurre en Japón con un robot llamado Michihito Matsu-
da. El mismo se encuentra compitiendo por las elecciones de alcalde de la
ciudad japonesa de Tama.

II
Propuestas como la de Hidalgo se suman a una larga lista de innovaciones
institucionales introducidas en los últimos años con el fin de reducir los défi-
cits de legitimidad y enfrentar la crisis de representación política –y de los
partidos políticos como agente de representación– que aqueja a las socie-
dades contemporáneas. No obstante, de momento, estas iniciativas no han
generado los resultados esperados. Irónicamente, Brasil, siendo uno de los
casos más prolíficos respecto a la implementación de innovaciones demo-
cráticas (véase, por ejemplo), atraviesa hoy una crisis institucional profun-
da y sin visos de solución.
A diferencia de las iniciativas institucionales aplicadas hasta ahora, la intro-
ducción de agentes de inteligencia artificial llega con la promesa de supe-
rar los distintos déficits anotados arriba. Primero, los agentes basados en
inteligencia artificial serían representantes más fidedignos de las preferen-
cias de la ciudadanía, teniendo una capacidad única para recabar y anali-
zar datos sobre qué preferimos sobre distintos temas del quehacer políti-
co. Segundo, estas entidades – a diferencia de los representantes de car-
ne y hueso– serían incorruptibles. En tercer lugar, estas entidades serían
capaces de tomar decisiones más inteligentes que los políticos actuales.
Después de todo, tendrían acceso a inmensos niveles de información y una
capacidad de procesamiento inasible para cualquier ser humano. Finalmen-
te, la introducción de estos agentes artificiales puede combinarse con
otras propuestas de modificación de los sistemas de votación y delegación.
No obstante, la promesa tiene po-
ca probabilidad de concretarse en un futuro cercano. Desde un punto de
vista técnico, los agentes de inteligencia artificial solo serían capaces de
acceder a datos incorporados en nuestra “huella digital”. Y dicha huella no
solo posee múltiples sesgos, sino que también incrementa la polarización y
el poder de aquellos con mayor capacidad de influir en la sociedad
(Garimella, De Francisci y otros). Por otra parte, los algoritmos no son inco-
rruptibles. No solo sabemos que el software incorpora el sesgo de quienes
lo programan (¿serán programadores de izquierda, de derecha, emplea-
dos de Facebook o académicos de renombre?), sino también, que aprender
a partir de los datos amplifica y multiplica el sesgo de los datos que se usan
para entrenar modelos (Zhao, Wang y otros). Asimismo, las técnicas que
mejor funcionan en la actualidad, denominadas de deep learning, son ex-
tremadamente vulnerables a ataques maliciosos que actúan corrompiendo
los datos de entrenamiento de modelos (Papernot, McDaniel y otros). Y si
esto sucede, a un algoritmo de deep learning simplemente no podremos in-
terrogarlo respecto a las razones que explican su decisión.
La introducción de agentes artificiales en la política genera una serie de in-
terrogantes de naturaleza práctica pero fundamentalmente normativa. Es-
to es, preguntas no solo sobre la operativa de estos agentes sino también
sobre la deseabilidad de su utilización. Por citar algunos ejemplos, resulta
evidente cuestionarnos sobre quién recaerá la responsabilidad por las deci-
siones que tomen estos agentes de inteligencia artificial. Del mismo modo,
debemos decidir cómo proceder cuando estos agentes tomen malas deci-
siones, o bien delimitar el tipo de información que estas entidades utiliza-
rán para conocer y agregar nuestras preferencias. Por ejemplo, es posible
que el éxito de este senador virtual dependa de intromisiones a nuestra pri-
vacidad que podemos considerar como inaceptables.
Finalmente, la propuesta también se topa con una discusión previa relacio-
nada a entender la democracia simplemente como un mecanismo para
agregar preferencias y no como un sistema que funciona para cambiarlas
y adaptarlas. Defensores de modelos participativos y deliberativos de de-
mocracia -por citar solo dos casos evidentes- entienden que la política de-
mocrática no puede ser simplemente entendida como la sumatoria de nues-
tras preferencias, sino que la misma necesita del intercambio de argumen-
tos que nos lleven a cambiar nuestras preferencias.
Aún cuando técnicamente resulten cada vez más viables, las propuestas ba-
sadas en la incorporación de mecanismos de representación vía inteligencia
artificial se quedan cortas al momento de generar más participación, más
legitimidad, y mayor representatividad. Además, este tipo de propuesta se
fundamenta a partir de problemas de diagnóstico serios respecto a la na-
turaleza de la representación democrática en sociedades complejas.
Las propuestas basadas en la incorporación de mecanismos de represen-
tación vía inteligencia artificial se quedan cortas al momento de generar
más participación, más legitimidad, y mayor representatividad”.
La introducción de inteligencia artificial en la política refleja la ilusión de so-
lucionar problemas políticos mediante el uso de más técnica. Creemos, no
obstante, que discutir este tipo de iniciativas es crucial, no solo por la promi-
nencia que las mismas están adquiriendo en estos días, sino fundamental-
mente porque reflexionar sobre sus limitaciones y virtudes es un ejercicio
que puede encaminarnos hacia diagnósticos más certeros sobre la compleji-
dad del problema que tenemos por delante.
Tal vez dicho diagnóstico también nos oriente hacia la búsqueda de solucio-
nes más razonables. A cuenta de un debate más profundo, en lo que resta
de esta columna nos detendremos en dos puntos del debate. Primero, dis-
cutiremos los desafíos que plantean la formación y agregación de prefe-
rencias sobre cursos de acción posibles (políticas públicas) en la sociedad.
En segundo lugar, abordaremos el problema de la legitimidad social (del al-
goritmo), el que constituye otro desafío fundamental que deberá en-
frentar la implementación de propuestas de este tipo.

III
Hasta hace poco el debate de representación política se dividía entre aque-
llos que creían que lo mejor era apostar por formas de representación sus-
tantiva (en que los representantes posean ideas similares a las de sus vo-
tantes, y que esas ideas mandaten su acción política) versus quienes de-
fienden formas de representación descriptiva (en las que se espera que los
representantes posean características sociodemográficas similares a las
de sus representados).
La posibilidad de tener una forma de inteligencia artificial como represen-
tante supone una nueva forma de representación. En este caso, lo que im-
porta no son las ideas, ni las características del representante, sino la ca-
pacidad del algoritmo para agregar y analizar las preferencias de todos
nosotros y a partir de ahí generar una suerte de representante de la mayo-
ría. Concebir a la democracia (o a un régimen político posdemocrático) solo
como un sistema de votación en que se representen preferencias dadas,
constituye el primer supuesto errado de propuestas basadas en la incorpo-
ración de inteligencia artificial al mecanismo de representación.
Aunque la agregación y representación fidedigna de las preferencias de la
mayoría (o de cualquier otro criterio para definir una disyuntiva social vía
la votación) logre viabilidad técnica en el futuro, el problema fundamental
que hoy enfrentan las democracias contemporáneas no está en la agrega-
ción de preferencias, sino que radica en el proceso de formación de esas
preferencias.
Lo que subyace al escándalo de Facebook y Cambridge Analytica tiene rela-
ción con los sesgos que posee la formación de preferencias en una esfera
pública en que las interacciones en redes sociales han aumentado exponen-
cialmente. En dicho contexto, las fake news, los bots, los filtros-burbuja, y
los algoritmos de optimización de contenidos resultan clave en el proceso
de formación de preferencias de los ciudadanos contemporáneos. El pro-
ceso de formación de preferencias es, todavía, insondable.

(Fuente: propublica.org)
Aunque las ciencias de la comunicación, la sociología, y la ciencia política
poseen un corpus teórico y empírico razonable respecto a la formación de
preferencias en sociedades modernas, dado el carácter segmentado, alta-
mente atomizado, y tecnológicamente mediado del proceso de socialización
e interacción política actual, dichos modelos solo pueden proveer algunas hi-
pótesis gruesas. Mientras tanto, la investigación en neurociencia, aunque
aún incipiente, tiene probablemente más que decirnos respecto a cómo los
ciudadanos constituyen “su” opinión sobre un tema determinado, mientras
navegan sus redes sociales personales. Al mismo tiempo, vivimos en socie-
dades en que distintos estratos y segmentos sociales poseen niveles de ex-
posición muy diferentes a las interacciones en redes sociales.
En suma, mientras el proceso de formación de preferencias de los ciudada-
nos nos resulta aún oscuro, sí sabemos que dicho proceso no es neutro ni se
encuentra exento de ser fuertemente influenciado por quienes poseen inte-
reses (y recursos) que defender. También sabemos que los procesos de
formación de preferencias están social y económicamente segmentados.
Lograr una esfera pública más horizontal que evite reproducir los sesgos
de la sociedad moderna constituye una de las grandes promesas incumpli-
das de la “revolución de las redes sociales”. Montar un sistema de votación
y representación sobre un sistema en que la formación de preferencias po-
see los sesgos que hoy observamos en redes sociales, es poner el carro de-
lante de los bueyes.
Agregar mecánicamente preferencias, más allá del sistema de votación se-
leccionado (mayoritario, calificado, cuadrático, etc.) puede terminar muy
mal. ¿Cómo legislaría el representante de inteligencia artificial cuando se
discute la pena de muerte en un contexto particular como cuando suceden,
por ejemplo, oleadas de crímenes de alto impacto público? La política sirve
para modificar preferencias individuales a favor de bienes e instituciones
que son socialmente superiores, no solo para representar preferencias in-
dividuales. La institucionalidad política también cumple un rol de estabiliza-
ción, en tanto opera con criterios generales y alarga los horizontes tempo-
rales de la política pública (gobernar al pulso de preferencias fuertemente
influenciadas por la noticia del momento acorta dichos horizontes).
Parte del problema de las democracias actuales radica en que los líderes
políticos han perdido capacidad de liderar a la opinión pública, constituyén-
dose en seguidores ansiosos de trending topics y encuestas de popularidad.
Si los políticos han perdido la capacidad de liderazgo en la formación y alte-
ración de preferencias, tal vez la inteligencia artificial pueda venir al res-
cate. Las innovaciones recientes respecto al procesamiento de lenguaje
natural, hacen posible que contemos ya con textos completamente redac-
tados por máquinas. Dichos textos “artificiales”, creados en base a una sín-
tesis inteligente del inmenso corpus de conocimiento hoy disponible en
nuestras bases de datos, podrían intentar persuadirnos y encaminarnos
hacia preferencias socialmente deseables.
En Nueva Zelanda ya existe un político virtual (SAM) que busca cerrar la
brecha entre lo que los políticos quieren, prometen y finalmente consi-
guen”.
El procesamiento de lenguaje natural podría también solucionar un paso
muy relevante que las propuestas actuales también parecen ignorar:
¿quién formula las alternativas a ser votadas? Sabemos que en las demo-
cracias contemporáneas el poder de agenda, y la capacidad de formatear
las alternativas, muchas veces es tan o más importante que el peso de los
votos. ¿Será posible en el futuro contar con algoritmos que escriban nues-
tros proyectos de ley, reglamentos, normativas, e iniciativas de política pú-
blica? Sí, seguramente será posible. Tal vez aquí también radique la fórmu-
la para construir una esfera pública menos sesgada y más virtuosa.
Lamentablemente, esto tampoco alcanza. Las iniciativas actuales se sus-
tentan también en el propósito de sustituir por algoritmos a políticos pasi-
bles de ser corrompidos por intereses particulares. Según sus entusiastas,
los algoritmos, además de asegurar (una presunta) neutralidad, trabaja-
rán para representarnos en un régimen de 24/7. El problema es que, al me-
nos por el momento, los algoritmos de inteligencia artificial con que conta-
mos poseen dos limitaciones que derivan en un problema político funda-
mental: la falta de credibilidad y legitimidad social.
Aunque operan sobre un corpus de datos inmenso y en constante expan-
sión (lo que usualmente se llama big data) los algoritmos de inteligencia ar-
tificial con que hoy contamos son inductivos. Esto supone que sus procesos
de optimización dependen de la información socialmente disponible (contar
con más información introduce además dilemas éticos fundamentales), por
lo que más allá del volumen de los datos sobre el que corre un algoritmo, la
información siempre constituye una muestra parcial (y potencialmente ses-
gada) de datos.
Piense, por ejemplo, en aplicaciones basadas en interacciones de usuarios
en Facebook. ¿Qué sabemos de aquellos ciudadanos que no tienen Face-
book y no quieren tenerlo? O ¿a quién sobre-representa y sub-representa
la actividad de Facebook hoy, luego del cierre (o creciente inactividad) de
cuentas tras el escándalo de Cambridge Analytica? ¿Podemos forzar a
nuestros conciudadanos a revelar sus preferencias para ser incorporados
en el proceso político?
Por otro lado, quienes trabajan en el área de inteligencia artificial confie-
san que aunque eficientes, los algoritmos de optimización, agregación y vi-
sualización de datos con que hoy contamos son esencialmente oscuros
(además de pasibles de múltiples sesgos mencionados arriba). Nadie sabe
muy bien, dada la increíble complejidad y masividad del cuerpo de datos,
cuáles son las reglas –más allá de parámetros básicos del modelo seleccio-
nado– a partir de las cuales el algoritmo genera un resultado. La intangibili-
dad del algoritmo es políticamente muy problemática.
Las propuestas basadas en la incorporación de mecanismos de represen-
tación vía inteligencia artificial se quedan cortas al momento de generar
más participación, más legitimidad, y mayor representatividad”.
Consideremos la controversia que generan los sistemas de voto electróni-
co. Aunque sus defensores y promotores argumenten las ventajas que tie-
ne el sistema, muchos de nosotros seguimos confiando en el voto con papel
y lápiz. Aún cuando el sistema de voto electrónico funcione limpiamente y
sea efectivamente blindado de toda posibilidad de hackeo (algo que toda-
vía hoy no puede asegurarse), siempre habrá quienes adhieran y se movili-
cen en torno a una teoría conspirativa. Y cuando esto pase, el sistema tra-
dicional, aunque arcaico, es más transparente que un sistema moderno pe-
ro oscuro. En definitiva, en política, no solo hay que serlo, sino también pa-
recerlo.
En este escenario, los políticos corruptos tienen una ventaja ante el algorit-
mo. Uno los puede ver, los puede controlar, y eventualmente los puede
botar con el voto. ¿Qué podemos hacer, en cambio, cuando sintamos que
un algoritmo mágico no nos representa? Como en la distopía de Aldous Hux-
ley, Un mundo feliz, podríamos confiar y acatar como autómatas. No obs-
tante, y por suerte, estamos rodeados de salvajes.
Un mundo feliz también connota un problema adicional de la propuesta de
un gobierno basado en inteligencia artificial. Aún si fuese legítimo, aún si
nos representara bien, no es claro que queramos participar de un régimen
así. Aún si las democracias actuales poseen fuertes déficits de participa-
ción, son sin duda más participativas (al menos en potencia) que un sistema
como el que nos promete la sustitución de la representación tradicional por
algoritmos de inteligencia artificial que nos indiquen lo que debemos hacer
sin poder explicarnos por qué debemos hacerlo.
* Los autores agradecen los comentarios y sugerencias de Jorge Pérez, Se-
bastián Valenzuela, Marcelo Arenas y Pablo Barceló.

También podría gustarte