Está en la página 1de 30

*

trimestral
N°1
DICIEMBRE
2016

ADENDA
F I L O S Ó F I C A

ORGANOLOGÍA
Reinventar el SABER | La DISRUPCIÓN |

Gubernamentalidad ALGORÍTMICA | Dejar vivir a

las MÁQUINAS | Sobre el MANIFIESTO CYBORG |

Escurridiza HARAWAY | La ANIMALIDAD por venir


Gubernamentalidad algorítmica y perspectivas de emancipación
¿La disparidad como condición de individuación a través de la relación? *

Antoinette Rouvroy y Thomas Berns**

En memoria de Alain Desrosières, y en


recuerdo de inspiradoras conversaciones. Nuestros
trabajos llevan la huella de sus sugerencias
preciosas.

Las cantidades masivas de datos (big data) ofrecen nuevas oportunidades para el
agregado, el análisis y la correlación de estadísticas. Nos alejamos de las perspectivas
estadísticas tradicionales, que tenían como referente al hombre medio. Ahora pareciera que
estas nuevas formas permiten “captar” la “realidad social” como tal, de forma inmanente y
directa, sin pasar por ninguna relación con “la media” o con lo “normal”. Dicho de otro
modo, estaríamos frente a una estadística independiente de la “norma”1. “Objetividad a-
normativa”, o incluso “tele-objetividad”2: el nuevo régimen de verdad digital se encarna en 88

una pluralidad de nuevos sistemas automáticos de modelización de lo “social”3, a distancia

*
Publicado en Réseaux, 2013/1, n°177, pp. 163-196. Traducción de Ernesto Feuerhake. Participó en la
revisión: Zeto Bórquez.
**
Antoinette Rouvroy es investigadora del FNRS en el Centre de Recherche en Information, droit et
Société (CRIDS), en la Universidad de Namur, Bélgica. Thomas Berns es profesor adjunto de la
Facultad de Filosofía y Ciencias Sociales de la Universidad Libre de Bruselas.
1
Recordemos que la teoría del hombre medio, desarrollada por Quételet, es una teoría de “física
social”, “normativa” tanto como “descriptiva”: “un individuo que resumiese en sí mismo, en una época
dada, todas las cualidades del hombre medio, representaría a la vez todo lo grande, lo bello y lo
bueno”, escribía Quételet. Añadía, eso sí: “semejante identidad no puede realizarse, y en general a
los hombres no les es dado parecerse a este tipo de perfección, o bien solo por algunos costados,
más o menos grandes”. Cf., Adolphe Quételet, Sur l’homme et le développement de ses facultés,
essai d’unephysique sociale, Bruxelles: Louis Hauman et Compe, 1836, pp. 289-290. Está claro que el
hombre medio, modélico e ideal, es diferente de los individuos, y que no representa a ninguno, en una
perspectiva que puede parecer radicalmente anti-nominalista.
2
Cf., Paul Virilio, « Banlieues en crise ; la grippe viaire », Urbanisme, n° 347, 2006, p. 4.
3
Ver a este respecto la presentación de IBM de los “Big Data in Action”: http://www-
01.ibm.com/software/data/bigdata/industry.html.
y en tiempo real, que acentúan la automatización de la contextualización y de la
personalización de las interacciones securitarias, sanitarias, administrativas, comerciales…1
Lo que aquí nos importará será evaluar en qué medida, y con qué consecuencias, estos usos
algorítmicos de la estadística, armados con su “tele-objetividad”, podrán permitirles
transformarse en un espejo de las normatividades más inmanentes2 a la sociedad,
antecediendo cualquier medida o cualquier relación con la norma3, cualquier convención,
cualquier evaluación, y que al mismo tiempo contribuyan a (re)producir y multiplicar esta
normatividad inmanente (a la vida misma, diría Canguilhem), aunque para hacerlo deban
oscurecer las normatividades sociales, enmudecerlas tanto como sea posible, puesto que
serían intraducibles a la forma digital.
Explicitemos esta independencia respecto de toda norma anterior. Cuando hablamos
del carácter a-normativo de la gubernamentalidad algorítmica, nuestra intención no es decir
que los dispositivos técnicos de la gubernamentalidad algorítmica surjan espontáneamente a
partir del mundo digitalizado, de manera autónoma e independiente de toda
intencionalidad humana, de todo “script” tecnológico. Tampoco queremos decir que las
aplicaciones en el campo de la seguridad, del marketing o del entretenimiento (para citar
solo éstos) que integran estos sistemas algorítmicos que aprenden automáticamente no
responderían a una demanda de los actores4. Nuestra crítica de la gubernamentalidad
89
1
El “smarter marketing”, o marketing individualizado gracias a la elaboración algorítmica de perfiles
de los consumidores, se presenta hoy como una revolución que transforma al marketing y a la
publicidad en “servicios” cuyo plusvalor se repartiría equitativamente entre empresas (mejores
performances de venta) y consumidores (los productos se proponen en función de sus perfiles
individuales).
2
Las normas inmanentes no se imponen desde el exterior, sino que surgen espontáneamente, podría
decirse, de la vida misma, del mundo mismo, independientemente de toda cualificación, de toda
evaluación y deliberación.
3
El datamining, articulado para la elaboración de perfiles, reconstruye, según una lógica de
correlación, los casos singulares desperdigados por las codificaciones, sin por ello referirlos a alguna
“norma” general, sino a un sistema de relaciones entre diversas medidas, irreductibles a todo
“promedio”. Sobre la distinción entre modelos de correlación y modelos de regresión, ver Alain
Desrosières, « Masses, Individus, Moyennes : La statistique sociale au XIXe siècle », Hermès, 2, 1988.
4
Contrariamente a lo que las metáforas orgánicas que en general utiliza IBM parecen dar a entender,
que muestran estos procesos como si fueran las próximas etapas “naturales” del desarrollo de las
tecnologías de la información, de la comunicación y del estudio de las redes computacionales, como
si fuesen elementos cuasi naturales de la evolución misma de la especie humana, hemos mostrado los
componentes ideológicos que acompañan la emergencia de la informática ubicua, de la inteligencia
ambiente o del automatic computing. Aunque, en la medida en que las máquinas se vuelven cada vez
más “autónomas” e “inteligentes”, siguen siendo por supuesto dependientes de su design inicial, de
algorítmica no desconoce ni invalida en ningún caso el punto de vista de los sciences and
technology studies. Permítasenos, sin embargo, posar la atención sobre una cosa diferente
de tales mecanismos de co-construcción de dispositivos tecnológicos y actores humanos. Lo
que decimos es simplemente que el datamining, articulado para la elaboración de perfiles
(independientemente de sus aplicaciones), reconstruye, según una lógica de correlación, los
casos singulares desperdigados por las codificaciones, pero no los remite a ninguna norma
general, sino únicamente a un sistema de relaciones, eminentemente evolutivas, entre
diversas medidas irreductibles a todo promedio. Esta emancipación respecto de toda forma
de promedio está estrechamente relacionada con el hecho de que estos dispositivos
aprenden de forma automática. Este aspecto puede ser considerado como esencial para la
acción normativa contemporánea.
Si adoptamos este punto de vista, podemos ir más allá y afirmar que la
gubernamentalidad algorítmica rompe con el origen convencional de la información
estadística tal como lo describía Alain Desrosières: “La información estadística no cae del
cielo como mero reflejo de una “realidad” anterior a ella. Muy por el contrario, puede
considerársela como la coronación, provisoria y frágil, de una serie de convenciones de
equivalencia entre seres que una multitud de fuerzas desordenadas busca continuamente
diferenciar y separar”1. Resultado de este origen convencional de la información estadística
es que “la tensión entre el hecho de que esta información pretende ser una referencia para el 90
debate, y que, no obstante, pueda siempre cuestionarse y volverse objeto del debate,
constituye una de las mayores dificultades para pensar las condiciones de posibilidad de un
espacio público”. Al no anclarse ya en ninguna convención, los usos particulares de la
estadística implicados en las operaciones de datamining permiten esquivar este escollo,
pero, como veremos más adelante, no por eso generan espacio público. Al contrario, so
pretexto de que “personalizarían” las ofertas de información, servicios y productos, en la era
de la gubernamentalidad algorítmica en verdad estamos frente a una colonización del
espacio público por parte de una esfera privada hipertrofiada. Llegamos a temer que los
nuevos modos de filtrar información desemboquen en formas de inmunización informática
que podrían alentar una radicalización de las opiniones y una desaparición de la

las intenciones, scripts o scenarii en función de los cuales se las imaginó. Desde su concepción (y sin
que importen las formas que adquieran en lo sucesivo), son portadoras de visiones de mundo,
expectativas y proyecciones conscientes o inconscientes de sus diseñadores. Cf., Antoinette Rouvroy,
“Technology, Virtuality and Utopia. Governmentality in an Age of Autonomic Computing”, en M.
Hildebrandt, A. Rouvroy, eds., Law, Human Agency and Autonomic Computing. Philosophers of Law
Meet Philosophers of Technology, London: Routledge, 2011.
1
Cf., Alain Desrosières, « Discuter l’indiscutable. Raison statistique et espace public », Raisons
pratiques, 3, 1992, p. 132
experiencia común1. Y no estamos mencionando siquiera la tendencia a la captación
sistemática de toda parcela disponible de atención humana para beneficio de intereses
privados (economía de la atención), ya que no para beneficio del debate democrático y del
interés general.
Comenzaremos describiendo el funcionamiento de la estadística decisional,
entendida de manera muy genérica como la extracción automatizada de informaciones
pertinentes a partir bases de datos masivas, cuya finalidad es prevenir o excluir (consumo,
riesgos, fidelización, definición de nuevas clientelas…). Para mostrarlo, debemos
descomponer esta práctica estadística en tres etapas, que en concreto se confunden (y en su
confusión radica su eficacia). En cada ocasión, mostraremos en qué sentido se evita a los
sujetos individuales, al punto de crear una especie de doble estadístico de los sujetos y de lo
“real”. En un segundo momento, luego de haber puesto en cuestión este doble estadístico, y
de haber indicado que en ese estado dificulta todo proceso de subjetivación, trataremos de
mostrar que el gobierno algorítmico desde entonces ya no tiene su foco en los individuos, en
los sujetos, sino en las relaciones. Sobre la base de esta constatación, mostraremos
finalmente en función de qué cosa es que las relaciones se transforman de esta forma, al
punto de que paradójicamente se las sustantiviza, y se las hace representar una extracción
del devenir, y por lo tanto un obstáculo para los procesos de individuación – antes que una
inscripción más fuerte en él. El devenir y los procesos de individuación exigen una 91
*
“disparidad” (disparation) , esto es, procesos de integración de disparidades o de
diferencias en un sistema coordenado. Pero antes que eso exigen la disparidad ( disparate),
una heterogeneidad de órdenes de magnitud, una multiplicidad de regímenes de existencia,
que la gubernamentalidad algorítmica no deja de ahogar, oprimiendo y clausurando lo real
(digitalizado) sobre sí mismo2.

1
Cf., Cass Sunstein, Republic 2.0, Princeton University Press, 2009.
*
El término francés “disparation”, designa una diferencia perceptiva a nivel orgánico (por ejemplo en
la visión de una cosa entre las dos retinas que dan lugar a una única imagen en el cerebro). Como se
indica en seguida el término es utilizado por Simondon. Optamos por traducir “disparidad”,
apuntando el matiz técnico entre paréntesis. N. de T.
2
“Gilbert Simondon mostraba […] que la individuación supone primero que nada un estado
metaestable, es decir la existencia de una “disparidad” ( disparation), como al menos dos órdenes de
magnitud o dos escalas de realidad heterogéneas, entre las cuales se reparten potenciales. Pero este
estado pre-individual no carece de singularidades: los puntos clave o singulares se definen por la
existencia y la repartición de los potenciales. Aparece así un campo “problemático” objetivo,
determinado por la distancia entre órdenes heterogéneos. La individuación surge como el acto de
solución de semejante problema, o, lo que quiere decir la misma cosa, como la actualización del
potencial y la puesta en comunicación de las disparidades”. Cf., Gilles Deleuze, Différence et
répétition, Paris: PUF, 1968, p. 317.
LOS TRES “MOMENTOS” DE LA GUBERNAMENTALIDAD ALGORÍTMICA

Recolección de cantidades masivas de datos y constitución de datawarehouses

El primer momento corresponde a la recolección y almacenamiento automatizado de


una enorme cantidad de datos no seleccionados, que es lo que podemos llamar la data-
vigilancia constitutiva de los big data. De hecho, los datos están disponibles en cantidades
masivas, y provienen de fuentes diversas. Los gobiernos los recolectan con fines de
seguridad, de control, de gestión de recursos, de optimización de gastos…; las empresas
privadas recogen una cantidad de datos con fines de marketing y publicidad, de
individualización de ofertas, de mejoramiento de la gestión de stocks y ofertas de servicio,
con la idea de incrementar su eficacia comercial y, por tanto, sus ganancias…; los científicos
coleccionan datos para adquirir y mejorar conocimientos…; los individuos comparten
desinteresadamente “sus” datos en las redes sociales, blogs, listas de correo… y todos estos
datos se conservan electrónicamente en “almacenes de datos” que tienen una capacidad de
almacenamiento virtualmente ilimitada, y que son potencialmente accesibles en cualquier
momento a partir de cualquier computador conectado a Internet, indiferentemente del lugar
del globo en que se encuentre. El hecho de que se haga todo lo posible para que estos
datos se recojan y conserven por defecto, que estén desligados de todo verdadero 92
conocimiento de las finalidades de la recolección de información, es decir de los usos a los
que habrán de dar lugar una vez que se los correlacione con otros datos, que consisten en
informaciones antes abandonadas que cedidas, huellas que quedan más que datos
transmitidos, pero sin por ello aparecer como “robados”, que aparezcan asimismo como
absolutamente cualesquiera y dispersos: todo esto da lugar a una evacuación, o por lo
menos a un velamiento de toda finalidad, a una minimización de la implicación del sujeto, y
por lo tanto a la posibilidad de que esta comunicación de informaciones sea consentida:
parece que nos estuviéramos moviendo más lejos que toda forma de intencionalidad.
De este modo, los datos parecen ser constitutivos de un conductismo digital
generalizado1, pues expresan ni más ni menos que las múltiples facetas de lo real,
desdoblándolo en su totalidad, pero de manera segmentada, sin que ningún sentido
colectivo, sino como desdoblamiento de lo real. Este parece ser el fenómeno más nuevo: se
trate de conservar la huella de una compra, de un desplazamiento físico, del uso de una
palabra o de una lengua, todos estos elementos se ven retrotraídos a su naturaleza más
bruta: se lo abstrae del contexto en que tuvo lugar, y al mismo tiempo se lo reduce a “dato”.

1
Cf., Antoinette Rouvroy, “The end(s) of critique: data-behaviourism vs. Due process”, en M.
Hildebrandt, K. de Vries, eds, Privacy, Due Process and the Computational Turn. Philosophers of Law
Meet Philosophers of Technology, London: Routledge, 2013.
Un dato ya no es más que una señal despojada de toda significación propia – y no cabe
duda de que a esto se debe el hecho de que toleremos dejar estar huellas, pero es también
lo que parece asegurar su pretensión a la más perfecta objetividad: heterogéneos como son,
poco intencionados, materiales y mínimamente subjetivos, ¡estos datos no tienen cómo
mentir! Por otra parte, hay que enfatizar aquí el hecho de que la misma evolución de las
capacidades tecnológicas refuerza esta suerte de objetividad del dato, que escapa a toda
subjetividad: nuestros softwares son capaces de reconocer emociones, de hacer con ellas
datos, de traducir a datos estadísticos los movimientos de un rostro o las coloraciones de una
piel, por ejemplo para medir el atractivo de un producto, el carácter (sub-) óptimo de la
disposición de las mercancías en un escaparate, así como el carácter sospechoso de algún
pasajero. Lo interesante es el hecho de que estos datos tienen como característica principal
el ser perfectamente anodinos, el hecho de poder mantenerse en el anonimato, y no ser
controlables. A este respecto, no evitamos abandonarlos, dado que no hacen sentido (al
menos mientras no se los correlacione), son harto menos intrusivos que una tarjeta de socio, y
parecen no mentir, es decir, ¡parecen perfectamente objetivos! Inofensivos y objetivos: estas
dos cualidades se deben a una suerte de evitamiento de la subjetividad.

Tratamiento de datos y producción de conocimiento


93
El segundo momento es el datamining propiamente tal, es decir el tratamiento
automatizado de estas cantidades masivas de datos, de manera tal de hacer emerger sutiles
correlaciones entre ellos. Nos parece fundamental enfatizar el hecho de que estamos frente
a una producción de saber (de saberes estadísticos constituidos por simples relaciones) a
partir de informaciones no seleccionadas, perfectamente heterogéneas. Es una producción
automatizada de saber, que solo exige un mínimo de intervención humana. Pero que, sobre
todo, puede prescindir de toda forma de hipótesis previa (a diferencia de la estadística
tradicional, que “verificaba” una hipótesis), es decir, de nuevo, que evita toda forma de
subjetividad. Lo propio de lo que se llama machine learning es, a fin de cuentas, que hace
posible directamente la producción de hipótesis a partir de los datos mismos. De este modo,
estamos nuevamente frente a la idea de un saber cuya objetividad podría parecer absoluta,
puesto que estaría alejada de toda intervención subjetiva (de toda formulación de hipótesis,
de toda selección entre lo que resulta pertinente y lo que es puro “ruido”, etc.). Pareciera
que las normas emergen a partir de lo real mismo. Estas normas “saberes”, sin embargo,
están constituidos “solo” por correlaciones1, lo que en sí mismo no constituye un problema,

1
Podemos citar aquí a Chris Anderson, redactor en jefe de Wired, en L’âge des Petabits: “Es un
mundo en que cantidades masivas de datos y las matemáticas aplicadas reemplazan a todas las
demás herramientas que se podrían utilizar. Exit de todas las teorías sobre los comportamientos
siempre y cuando no olvidemos de que hay una condición sine qua non de un ethos científico
y político: conservar una duda, mantener una desconfianza por respecto a la suficiencia de
las correlaciones, mantener la distinción entre correlación y causa, desconfiar de los
“efectos” autoperformativos de las correlaciones (su capacidad retroactiva), evitar que
decisiones que produzcan efectos jurídicos sobre las personas o que las afecten
significativamente se toman tomando como único fundamento un tratamiento automatizado
de los datos1. No podemos olvidar tampoco que lo propio de la política (sobre todo el
procurar que los riesgos se mutualicen) estriba en el rechazo de actuar sobre la mera base
de correlaciones. Parece importante recordar esto frente a la evolución hacia un mundo que
parece que funciona cada vez más como si en sí mismo estuviera constituido por
correlaciones, como si éstas fuesen lo que basta establecer para asegurar su buen
funcionamiento2.

Acción sobre los comportamientos

Para entender bien en qué consiste la elaboración algorítmica de perfiles, es preciso


percibir la diferencia crucial que hay entre, por un lado, la información a nivel individual, que
por lo general es observable o perceptible por el individuo al cual remite, y, por otro, el
saber producido al nivel de la elaboración de perfiles, que por lo general no está disponible 94
para los individuos ni es perceptible por ellos, pero que sin embargo se les aplica de manera

humanos, de la lingüística a la sociología. Olvídense de la taxonomía, de la ontología, de la


psicología. ¿Quién puede saber por qué la gente hace lo que hace? El hecho es que lo hacen, y que
podemos trazarlo y medirlo con una fidelidad sin precedentes. Si se tienen los datos suficientes, las
cifras hablan por sí mismas”. Citado en Dominique Cardon, « Regarder les données », Multitudes, n°
49, été, pp. 138-142.
1
Reparamos en que el régimen jurídico europeo de protección de datos de carácter personal protege
explícitamente a los individuos contra las decisiones que podrían tomarse en su contra con el único
argumento de un tratamiento automatizado de los datos (ver el artículo 15 de la directiva 95/46/CE).
Pero las garantías ofrecidas por la directiva europea sólo se aplican si los tratamientos de datos
automatizados conciernen a los datos personales, es decir datos relacionados con personas
identificadas o identificables. Pero la elaboración algorítmica de perfiles puede “funcionar”
perfectamente con datos anónimos.
2
La sobrepuja de pretensión a la objetividad es precisamente, y concretamente, el olvido de la
opción política: así, el ideal, ahora posible, de una tarificación exacta, adaptada en tiempo real,
adaptándose sin cesar a los riesgos efectivamente tomados, ya sea en el mundo de los seguros o en el
mundo del transporte, debe pensarse también como una pura desmutualización de los riesgos, que
paradójicamente aniquila la idea misma de seguro, o la de misión de servicio público.
de inferir un saber o previsiones probabilísticas en cuanto a sus preferencias, intenciones,
propensiones, que de otro modo no serían manifiestas1.
El tercer momento es el uso de estos saberes probabilísticos estadísticos con el fin de
anticipar comportamientos individuales, que se remiten a perfiles definidos sobre la base de
las correlaciones descubiertas mediante el datamining. Este momento de la aplicación de la
norma a los comportamientos individuales, cuyos ejemplos más evidentes son perceptibles
en las esferas más diversas de la existencia humana (obtención de un cierto crédito, decisión
de intervención quirúrgica, tarificación de una aseguradora, sugerencia de compras
focalizadas en sitios de venta en línea) nos concierne menos aquí, excepto para hacer notar,
primero, que la eficacia predictiva será tanto mayor cuanto que será fruto del agrupamiento
de datos masivos, es decir de datos que están “simplemente” a la altura de la diversidad de
lo real mismo2; y segundo, que, en el futuro, esta acción por anticipación sobre los
comportamientos individuales podría limitarse a una intervención sobre su entorno, a fortiori
toda vez que el entorno mismo es reactivo e inteligente, es decir que él mismo recoge los
datos en tiempo real mediante la multiplicación de los sensores, los transmite y los trata,
para adaptarse sin cesar a necesidades y peligros específicos, lo cual constituye ya como
mínimo el caso durante esta importante parte de la vida humana en que pasamos
conectados a Internet. Una vez más, de esta forma se evita todo tipo de coerción directa
sobre el individuo, y se elige restituir, al nivel mismo de su entorno, su desobediencia o 95
ciertas formas de marginalidad cada vez más improbables. En tercer lugar, el perfil “ligado”
al comportamiento de un individuo podría adaptársele de manera perfectamente eficaz,
gracias a la multiplicación de las correlaciones empleadas, al punto de parecer que evita
usar toda categoría discriminante, y de que incluso puede tomar en cuenta lo que cada
individuo tiene de más particular, de más alejado de los grandes números y de las medianas.
En fin, estamos frente a la posibilidad de una normatividad que en apariencia es
perfectamente “democrática”, desprovista de referencia a clases y categorías generales – la
ceguera de los algoritmos ante las categorizaciones (sociales, políticas, religiosas, étnicas,

1
Cf., Martijn van Otterlo, “A Machine learning view on profiling”, en M. Hildebrandt, K. de Vries, eds,
Privacy, Due Process and the Computational Turn. Philosophers of Law Meet Philosophers of
Technology, London: Routledge, 2013.
2
Aquí tendríamos que cuestionar la mismísima naturaleza de esta eficacia de la norma, que aparece
como cada vez más solipsista, en el sentido de que lo único que estaría en juego sería el triunfo de la
normatividad misma. Cf., Thomas Berns, « L’efficacité comme norme », Dissensus, n° 4. Como un
ejemplo entre otros, nombremos el ideal ya no exclusivamente teórico sino político de una “ evidence
based medicine”, con el apoyo estadístico que exige, que no sólo impide imaginar una decisión por
parte del paciente, al que sin embargo sí se toma en consideración a partir de sus características más
específicas, sino incluso la evolución científica.
de género…) socialmente vividas es por otro lado un argumento recurrente que esgrimen los
que están a favor de su despliegue como alternativa de la evaluación humana (en los
aeropuertos sobre todo)1. El datamining y la elaboración algorítmica de perfiles, en su
relación aparentemente no selectiva con el mundo, parecen considerar la integridad de
cada ser real hasta en sus aspectos más triviales e insignificantes, poniendo a todo el mundo
en igualdad – el hombre de negocios y la mucama, el sikh y el islandés. Ya no se trata de
excluir lo que se sale del promedio, sino de evitar lo imprevisible, de procurar que todas las
personas sean realmente ellas mismas.

UN GOBIERNO SIN SUJETO, ¿PERO NO SIN OBJETIVO?

Como hemos anunciado, los tres momentos descritos se confunden, y su


funcionamiento normativo es tanto más potente y procesual cuanto que los tres tiempos se
alimentan mutuamente (disfrazando con ello más eficazmente las finalidades, alejando tanto
más toda posibilidad de intencionalidad, como adaptándose cada vez más a nuestra propia
realidad, etc.). Llamamos gubernamentalidad algorítmica, globalmente, a un cierto tipo de
racionalidad (a)normativa o (a)política que reposa sobre la recolección, la agrupación y el
análisis automatizado de datos en cantidad masiva de modo de modelizar, anticipar y
afectar por adelantado los comportamientos posibles. De acuerdo a la base general del 96
2
pensamiento estadístico , los desplazamientos aparentes que serían producidos actualmente
por el paso del gobierno estadístico al gobierno algorítmico, y que le darían sentido a un
fenómeno de rarefacción de los procesos de subjetivación, son, pues, los siguientes: ante
todo, una aparente individualización de la estadística (con la evidente antinomia que esto
implica), que ya no transitaría (o no parecería transitar) por referencias al hombre medio,
para dar lugar a la idea de que uno se volvería progresivamente su propio perfil
automáticamente atribuido y evolutivo en tiempo real. Luego, una preocupación creciente
por evitar el peligro de una práctica estadística tiránica que reduciría el objeto estadístico a
ganado, cerciorándose de que esta práctica estadística se desarrolle como si estuviéramos
de acuerdo, puesto que es en tanto que cada uno de nosotros es único que el modo de

1
Cf., Tal Zarsky, “Governmental Data Mining and its Alternatives”, Penn. State Law Review, vol. 116,
n° 2, 2011.
2
Ver, entre otros, Thomas, Berns, Gouverner sans gouverner. Une archéologie politique de la
statistique, Paris: PUF, 2009; Alain Desrosières, La politique des grands nombres: Paris: La
Découverte, 2000 y Gouverner par les nombres, Paris: Presses de l’École des Mines: 2008; François
Ewald, L’État providence, Paris: Grasset, 1986; e Ian Hacking, The Emergence of Probability: A
Philosophical Study of Early Ideas about Probability, Induction and Statistical Inference, Cambridge
University Press, 2006.
gobierno por los algoritmos pretende dirigirse a cada quien según su perfil. Más que un
acuerdo, o incluso que un consenso, lo que enfrentamos depende de la adhesión por defecto
a una normatividad tan inmanente como la vida misma. Así, la práctica estadística incluiría,
en sí misma, la expresión de la adhesión táctica de los individuos. De ahi un posible
debilitamiento de la reflexividad subjetivante, y el alejamiento de las ocasiones de poner a
prueba las producciones de “saber” fundadas en el datamining y en la elaboración de
perfiles. La gubernamentalidad algorítmica no produce ninguna subjetivación, sino que
sortea y evita a los sujetos humanos reflexivos, se alimenta de datos infra-individuales
insignificantes por sí mismos, para ejecutar modelos de comportamiento o perfiles supra-
individuales, sin apelar jamás al sujeto, sin pedirle jamás al sujeto que expliqué qué es lo que
es y qué es lo podría devenir. El momento de reflexividad, de crítica, de recalcitrancia,
necesario para que haya subjetivación, parece complicarse o posponerse incesantemente1.
Y es que, debido a su perfecta adaptación al “tiempo real”, a su “viralidad” (mientras más
se lo utiliza, más se afina y perfecciona, pues toda interacción entre el sistema y el mundo se
traduce en un registro de datos digitalizados, un enriquecimiento correlativo de la “base
estadística”, y una mejora de las performances de los algoritmos), a su plasticidad, la
gubernamentalidad algorítmica le quita todo sentido a la noción misma de “fallo”: el “fallo”,
en otros términos, no puede poner en “crisis” el sistema, es inmediatamente regurgitado con
la finalidad de refinar los modelos o perfiles de comportamientos. Además, siguiendo el 97
objetivo de la aplicación actual de los dispositivos algorítmicos –por ejemplo la prevención
de fraudes, del crimen, del terrorismo– los “falsos positivos” jamás se interpretarán como
“fallos”, porque el sistema sigue una lógica de detección más bien que de diagnóstico: la
meta es no perder ningún verdadero positivo, sin importar cuál sea la tasa de falsos
positivos.
Por supuesto, lo que debe sorprendernos, e inquietarnos, no es el proyecto de
anticipar imperceptiblemente, individualmente, los comportamientos. Ni siquiera su
recrudecimiento. Incluso si conviene subrayar de entrada la paradoja según la cual, desde
ahora, para erradicar o minimizar la incertidumbre nos remitimos a “aparatos” no
intencionales, es decir a máquinas a-significantes, abandonando la ambición de darle
significación a los acontecimientos, que por otra parte no se tratan como acontecimientos,
porque todos se pueden igualmente descomponer en una red de datos re-agrupados a otros
datos, independientes de los acontecimientos de los que podría “actualmente” tratarse. De

1
Cf., Antoinette Rouvroy, « Pour une défense de l’éprouvante inopérationnalité du droit face à
l’opérationnalité sans épreuve du comportementalisme numérique », Dissensus, n° 4, avril.
esta forma, la gubernamentalidad algorítmica no deja de “barajar las cartas”, lo que nos
saca de la perspectiva “histórica” o “genealógica”1.
Cada vez más, el sujeto de la gubernamentalidad algorítmica es capturado por el
“poder”. No a través de su cuerpo físico, ni tampoco a través de su consciencia moral –
capturas tradicionales del poder en su forma jurídico-discursiva2– sino a través de los
múltiples “perfiles” que le son asignados, por lo general automáticamente, sobre la base de
las huellas digitalizadas de su existencia y de sus trayectorias cotidianas. La
gubernamentalidad algorítmica corresponde demasiado bien a lo que ya Foucault apuntaba
con el concepto de dispositivo de seguridad:

La regulación de un medio en el que ya no se trata tanto de fijar


los límites, las fronteras, en el que ya no se trata tanto de
determinar las ubicaciones, sino sobre todo, esencialmente, de
permitir, garantizar, asegurar las circulaciones: circulación de
personas, de mercancías, circulación del aire, etc.3.

Que las “capturas” del poder sean digitales antes que físicas no significa en absoluto
que los individuos sean ontológicamente, existencialmente reductibles a redes de datos
recombinables mediante aparatos, ni tampoco que estén totalmente bajo el control de sus
aparatos. Significa simplemente que, sean las que sean sus capacidades de entendimiento, 98
de voluntad, de expresión, ya no es prioritariamente a través de esas capacidades que el
“poder” los interpela, sino más bien a través de sus “perfiles” (de potencial estafador, de

1
Cf., Antoinette Rouvroy, Mise en (n)ombres de la vie même. Face à la gouvernementalité
algorithmique, repenser le sujet de droit comme puissance (2013), <
http://works.bepress.com/antoinette_rouvroy/43/ >.
2
Y también en su forma disciplinaria, para retomar las modelizaciones foucaultianas del poder. Desde
este punto de vista, aquí nos estaríamos situando en la tercera modelización del poder que analizara
Foucault: el análisis de los dispositivos de seguridad en una perspectiva esencialmente regulatoria. La
evolución descrita consistiría en el establecimiento, en este tercer modelo del poder – el modelo de los
dispositivos de seguridad –, de nuevas rupturas. El principio de los dispositivos de seguridad consiste
en “no tomar el punto de vista de lo que se impide, ni tampoco el punto de vista de lo obligatorio, sino
en tomar una distancia suficiente como para poder captar el punto en que las cosas van a producirse,
independientemente de si son deseables o no. […] La ley prohíbe, la disciplina prescribe, y la
seguridad, sin prohibir ni prescribir […] tiene por función esencial responder a una realidad de manera
de que su respuesta anule la realidad a la que responde – la anule, o la limite, o la frente, o la regule.
Es esta regulación en el elemento de la realidad lo que es […] fundamental en los dispositivos de
seguridad” Cf., Michel Foucault, Sécurité, territoire, population. Cours au Collège de France, 1977-
1978, Paris: Seuil/Gallimard, 2004, pp. 48-49.
3
Cf., Michel Foucault, Sécurité, territoire, population, ed. cit., p. 32.
consumidor, de potencial terrorista, de alumno de gran potencial…). La gubernamentalidad
algorítmica intensifica las ambivalencias de la época en relación con la cuestión de la
individualización. A menudo se considera que nuestra época es, por un lado, la época de la
victoria del individuo, en el sentido de que estaríamos constatando una individualización de
los servicios, dada la posibilidad, ofrecida por las prácticas estadísticas, de focalizar
finamente las necesidades y peligros propios de cada individuo. Por otra parte, se considera
que en nuestra época se ha puesto en peligro al individuo, cuya intimidad, vida privada,
autonomía y auto-determinación se verían amenazadas por estas mismas prácticas. Algunos
evocan incluso los riesgos de una pura desubjetivación. Ambas hipótesis –la del individuo al
centro de todo, y la de la desubjetivación– son, en nuestra opinión, tan falsas la una como la
otra. Veámoslo.

¿La personalización es realmente una forma de individuación?

IBM presenta el marketing “individualizado” –“smart marketing”– como una


revolución que transforma el marketing y la publicidad en “servicios para los consumidores”.
Es el gran retorno del consumidor-rey: en el centro de las preocupaciones de las empresas,
ya ni siquiera necesita concebir ni expresar sus deseos que son órdenes. Como dice Eric
Schmidt, director general de Google: “Sabemos grosso modo quiénes son ustedes, grosso 99
modo qué es lo que les interesa, grosso modo quiénes son sus amigos [o sea que saben de
qué “cardumen” somos]. La tecnología será tan buena que a la gente va a resultarle muy
difícil ver o consumir alguna cosa que no se ajuste a ellos” (es decir que sería posible una
predicción aparentemente individualizada). Esta forma de individualización se asemeja más,
de hecho, a una hiper-segmentación y a una hiper-plasticidad de las ofertas comerciales,
que a la consideración global de las necesidades y deseos propios de cada persona. El
objetivo no es tanto adaptar la oferta a los deseos espontáneos (si existiese tal cosa) de los
individuos, sino más bien adaptar los deseos de los individuos a la oferta, adaptando las
estrategias de venta (la manera de presentar el producto, de fijar su precio…) al perfil de
cada quien. Así, las estrategias de “dynamic pricing” o de adaptación del precio de ciertos
servicios o de ciertas mercancías a la “willingness to pay” de cada consumidor potencial
estarían ya operando en algunos sitios de venta de viajes aéreos en línea. Más que de
individualización, en realidad aquí conviene hablar directamente de segmentación del
mercado. Un ejemplo bastante trivial: conéctese usted al sitio de una compañía aérea cuyo
nombre callaremos (la compañía Y) e infórmese sobre los precios de un avión a Pisa,
partiendo desde Bruselas, en tres días. Digamos que el precio que aparece es de 180 euros.
Como usted encuentra que el precio es algo alto, usted se dirige al sitio de otra compañía (la
compañía Z), sobre la que ha averiguado usted en Internet que podría tener precios más
baratos. Pongámosle que no encuentra nada óptimo. Ahora vuelve al sitio de la compañía Y,
y - ¡oh, sorpresa! – se da usted cuenta de que el pasaje ha aumentado en 50 euros en un
espacio de apenas media hora, el tiempo que se tomara usted en hacer esa breve
averiguación. Se debe, simplemente, a que le han atribuido un perfil de “viajero cautivo”:
según su recorrido en internet y según la fecha de partida deseada, se ha detectado que
usted en verdad necesita ese pasaje de avión, y que estará usted dispuesto/a a gastar 50
euros adicionales para obtener ese pasaje, sobre todo considerando que tendrá la
impresión de que si no lo compra rápido el precio seguirá aumentando. Si, en vez de
reaccionar “lógicamente” comprando el pasaje lo más rápido posible, se cambia usted de
computador, de dirección IP, y va de nuevo al sitio de la compañía aérea, su pasaje le
costará 180 euros en vez de 230. ¿Explicación? El primer reflejo, que es con lo que el
vendedor cuenta, es comprar cuanto antes, siguiendo la “alerta” lanzada: el precio
aumenta, y rápido. En este caso, las consecuencias son relativamente triviales. Pero es claro
en este ejemplo que en vez de respetar escrupulosamente los deseos individuales de cada
consumidor singular, se trata, por el contrario, y basándose en la detección automática de
ciertas propensiones (de compra), de la detección de la (in)elasticidad de la demanda
individual por respecto a una variación del precio, de suscitar el acto de comprar, siguiendo
el modelo de la respuesta-reflejo a un estímulo de alerta que hace cortocircuito en la
reflexividad individual y en la formación del deseo singular. 100
Se trata de producir un paso al acto sin formación ni formulación de deseo. El
gobierno algorítmico parece así sellar la consumación de un proceso de disipación de las
condiciones espaciales, temporales y lingüísticas de la subjetivación y de la individuación, en
provecho de una regulación objetiva, operacional, de las conductas posibles, y esto,
partiendo de “datos brutos” en sí mismos a-significantes, y cuyo tratamiento estadístico
apunta ante todo a acelerar los flujos – ahorrándose toda forma de “desvío” o de
“suspensión reflexiva” subjetiva entre los “estímulos” y sus “respuestas reflejas”. El hecho de
que lo que “fluye” de esta forma sea a-significante no tiene ninguna importancia1. Gracias al

1
Justamente es lo contrario. Que lo que “fluye” sea a-significante es precisamente lo que permite “el
sometimiento maquínico”: “Hay un inconsciente maquínico molecular, que depende de sistemas de
codificaciones, de sistemas automáticos, de sistemas de moldeado, de sistemas de préstamos, etc.,
que no ponen en juego ni cadenas semióticas, ni fenómenos de subjetivación de relaciones
sujeto/objeto, ni fenómenos de consciencia; que ponen en juego lo que yo llamo fenómenos de
sometimiento maquínico, en que funciones, órganos, entran directamente en interacción con sistemas
maquínicos, sistemas semióticos. El ejemplo que uso siempre es cuando manejamos un automóvil
distraídamente. Todo funciona por fuera de la consciencia, todos los reflejos, uno está pensando en
otra cosa, e incluso, en el límite, uno puede estar durmiendo. Y luego hay una señal semiótica de
despertador que, de un solo golpe, hace que uno retome consciencia, y que reinyecte cadenas
hecho de que las señales digitales “se pueden calcular cuantitativamente,
1
independientemente de su significación” , todo ocurre como si la significación ya no fuera en
absoluto necesaria, como si el universo ya estuviera saturado de sentido –
independientemente de toda interpretación –, como si, así, ya no fuera necesario
relacionarnos unos con otros mediante el lenguaje significante, ni mediante ninguna
transcripción simbólica, institucional, convencional. Los dispositivos de la gubernamentalidad
algorítmica dan forma definitiva, pues, según parece, a la vez la emancipación de los
significantes respecto de los significados (puesta en números, recombinaciones algorítmicas
de los perfiles) y a la sustitución de los significados por los significantes (producción de la
realidad en el mundo mismo – el único real que “cuenta” para la gubernamentalidad
algorítmica es el real numérico)2. Esta asignación, a un estado preconsciente, de la acción
humana, tiene completamente que ver con lo que Bernard Stiegler llama proletarización:

La proletarización es, históricamente, la pérdida del saber del


trabajador ante la máquina, que ha absorbido este saber. Hoy,
la proletarización es la estandarización de los comportamientos
a través del marketing y de los servicios, y la mecanización de
los espíritus mediante la exteriorización de los saberes en
sistemas tales que estos “espíritus” ya no saben nada de estos
aparatos de tratamiento de la información que no hacen más 101
que configurar. Esto es precisamente lo que queda en evidencia
con la matematización electrónica de la decisión financiera.
Ahora bien, se trata de algo que afecta a todo el mundo:
empleados, médicos, diseñadores, intelectuales, dirigentes.
Hay cada vez más ingenieros participando en procesos técnicos
cuyo funcionamiento desconocen, pero que están arruinando el
mundo3.

significantes. Hay un inconsciente de sometimiento maquínico”. Cf., Félix, Guattari, « Présentation du


séminaire », 9 décembre 1980 : <http://www.revue-
chimeres.fr/drupal_chimeres/files/801209.pdf>.
1
Cf., Humberto Eco, A Theory of Semiotics, Bloomington: Indiana University Press, 1976, p. 20. Citado
por Gary Genosko, « Banco sur Félix. Signes partiels a-signifiants et technologie de l’information »,
Multitudes, 34, 2008, pp. 63-73.
2
Cf., Antoinette Rouvroy, Mise en (n)ombres de la vie même. Face à la gouvernementalité
algorithmique, repenser le sujet de droit comme puissance (2013), <
http://works.bepress.com/antoinette_rouvroy/43/ >.
3
Cf., Bernard Stiegler, « “Le grand désenchantement”. Un entretien avec le philosophe Bernard
Stiegler », Le Monde, 21 février 2011.
Maurizio Lazzaratto resume por otra parte muy bien la manera en que las semióticas
a-significantes, cuyo conductismo digital es ejemplar, producen sometimiento maquínico más
bien que una alienación subjetiva:

Si las semióticas significantes tienen una función de alienación


subjetiva, de “sujeción social”, las semióticas a-significantes
tienen una función de “sometimiento maquínico”. Las semióticas
a-significantes operan una sincronización y una modulación de
los componentes pre-individuales y pre-verbales de la
subjetividad, haciendo funcionar los afectos, las percepciones,
las emociones, etc., como piezas, componentes, elementos de
una máquina (sometimiento maquínico). Podemos funcionar
todos como componentes de input/output de máquinas
semióticas, como simples relevadores de la televisión o de
Internet, que hacen pasar y/o impiden el paso de la
información, de la comunicación, de los afectos. A diferencia de
as semióticas significantes, las semióticas a-significantes no
conocen ni personas, ni roles ni sujetos. […] En el primer caso, el
sistema habla y hace hablar. Indexa y pliega la multiplicidad de
las semióticas pre-significantes y simbólicas sobre el lenguaje,
sobre las cadenas lingüísticas, privilegiando sus funciones
representativas. Mientras que, en el segundo caso, no hay 102
discurso, no se habla, pero funciona, pone en movimiento,
conectándose directamente al “sistema nervioso, al cerebro, a
la memoria, etc.”, activando relaciones afectivas, transitivas,
transindividuales, difícilmente atribuibles a un sujeto, a un
individuo o a un yo1.

Las paradojas de la personalización: una gubernamentalidad algorítmica sin sujetos,


pero compatible con los fenómenos contemporáneos de hiper-subjetivación

La hipótesis de la desubjetivación, del “peligro” en que se hallaría el individuo, que


podría disolverse en las redes, es una hipótesis bastante “impresionante”, pero no es para
nada evidente. Se podría hasta decir que las redes sociales, etc. – sin duda porque son,
para los usuarios, trayectorias de semióticas significantes – producen “hiper-sujetos”, que la
producción de subjetividad se ha vuelto la actividad obnubilada de un buen número de
personas, incluso su razón para vivir. Nos parece demasiado rápido decir simplemente que

1
Maurizio Lazzaratto, « Le pluralisme sémiotique et le nouveau gouvernement des signes. Hommage
à Félix Guattari » (2006),< http://eipcp.net/transversal/0107/lazzarato/fr. >.
las transformaciones en curso solo producirían una desubjetivación, puesto que debilitan las
murallas de la intimidad (y ni siquiera esto es totalmente evidente: ciertos dispositivos de la
sociedad de la información refuerzan, por el contrario, el aislamiento de los individuos, los
preservan de tener interacciones con otros…), de la vida privada, y porque afectarían quizá
a las condiciones de la autonomía y de la libre elección (pero habría que ver en qué sentido
ocurre esto: por ejemplo, entornos inteligentes que nos dispensasen de estar eligiendo
permanentemente en dominios triviales podrían igualmente liberar el espíritu, hacer que
estemos disponibles para tareas intelectuales más interesantes, más altruistas, etc.). Sin
embargo, impresionados esencialmente por los riesgos de revelación de informaciones
personales, íntimos o sensibles, por divulgaciones inoportunas, por la posibilidad de que los
individuos pierdan el control sobre “sus” perfiles, por violaciones al principio de la
autonomía y de la auto-determinación individual, las legislaciones de protección de la vida
privada y de los datos de carácter personal se han esforzado esencialmente por erigir, en
torno al individuo, una serie de “barreras” con tonalidades esencialmente defensivas y
restrictivas.
No consideramos que estas sean cosas banales. Pero queremos ser enfáticos al
señalar la indiferencia de este “gobierno algorítmico” ante los individuos, en cuanto que se
basta con interesarse y controlar nuestra “doble estadística”, es decir los entrecruzamientos
de correlaciones, producidos de forma automatizada, y sobre la base de cantidades 103
masivas de datos, que por sí mismos se constituyen y se recogen “por default”. En pocas
palabras, lo que somos “grosso modo”, para retomar la cita de Eric Schmidt, justamente ya
no tiene nada que ver con nosotros mismos (seres singulares). Y ese es justamente el
problema, problema que, como veremos, tendría más bien que ver con una rarefacción de
los procesos y ocasiones propicios para una subjetivación, que con un fenómeno de
“desubjetivación” o de puesta en peligro del individuo.
Así señalizadas las cosas, volvamos a la cuestión del sujeto, o más bien de su
“evitamiento” en el proceso normativo en tres momentos que describíamos más arriba. Lo
que primero se constata es una dificultad de producir un sujeto algorítmico que se reflexione
o que se piense como tal. Ante todo, según hemos visto, el consentimiento del sujeto es débil
cuando transmite información (esos datos que se pueden a menudo usar anónimamente…
pero también podrían no serlo, puesto que su anonimato tiene un sentido totalmente
relativo), no que esta última le fuese “robada”, lo que le permitiría oponerse, constituirse
como un sujeto en resistencia contra ese robo. Sino más bien: asistimos a un debilitamiento
considerable del carácter “deliberado” de las divulgaciones de información – por lo general
triviales, anodinas, segmentadas, descontextualizadas – de esas “huellas” cuya trayectoria y
usos posteriores son, para el “sujeto”, imprevisibles e incontrolables aun si, hoy por hoy, hay
mucho dinero invertido en el desarrollo de herramientas técnicas que deberán permitir que
los “usuarios” de los servicios informáticos controlen mejor “sus”. Segundo: desde el punto
de vista de su tratamiento, constatamos que los “saberes” producidos tienen como principal
característica el hecho de que parecen emerger directamente de la masa de datos, sin que
la hipótesis que lleva a estos saberes les preexista: las hipótesis mismas se “generan”
también a partir de los datos. Finalmente, la acción normativa que deriva de estos procesos
estadísticos podrá equivaler cada vez más a una acción sobre y, por lo tanto, llevada a
cabo por el entorno, y cada vez menos a una acción sobre el individuo mismo. La acción de
este último ya no se realiza en una confrontación directa con una norma exterior –ley,
mediana, definición de la normalidad–, sino que sus posibles se organizan directamente al
interior mismo de su entorno.
En estos tres sentidos, tanto la fuerza como el peligro de la generalización de los
datos estadísticos a la que estamos asistiendo no residirían en su carácter individual, sino,
por el contrario, en su autonomía, e incluso en su indiferencia, por respecto al individuo.
Nuestro problema, para expresarlo de la manera más explícita posible, no es que se nos
desposea de lo que consideramos como propio, ni que se nos obligue a ceder informaciones
que atentarían contra nuestra vida privada o contra nuestra libertad, sino que vendría más
fundamentalmente del hecho de que nuestra doble estadística está demasiado desligada de
nosotros, que no tenemos “relación” con eso, pese a que las acciones normativas
contemporáneas se bastan con esta doble estadística para ser eficaces. En otras palabras, 104
allí donde el ámbito confesional fabrica al sujeto de la introspección que sondea su alma, su
virtud, sus deseos y sus intenciones más profundas, puesto que a través del proceso de la
confesión “quien habla se compromete a ser lo que afirma ser, y precisamente porque eso
es”1, allí donde la ley produce sujetos de derechos preocupados por su legalidad y por la
imparcialidad de sus procedimientos, allí donde el hombre medio aparecía como demasiado
medio comparado con todo sujeto singular susceptible de constituirse contra tal mediana, el
gobierno algorítmico no da lugar, ni captura, a ningún sujeto estadístico activo, consistente,
reflexivo, capaz de legitimarlo o resistirlo2. Esto es precisamente lo que debemos en

1
Cf., Michel Foucault, Mal faire, dire vrai. Fonction de l’aveu en justice , Cours de Louvain, 1981, en
Fabienne Brion, Bernard E. Harcourt (eds.), Louvain: Presses universitaires de Louvain et Chicago
University Press, 2012, p. 5.
2
Nuestro análisis exigiría ser más matizado en lo que concierne a las evoluciones y rupturas
constatables en el plano de una historia larga de las prácticas normativas. El gobierno algorítmico
podría parecer remitir a ciertos mecanismos presentes antes de la generalización de la idea de la
norma jurídico-discursiva, que entonces aparecería más bien como la excepción que como la regla en
esta historia larga: si se cuestiona el funcionamiento normativo de la gubernamentalidad algorítmica,
lo que le asegura la legitimidad, lo que asienta su potencia, efectivamente es posible que se tenga la
impresión de que hay muchas más similitudes entre el sujeto pecador que se confiesa y la posibilidad
adelante procurar, esencialmente mediante el conocimiento (incluso técnico) y el
reconocimiento de la distancia, de la diferencia entre estas representaciones estadísticas y lo
que constituye a los individuos en los procesos de individuación que les son propios, con
todos los momentos de espontaneidad, los acontecimientos, los pasos al costado por
respecto a los posibles anticipados, que prevalecen en estos procesos.
En cambio, lo que nos parece menos remontable, y perfilar pues a este respecto una
verdadera ruptura, es la aparición de posibilidades de saberes que ya no presupondrían la
expresión de ninguna hipótesis, y que sellarían en ese sentido la desaparición, por lo menos
en una parte del espacio social, de la idea de proyecto1. Con esto, no queremos lamentar la
pérdida de la idea de proyecto entendido como algo aplicable o verificable, sino más bien
como algo desplazable, es decir precisamente como algo que puede experimentar fallos, y
que en esa medida puede hacer historia, puesto que se lo retoma y se lo transforma de
forma constante. Ahora bien, incluso para un organismo, o para la vida, para lo orgánico en
tanto que lugar de una actividad normativa, ha habido fallo, conflicto, lo monstruoso, límite y
superación del límite, así como lo ha mostrado Canguilhem. Con el gobierno algorítmico, se
tendería a considerar la vida social como vida orgánica, pero considerando a la vida
orgánica como si las adaptaciones que se desarrollan en ella ya no tuvieran que ver con
desplazamientos y fallos, como si ya no pudiesen producir ninguna crisis ni interrupción, ni
105

del sujeto algorítmico contemporáneo, que entre este último y el “sujeto de derecho”, construido por
la ley, en la medida en que el sujeto algorítmico y el sujeto cristiano aparecerían como fruto de un
diálogo consigo mismo, apoyado en una mediación política, espiritual o técnica. Es, por ejemplo, lo
que se puede constatar abordando experiencias, todavía raras, como el “Quantified Self”. Cf., A.-S.
Pharabod, V. Nikolski y F. Granjon, « La mise en chiffres de soi. Une approche compréhensive des
mesures personnelles » en en Réseaux, 2013/1, n°177, pp. 97-129. Independientemente del alcance,
interés y representatividad reales de este tipo de experiencias, parece útil notar que la producción y la
refinación del sujeto “sano” que se deja avizorar, apoyada por la mediación técnica o estadística, a)
presupone un sujeto que se afina, antes que un sujeto que se produce, b) descansa sobre un rechazo
del uso general de la mediación técnica en provecho de una reapropiación que pretende ser
estrictamente individual, es decir que la reflexividad con que está contando, y la consciencia de la
norma que este sujeto tiene, nos parece precisamente extraña a la no-relación que los individuos
pueden generar, en este estado, con su doble estadístico.
1
Desprovista así de proyectos, tal vez la gubernamentalidad algorítmica presente una versión radical
de gobierno objetivo, en el sentido en que lo entiende Laurent Thévenot: “En el gobierno objetivo, la
autoridad legítima está desplazada, distribuida en cosas, lo que hace difícil su aprehensión y su
cuestionamiento, puesto que se impone en nombre de un realismo y pierde visibilidad política”. Cf., L.
Thévenot, « Autorités à l’épreuve de la critique. Jusqu’aux oppressions du “gouvernement par
l’objectif” », in B. Frere, ed., Quel présent pour la critique sociale ?, Paris: Desclée de Brouwer, 2012.
debiesen reclamar ninguna comparecencia ni puesta a prueba de los sujetos, ni de las
normas mismas.
El campo de acción de este “poder” ya no se sitúa en el presente, sino en el futuro.
Esta forma de gobierno recae esencialmente sobre lo que podría advenir, sobre las
propensiones antes que sobre las acciones cometidas, a diferencia de la represión penal o
de las reglas de responsabilidad civil, por ejemplo, que se encuentran concernidas sólo por
infracciones que ya se habrían cometido o que estarían en proceso de cometerse (en caso de
flagrante delito), o daños que habrían sido ya causados. Más activamente, el gobierno
algorítmico no solamente capta lo posible en lo actual, produciendo una “realidad
aumentada”, una actualidad dotada de una “memoria del futuro”, sino que también le da
consistencia al sueño de una serendipia sistematizada: nuestro real se habría transformado
en lo posible, nuestras normas quieren anticipar correctamente y de forma inmanente lo
posible, el mejor medio para ello es, por supuesto, presentarnos un posible que nos
corresponda y en el que los sujetos no tendrían cómo no deslizarse. Hay que enfatizar aquí
la diferencia respecto de la normatividad jurídico-discursiva: allí donde ésta estaba dada,
discursiva y públicamente, antes de toda acción sobre los comportamientos, sobre los que
ésta ejercía una coerción, pero que conservaban, a riesgo de sanción, la posibilidad de no
obedecer, la normatividad estadística es precisamente lo que nunca está dado de
antemano, y que resiste a toda discursividad, lo que es incesantemente forzado por los 106
comportamientos mismos, y que, paradójicamente, parece hacer imposible toda forma de
desobediencia1. El resultado es que, si nos quedamos en una perspectiva individualista,
liberal, la acción sobre los comportamientos, lo que llamamos “gobierno algorítmico”
aparece a la vez como fundamentalmente inofensivo y como perfectamente objetivo, puesto
que se funda en una realidad que antecede a toda manifestación de un entendimiento o de
una voluntad subjetivos, individuales o colectivos, una realidad que, paradójicamente,
parece tanto más fiable y objetiva cuanto que hace abstracción de nuestro entendimiento,
para alimentar el sueño de un gobierno perfectamente democrático. Frente a tal “sueño”,
conviene que por lo menos recordemos que nuestros comportamientos no han estado nunca
tan intervenidos– observados, registrados, clasificados, evaluados –, y eso sobre bases y en
función de códigos de inteligibilidad y criterios absolutamente opacos a la comprensión
humana, sólo sobre esa base estadística. Su carácter inofensivo, la “pasividad” del gobierno
algorítmico, es solo aparente: el gobierno algorítmico “crea” una realidad en la medida
misma en que la registra. Suscita “necesidades” o deseos de consumo, pero de tal manera
que despolitiza los criterios de acceso a ciertos lugares, bienes o servicios. Desvaloriza la

1
A este respecto, nos permitimos remitir al lector a Antoinette Rouvroy, « Pour une défense de
l’éprouvante inopérationnalité du droit face à l’opérationnalité sans épreuve du comportementalisme
numérique », Dissensus, n° 4, avril 2011.
política (puesto que ya no habría que decidir, zanjar, en situaciones de incertidumbre, en la
medida en que se las ha desactivado de antemano), dispensa de las instituciones, del
debate público, sustituye a la prevención (únicamente en provecho de anticipaciones de
derecho), etc.1
Si hubiese que resituar este movimiento en una perspectiva amplia, y resistiendo esta
vez a la perspectiva de la pura novedad (que solo tendría sentido por comparación con el
modelo jurídico-discursivo), fuerza es constatar que este gobierno algorítmico profundiza el
ideal liberal de una aparente desaparición del proyecto mismo de gobernar: como hemos
mostrado en otro lugar2, ya no se trata de gobernar lo real, sino de gobernar a partir de lo
real. La evolución tecnológico-política descrita aquí lleva a cabo esta tendencia3, al punto
de que el hecho de no (querer) ser gobernado podría equivaler ahora a no quererse (sin que
por ello esto signifique que nuestra intimidad hubiese sido violada).

¿Las relaciones como blancos del “poder” en la gubernamentalidad algorítmica?

Más allá de este diagnóstico todavía moral y normativo, o quizá para reforzarlo,
¿podemos ahora tratar de discernir aquello en virtud de lo cual es están evitando los sujetos?
¿Cuál es el objetivo o el blanco de estos tres momentos descritos, y más globalmente del
gobierno algorítmico, si no son los individuos mismos? Más todavía: ¿se trata de gobernar 107
qué cosa, cuando se impide o por lo menos se complica la posibilidad misma de los
procesos de subjetivación? Nuestra hipótesis es que el objeto –que, así, no logra devenir
sujeto– del gobierno algorítmico son precisamente las relaciones: los datos transmitidos son
relaciones4 y solo subsisten como relaciones; los conocimientos generados son relaciones de
relaciones; y las acciones normativas que se derivan son acciones sobre relaciones (o

1
A propósito, véase Antoinette Rouvroy , « Face à la gouvernementalité algorithmique, repenser le
sujet de droit comme puissance » (2012).
2
Cf., Thomas Berns, Gouverner sans gouverner. Une archéologie politique de la statistique , Paris:
PUF, 2009.
3
En el mismo sentido que otras prácticas contemporáneas de gobierno, como el informe o la
evaluación. Cf., Thomas Berns, « L’efficacité comme norme », Dissensus, n° 4, 2011 y « Quand le réel
nous gouverne » (2012), dans Gouverner par les normes (por aparecer).
4
La palabra “relación”, entendida aquí en su sentido más bruto, menos habitado, por el cual
calificamos el dato, nos sirve solamente para dar cuenta de una operación que liga a y b siendo
capaz de ignorar lo que está detrás de los términos ligados. Como hemos de mostrar, toda la fuerza
del gobierno algorítmico reside in fine en su capacidad de “monadologizar” esta relación, hasta el
punto de que esta relación no alcanza precisamente a aprehender el devenir que sería lo propio de la
relacionalidad.
entornos) referidas a relaciones de relaciones. Así, dado que en la realidad misma de estas
prácticas que apuntan a organizar lo posible habría un gobierno de las relaciones, ahora
querríamos tratar de discernir la eventual novedad de este gobierno algorítmico.
Así, el punto es trasponer nuestra doble interrogación (sobre la centelleante
objetividad y la productividad de la estadística algorítmica) en un registro simondioniano y
deleuzo/guattariano. Queremos mostrar que esta tele-objetividad productiva que está en
marcha en las prácticas de datamining y de elaboración algorítmica de perfiles, cuando
parece a priori abandonar el registro del sujeto y potencialmente permitir lo que Simondon
designa como un proceso de individuación transindividual –que no se resume ni en el yo, ni
en el nosotros, sino que designa un proceso de co-individuación del “yo” y del “nosotros”
que produce lo social, es decir medios asociados en que se forman las significaciones–,
forcluye al contrario las posibilidades de dichas individuaciones transindividuales,
replegando los procesos de individuación sobre la mónada subjetiva.
Además, mostraremos que el abandono de toda forma de “escala”, de “patrón”, de
jerarquía, en virtud de una normatividad inmanente y eminentemente plástica1 no
necesariamente resulta favorable a la emergencia de formas de vida nuevas en el sentido de
la emancipación descrita por Deleuze y Guattari como una superación del plano de
organización por el plano de inmanencia, de una tábula rasa de las antiguas jerarquías en
las que el hombre normal o el hombre medio ocuparía un lugar mayor2. 108

PERSPECTIVAS TRANSINDIVIDUALES Y RIZOMÁTICAS

La incitación a abordar la gubernamentalidad algorítmica desde un ángulo


simondoniano proviene de que este gobierno parece ya no apoyarse ni tener por blanco a
los sujetos, sino las relaciones en tanto que son anteriores a sus términos, es decir no
solamente las relaciones sociales, intersubjetivas en tanto que constituyen a los individuos,
por cuanto todo individuo sería considerado como la suma de dichas relaciones, sino más
bien a las relaciones por sí mismas, independientemente de toda individuación simple y
lineal, las relaciones en tanto que son no se las puede atribuir a los individuos que vinculan,
en el sentido, pues, de una “relacionalidad” que subsistiría más allá de los individuos
vinculados por las relaciones. Así pues, para captar el asunto al que nos referimos, ¿habría
que pasar, con Simondon, de una ontología o de una metafísica clásica de la sustancia,

1
Cf., Gilles Deleuze y Félix Guattari, Mille Plateaux, Capitalisme et schizophrénie 2, Paris: Minuit,
1980.
2
El objetivo de la descripción rizomática del conocimiento no era tan descriptivo como “estratégico”.
Se legitimaba por su utilidad para el ejercicio de una resistencia contra un modelo jerárquico,
traducción epistemológica de una estructura social opresiva.
centrada sobre el individuo y los estados (en el marco de la cual las relaciones se le
atribuyen a un individuo) a una ontología de la relación (en la que las relaciones “priman”
ontológicamente sobre los individuos a los que atraviesan), o incluso a una ontogénesis
preocupada por el devenir y de comprender por tanto el movimiento mismo de la
individuación? Importa notar de entrada que esta hipótesis nos alejaría a la vez de un cierto
individualismo “nominalista” (que supone la realidad nada más que de los individuos, a
partir de los cuales, eventualmente, podrían abstraerse los universales), y de un cierto
“realismo” de tipo holista que presupondría que las esencias colectivas, los géneros, las
clases, preexistirían a los individuos, los que a su vez serían subsumibles por entero bajo las
esencias colectivas. Pensar primero la relación, por sí misma, de manera constitutiva,
equivaldría, en suma, a romper con el movimiento vertical que nos lleva de lo particular a lo
general, sea la que sea su dirección.
La semejanza se muestra no menos llamativa entre los procesos de producción y
transformación continua de los perfiles generados automáticamente, en tiempo real, de
forma puramente inductiva, por cruzamiento automático de datos heterogéneos
(datamining), y los metabolismos propios del rizoma de Deleuze y Guattari:

El rizoma no se deja reconducir ni a lo Uno ni a lo múltiple. No


es lo Uno que deviene dos, ni que va a devenir directamente 109
tres, cuatro o cinco, etc. […] A diferencia de una estructura, que
se define por un conjunto de puntos y de posiciones, de
relaciones binarias entre estos puntos y de relaciones biunívocas
entre estas posiciones, el rizoma solo hace líneas: líneas de
segmentaridad, de estratificación, como dimensiones, pero
también línea de fuga o de desterritorialización como dimensión
máxima según la cual, al seguirla, la multiplicidad se
metamorfosea cambiando de naturaleza. No se confundirán
tales líneas, o lineamientos, con las líneas de tipo arborescente,
que no son más que conexiones localizables entre puntos y
posiciones. A diferencia del árbol, el rizoma no es objeto de
reproducción: ni reproducción externa como árbol-imagen, ni
reproducción interna como la estructura-árbol. El rizoma es una
antigenealogía. Es una memoria corta, o una anti-memoria. El
rizoma procede por variación, expansión, conquista, captura,
punción. […] Contra los sistemas centrados (incluso
policentrados), de comunicación jerárquica y conexiones
preestablecidas, el rizoma es un sistema acentrado, no
jerárquico y no significante, sin General, sin memoria
organizadora ni autómata central, únicamente definido por una
circulación de estados1.

La relación entre la ontología de la relación en Simondon y la metáfora del rizoma en


Deleuze y Guattari se remite también al hecho que, en la descripción de estos últimos,

Un rizoma no comienza ni va a dar a algo, está siempre en el


medio, entre las cosas, un inter-ser, intermezzo. El árbol es
filiación, pero el rizoma es alianza, únicamente alianza. El árbol
impone el verbo ‘ser’, pero el rizoma tiene como tejido la
conjunción “y… y… y”. En esta conjunción hay la suficiente
fuerza como para desenraizar al verbo ser […]. Entre las cosas
no designa una relación localizable que va de lo uno a lo otro y
recíprocamente, sino una dirección perpendicular, un
movimiento transversal que arrastra al uno y al otro, arroyo sin
principio ni fin, que carcome sus dos orillas y toma velocidad
entre las dos2.

Así pues, nos importará observar en qué medida, bajo qué condiciones, mediante
qué reservas, la aparición de herramientas sociales que aparentemente están en armonía3
con la superación de la metafísica de la sustancia exigida por Simondon para aprehender el 110
devenir actuando en los procesos de individuación, y la superación del plano de
organización por el plano de inmanencia, que Deleuze y Guattari celebraban como
emancipador4, pueden realmente contribuir a la emergencia de formas de vida
emancipadas.

1
Cf., Gilles Deleuze y Félix Guattari, Mille Plateaux, ed. cit., pp. 30-31.
2
Ibíd., pp. 36-37.
3
El lector comprenderá que el blanco de nuestra crítica no es la teoría simondoniana de la
individuación transindividual, ni tampoco la perspectiva rizomática deleuzo-guattariana, ambas cosas
que la gubernamentalidad algorítmica encarna solo aparentemente. El blanco de nuestra crítica es
justamente la aparente compatibilidad de la gubernamentalidad algorítmica con estas teorías y
perspectivas emancipatorias, allí donde la gubernamentalidad algorítmica tendería más bien a
impedir tanto los procesos de individuación transindividuales como la apertura a las signifcaciones
nuevas soportadas por las relaciones entre entidades “dispares”.
4
El objetivo de la descripción rizomática del conocimiento no era tan descriptivo como “estratégico”.
Se legitimaba por su utilidad para el ejercicio de una resistencia contra un modelo jerárquico,
traducción epistemológica de una estructura social opresiva.
Si el pensamiento de la individuación de Simondon aparece como la tentativa más
lograda de pensar la relación y la asociación de un individuo con un medio1, es en la medida
en que se libera de la acepción aristotélica de la relación, que presuponía siempre a la
sustancia y que reducía a la relación a su tenor estrictamente lógico. Al rechazar este
primado de la sustancia, y al pasar de una metafísica de los estados a una metafísica de sus
modificaciones o de su devenir, Simondon, por el contrario, le confiere a la relación un tenor
ontológico, de manera de dar cuenta del proceso mismo de la individuación. Pero esto
significa entonces, por un lado, que la relación, que tiene “rango de ser”, excede o
desborda siempre lo que vincula, que no se reduce jamás a una socialidad interindividual, y
que se intenta pensar hasta el fondo en su primacía ontológica: “la relación no surge entre
dos términos que ya serían individuos”, sino que es “la resonancia interna de un sistema de
individuación”2. Lo que significa, por otro lado, que el campo preindividual, en el que los
procesos de individuación deben inscribirse para ser pensados como procesos y como
desarrollándose conservando siempre esta dimensión preindividual previa a sus movimientos
de diferenciación, se concibe como potencialmente metaestable, es decir que hay que
pensar su equilibrio como algo que puede romperse por una modificación interna al sistema,
por mínima que sea. Esta no-estabilidad del campo preindividual es inherente a la
posibilidad de una toma de forma por diferenciación. Es, así, la condición misma de un
pensamiento que no cae en el paralogismo que consiste en presuponer e incluso individuar 111
siempre ya el principio de aquello de lo cual se busca la causa. Si hay devenir, en otras
palabras, es únicamente en la medida en que hay incompatibilidades entre órdenes de
magnitudes, realidades disimétricas.
De estas operaciones o de estos procesos emanan individuos y medios, individuos
asociados a medios (el individuo es la “realidad de una relación metaestable”) que son
reales, tan reales unos como los otros. El individuo como relación, como relativo a un medio,
es real, es decir que lo relativo es real, es lo real mismo. La relación, y el individuo como
relaciones, no están de ninguna manera en una perspectiva que se pudiese calificar de
subjetivista, expresión de una medida a la que serían relativos al punto de perder su
realidad: son la realidad del devenir, del mismo modo que el medio asociado a un individuo

1
Incluso si pueden emprenderse otras tentativas, por ejemplo, a partir de los pensamientos de Spinoza
o de Marx. Para el primero, véase Vittorio Morfino, Le temps de la multitude, Paris: Amsterdam, 2010;
para el segundo, véase Etienne Balibar, La philosophie de Marx, Paris: La Découverte, 2013.
2
Cf., Gilbert Simondon, L’individuation à la limière des notions de forme et information , Paris : Million,
2005, p. 29. El precioso análisis de Muriel Combes en Simondon. Individu et collectivité (Paris: PUF ,
1999) nos ha ayudado muchísimo.
no se reduce en ningún caso a una medida, es decir a la probabilidad de la aparición de
éste1.
¿Es posible evaluar la novedad del gobierno algorítmico, en su tentativa de gobernar
desde las relaciones así como las hemos descrito, a partir de las exigencias del pensamiento
simondoniano? No es que se trate de preguntarse si la realidad estadística contemporánea
es más simondoniana que otras formas de realidad, lo que sería absurdo, sino de poner de
relieve y medir sus eventuales novedades, y más fundamentalmente el hecho de que daría la
posibilidad de aprehender al individuo en, e incluso desde, sus relaciones, a la luz de las
exigencias extremadamente fuertes emitidas por Simondon para fundar una ontología de la
relación.
Paradójicamente, al probabilizar la totalidad de la realidad (que parece haberse
vuelto el soporte de la acción estadística), y al parecer desubjetivar esta perspectiva
probabilística (que ya no se preocupa de tener ninguna hipótesis previa), en fin, dándose así
la posibilidad de gobernar los comportamientos sin preocuparse directamente por los
individuos, para contentarse simplemente con gobernar a partir de una expresión estadística
de la realidad que lograría ser un sustituto de realidad (la perspectiva de un conductismo
digital), el gobierno algorítmico sigue absolutizando al individuo (aun si se lo aborda
“indirectamente”, como aquello que las relaciones permiten evitar) y al mismo tiempo los
desrealiza, en el sentido de que ahora es sólo relativo a la secuencia de medidas que por sí 112
mismas ofician de realidad y no obstante sin que entonces aparezca el carácter subjetivo de
estas medidas. Las relaciones sobre las cuales se despliega el gobierno algorítmico son
medidas que, por su capacidad misma de aparecer como la expresión no mediada y no
subjetiva de la realidad, es decir por su aparente objetividad, hacen tanto más relativo – y
menos real – todo lo que adviene en función de ellas y por ellas: lo que adviene no es sino
relativo a una serie de medidas que ofician de realidad. En otras palabras, las relaciones y
sus medidas, debido a su capacidad de aparecer como desligadas de toda subjetividad,
hacen que tanto lo real como el individuo sean relativos. Pero esto, considerado a la luz del
pensamiento simondoniano, aparece como el fruto de una inversión: si antes, según la
metafísica de la sustancia y del individuo, toda comprensión o toda medida del medio de un
individuo aparecían siempre como insuficientes, a causa de que eran demasiado subjetivas,
y por tanto impedían alcanzar la realidad del individuo en su individuación, esta insuficiencia
(con la diferencia ontológica que revelaba entre el individuo y su medio) ahora se habría
resuelto, volviendo al individuo mismo enteramente relativo a medidas consideradas por sí
mismas como emancipadas de toda subjetividad, aun cuando no son más que medidas.
Incluso se podría llegar a decir, siempre en virtud de esta confrontación de una práctica de

1
Simondon dedica muchas páginas al peligro de pérdida de realidad que conllevaría la concepción
subjetivista y probabilística de la física contemporánea. Ver Muriel Combes, op. cit., p. 39).
gobierno con el pensamiento simondoniano, que esta práctica, concentrándose sobre las
relaciones, logra “monadologizarlas”, transformarlas en estados, incluso en estatutos, como
si las relaciones mismas fueran individuos, es decir que les hace perder lo que se trataba de
pensar con Simondon, a saber el devenir actuando en una realidad metaestable.
Cuando consideramos que los datos de big data únicamente subsisten como series
de relaciones que desdoblan lo real, que los saberes generados sobre esta base consisten
en conectar relaciones pero sin suponer ninguna hipótesis sobre lo real mismo, y que las
acciones normativas que se derivan, que actúan sobre relaciones luego de haberlas referido
a relaciones de relaciones, excluyen precisamente la posibilidad de una realidad
metaestable al interior de la cual se inscribiría un devenir individuo, cuando consideramos
todo esto, lo que estamos constatando es este devenir mónada de la relación. Lo que nos
proponía la lectura de Simondon era que dejáramos de pensar el devenir a partir del ser
individual constituido y dado, en la medida en que eso significaba que hacíamos abstracción
de la experiencia misma de la individuación tal como se realiza. Pero se trata de no hacer
abstracción (para ya no poner al individuo antes que su devenir) precisamente del hecho de
que “lo posible no contiene desde antes a lo actual”, y por tanto que “el individuo que surge
difiere de lo posible que ha suscitado su individuación”1. El fallo o la desviación, cuya
expulsión decíamos temer en una realidad aumentada a lo posible, en una realidad que
parece incluir lo posible, y que considerábamos que eran también inherentes a la expresión 113
de construcciones, proyectos e hipótesis, en Simondon aparecen precisamente como lo único
a partir de lo cual hay relación, entendida como inatribuible a lo que vincula, es decir en
tanto que vincula precisamente realidades disimétricas y parcialmente incompatibles o
dispares a partir de las cuales emergerán realidades o significaciones nuevas.
“Lo que define esencialmente a un sistema metaestable es la existencia de una
‘disparidad’ (disparation), al menos de dos órdenes de magnitud, de dos escalas de
realidad dispares, entre las cuales todavía no hay comunicación interactiva”, escribía
Deleuze, lector de Simondon2. Pero resulta que el evitamiento del fallo o de la desviación
opera como negación de esta “disparidad” (disparation). La gubernamentalidad algorítmica
presenta una forma de totalización, de clausura de lo “real” estadístico sobre sí mismo, de
reducción de la potencia a lo probable, de indistinción entre los planos de inmanencia (o de
consistencia) y de organización (o de trascendencia), y constituye la representación digital
del mundo en la esfera inmunitaria de una actualidad pura3, pre-anticipativamente

1
Cf., Didier Debaise, « Qu’est-ce qu’une pensée relationnelle ? », Multitudes, 2004, n° 18, pp. 15-
23.
2
Cf., Gilles Deleuze, Gilbert Simondon, « L’individu et sa genèse physico-biologique », L’île déserte
et autres textes. Paris, Minuit, 2002.
3
Cf., Cédric Lagrandé, L’actualité pure. Essai sur le temps paralysé, Paris: PUF, 2009.
expurgado de toda forma de potencia de acontecer, de toda dimensión “otra”, de toda
virtualidad1. Esta “pérdida de la pérdida” de la modelización digital de los posibles –
mediante la anticipación de derecho de los posibles, o mediante el registro y el
empadronamiento automático de toda “irregularidad” en los procesos de afinamiento de los
“modelos”, “patterns” o perfiles (en el caso de los sistemas algorítmicos que aprenden) –
priva su potencia de interrupción, de cuestionamiento2, a lo que podría surgir desde el
mundo en su disimetría respecto de la realidad (aquí, lo que la remplaza es el cuerpo
estadístico).
Recordemos que el estatuto del enfoque que Deleuze y Guattari llamaron esquizo-
análisis, micro-análisis, rizomática, cartografía, era más bien “estratégico” que descriptivo.
Reglas para la elaboración de hipertextos o nomadología, los conceptos de rizoma y de
inemanencia eran conceptos polémicos3, portadores de un pensamiento estratégico, que
buscaban estructurar lo social “de otro modo”, resistir a un modelo jerárquico. Dándose
como espacio una topología horizontal de pura superficie, prescindiendo de toda
profundidad, de toda verticalidad, de toda estructura jerarquizada, de todo proyecto y de
toda proyección4, la gubernamentalidad algorítmica, así como la estrategia rizomática, no
se interesan ni por los sujetos ni por los individuos. Solo cuentan las relaciones entre los
datos, que no son más que fragmentos infra-individuales, reflejos parciales e impersonales
de existencias cotidianas que el datamining permite correlacionar a un nivel supra-individual, 114
pero que no bosquejan ninguna superación del individuo, es decir ningún pueblo. En la era
de los Big Data y de la gubernamentalidad algorítmica, la metáfora del rizoma parece haber
adquirido un estatuto propiamente descriptivo o de diagnóstico: estamos confrontados hoy a

1
Cf., Anoinette Rouvroy, “Technology, Virtuality and Utopia. Governmentality in an Age of Autonomic
Computing”, ed. cit.
2
Una vez más, aquí es preciso apuntar el hecho de que la crisis, ese momento que llama a decidir en
la incertidumbre, es precisamente el momento de lo político: “La autoridad legítima está desplazada,
distribuida en cosas, lo que hace difícil su aprehensión y su cuestionamiento, puesto que se impone en
nombre de un realismo y pierde visibilidad política. La crítica está paralizada, porque parece que se
le hubiesen adelantado y hubiese caducado. La referencia a la objetividad, acompañada por lo
general de una invocación de la transparencia de la información, ¿no forma parte de una exigencia
fundamental la deliberación democrática?”. Cf, Laurent Thévenot, « Autorités à l’épreuve de la
critique. Jusqu’aux oppressions du “gouvernement par l’objectif” », ed. cit..
3
Cf., Pierre Marchal, « Réseaux et plan d’immanence. Autour de Deleuze et de sa critique de la
psychanalyse » (2006), Association lacanienne internationale.
4
“La topología de la red es pura superficie, y conviene que se la distinga del plano objetivo utilizado
por Lacan para caracterizar la topología del sujeto. Sin duda se trata de un plano, de una superficie
(exit de la “psicología profunda”), pero es efecto de una proyección, y esto la diferencia de la “pura”
superficie de red, que no implica ninguna proyección” (Marchal, 2006).
la actualización “material”, se podría decir, del rizoma. El metabolismo del “cuerpo
estadístico” – que es lo que le interesa a la gubernamentalidad algorítmica, ese cuerpo
estadístico inconmensurable a los cuerpos vivientes, social y psíquicamente experimentados,
consistentes, más allá de la mera aglomeración de elementos, de una consistencia que
significa a la vez que este cuerpo aglutina y que es susceptible de acontecimiento1 –
recuerda particularmente a las características o principios rizomáticos enunciados por Gilles
Deleuze y Félix Guattari. Esta “encarnación” del concepto rizomático, ¿es propicia para
formas de individuación emancipadas? Hay tres inquietudes que nos rondan a este respecto.
Primero, ¿qué decir de una relacionalidad que ya no estaría “físicamente habitada”
por ninguna alteridad? En la gubernamentalidad algorítmica, todo sujeto es por sí mismo una
multitud, pero es múltiple sin alteridad, fragmentado en cantidad de perfiles que remiten a
“él mismo”, a sus propensiones, a sus supuestos deseos, a sus oportunidades y a sus riegos.
Una relación –aunque fuese una escena vacía de sujetos– ¿no debe acaso estar siempre
“poblada”, aunque sea por un “pueblo que falta” (evocado por Deleuze)2, un pueblo en
proyecto? ¿No implica la “relación”, como mínimo, una colectividad de más de uno, en la
medida en que la condición de una disimetría?
Segundo, ¿qué decir del carácter emancipador de una perspectiva transindividual o
rizomática allí donde los deseos que se mueven en ella nos preceden? Esta primacía
cronológica de la oferta personalizada en función de propensiones no expresadas por el 115
sujeto, ¿no viene acaso, siempre ya, a determinar y estabilizar los procesos de individuación
desde el estadio preindividual? Y estos nuevos usos de la estadística que son el datamining y
la elaboración de perfiles, ¿no nos reducen a la impotencia frente a las normas inmanentes
producto de la gubernamentalidad algorítmica?
Tercero, ¿qué decir del carácter emancipador de una perspectiva transindividual o
rizomática allí donde la relación deja de ser soportada por un devenir específico (devenir
sujeto, devenir pueblo, etc.), es decir cuando ya no puede relacionar nada, puesto que,
precisamente, el blanco, en el sentido de lo que se esfuerza por excluir esta nueva manera
de gobernar mediante algoritmos, es “lo que podría advenir” y que no se había previsto
porque justamente es fruto de disparidades (disparations), es decir la parte de incertidumbre,
de virtualidad, de potencialidad radical que hace que los seres humanos sean procesos
libres de proyectarse, relacionarse, devenir sujetos, individuarse según trayectorias
relativamente y relacionalmente abiertas? Se podría decir que sí, que la perspectiva es
“emancipadora”, en el sentido de que hace tábula rasa de las viejas jerarquías (en el

1
Cf., Antoinette Rouvroy y Thomas Berns, « Le corps statistique », en La Pensée et les Hommes,
Bruxelles: P. Daled, 2009; y « Le nouveau pouvoir statistique », Multitudes, n° 40, 2010.
2
Cf., Gilles Deleuze, « Le devenir révolutionnaire et les créations politiques » (1987), en Futur
antérieur, 1, printemps 1990.
sentido más amplio… el “hombre normal” o el “hombre medio” ocupa justamente un lugar en
esta jerarquía), pero que no es emancipadora en el marco de ningún devenir, de ningún
proyecto, de ningún objetivo. Hay pues definitivamente una forma de “liberación”, pero que
nada tiene que ver con la libertad en sentido “fuerte”. El régimen de verdad digital (o el
conductismo digital) ¿no amenaza hoy con socavar las bases mismas de la emancipación,
evacuando las nociones de críticas y de proyecto1, tal vez incluso la noción de común?
Sin poder todavía resolver estas cuestiones, nuestro objetivo era mostrar que antes de
volver a los enfoques personológicos (de los que el individualismo posesivo de los regímenes
jurídicos de protección de datos es perfectamente ejemplar), que serían tan ineficaces como
ilegítimos, el asunto fundamental –lo que habría que salvar como recurso antecedente a todo
“sujeto”, a toda individuación y como constitutiva de esta última– es “lo común”, entendido
aquí como este “entre”, lugar de comparecencia en que los seres se dirigen y se relacionan
unos con otros en todas sus disimetrías, sus “disparidades” (disparations). Hemos querido
mostrar además que la existencia de este “común” es tributaria no de una homogeneización,
de una clausura sobre sí de lo real, sino, por el contrario, de una heterogeneidad de órdenes
de magnitud, de una multiplicidad de regímenes de existencia, en fin, de escalas de realidad
dispares. Dicho de otra manera, lo común necesita y presupone la no-coincidencia, puesto
que es desde esta que los procesos de individuación se producen en cuanto que ella es la
que nos obliga a dirigirnos unos a otros. A contrario, el gobierno de las relaciones, 116
basándose en la evacuación de toda forma de disparidad, “monadologiza” las relaciones,
hasta el punto de que ya no relacionan nada, ni expresan nada común.

1
Cf., Antoinette Rouvroy, “The end(s) of critique: data-behaviourism vs. Due process”, en M.
Hildebrandt, K. de Vries, eds, Privacy, Due Process and the Computational Turn. Philosophers of Law
Meet Philosophers of Technology, London: Routledge, 2013.

También podría gustarte