Está en la página 1de 6

Daniel Innerarity: “Los algoritmos son conservadores y

nuestra libertad depende de que nos dejen ser


imprevisibles”
elpais.com/tecnologia/2022-07-05/daniel-innerarity-los-algoritmos-son-conservadores-y-nuestra-libertad-depende-
de-que-nos-dejen-ser-imprevisibles.html

5 de julio de 2022

El filósofo pone en marcha una nueva cátedra de Inteligencia


Artificial y Democracia para diseñar “un diálogo en el que
humanos y máquinas negocien escenarios aceptables” para
aprovechar lo mejor de ambos mundos
Han pasado casi 20 años desde que ganara el Premio Nacional de Ensayo por La
transformación de la política y, desde entonces, Daniel Innerarity se ha convertido en un
analista fundamental para entender, como él mismo señala, que “la democracia no está a
la altura de la complejidad del mundo”. Hace ya unos años, tras leer una biografía sobre
Thomas Jefferson y su vocación por la ciencia, comenzó a preguntarse qué haría un
fundador de la democracia revolucionaria como Jefferson “si en lugar de artefactos y
máquinas triviales tuviera delante la inteligencia artificial y los algoritmos más
automatizados”. Esa es la inquietud que llevó a este bilbaíno de 62 años a investigar sobre
esa nueva complejidad derivada de la tecnología.

Ahora, Innerarity teje los mimbres de la nueva cátedra que dirige, de Inteligencia
Artificial y Democracia, en el Instituto Europeo de Florencia, con el apoyo de la secretaría
de Estado de Digitalización y el Instituto de Gobernanza Democrática. Una cátedra con la
que el investigador de Ikerbasque pretende renovar conceptos, porque Innerarity está
convencido de que los que usamos ya no sirven para enmarcar las nuevas realidades
derivadas de las máquinas pensantes y, por eso, surgen fricciones que también amenazan
a la democracia. “Estamos en un momento de la historia de la humanidad en el que
todavía se puede negociar, disentir, reflexionar sobre estas tecnologías”, advierte en
conversación desde Florencia, antes de que se hayan solidificado y tomen decisiones sobre
las que la sociedad no ha podido discutir.

Pregunta. ¿Cómo percibe las polémicas cotidianas sobre la inteligencia artificial, como
la del investigador de Google que cree que una de sus máquinas ya tiene conciencia?

Respuesta. Me parece un gran error la estrategia de definir la inteligencia artificial


desde los humanos: si los humanos tenemos derechos, las máquinas también; si pagamos
impuestos, también, si contamos chistes, también. Porque estamos hablando de dos
inteligencias completamente distintas. Mi hipótesis es que no va a haber una sustitución.
Y también vale para la democracia: no la vamos a abandonar en manos de máquinas,
sencillamente porque hacen cosas muy bien, pero no precisamente la política. Es una
actividad hecha en medio de una gran ambigüedad. Y las máquinas funcionan bien allá
donde las cosas se pueden medir y computerizar, pero no funcionan bien allá donde tienes

1/6
contextos, ambigüedad, incertidumbre. En vez de pensar en la emulación de los humanos
por parte de las máquinas o en temer que las máquinas nos sustituyan, lo que debemos
pensar es qué cosas hacemos los humanos bien y qué cosas hacen ellas bien, y diseñar
ecosistemas que saquen los mejores rendimientos de ambos.

Debemos pensar qué cosas hacemos los humanos bien y qué cosas hacen bien las máquinas,
y diseñar ecosistemas que saquen los mejores rendimientos de ambos

P. Su diagnóstico se aleja de la tecnofilia y la tecnofobia.

R. Hemos pasado en un año de pensar que la inteligencia artificial va a salvar a la política


a, después de lo de Cambridge Analytica, pensar que se va a cargar la democracia. ¿Por
qué en un periodo de tiempo tan breve hemos pasado de un gran entusiasmo excesivo a lo
contrario, como con las primaveras árabes? Esa especie de ola de democratización que
esperábamos internet no se ha producido. Y ahora la palabra internet la asociamos al
discurso del odio, desinformación, etcétera. Cuando ante una tecnología tenemos
actitudes tan dispares, eso significa que no la estamos entendiendo bien. Porque es
verdad que internet horizontaliza el espacio público, acaba con la verticalidad que nos
convertiría a los ciudadanos en meros espectadores o subordinados. Pero no es verdad
que democratice por sí misma, sobre todo porque la tecnología no resuelve la parte
política de los problemas políticos.

P. Y lanzan esta cátedra para tratar de ponerle un poco de orden a esas ideas.

R. Hay que hacer una renovación de conceptos. Y es aquí donde los filósofos tenemos un
papel que desempeñar. Por ejemplo, ahora se dice mucho: ¿de quién son los datos? A mí
me parece que el concepto propiedad es un concepto muy inadecuado para referirse a los
datos, que más que un bien público son un bien común, algo que no se puede apropiar,
sobre todo porque el nivel de recogida que yo tolero condiciona enormemente el de los
demás. Y ahora lidiamos con una idea de privacidad que nunca hemos tenido y el
concepto de soberanía, el concepto de poder... Hace falta una reflexión filosófica acerca de
unos conceptos que se están utilizando de una manera inapropiada y que merecen una
revisión. Y hay muchos centros en el mundo que lo están reflexionando desde el punto de
vista ético y legal, y hay muy poca gente que lo está revisando desde el punto de vista
político: ¿cuál es la política de los algoritmos, qué impacto tiene esto en la democracia...?

P. En su reciente libro La sociedad del desconocimiento habla de los algoritmos como


una nueva imprenta que viene a revolucionarlo todo.

R. El punto de inflexión se produce a partir del momento en que los humanos diseñamos
máquinas que tienen vida propia, que ya no son meramente instrumentales. Cuando
producimos inteligencia artificial entramos en un terreno bastante desconocido. El
reparto del mundo que habíamos hecho, según el cual los humanos somos sujetos de
derechos y obligaciones y diseñamos una tecnología meramente pasiva, que está sometida
a nuestro control, es una idea que ya no funciona. Hay una ruptura. Lo comparo con el

2/6
momento en que Darwin acaba con la idea del Dios diseñador de la creación: nos obligó a
pensar de una manera diferente. Yo creo que cuando se habla de controlar la tecnología se
está en una actitud predarwiniana en ese sentido. Evidentemente, los algoritmos, las
máquinas, los robots, la inteligencia artificial, deben tener un diseño humano, tenemos
que debatir sobre eso. Pero la idea de control, como la que hemos tenido clásicamente
para tecnologías triviales, me parece que es completamente inadecuada. Lo que tenemos
que hacer es establecer una especie de diálogo en el que humanos y máquinas negociemos
escenarios aceptables, pensando en la igualdad, el impacto sobre el medio ambiente, los
valores democráticos. La idea de controlar no va a funcionar cuando hablamos de
máquinas que aprenden.

El concepto propiedad es inadecuado para referirse a los datos, que son un bien común

P. Pero es muy difícil plantear esa negociación cuando no sabemos qué hay en la caja
negra, no sabemos cómo funcionan las cosas dentro del algoritmo.

R. Es un problema que hoy por hoy no tiene solución fácil por varias razones. Primero,
por la complejidad del asunto. Segundo, porque el algoritmo tiene una vida propia y, por
tanto, también es opaco para su diseñador. Y en tercer lugar, porque la idea de auditar los
algoritmos, de que haya transparencia, la entendemos, digamos, como una capacitación
individual, como aquel que firma un documento. Y yo creo que tenemos que ir a sistemas
públicos que nos permitan establecer una confianza con las máquinas. Esa idea de que
estos artefactos son una caja negra, como si los humanos no fuéramos también cajas
negras. Los algoritmos que se utilizan para decidir las políticas penitenciarias generan
muchos problemas, pero a veces se da a entender como que un algoritmo tiene sesgos y
los humanos no. ¿Las cabezas de los jueces no son también cajas negras?

P. Pero los humanos sabemos que tenemos esos sesgos y dejamos que intervenga la
máquina porque aspiramos a que esté menos sesgada.

R. Probablemente porque somos más exigentes en relación con la objetividad de la


tecnología. De la tecnología esperamos objetividad y en el momento en que nos falla
aunque sea en un grado pequeño nos resulta mucho más intolerable que con un humano.
El caso más claro es el de los accidentes de coches autónomos. Nos producen mucho más
desasosiego que los que tenemos todos los días en las carreteras, pero con la tecnología
nos incomoda muchísimo. Pero el accidente famoso del atropello en Arizona se hubiera
producido exactamente igual si hubiera conducido un humano.

Detrás de procesos aparentemente automatizados hay personas interviniendo sin que lo


sepamos

P. Un escenario que plantea el problema de la responsabilidad, ¿quién tiene las riendas


cuando actúan las máquinas inteligentes?

R. Es completamente inadecuado pensar que nosotros controlamos a los gobernantes, si


acaso hacemos una monitorización, les revalidamos el mandato... Pero no les estamos
controlando en todos los momentos del proceso político. Hay muchas instituciones sobre

3/6
las que no tenemos un control electoral, hay organismos independientes. Pues igual que
en el mundo de las instituciones políticas, en el mundo de la tecnología deberíamos llegar
a una idea de diálogo con la máquina más que de control. Cada vez conducimos coches
sobre los que tenemos menos control, pero son más seguros: mi coche no me permite
dormirme al volante, adelantar sin señalizar, frenar todo lo que quiera. El resultado final
de la tecnología del coche es que pierdo el control absoluto, pero me ofrece a cambio una
supervisión general de los procesos para que yo no me mate. Es como cuando los estados
ceden soberanía en Europa. Si compartimos soberanía política, ¿por qué no compartir
soberanía tecnológica?

P. Hay muchas decisiones políticas que tomar antes de dejar que las máquinas las tomen
por sí solas.

R. Reivindico la reflexión filosófica sobre estos conceptos. ¿Qué tipo de sociedad


queremos? La tecnología tiene el carácter de medio para un fin. La cuestión de fondo que
nos debería interesar es qué valores, qué democracia queremos.

P. En el libro cita a Nick Seaver: “Si no ves a un humano en el proceso, tienes que mirar
en un proceso más amplio”. Cuando interactuamos con Alexa, no vemos al humano, pero
es quien recogió litio en la mina de Bolivia, está en las granjas de clics en Asia.

R. Una de las cosas más importantes para enfocar bien este asunto es pensar menos en
contraposiciones. La tecnología tiene muchísima más humanidad, si me permites la
provocación, de la que los éticos suelen reclamar. Frente a quienes conciben la tecnología
como algo inmaterial, virtual, intangible, en el ciberespacio, en realidad es mucho más
material, con un impacto medioambiental brutal. Y esa parte material muchas veces está
fuera de nuestro ámbito de atención. Y tiene que haber humanos en el proceso: detrás de
procesos aparentemente automatizados hay personas interviniendo sin que lo sepamos.

En esa transición laboral es posible que vayamos a tener un nuevo tipo de conflictos sociales

P. Estos procesos tecnológicos llevan a una polarización menos conocida que la


polarización política, que es la polarización laboral: el mercado de trabajo se va a dividir
entre empleos cualificados y bien remunerados y otros muy básicos y mal pagados.

R. Lo cual indica una paradoja: la promesa de la tecnología de liberarnos de los trabajos


mecánicos no se ha cumplido. Y la otra paradoja puede ser que eso esté indicando que las
máquinas no nos van a sustituir plenamente. La expectativa o el miedo de que nos
sustituyan es completamente irrealista. Y eso tiene que ver con una distinción
importantísima entre tarea y trabajo; las máquinas hacen tareas, pero no propiamente
trabajos. Y en esa transición es posible que vayamos a tener un nuevo tipo de conflictos
sociales. Con el caso de la brecha digital, lo estamos viendo ahora, la revuelta de los
ancianos: gente que se está sintiendo expulsada de este espacio. Y en el fondo sabemos
que vamos a ir a un mundo más digitalizado y vamos a ahorrar mucho, porque es más
eficiente, con menos pérdida de tiempo. Pero en vez de pensar en términos de sustitución,
tenemos que pensar qué tareas pueden y deben ser realizadas por un robot y qué aspectos
de lo humano son irrealizables por un robot. No tanto si esto es bueno o malo. La llamada

4/6
inteligencia artificial sirve para resolver cierto tipo de problemas políticos, pero no otros.
No tengamos tanto miedo a que las máquinas se hagan cargo de todas las tareas del
gobierno y, en cambio, facilitemos aquellas tareas de gobernanza que puedan hacer mejor
que nosotros.

P. ¿Y qué es lo que más le preocupa en ese ámbito?

R. Lo que más me preocupa es la falta de reflexividad. Que el entorno algorítmico nos


acostumbre a que determinadas cosas se decidan de un modo sobre el cual no hemos
reflexionado ni discutido suficiente. Que lo demos por garantizado, que no discutamos.
¿Vamos a ir entornos algorítmicos, automatizados? Perfecto, pero que sepamos que
detrás hay algún tipo de autoridad. Veamos de qué autoridad se trata, y hagamos lo que
siempre hemos hecho los humanos con toda autoridad: someterla a revisión.

Si el algoritmo no contempla un escenario abierto, no permitirá la innovación y nos robará


el futuro

P. Sin embargo, la inteligencia artificial se está desarrollando casi exclusivamente con el


impulso de estas grandes tecnológicas. Son Facebook, Amazon, Google, etc., las que están
decidiendo qué máquinas inteligentes tenemos, y con el único objetivo de maximizar
beneficios.

R. Estamos en un momento de la historia de la humanidad en el que todavía se puede


negociar, disentir y reflexionar sobre estas tecnologías. Es muy posible que dentro de no
muchos años estas tecnologías se hayan solidificado en instituciones, en procesos, en
algoritmos sobre los que sea mucho más difícil discutir. Por eso es importante este trabajo
de reflexión filosófica. Hay mucha gente planteándose la regulación tecnológica, pero no
vamos a regular bien una tecnología que no comprendemos porque fallan los conceptos.
La reflexión tecnológica y la reflexión filosófica deben ir de la mano como soportes de
cualquier actividad regulatoria.

P. Critica que hay un conservadurismo implícito en el big data, que es como preparar un
plato recalentado.

R. El big data, y toda la analítica predictiva, son muy conservadores porque se basan en
el supuesto de que nuestro comportamiento futuro va a estar en continuidad con nuestro
comportamiento pasado. Lo cual no es completamente falso, porque los humanos somos
muy automáticos y muy conservadores, y repetimos; tenemos una resistencia a cambiar.
Pero en la historia de la humanidad hay momentos de ruptura, de cambio, de
transformación. Y si el algoritmo no es capaz de contemplar un escenario indeterminado,
abierto, no permitirá ese elemento de innovación, de novedad, que hay en la historia.
Como dice Shoshana Zuboff, nos robará el futuro. Cito a otra filósofa, Hannah Arendt,
que dice que los seres humanos somos animales muy repetitivos y con grandes hábitos e
inercias, pero también somos capaces de hacer milagros, de dar lugar a cosas nuevas, de
hacer algo insólito. No todos los días, pero sí de vez en cuando. Revoluciones,
transformaciones, innovaciones, ruptura con la tradición, cuestionamientos, etcétera. Y
en un momento de la historia de la humanidad tan singular, en el que somos muy

5/6
conscientes de que tenemos que hacer grandes cambios por la crisis climática, la
transformación digital, la igualdad... En un momento así tendríamos que disponer de una
tecnología que sea capaz de anticipar el futuro de verdad, desconocido, abierto,
indeterminado, democrático. O bien, tenemos que considerar que esas tecnologías tienen
unas determinadas limitaciones y trazar bien cuáles son esas limitaciones, cuál es el
ámbito de aplicación de unos algoritmos, de unas tecnologías básicamente conservadoras.
Y dejar espacios indeterminados y abiertos para la libre dimensión humana e imprevisible
me parece una cuestión democrática fundamental. Los humanos somos seres
imprevisibles: buena parte de nuestra libertad se la debemos a eso y las máquinas deben
reflejar bien esto.

Javier Salas

Periodista con quince años de experiencia. Especializado en información


científica, tecnológica y medioambiental, desde 2014 forma parte del
equipo de MATERIA, la sección de ciencia de EL PAÍS. En 2021 recibió
el Premio Ortega y Gasset por uno de sus trabajos sobre la pandemia de
covid. Antes, trabajó en Informativos Telecinco y el diario Público.

6/6

También podría gustarte