Documentos de Académico
Documentos de Profesional
Documentos de Cultura
5 de julio de 2022
Ahora, Innerarity teje los mimbres de la nueva cátedra que dirige, de Inteligencia
Artificial y Democracia, en el Instituto Europeo de Florencia, con el apoyo de la secretaría
de Estado de Digitalización y el Instituto de Gobernanza Democrática. Una cátedra con la
que el investigador de Ikerbasque pretende renovar conceptos, porque Innerarity está
convencido de que los que usamos ya no sirven para enmarcar las nuevas realidades
derivadas de las máquinas pensantes y, por eso, surgen fricciones que también amenazan
a la democracia. “Estamos en un momento de la historia de la humanidad en el que
todavía se puede negociar, disentir, reflexionar sobre estas tecnologías”, advierte en
conversación desde Florencia, antes de que se hayan solidificado y tomen decisiones sobre
las que la sociedad no ha podido discutir.
Pregunta. ¿Cómo percibe las polémicas cotidianas sobre la inteligencia artificial, como
la del investigador de Google que cree que una de sus máquinas ya tiene conciencia?
1/6
contextos, ambigüedad, incertidumbre. En vez de pensar en la emulación de los humanos
por parte de las máquinas o en temer que las máquinas nos sustituyan, lo que debemos
pensar es qué cosas hacemos los humanos bien y qué cosas hacen ellas bien, y diseñar
ecosistemas que saquen los mejores rendimientos de ambos.
Debemos pensar qué cosas hacemos los humanos bien y qué cosas hacen bien las máquinas,
y diseñar ecosistemas que saquen los mejores rendimientos de ambos
P. Y lanzan esta cátedra para tratar de ponerle un poco de orden a esas ideas.
R. Hay que hacer una renovación de conceptos. Y es aquí donde los filósofos tenemos un
papel que desempeñar. Por ejemplo, ahora se dice mucho: ¿de quién son los datos? A mí
me parece que el concepto propiedad es un concepto muy inadecuado para referirse a los
datos, que más que un bien público son un bien común, algo que no se puede apropiar,
sobre todo porque el nivel de recogida que yo tolero condiciona enormemente el de los
demás. Y ahora lidiamos con una idea de privacidad que nunca hemos tenido y el
concepto de soberanía, el concepto de poder... Hace falta una reflexión filosófica acerca de
unos conceptos que se están utilizando de una manera inapropiada y que merecen una
revisión. Y hay muchos centros en el mundo que lo están reflexionando desde el punto de
vista ético y legal, y hay muy poca gente que lo está revisando desde el punto de vista
político: ¿cuál es la política de los algoritmos, qué impacto tiene esto en la democracia...?
R. El punto de inflexión se produce a partir del momento en que los humanos diseñamos
máquinas que tienen vida propia, que ya no son meramente instrumentales. Cuando
producimos inteligencia artificial entramos en un terreno bastante desconocido. El
reparto del mundo que habíamos hecho, según el cual los humanos somos sujetos de
derechos y obligaciones y diseñamos una tecnología meramente pasiva, que está sometida
a nuestro control, es una idea que ya no funciona. Hay una ruptura. Lo comparo con el
2/6
momento en que Darwin acaba con la idea del Dios diseñador de la creación: nos obligó a
pensar de una manera diferente. Yo creo que cuando se habla de controlar la tecnología se
está en una actitud predarwiniana en ese sentido. Evidentemente, los algoritmos, las
máquinas, los robots, la inteligencia artificial, deben tener un diseño humano, tenemos
que debatir sobre eso. Pero la idea de control, como la que hemos tenido clásicamente
para tecnologías triviales, me parece que es completamente inadecuada. Lo que tenemos
que hacer es establecer una especie de diálogo en el que humanos y máquinas negociemos
escenarios aceptables, pensando en la igualdad, el impacto sobre el medio ambiente, los
valores democráticos. La idea de controlar no va a funcionar cuando hablamos de
máquinas que aprenden.
El concepto propiedad es inadecuado para referirse a los datos, que son un bien común
P. Pero es muy difícil plantear esa negociación cuando no sabemos qué hay en la caja
negra, no sabemos cómo funcionan las cosas dentro del algoritmo.
R. Es un problema que hoy por hoy no tiene solución fácil por varias razones. Primero,
por la complejidad del asunto. Segundo, porque el algoritmo tiene una vida propia y, por
tanto, también es opaco para su diseñador. Y en tercer lugar, porque la idea de auditar los
algoritmos, de que haya transparencia, la entendemos, digamos, como una capacitación
individual, como aquel que firma un documento. Y yo creo que tenemos que ir a sistemas
públicos que nos permitan establecer una confianza con las máquinas. Esa idea de que
estos artefactos son una caja negra, como si los humanos no fuéramos también cajas
negras. Los algoritmos que se utilizan para decidir las políticas penitenciarias generan
muchos problemas, pero a veces se da a entender como que un algoritmo tiene sesgos y
los humanos no. ¿Las cabezas de los jueces no son también cajas negras?
P. Pero los humanos sabemos que tenemos esos sesgos y dejamos que intervenga la
máquina porque aspiramos a que esté menos sesgada.
3/6
las que no tenemos un control electoral, hay organismos independientes. Pues igual que
en el mundo de las instituciones políticas, en el mundo de la tecnología deberíamos llegar
a una idea de diálogo con la máquina más que de control. Cada vez conducimos coches
sobre los que tenemos menos control, pero son más seguros: mi coche no me permite
dormirme al volante, adelantar sin señalizar, frenar todo lo que quiera. El resultado final
de la tecnología del coche es que pierdo el control absoluto, pero me ofrece a cambio una
supervisión general de los procesos para que yo no me mate. Es como cuando los estados
ceden soberanía en Europa. Si compartimos soberanía política, ¿por qué no compartir
soberanía tecnológica?
P. Hay muchas decisiones políticas que tomar antes de dejar que las máquinas las tomen
por sí solas.
P. En el libro cita a Nick Seaver: “Si no ves a un humano en el proceso, tienes que mirar
en un proceso más amplio”. Cuando interactuamos con Alexa, no vemos al humano, pero
es quien recogió litio en la mina de Bolivia, está en las granjas de clics en Asia.
R. Una de las cosas más importantes para enfocar bien este asunto es pensar menos en
contraposiciones. La tecnología tiene muchísima más humanidad, si me permites la
provocación, de la que los éticos suelen reclamar. Frente a quienes conciben la tecnología
como algo inmaterial, virtual, intangible, en el ciberespacio, en realidad es mucho más
material, con un impacto medioambiental brutal. Y esa parte material muchas veces está
fuera de nuestro ámbito de atención. Y tiene que haber humanos en el proceso: detrás de
procesos aparentemente automatizados hay personas interviniendo sin que lo sepamos.
En esa transición laboral es posible que vayamos a tener un nuevo tipo de conflictos sociales
4/6
inteligencia artificial sirve para resolver cierto tipo de problemas políticos, pero no otros.
No tengamos tanto miedo a que las máquinas se hagan cargo de todas las tareas del
gobierno y, en cambio, facilitemos aquellas tareas de gobernanza que puedan hacer mejor
que nosotros.
P. Critica que hay un conservadurismo implícito en el big data, que es como preparar un
plato recalentado.
R. El big data, y toda la analítica predictiva, son muy conservadores porque se basan en
el supuesto de que nuestro comportamiento futuro va a estar en continuidad con nuestro
comportamiento pasado. Lo cual no es completamente falso, porque los humanos somos
muy automáticos y muy conservadores, y repetimos; tenemos una resistencia a cambiar.
Pero en la historia de la humanidad hay momentos de ruptura, de cambio, de
transformación. Y si el algoritmo no es capaz de contemplar un escenario indeterminado,
abierto, no permitirá ese elemento de innovación, de novedad, que hay en la historia.
Como dice Shoshana Zuboff, nos robará el futuro. Cito a otra filósofa, Hannah Arendt,
que dice que los seres humanos somos animales muy repetitivos y con grandes hábitos e
inercias, pero también somos capaces de hacer milagros, de dar lugar a cosas nuevas, de
hacer algo insólito. No todos los días, pero sí de vez en cuando. Revoluciones,
transformaciones, innovaciones, ruptura con la tradición, cuestionamientos, etcétera. Y
en un momento de la historia de la humanidad tan singular, en el que somos muy
5/6
conscientes de que tenemos que hacer grandes cambios por la crisis climática, la
transformación digital, la igualdad... En un momento así tendríamos que disponer de una
tecnología que sea capaz de anticipar el futuro de verdad, desconocido, abierto,
indeterminado, democrático. O bien, tenemos que considerar que esas tecnologías tienen
unas determinadas limitaciones y trazar bien cuáles son esas limitaciones, cuál es el
ámbito de aplicación de unos algoritmos, de unas tecnologías básicamente conservadoras.
Y dejar espacios indeterminados y abiertos para la libre dimensión humana e imprevisible
me parece una cuestión democrática fundamental. Los humanos somos seres
imprevisibles: buena parte de nuestra libertad se la debemos a eso y las máquinas deben
reflejar bien esto.
Javier Salas
6/6