Está en la página 1de 4

La inteligencia artificial no es inteligente

Por: Lorena Jaume-Palasí

Basta con teclear cualquier búsqueda en internet para invocar a la inteligencia artificial (IA).
Este tipo de tecnología se está expandiendo irremediablemente en nuestras vidas a base de
algoritmos. Está en las finanzas, en el consumo, en las bases de datos, en las recomendaciones
de contenidos y publicidad que nos ofrecen las redes sociales, en la automoción y hasta en la
predicción de nuestros gustos más personales. Y si pensamos cómo será la IA en un futuro
cercano, no tardamos en esbozar mentalmente vehículos 100% autónomos, máquinas que
realizan la mayoría de trabajos que hoy conocemos e incluso robots capaces de exterminar al
ser humano de la faz de la Tierra. Pese a su presencia cada vez más extendida, el
desconocimiento de esta tecnología sigue siendo mayúsculo. ¿Qué es realmente la IA? ¿Qué
riesgos entraña? ¿Cuál es la posición de España en este campo? Nada como preguntar a un
sabio para obtener respuestas.

Acudimos a Lorena Jaume-Palasí, una de las mayores expertas en Inteligencia Artificial en


España. La catalana, afincada en Berlín, es miembro del grupo de sabios sobre IA y Big Data
creado por la Secretaría de Estado de Agenda Digital. Su trabajo no está enfocado en aspectos
técnicos, sino en la filosofía del derecho y la ética de la automatización y la digitalización.
Controla que empresas como Facebook o Google no abusen ni engañen a los usuarios desde
sus posiciones dominantes. Vigila contra la vigilancia masiva fundando organizaciones sin
ánimo de lucro como AlgorithmWatch o The Ethical Tech Society, proyecto este último que ella
dirige en la actualidad.

¿De qué hablamos cuando hablamos de inteligencia artificial?

A decir verdad, es mucho menos mágico de lo que suena. Estamos hablando, por un lado, de
automatización y, por otro, de una proyección cultural de todo lo que nos parece como magia.
Es difícil dar una definición técnica porque las definiciones están cambiando a lo largo de las
décadas. Por ejemplo, en los años 70 y 80, lo que considerábamos superinteligente era jugar al
ajedrez; aquello en lo que trabajaban los científicos, creando un programa de ordenador capaz
de vencer a un campeón mundial de ajedrez, ya se consideraba entonces inteligencia artificial.
Hoy, a nivel retrospectivo, podemos admirar la tecnología que se usó, pero ya no se
caracterizaría como IA. Y es que estamos hablando de un término con connotaciones más
culturales que técnicas. Al fin y al cabo, estamos hablando de una automatización bastante
sofisticada.

¿Cuál es la idea más equivocada que tenemos sobre IA?

Pues que es inteligente. Se piensa que la IA son subformas de creación de tecnología


inteligente cuando en realidad inteligencia implica, entre muchas cosas más, cierto nivel de
lógica.

Y la inteligencia, esgrime la experta, no es sólo lógica, sino que se trata de un "concepto


antropológico" que también requiere otros ingredientes, "como tener una teoría anímica, la
capacidad de ponernos en el lugar de otra persona a nivel racional o el factor emocional". Y
todo ese conjunto de cosas es lo que tratamos de definir como inteligencia. Así, desde una
perspectiva estratégica, "está la inteligencia de un profesor para enseñar algo y, también, la de
un criminal para engañar a alguien".

Para derribar uno de los grandes mitos que rodea a la inteligencia artificial, Jaume-Palasí
recuerda que el fin de la lógica es utilizar procesos de abstracción con los que una persona
intenta obtener certeza sobre el mundo, esto es, lo que conocemos como el proceso de
razonar. Sin embargo, las tecnologías que se están desarrollando son "meros cálculos". A
diferencia del ser humano, "las máquinas no tienen intenciones, y ahí ya falla uno de los
factores indispensables para la inteligencia".

Si la IA tiene de inteligente sólo el nombre, ¿por qué nos despierta tanta fascinación? La
abogada propone un símil: cogemos a alguien de la Edad Media y lo plantamos frente a un
supermercado; en cuanto vea cómo se abren las puertas del establecimiento sin que nadie las
empuje, esa persona pensará que se trata de magia o de algo relacionado con la religión. Esa
es la misma situación que tenemos ahora: "muchas cosas que vemos que están automatizadas
y con las que no estamos acostumbrados, con las que todavía no tenemos interacción, se nos
asemejan mágicas e inteligentes".

LOS CATASTROFISTAS STEPHEN HAWKING O ELON MUSK

Lo que le ocurriría a nuestro hombre medieval en el súper es similar a lo que se vivió en los
albores del siglo XX cuando los automóviles comenzaron a rodar por las ciudades. Al principio,
la presencia de vehículos de tracción mecánica originó recelo en una parte de la sociedad, que
consideraba los coches como una auténtica amenaza, hasta que las calles fueron reordenadas
con señales y semáforos, un elemento este último que, por cierto, supuso un gran paso en el
campo de la automatización. Hoy, la inteligencia artificial también despierta opiniones
apocalípticas en personas tan ilustres como Stephen Hawking o Elon Musk. Ambos han
alertado de que esta tecnología "podría significar el fin de la raza humana" al ser más
"peligrosa que las armas nucleares".

Nada de robots aniquiladores, de momento. Lorena Jaume-Palasí no es tan catastrofista como


Hawking o Musk, pero sí pide en voz alta que la ética forme parte de la creación de los
algoritmos para evitar problemas: "La tecnología no cae del árbol como una manzana y no cae
del cielo como el maná". Aunque por su nombre puede parecer lo contrario, "la IA necesita
mucho trabajo manual, muchas personas que la cambien, la moldeen y la entrenen. El
problema de datificación o el problema de la fórmula algorítmica tienen mucho que ver con el
hecho de que, de momento, en esos campos hay demasiados hombres caucásicos con un perfil
muy concreto: ingenieros. Necesitamos gente de literatura, de lingüística, de filosofía,
psicología o antropólogos que den la interacción entre el programa y el ser humano. Porque
hay una digresión total entre lo que los ingenieros desarrollan -y la funcionalidad que ellos
creen que va a tener esa tecnología- y lo que el ser humano hace con ella".
En su opinión, los ingenieros, que no están entrenados para formular preguntas sociales,
"están desarrollando tecnologías socio-técnicas que implantan en mitad de una sociedad
sistemas comerciales que escalan de forma horrenda: se están aplicando de forma masiva
servicios a los que acceden millones de personas. La dimensión social de esos sistemas
tecnológicos no se puede ignorar, pero es lo que está ocurriendo y por eso surgen los sesgos y
la discriminación que estamos observando".

"Toda esa discriminación, de no visibilidad, de asimetrías en la datificación, lleva a


consecuencias muy extremas: estamos aplicando estándares a poblaciones muy heterogéneas,
asumiendo que la heterogeneidad es restringible a un par de variables. Situaciones donde
excluimos a gente o enfocamos determinados perfiles y olvidamos los demás". Como muestra
de lo que ocurre con la IA sin un enfoque ético y antropológico, tres botones en otros tantos
ámbitos:

SEGURIDAD VIAL. "Imagina que alguien estandariza los test de accidentes de coches con el
promedio de masa corporal de un hombre como patrón; con ello, está poniendo en peligro las
vidas de las mujeres".

SALUD. "Si creas un estándar en oncología con bases de datos que sólo tienen un determinado
perfil étnico con determinada varianza genética -solo hombres blancos caucásicos-, éste puede
componer riesgos de salud y de vida para gente con otra varianza genética como los asiáticos,
los africanos o las mujeres. Esto ya ocurrió con los fármacos beta-bloqueantes en los años 90,
cuando las mujeres recibían dosis demasiado altas, lo que provocó bastantes muertes".

JUSTICIA. "Un sistema judicial tiene muchos datos de determinadas etnias, pero de otras no se
tienen datos. Así, vamos a creer que determinadas etnias son más criminales que otras porque
están más presentes en la base de datos. Estamos creando realidades en base a programas de
estandarización y documentación que dan la impresión de ser objetivos pero, precisamente,
son justo lo contrario".

La IA, ¿nos cambia más a nivel individual o como sociedad?

El problema que ahora tenemos es que cuando usamos este tipo de tecnología de
automatización, lo tratamos a nivel muy individualista. Lo primero que pensamos, como
sociedad occidental, es si mis derechos humanos van a ser restringidos o resquebrajados:
¿Habrá algún tipo de intromisión en mi privacidad? ¿Cuáles son los problemas en relación con
la protección de datos? Estas son las típicas preguntas de las sociedades occidentales, porque
a nivel metodológico somos muy individualistas. Las democracias se constituyeron en un
principio para que los individuos, los ciudadanos, pudieran cooperar y vivir en armonía y el
método de las democracias para proveer ese tipo de comunicación era garantizar derechos
fundamentales a nivel individual. A lo largo de ese desarrollo histórico se confundió el método
con el objetivo en sí, olvidando que el objetivo inicial era convivir, la cohesión social, la
cooperación social.

La fundadora de The Ethical Tech Society subraya que lo que hace la inteligencia artificial es
crear una especie de infraestructuras mediante la estandarización de procesos con un
elemento repetitivo, una premisa que aún no hemos comprendido. Porque, ante una
infraestructura física, como un puente o una autovía, "sí entendemos que no es un derecho
fundamental, sino que responde a otro catálogo de criterios, distribuyendo y moderando lo
que es la movilidad dentro de una sociedad". En general, argumenta, somos conscientes de
que una infraestructura es aquello que una persona a nivel individual no puede comprar; "no
puedes comprar una carretera o una red de electricidad, es algo que debe ser proveído por el
estado o por compañías bajo determinadas condiciones". Dicho en otras palabras, debemos
dejar de ver la IA como algo que aparece en nuestra pantalla del smartphone y que nos puede
afectar como individuo para empezar a entenderla como una tecnología social que define
quién tiene acceso o quién queda excluido.

¿Cuál es la posición de España en materia de inteligencia artificial?

El Ministerio de Educación y Ciencia presentó en marzo su estrategia en IA, pero sólo de un


sector. Están trabajando en ello porque 26 estados miembros han firmado un pacto de
cooperación de IA y se comprometieron a presentar sus estrategias nacionales
correspondientes. Sé que están negociando, pero no sé yo hasta qué punto lo van a conseguir
porque las turbulencias en el Gobierno -como la de los últimos años- suelen ir en detrimento
de este tipo de estrategias. También depende mucho del partido político que está detrás de
ellas.

¿Y el papel de las universidades?

Veo un gran interés a nivel de promoción de IA en el terreno económico, como oportunidad


económica. Luego veo que en centros del Consejo Superior de Investigaciones Científicas
(CSIC) como en el de Barcelona, involucrado en la AI desde hace 40 años, está saliendo gente
muy interesante que luego a nivel internacional tiene gran impacto. Tenemos a gente como
Francisco Martín, creador de BigML, líder mundial en aprendizaje automático, o como Joaquín
Quiñonero, director de Applied Machine Learning de Facebook. También está Nuria Oliver, que
se preocupa de que se invierta más en estas disciplinas en el Mediterráneo. Lo que yo creo es
que, de momento, el problema mayor es a nivel de Humanidades y Ciencias Sociales.

¿Y cómo valora las startups españolas que trabajan con estas tecnologías?

Lo que veo, no sólo en España sino en Europa, es que tenemos muchas startups que dicen que
trabajan con IA y no lo hacen. Utilizan mucho trabajo manual o mecánico, tienen un concepto
de cómo utilizar la IA, pero no tienen un algoritmo. Están los llamados 'clickworkers', que por
cierto trabajan bajo condiciones bastante pésimas. Pero hay cosas que me llaman la atención
para bien. Como Nuria Oliver, que está haciendo cosas bastante ingeniosas con Vodafone.
También es interesante el concepto de smart city de Barcelona que presentó el equipo de Ada
Colau, un concepto para que el ciudadano no sólo decida qué datos quiere donar, sino que
mediante IA le permite estar en un proceso participativo. Es una forma muy inteligente de
educar al ciudadano de lo que es IA, dándole una capa de interacción que va más allá del
simple uso de un servicio. También es interesante lo que hace Miguel Luengo-Oroz con UN
Global Pulse, iniciativa de innovación de Naciones Unidas que desarrolla proyectos con Big
Data para el bien común. Todos ellos hacen cosas programas ingeniosos que demuestran el
potencial de la IA a nivel social. Son ejemplos de cómo se pueden pensar en IA.

Fuente:
https://www.elmundo.es/tecnologia/innovacion/2019/09/24/5d835e0dfdddff2aa68b468d.ht
ml

También podría gustarte