Está en la página 1de 2

TIPOS DE RIESGOS ÉTICOS SEGÚN LA UNESCO

La inteligencia artificial (IA) permite aumentar la eficacia de algunas medidas


discriminatorias que ya existen: creación de perfiles raciales o predicción del
comportamiento, como conocer la orientación sexual de las personas. Por lo tanto, las
preguntas éticas que suscita requieren la puesta en marcha de una legislación capaz de
asegurar un desarrollo responsable de la IA.
Entrevista a Marc-Antoine Dilhac realizada por Régis Meyran
¿Qué problemas suponen los programas de análisis del comportamiento a partir de
imágenes grabadas?
La IA contribuye a la mejora del uso preventivo de sistemas de videovigilancia en espacios
públicos. Actualmente, los programas que detectan actos de agresión analizan las imágenes
de manera continua, pudiendo dar la alerta rápidamente. Este nuevo sistema se ha probado,
por ejemplo, en los pasillos de la estación de Châtelet del metro de París. Si aceptamos el
principio de la videovigilancia, el único problema que supone el uso de la IA es el riesgo a
error. Pero este riesgo no es muy elevado, ya que son los humanos quienes deben tomar la
decisión final de intervenir o no.
Sin embargo, los errores en el reconocimiento facial son muy frecuentes. ¡Basta con una
perturbación de la imagen para que la IA vea una tostadora en lugar de una cara! El
sentimiento de una vigilancia abusiva y la multiplicación de errores pueden llegar a ser
especialmente agobiante.
De hecho, conviene preocuparse por las posibles desviaciones en el uso de estos sistemas
inteligentes y métodos para hacer perfiles (raciales o sociales).
¿A qué tipos de desviaciones se refiere?
Me refiero sobre todo a los programas, usados en varios países, que pretenden identificar los
“comportamientos terroristas” o el “carácter criminal” de ciertas personas a través del
reconocimiento facial. Entonces, ¡sus rasgos faciales desvelarían su criminalidad intrínseca!
Alarmados por este resurgimiento de la fisiognomía, Michal Kosinski y Yilun Wang de la
Universidad de Stanford (Estados Unidos) han querido mostrar los peligros de esta teoría
seudocientífica que creíamos relegada a la historia. Dicha teoría consiste en el estudio del
carácter de una persona a partir de sus rasgos y expresiones faciales. Para llamar la atención
sobre los riesgos de violación del derecho a la intimidad, Kosinski y Wang crearon en 2017 el
gaydar: ¡un programa que pretende identificar a las personas homosexuales a partir de sus
fotografías! Según sus autores, el margen de error del programa es tan solo del 20%. Además
del efecto estigmatizador, la aplicación de esta tecnología violaría el derecho individual a no
revelar su orientación sexual.
Toda investigación científica sin referencias filosóficas ni brújula sociológica o jurídica es
susceptible de plantear problemas éticos. Estos pocos ejemplos que acabo de nombrar
demuestran que urge imponer un marco ético en la investigación en IA.
¿Qué pasa con las desviaciones eugenésicas?
En mi opinión, la IA no constituye, a priori, un factor de eugenesia. Algunos predicen la llegada
de un mundo en donde el ser humano podría mejorarse gracias a la IA: chips que aumentan la
memoria o perfeccionan el reconocimiento facial, etc. Si la robótica inteligente puede aportar
soluciones médicas a situaciones de discapacidad (como devolver la movilidad mediante
sofisticadas prótesis), la hipótesis transhumanista del hombre mejorado permanece en el
rango de la ciencia-ficción.

También podría gustarte