Documentos de Académico
Documentos de Profesional
Documentos de Cultura
net/publication/337797495
CITATION READS
1 2,387
1 author:
SEE PROFILE
All content following this page was uploaded by Juan Ignacio del Valle on 06 December 2019.
GRADO EN FILOSOFÍA
PRESENTADO POR
DIRECTOR
Muchos de los temas tratados aquí han surgido de conversaciones con el Doctor Patricio
López Expósito quien, además de ser un gran amigo, domina la mayéutica a la
perfección. Si este trabajo es comprensible es en gran parte gracias a él.
2
I´m sorry Dave, I’m afraid I can’t do that
Hal 9000, 2001: Una Odisea del Espacio
3
Tabla de contenidos
1. Introducción ................................................................................................................................. 5
2. Breve introducción a sistemas autónomos e inteligencia artificial y sus usos actuales .................... 7
2.3.2. Transporte................................................................................................................ 14
3. Moralidad artificial...................................................................................................................... 19
5. Metaética de máquinas............................................................................................................... 32
5.1. Introducción: qué es la metaética y por qué nos tiene que importar................................... 32
6. Conclusiones............................................................................................................................... 49
8. Referencias ................................................................................................................................. 53
4
1. Introducción
Aunque el origen de este campo científico data de los años 50 del siglo XX, la IA está
viviendo unos años de enorme desarrollo debido, principalmente, a dos factores: el
aumento de la capacidad de almacenamiento y computación de los ordenadores, y la
disponibilidad de cantidades masivas de datos y la mejora del llamado machine learning,
la técnica empleada para explotarlos.
Por otra parte, nunca se ha dejado de especular sobre la IA Fuerte, actualmente llamada
Inteligencia General Artificial (AGI, Artificial General Intelligence) y, más
particularmente, en conceptos como súper-inteligencia o singularidad, es decir el
momento en el que la IA alcance un grado de desarrollo tal que sea capaz de mejorarse
a sí misma, perfeccionándose de forma exponencial. Estos temas plantean problemas
extremadamente interesantes desde el punto filosófico como nuestros conceptos de
persona, consciencia, intencionalidad, o el futuro mismo de la humanidad en
convivencia con esta deidad artificial.
5
Incluso limitándonos a sus capacidades actuales, no hay ninguna duda de que la IA es
una de una tecnología socialmente disruptiva (Socially Disruptive Technology, SDT), es
decir, una tecnología que tiene y tendrá un impacto enorme en la sociedad y que está
llamada a inducir cambios en aspectos como el trabajo, el ocio, la salud, la educación, el
transporte, la guerra, y en otras áreas que hasta ahora habían sido coto privado de la
creatividad del ser humano, como la ciencia, el arte o -quién sabe- la filosofía. Otros
ejemplos de tecnologías socialmente disruptivas incluyen la imprenta, el motor de
vapor, el uso de electricidad, los ordenadores personales o Internet. Estas tecnologías
tienen el potencial de traer grandes beneficios a la sociedad, pero también de grandes
daños si no se desarrollan y se usan correctamente. En particular, como veremos más
adelante, la IA podría limitar la autonomía humana, transformar el mercado laboral a
una velocidad mayor a la de reacción al cambio de la sociedad, dejando a millones de
personas sin trabajo, coartar la privacidad y la dignidad de las personas o exacerbar la
desigualdad y las divisiones sociales. Por ello es importante desarrollar el marco
regulatorio que incluya aquellos principios normativos que deberían guiar el desarrollo
y el uso de esta tecnología, maximizando los beneficios que ésta aportaría a la sociedad
y a los individuos en general.
Este tipo de tecnologías plantean una serie de cuestiones que requieren una reflexión
ética. El problema al que nos enfrentamos es que en tecnologías como la IA tales
preguntas se dirigen a los mismos conceptos y valores que normalmente entran en
juego en nuestro pensamiento ético.
6
2. Breve introducción a sistemas autónomos e
inteligencia artificial y sus usos actuales
Alan Turing fue un matemático británico famoso por muchos motivos, entre otros, por
haber sentado las bases de la teoría moderna de computación, siendo la llamada
máquina de Turing uno de los primeros modelos teóricos (si no el primero) para las
computadoras actuales. Además, en 1950 Alan Turing escribió el artículo Computing
Machinery and Intelligence en la revista Mind en el que especulaba sobre la posibilidad
de crear máquinas que pudieran pensar, es decir, emular las capacidades de una mente
humana, y proponía el hoy célebre Test de Turing. Esta prueba estaba basada en el juego
de la imitación1 y tenía como objetivo validar que una máquina era capaz de confundir
a un ser humano haciéndose pasar por otro ser humano, lo cual era considerado una
evidencia de su capacidad equiparable a la de los seres humanos como entidades
pensantes.
El test de Turing, y sus variantes posteriores, fue tan importante que se consideró
durante mucho tiempo2 la forma de validar el desarrollo de una IA real y los primeros
sistemas de IA fueron chatbots cuya finalidad era pasar esta prueba. La primera
implementación de este tipo fue Eliza, un sistema que era capaz de procesar lenguaje
natural e intentaba mantener una conversación coherente con el usuario. Sin embargo,
Eliza, cuyo desarrollo estaba basado en reglas fijas, aburría -o desvariaba- tras algunos
minutos de conversación.
1
En el juego de la imitación entraban un hombre y una mujer en cuartos separados y el resto de los
jugadores intentaría distinguir entre cada uno por medio de preguntas y respuestas (escritas a máquina).
El objetivo del juego es que los participantes que se encuentran en los cuartos deben convencer al resto
que son el otro.
2
El test de Turing tuvo varios defensores y detractores a lo largo del tiempo, una de las objeciones más
importantes fue experimento de la habitación china propuesto por John Searle en 1980, en el que se
diferenciaba entre un tratamiento sintáctico de la información (lo que hacía en test de Turing y sus
variantes) y un tratamiento semántico de la misma que según Searle era lo que definiría a una máquina
como pensante.
7
Pronto se hizo evidente que estos primeros sistemas basados en reglas lógicas (también
llamados sistemas simbólicos) no iban a poder demostrar las tareas cognitivas previstas
por Turing y otros. La consecuencia fue que el interés en campo de la IA decayó
considerablemente, en especial a partir de 1973, año en que el matemático británico
James Lighthill publicó un informe muy crítico con las posibilidades de AI, y que fue la
causa de la decisión del gobierno británico de limitar severamente el apoyo a la
investigación en IA, inaugurando lo que se ha llamado el primer invierno de IA (IA
winter). Este no fue el único “invierno” que habría de sufrir esta tecnología ya que, a
medida que la tecnología evolucionaba se dieron otros ciclos de ilusión y decepción. No
obstante, el efecto de este primer “invierno” fue que la investigación en la materia se
concentrara en la especialización de la tecnología en ámbitos restringidos, desarrollando
lo que se llama una IA estrecha o débil. Este tipo de IA intenta resolver problemas
particulares como el reconocimiento del lenguaje natural o imágenes, o jugar a juegos
como la dama o el ajedrez. En contraposición, la llamada Inteligencia General Artificial
o IA Fuerte, sería capaz de desarrollar todas las tareas cognitivas requeridas en un único
sistema. Todos los sistemas actuales basados en IA son implementaciones de IA
estrecha.
3
Por otro lado es también habitual dejar de considerar necesaria la inteligencia para estas tareas una vez
que se consiguen automatizar. Esto es algo tan habitual en este ámbito que lo desarrolladores de IA suelen
definir con ironía la IA como “aquello que las máquinas todavía no pueden hacer”
8
considerado humana, y que será de gran importancia en este trabajo: la capacidad de
aprender.
Para comprender el funcionamiento de una red neuronal, al menos lo suficiente para las
discusiones posteriores en este trabajo, será necesario retener tres elementos: el
concepto de neurona artificial, las conexiones de éstas, y el algoritmo de aprendizaje de
máquina (Machine Learning, ML) usado en el entrenamiento de la red.
Volviendo al cerebro humano, vemos que éste contiene un gran número de neuronas y
un número todavía mayor4 de conexiones entre ellas, llamadas sinapsis. Cuando son
estimuladas de un modo particular, las neuronas pueden enviar un impulso eléctrico a
través de sus conexiones, que a su vez puede estimular o inhibir la activación de otras
neuronas. Estas conexiones se configuran de acuerdo a los inputs que recibe el cerebro.
4
Normalmente para dar un orden de magnitud, se equipara el número de neuronas al número de árboles
en el Amazonas y el número de sinapsis al número de hojas de los árboles del Amazonas.
9
Figura 1. red neuronal de una capa
Las redes neuronales de una capa eran la base del primer sistema basado en esta
tecnología, el perceptrón, a finales de los años 60, cuya funcionalidad principal era
reconocer figuras geométricas. Sin embargo las capacidades de aprendizaje de estas
redes estaban muy limitadas. Para que esta tecnología proporcione resultados
interesantes hacían falta estructuras más complejas, incluyendo más capas, nuevos
algoritmos de aprendizaje capaces de configurar estas arquitecturas y mayor capacidad
de procesamiento.
Estos algoritmos llegaron en los años 80 del siglo XX con la propuesta de los llamado
algoritmos de retro-propagación (back error propagation). Cuantas más capas
añadimos, más complejo puede ser el conocimiento que elaboremos. Las redes
neuronales profundas, esto es, con varias capas internas son la base de lo que se conoce
como aprendizaje profundo (Deep Learning). Además, se han empezado a usar
diferentes capas para funciones específicas aumentando el rendimiento y las
capacidades de aprendizaje del sistema. Mayor complejidad de entrenamiento requiere
mayor capacidad de computación, lo cual no ha acabado de resolverse adecuadamente
hasta el desarrollo y uso de unidades de procesamiento gráfico (Graphical Processing
Units, GPU) y la computación distribuida en la primera década del siglo XXI. El único
elemento que nos falta para la explotación de esta tecnología era el conjunto de datos
de entrada que se van a usar para su entrenamiento y de nuevo hubo que esperar hasta
10
finales de la primera década del siglo XXI para tener un tratamiento masivo de los datos
fruto de 20 años de uso de Internet.
Las redes neuronales actuales están compuestas diferentes nodos o bloques, cada uno
de ellos compuesto por muchas capas, todas ellas adaptativas de modo que tenemos
sistemas con miles o millones de parámetros ajustables entrenados mediante millones
o a veces billones de ejemplos (datos de entrada).
Esta es una explicación muy básica que simplifica enormemente este campo de
investigación y desarrollo sin embargo, nos sirve para comprender una característica
principal de estos sistemas: los ordenadores ya no se programan, se entrenan5. Este es
un cambio fundamental en el campo de la computación, más que tener un ser humano
o equipo de programadores programando un computador para realizar una tarea
determinada, es decir, dar una serie de instrucciones de modo que cuando el
computador sigue esas instrucciones, resuelve una tarea determinada, se pasa a escribir
una serie de instrucciones o programa que permite al computador aprender, para
después entrenar al computador usando gran cantidad de datos.
El hecho de que el software pasa de ser escrito a ser entrenado tiene dos consecuencias
importantes particularmente para este trabajo: la inescrutabilidad, el indeterminismo y
la dependencia de los datos usados en el entrenamiento de los sistemas basados en esta
tecnología. En el desarrollo de software tradicional, dado que éste era escrito, era
posible leer el código y entender su funcionamiento, y verificarlo o modificarlo si era
necesario. Además el código estaba basado en reglas lógicas y el comportamiento del
sistema era completamente determinista: una vez establecidas las reglas, el sistema se
comporta siguiendo las mismas.
En sistemas basados en redes neuronales, una vez que el sistema comienza a ser
entrenado, lo único que somos capaces de ver en el código son neuronas y conexiones
activas o inactivas y no es posible entender el vínculo entre esta estructura y el
comportamiento del sistema. Por este motivo se dice que estos sistemas son
inescrutables y se suele hacer la comparación con una “caja negra”, de la que realmente
no comprendemos la causa de las salidas que obtenemos ni podemos leer o mejorar el
código del sistema directamente en caso de que estas salidas no sean las deseadas. Tan
solo podemos seguir entrenando al sistema.
5
https://www.wired.com/2016/05/the-end-of-code/
11
sistemas tradicionales programados mediante reglas lógicas. Ahora solo tenemos una
probabilidad de que el sistema se va a comportar de una manera determinada y la fase
de entrenamiento termina cuando esta probabilidad llega a un valor adecuado.
12
paradigmática en las que la reflexión ética tiene un claro impacto en el desarrollo de
sistemas autónomos: el transporte autónomo, que ha dado lugar a numerosos debates
sobre el conocido “problema del tranvía”.
2.3.1. Ciencia
Hace algunos años la revista Wired publicó el artículo “The end of theory: the data deluge
makes the scientific method obsolete”6 en el que su autor, Chris Anderson, defendía que
en la época actual de Big Data y supercomputación, el método científico tradicional se
haría obsoleto. No harían falta teorías o hipótesis o discusiones sobre si tal o cual
resultado experimental refuta o confirma la hipótesis original. Lo único que contaría es
el conocimiento adquirido mediante el tratamiento de grandes cantidades de datos
gracias a tecnologías como la IA, que habían dado muy buenos resultados en campos
como la bioinformática, biología, epidemiología y ecología. Anderson reflexiona de
forma algo provocadora al decir “Con datos suficientes, los números hablan por sí
mismos, la correlación reemplaza la causación y la ciencia puede avanzar incluso sin
modelos coherentes o teorías unificadas”.
No es de extrañar que haya habido objeciones muy fuertes desde el ámbito científico
que atacan principalmente la idea de correlación y causalidad en sistema complejos
(Succi & Coveney, 2019). Otras críticas apuntan al concepto mismo de conocimiento, al
sostener que conocer que el descubrir un determinado patrón gracias a un proceso de
inducción a partir de un conjunto de datos no es suficiente. Lo crucial para alcanzar un
nivel de conocimiento que pueda ser usado con seguridad en aplicaciones prácticas es
entender por qué se da este patrón (Mazzocchi, 2015).
Este es un tema sumamente interesante pero estudiar este debate con los elementos
gnoseológicos y epistemológicos que conllevaría está fuera del alcance de este trabajo.
En lo que vemos que sí hay consenso, y será la postura que retendremos aquí, es que el
tratamiento de grandes datos mediante IA es una nueva e importante herramienta para
la producción científica. Esto no implica sin embargo que vaya a reemplazar el método
científico sino que complementará otros elementos importantes en la producción
científica como la experimentación, la proposición de hipótesis y teorías, y la simulación
y modelización. Tratar el problema o las oportunidades que ofrece la IA en la ciencia en
términos de oposiciones, es decir, deducción contra inducción, formulación de hipótesis
contra reconocimiento de patrones, humano contra máquina, no tiene en cuenta que
ambas estrategias son necesarias y se pueden complementar la una a la otra. Las fases
de inducción y deducción son un ciclo iterativo en el proceso de adquisición de
conocimiento. De igual forma la IA puede ayudar en la priorización de hipótesis, pero
6
https://www.wired.com/2008/06/pb-theory/
13
remplazar la creatividad humana requerida en la investigación científica está, al menos
a día de hoy, fuera del alcance de la tecnología actual.
El artículo que citamos al inicio de esta sección tiene el beneficio de haber estimulado
un debate muy interesante y los logros científicos que se identificaron en el mismo se
han completado con otros importantes progresos en otros campos como materiales,
sistemas no lineares, mecánica de fluidos y turbulencias o astronomía (Succi & Coveney,
2019). Al mismo tiempo el tratamiento del problema este y en otros artículos y libros
que sobrevaloran la utilidad de IA para el conocimiento científico es que tienden a
simplificar algunos argumentos importantes que, debido a su complejidad conceptual y
filosófica, deberían tratarse con prudencia.
2.3.2. Transporte
El transporte autónomo no es un campo nuevo7, sin embargo en la última década ha
sido protagonista de un gran número de noticias, no siempre buenas8, en gran parte
debido a los progresos en la IA y a su uso en áreas como la visión artificial o la toma
decisiones. Además, el campo del transporte autónomo no se limita al transporte
terrestre: nuevos materiales más ligeros, baterías con mayor capacidad
almacenamiento de energía, motores eléctricos ligeros y asequibles y avances en el
campo de control de vuelo están en el centro de los nuevos desarrollos en el transporte
personal aéreo (aerotaxis) en el que se está invirtiendo una considerable cantidad de
recursos con unos primeros resultados prometedores9.
Existen muchos factores por los que esta tecnología se considera potencialmente
beneficiosa: económicos, medioambientales, laborales… pero quizás el más importante
sea el de la seguridad. Teniendo en cuenta que actualmente a nivel mundial hay 1.35
millones de muertos en accidentes de tráfico10 y que el 90% de esos accidentes se deben
a errores humanos11, se podría decir que es un imperativo moral desarrollar e implantar
lo antes posible esta tecnología que potencialmente podría salvar millones de vidas al
año.
Sin embargo también son morales los principales motivos que dificultan la implantación
de esta tecnología que parece estar alcanzando una madurez adecuada. El problema
7
Existen ejemplos de vehículos sin conductor desde los años 80 pero un caso paradigmático de
investigación en este campo fue el proyecto Eureka-PROMETHEUS (PROgraMme for a European Traffic of
Highest Efficiency and Unprecedented Safety, 1987-1995), que recibió una subvención de casi 800 M€ de
los países participantes.
8
Primer atropello mortal de un coche sin conductor. Una mujer de 49 años ha fallecido en Arizona tras
ser arrollada por un vehículo autónomo operado por Uber (El País, 19 de Marzo de 2018)
9
Primer vuelo de los modelos principales (Vahana de Airbus, eVTOL de Boeing, Lilium Jet de Lilium,
Volocopter) en los últimos tres años.
10
https://www.who.int/violence_injury_prevention/road_safety_status/2018/en/
11
http://cyberlaw.stanford.edu/blog/2013/12/human-error-cause-vehicle-crashes
14
más claro y bastante presente en el imaginario popular es el dilema del tranvía, un
experimento mental cuya forma original es:
“Un tranvía corre fuera de control por una vía. En su camino se hallan cinco personas
atadas (o incapacitadas de otro modo). Afortunadamente, nos encontramos cerca de
una palanca que, si la accionamos, encaminará al tranvía por una vía diferente, sin
embargo también hay una persona en esta vía. Cual es la opción más ética?: no hacer
nada y dejar que el tranvía mate a las cinco personas en la vía o accionar la palanca,
desviando el tranvía y salvando a esas cinco personas pero sacrificando a otra.”
“En un cruce, un vehículo con cinco personas se salta un semáforo en rojo y se interpone
en nuestra vía, el vehículo automático no puede frenar a tiempo y debe escoger si seguir
recto y matar a las cinco personas o desviarse y colisionar contra un muro, matando solo
al propietario del vehículo automático.”
12
Por ejemplo empujar a un hombre gordo a la vía para detener el tranvía y salvar a las cinco personas
sacrificando una; también hay variantes que consideran que ese hombre es malvado, anciano o enfermo…
13
http://moralmachine.mit.edu
15
Figura 2. Ejemplo de un escenario propuesto en Moral Machine. Fuente: MIT
Los primeros resultados del experimento (todavía activo) fueron publicados14 en 2018
tras dos años de estudio, seleccionando 2.3 millones de participantes de 130 países.
14
https://www.nature.com/articles/s41586-018-0637-6
16
Figura 3. Primeros resultados de Moral Machine. Fuente: Nature.
Estos resultados, por otra parte previsibles, muestran ciertos problemas sobre los que
se debería reflexionar detenidamente durante el desarrollo e implantación de esta
tecnología. El diseño tecnológico siempre implica una elección de valores que en el caso
de estos sistemas autónomos se hacen más evidentes. ¿Qué valores debería reflejar un
sistema autónomo?
Algunas voces -aunque pocas- piensan que es el fabricante el que tiene la autoridad
moral de realizar estas elecciones es sus coches. Esta opción tiene grandes
inconvenientes ya que actualmente estos algoritmos son propiedad intelectual de las
compañías con los problemas de falta de trasparencia que eso conlleva. Otra opción
sería dejar que sea el usuario quien configure su sistema de acuerdo a sus preferencias
aunque no está nada claro que esta esta opción sea la más justa. Por supuesto, estas
17
posturas no resuelven el problema de la responsabilidad: en caso de una fatalidad
¿Quién es responsable, el fabricante, el usuario, el vehículo? Quizás la opción que más
peso tiene sea estandarizar y regular la resolución de estas situaciones de conflicto así
como producir estándares de calidad que tendrían una relación directa con el coste de
un hipotético seguro al coche (Tegmark, 2017).
El desarrollo de este tipo de sistemas que tienen que tomar decisiones en situaciones
en las que la carga moral es elevada requiere un análisis holístico que trasciende
ampliamente el ámbito puramente técnico y en el que la filosofía contribuye a aclarar
muchos de sus elementos centrales.
18
3. Moralidad artificial
Es muy frecuente que lo primero que nos venga a la cabeza cuando hablamos de
moralidad de máquinas o de ética de IA sean las tres leyes de la robótica de Asimov.
Tanto es así que la mayoría de los libros y un porcentaje significativo de los artículos
especializados en estos temas suelan empezar enumerándolas:
1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser
humano sufra daño.
2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de
aquellas que entrasen en conflicto con la primera ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección
no entre en conflicto con la primera o con la segunda ley.
Estas leyes han tenido un impacto muy importante tanto en la cultura popular y la
ciencia ficción como en las discusiones especializadas sobre moralidad artificial. Sin
embargo, aunque existen análisis rigurosos sobre la dificultad de implementación y la
poca adecuación a aplicaciones prácticas (Clarke, 2011) (Anderson S. L., The
unacceptability of Asimov's Three Laws of Robotics as Basis for Machine Ethics, 2011),
no es necesario efectuar una reflexión demasiado profunda para encontrar mucho casos
en los que es impracticable una aplicación de estricta de las leyes. Ejemplos claros los
tenemos en casi todos los escenarios15 diseñados en el experimento Moral Machine
descrito en la sección anterior: qué hacer cuando el daño a un ser humano es inevitable.
O qué hacer cuando dos seres humanos dan órdenes contradictorias. En estos casos la
jerarquía reflejada en las leyes tiene poca utilidad ya que el conflicto se da en cada ley
individual. Otros ejemplos los podríamos tener en ordenes injustas pero que no llegan a
dañar (el término “daño” es ambiguo) a otro ser humano como, por ejemplo, robar.
Como vemos los problemas se multiplican sin haber entrado en otras consideraciones
como el hecho de que esas leyes han sido diseñadas para esclavos y no para agentes
15
Exceptuando los escenarios en los que hay que elegir entre seres humanos y mascotas, que por otra
parte y curiosamente han recibido un porcentaje no despreciable de respuestas eligiendo sacrificar a los
primeros.
19
morales, o las evidentes dificultades de codificación de esas leyes en un lenguaje
simbólico.
En el nivel más bajo tenemos “agentes con impacto ético” (ethical impact agents)
básicamente cualquier máquina que pueda ser evaluada por sus consecuencias éticas;
es difícil por otro lado encontrar una implementación de IA actual que no sea de un
modo u otro un agente de este tipo. El impacto ético del algoritmo de NetFix que sugiere
qué películas ver o de un chatbot como el fallido Tay Tweets17 puede ser pequeño, pero
es sin duda más importante lo que determina es qué publicidad aparece la pantalla
cuando estamos leyendo un periódico digital o en una red social18.
En el siguiente nivel tenemos lo que Moor llama agentes éticos implícitos (implicit
ethical agents): máquinas que han sido diseñadas para no tener efectos éticos
negativos. Un ejemplo propuesto por Moor es el de los pilotos automáticos de cualquier
avión comercial actual, cuyo diseño tiene en cuenta estrictos criterios de seguridad y
16
Para el objetivo de este trabajo no se considera necesario hacer diferencias entre implementaciones
basadas en software y hardware o únicamente software (“robots” o “bots”) y el término “maquina” se
utilizará indistintamente de “agente artificial”, “Inteligencia Artificial” o “AI” para referirse a ambas. En
otras obras esta diferencia sí es importante e incluso crucial en algunos casos en los que se precisa tener
un “cuerpo” (embodiment) como capacidad necesaria para implementar moralidad artificial.
17
Nos referimos al chatbot Tay Tweets de Microsoft que tuvo que ser dado de baja al comenzar a publicar
mensajes racistas y sexistas tan solo 16 horas después de su lanzamiento.
18
Esto se hace más evidente cuando esta publicidad tiene el potencial de influir sobre procesos
democráticos como se hizo patente en el escándalo de Cambridge Analytica
https://elpais.com/internacional/2018/03/20/estados_unidos/1521574139_109464.html
20
fiabilidad que se deben cumplir durante el proceso de desarrollo, implantación y uso. En
principio, cualquier implementación no trivial de IA debería estar diseñada para ser un
agente ético implícito. Esto incluye los algoritmos publicitarios que vimos anteriormente
y otras implementaciones como sistemas basados en IA para la ayuda a la decisión en el
sector bancario (por ejemplo aceptar o rechazar un préstamo) o el diagnóstico médico,
robots de compañía, o coches sin conductor. Todos estos sistemas tienen el potencial
de tener un impacto ético negativo como resultado de un diseño deficiente o una
reflexión superficial sobre su uso.
19
Estos prototipos son GenEth, el robot ético Asimoviano, el robot Akratic, el robot “sorry I can’t do that”
y el robot mediador en el entorno de salud descritos con mayor o menos detalle en (Winfield, Michael,
Pitt, & Evers, 2019)
21
Otros científicos y filósofos como Steve Torrance (Torrance, 2011) argumentan que la
ética no puede entenderse sin reconocer la naturaleza particular de los organismos
biológicos en su autoorganización, su auto mantenimiento, y su tendencia de sobrevivir,
prosperar y procrear para concluir que solo los organismos biológicos son capaces de
ser actores (agentes y pacientes) morales. Este punto de vista “robusto” de la ética
destaca la necesidad de sentir compasión y empatía hacia otras personas en situaciones
de dolor, angustia, miedo, ira y también alegría o placer como elemento esencial en el
desarrollo moral del individuo.
Una vez definido, el campo de la moralidad artificial y acotado el tipo de sistemas que
nos interesa, vamos a centrarnos en dos problemas que consideramos especialmente
relevantes. El primero está relacionado con la pregunta sobre qué ética (o la ética de
quién) habría que implementar explícitamente en este tipo de sistemas y de qué forma
20
Lo que Wendell Wallach and Colin Allen han denominado “moralidad funcional” (Wallach & Colin, 2009)
22
se puede realizar esta implementación. El segundo problema es la regulación y la
gobernanza de la IA y ha sido menos estudiado tradicionalmente en el campo de la
moralidad artificial aunque actualmente estamos viendo cómo crece el interés de las
personas involucradas en el desarrollo de la IA, las instituciones y el público en general.
Las dos próximas secciones estarán dedicadas a estos problemas y servirán como
introducción a la sección 5, que profundizará más en ciertos obstáculos que surgirán
durante esta discusión.
23
El primer problema es filosófico: los filósofos que piensan que el razonamiento ético se
puede derivar de unos principios de alto nivel se suelen orientar en diferentes
propuestas rivales sobre cuáles deberían ser esos principios. Las dos escuelas
principales, como ya hemos indicado, son el utilitarismo, una rama del
consecuencialismo, y la deontología.
Los problemas relacionados con tres primeros requisitos han sido brevemente
apuntados y están relacionados con los problemas de detectar y recoger la información
moralmente relevante y generar posibles escenarios “que pasaría si” (“what-if”) de
acuerdo a las distintas posibilidades. Esto ya es abrumador. Por otra parte es evidente
que la computación no se puede mantener hasta el infinito, pero la decisión de cuándo
pararla es en sí una decisión ética. El principio utilitarista especifica que la evaluación
debería pararse en el punto en el que seguir calculando en lugar de actuar. Sin embargo
como evaluar si realizar o no una computación sin hacerla? Estos problemas han sido
tratados ampliamente y las soluciones que se ofrecen suelen involucrar el
establecimiento de lo que Herbert Simon ha llamado una “racionalidad limitada”, que
incluye un conjunto muy limitado de consideraciones en la decisión racional y el uso de
heurísticas que acotan el número de escenarios a computar. Este enfoque está detrás
de sistemas como Deep Blue que no evaluaba todos los posibles movimientos
indefinidamente para jugar un buen juego. Sin embargo su aplicación se hace mucho
más compleja en entornos no estructurados y que involucran evaluar y maximizar otros
criterios.
24
Y así entramos en la cuarta capacidad que no ha sido tan estudiada hasta ahora, al fin y
al cabo si algo hacen bien las computadoras es agregar números y calcular máximos.
Ahora bien ¿cómo se asignan números a la utilidad? ¿cómo se define que esta
magnitud? ¿cómo se evalúa la bondad de una acción? Las dificultades surgen desde el
momento mismo que empezamos a plantearnos estos temas, incluso en sus
formulaciones iniciales de la utilidad como placer. Es bien sabido que Bentham y Mill no
estaban de acuerdo en si el placer de una persona jugando a un juego es equiparable al
placer de otra leyendo poesía. En problema surge cuando intentamos trabajar con
términos moralmente cargados, que muchos filósofos opinan que son indefinibles. Si un
término es indefinible, es imposible especificarlo como se requiere en una estrategia
top-down lo cual tiene serias consecuencias para la misma.
Las teorías deontológicas requieren que los sistemas que las implementan entiendan las
reglas lo suficientemente bien para razonar correctamente en cualquier situación que
requiera un juicio moral. Esto requiere algunas de las capacidades de seleccionar
información relevante que vimos anteriormente y proyectar diferentes acciones21, que
llevan asociados muchos de los problemas que mencionamos anteriormente. Además
todas las reglas que conocemos tienen un grado de ambigüedad que aumenta con el
grado de abstracción y generalidad de las mismas. Las reglas específicas tienden a ser
más fáciles de aplicar pero no proporcionan una guía clara en situaciones más complejas,
por lo que únicamente podrían desarrollarse este tipo de sistemas en ámbitos muy
restringidos.
Vemos que las estrategias top-down presentan serias limitaciones y dificultades. Sin
embargo, y aunque los seres humanos están lejos de ser agentes morales perfectos, las
personas suelen confiar más en una moralidad basada en reglas o en enfoques
consecuencialistas, en definitiva algo que se pueda entender. Dado que la confiabilidad
(“trustworthy”) es un elemento clave en el uso de sistemas autónomos, su desarrollo no
21
Nos centramos en las estrategias deontológicas basadas en un conjunto de reglas. Si usaramos por
ejemplo el principio categórico kantiano estaríamos obligados a computar las acciones del resto de
agentes para determinar si nuestra acción puede convertirse en máxima universal.
25
puede prescindir de las estrategias top-down. En la sección siguiente vamos a ver formas
de aprovechar sus ventajas, limitando los inconvenientes que hemos mencionado. Esto
será después de revisar la estrategia opuesta, muy de actualidad debido a los últimos
avances en aprendizaje de máquina (machine learning)
Esta idea basada en el aprendizaje moral del niño como base para la emergencia de la
moral humana es tan antigua como el campo mismo de la IA. En su clásico artículo de
1950 “¿Pueden pensar la máquinas?“, Alan Turing escribía “En lugar de intentar producir
un programa que simule la mente del adulto, ¿por qué no mejor producir uno que simule
la del niño? Si este fuera sometido después a una educación apropiada obtendríamos el
cerebro de un adulto”.
Por otro lado este enfoque nos recuerda a la teoría Aristotélica de la virtud que
mantiene que la bondad de la acción en una consecuencia del cultivo del buen carácter,
22
En la formulación original también se habla de un enfoque híbrido combinando las estrategias top-down
y bottom-up, sin embargo actualmente todas las implementaciones bottom-up son híbridas, ya sea por
maximizar un cierto parámetro o por tener límites estáticos en el campo de acción. No consideramos que
tratar la estrategia bottom-up pura tenga ninguna ventaja.
26
que a su vez consiste en el cumplimiento de virtudes específicas. Y aquí empiezan los
problemas, porque al igual que los utilitaristas no se ponen de acuerdo en cómo medir
(o definir) la utilidad y los deontologistas en cuáles son las obligaciones o reglas que hay
que cumplir, en la ética de la virtud no existe una lista estándar de virtudes, y las que
hay están definidas de forma ambigua.
El problema de las virtudes, o usando una notación más actual, los valores éticos tiene
un impacto importante en el diseño y evaluación del entrenamiento de una red
neuronal. Como vimos en la sección 2.2, este entrenamiento se basa en mecanismos de
recompensas y penalizaciones en base a la evaluación de las respuestas (output) del
sistema respecto a una serie de entradas (inputs)23. Este proceso se repite en un ciclo
de pruebas que termina cuando el sistema alcanza un rendimiento definido. Si bien
establecer estos objetivos y evaluar el proceso cuando entrenamos un sistema a jugar a
al ajedrez, al GO o a clasificar imágenes es relativamente sencillo, la evaluación ética de
una acción se basará en su alineación con estos valores éticos, lo cual complica
considerablemente el proceso.
El problema es que como avanzamos cuando hablamos de las virtudes, no existe una
lista universal e inmutable de valores; estos cambian en diferentes culturas y a lo largo
del tiempo. Es por este motivo que, pese a los numerosos sistemas que usan machine
learning para diferentes aplicaciones, los desarrollos de sistemas autónomos morales
artificiales basados en este enfoque son muy reducidos. Estos se limitan a entornos muy
específicos por ejemplo ciertos ámbitos médicos como MedEthEx (Anderson, Anderson,
& and Armen, 2006) y otros en los que existe un consenso ético uniforme como en el
caso del GenEth (Anderson M. a., 2014)
La estrategia bottom-up conlleva otro problema que se está tratando con mucho menor
interés. Nuestro objetivo en moralidad artificial es desarrollar sistemas que tengan un
23
Como indicamos anteriormente las estrategias bottom-up y top-down se suelen combinar de modo que
la evaluación de la red neuronal se basa en algún tipo de función maximizadora que nos recuerda al
utilitarismo. La diferencia es que ahora, esta evaluación se realiza únicamente durante el entrenamiento
del sistema.
27
comportamiento éticamente aceptable principalmente respecto a los seres humanos. Si
por otra parte en las estrategias bottom-up este enfoque está basado en las experiencias
del mundo, en situaciones reales por ejemplo, estaríamos confundiendo la ética de esas
situaciones con la ética que se debería tener. O por formularlo de un modo más familiar
en filosofía, estaríamos pasando de lo que “es” a lo que “debe ser”, un problema bien
conocido en filosofía desde la época de Hume y, en cierta medida, relacionado con el
problema de la definición de términos morales que identificamos en la sección anterior.
La sección 5 tratará con más detalle en paso de “ser” al “deber ser” al que hemos aludido
anteriormente y si este paso es realmente ilegítimo.
24
En la actualidad existen numerosas iniciativas con el mismo objetivo identificar qué valores son
necesarios tener en cuenta en el desarrollo de IA, tanto a corto como largo plazo. Por citar las que hemos
revisado para este trabajo: AI4People, AI Parnership o ASILOMAR.
28
4. Gobernanza y valores éticos
Sin embargo, y siendo pragmáticos, lo cierto es que dado que en los puestos de cabeza
no vamos a estar, y que si algo hacemos bien es regular, no está de más canalizar
nuestras energías en este ámbito y usar la potencia que nos da ser unos de los primeros
mercados mundiales para exigir unos estándares de IA confiable (trustworthy AI). Esto
sería algo así como una etiqueta CE para los productos basados en IA sin la cual no se
podría acceder al mercado de la Unión.
25
https://medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd
29
Esta es al menos la idea de la Comisión Europea y la estrategia que está tras la reciente
creación de un grupo de expertos en IA26 (Artificial Intelligence High Level Expert Group,
AI HLEG) que ya ha publicado dos documentos según su mandato inicial:
Para este trabajo, nos interesa especialmente el primer documento, ya que como vimos,
al discutir las estrategias bottom-up, necesitamos guiar el aprendizaje de estos sistemas
a unos objetivos claros y beneficiosos para las personas. Veremos que la claridad sigue
siendo un objetivo escurridizo cuando se trata de definir y especificar valores.
Las directrices sobre Inteligencia Artificial Ética (High Level Expert Group on Artificial
Intelligence, 2019) introducen un concepto que ya nos debe ser familiar, el de IA
confiable (trustworthy AI) y una identificación de valores basados en la preservación de
la dignidad humana en lo que se denomina un “enfoque basado en el humano” (human-
centric approach). Esta identificación de valores se realiza de forma sistemática a partir
de los derechos fundamentales plasmados en los tratados y estatutos Europeos, y en el
derecho internacional.
26
https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence
30
discriminación y justicia (fairness), bienestar social y medioambiental, responsabilidad
(accountability).
Esto se hace patente cuando se introducen los cuatro valores, que identifican conceptos
muy familiares pero muy difíciles de especificar de forma precisa y este problema no se
resuelve con la lista de requisitos. Aquí vemos que ciertos requisitos como los de
robustez, seguridad o gestión de datos no presentan demasiados problemas en su
tratamiento e incluso existen ciertos estándares que probablemente sean adecuados
con modificaciones mínimas. Sin embargo, otros requisitos como los de justicia,
bienestar o incluso agencia humana heredan directamente los problemas de
ambigüedad de los valores que hacen muy difícil su tratamiento técnico.
Los valores en los que estamos interesados aquí son, evidentemente, los éticos y
queremos analizar más detalladamente la problemática que su definición suscita. La
definición de valores éticos apunta directamente al corazón de la autonomía de la ética
y sobre esto vamos a hablar en la siguiente sección.
31
5. Metaética de máquinas
La metaética trata de dar respuesta a estos problemas y otros relacionados con los
supuestos metafísicos, epistemológicos, semánticos y psicológicos del pensamiento,
discurso y práctica moral. También se ocupa del problema de los valores y su conexión
con la acción humana y la motivación, así como de las dificultades relacionadas con la
naturaleza de la libertad y el significado de la responsabilidad moral.
27
Aunque como hemos visto las estrategias bottom-up son realmente híbrida y también precisan una
especificación de valores de alto nivel
32
consideramos que es la estrategia más apropiada para la consecución del objetivo
marcado. Después analizaremos la aproximación al aprendizaje moral descrita por uno
de los realistas morales naturalistas más importantes en la actualidad: Peter Railton, y
terminaremos viendo la aplicación de todos estos elementos al desarrollo de sistemas
artificiales morales autónomos y más concretamente a la regulación de esta tecnología.
“En todo sistema de moral que hasta ahora he encontrado he advertido siempre que el
autor procede durante un lapso de tiempo según la manera ordinaria de razonar, y
establece el ser de Dios o hace observaciones sobre asuntos humanos; cuando de
repente me sorprende hallar que en vez de las cópulas ordinarias de las proposiciones,
es, y, no es, me encuentro que ninguna proposición está conectada más que con un
debe o un no debe. Este cambio es imperceptible; pero es de suma importancia hasta el
final. Al expresar este debe o no debe alguna nueva relación o afirmación, es necesario
que se observe y explique; y a la par que se dé alguna razón por lo que parece del todo
inconcebible, cómo esta nueva relación puede ser una deducción de otras que son
enteramente diferentes de ella. Pero como de ordinario los autores no hacen uso de
esta precaución, me permito advertírselo a los lectores; y estoy seguro que esta
pequeña llamada de atención subvertiría todos los sistemas de moral corrientes, y
veríamos que la distinción entre vicio y virtud no está fundada meramente en relaciones
de objetos ni es percibida por la razón.” (Hume, 2001)
Según una interpretación contemporánea (Singer, 2015) lo que dice Hume es que:
Sin embargo, siguiendo W.K. Frankena en su artículo “The naturalistic fallacy”, este
problema puede resolverse “mediante la introducción de definiciones de términos
éticos en términos no éticos” (Frankena, 1939). Para entender esto sigamos con el
ejemplo que se propone en este mismo artículo: el argumento epicúreo sobre el
hedonismo. Este afirma que el placer es bueno porque todos los hombres lo buscan. Su
forma sería esta:
33
A) El placer es lo que todos los hombres buscan.
B) El placer es bueno.
34
idea Moore usa una analogía con el color: no es posible definir “amarillo”; se pueden
ofrecer características físicas asociadas como lo longitud de onda, pero esto no significa
que no es lo que entendemos por la naturaleza real de la propiedad de ser amarillo, pues
tal longitud de onda no es lo que percibimos realmente. Con la propiedad de ser bueno
ocurre algo similar: puede que las cosas buenas sean también algo más (por ejemplo,
que ser bueno sea también ser útil), pero al igual que no significa que la propiedad de
ser amarillo sea lo mismo que una determinada longitud de onda, lo bueno no es lo
mismo que lo útil.
Moore no cruza los dedos y espera que algún día alguien obtendrá una definición de
“bueno”, por el contrario, afirma que se puede saber a priori que esto no va a pasar:
para Moore no es difícil definir “bueno”, es imposible. Esta posición, por supuesto
requiere ofrecer ciertos argumentos adicionales y para ello Moore utiliza el argumento
de la pregunta abierta (Open Question Argument, OQA). Este argumento consiste en
afirmar que siempre podremos preguntarnos si lo que se ofrece como definición de
“bueno” es bueno realmente. Si tiene sentido hacer tal pregunta entonces la pregunta
se considera abierta y la definición postulada no es completamente satisfactoria. Por
ejemplo, si definimos “bueno” como “placentero”, y consideremos la pregunta “Juan
obtiene placer en las apuestas, pero ¿es apostar bueno?”. Esta pregunta tiene sentido
formularla ya que la respuesta no es obvia y se concluye que “placentero” no define
“bueno”. En contraposición una pregunta cerrada sería por ejemplo “Juan es soltero
pero, ¿está casado?”. En este caso esta pregunta únicamente tendría sentido realizarla
si, por alguna confusión, los hablantes no entendieran alguno de los términos. La
definición de “soltero” como “hombre no casado” es satisfactoria.
35
deberíamos decir su no validez porque según lo que hemos visto, lo que prueba el
argumento de la pregunta abierta es que la pregunta tiene sentido hacerla cuando dos
términos no son sinónimos, por ejemplo “bueno” y “placentero”. Ahora bien, del hecho
de no poder encontrar preguntas cerradas en el que uno de los términos sea ético no se
puede concluir la autonomía de la ética. Esto sólo alcanza a mostrar una autonomía
semántica y lógica, pero no ontológica, ya que el que dos términos no sean sinónimos
no implica que las propiedades a las que se refieren sean ontológicamente distintas
(Martínez, 2003). Esto se ve más claramente si tenemos en cuenta la famosa distinción
de Frege entre sentido y referencia: podemos referenciar la misma entidad mediante
términos distintos, por ejemplo “la estrella matutina” y “la estrella vespertina” no tienen
el mismo sentido, pero sí el mismo referente. Cuando alguien dice “la estrella matutina
es la estrella vespertina” no identifica las propiedades que se piensan bajo “estrella
matutina” con las que se piensan bajo “estrella vespertina”, simplemente dice que
ambas expresiones se refieren a una misma cosa: Venus. Lo importante aquí es que la
identidad entre “la estrella matutina” y “la estrella vespertina” no esta basada en el
significado de los términos, a esta identidad referencial no se llega mediante un análisis
conceptual (como en caso de soltero/hombre no casado) sino mediante investigación
empírica.
Descubrimos por investigación empírica que dos términos pueden designar la misma
cosa sin basarnos en su significado. Esto se infiere claramente en los ejemplos “agua es
H2O” o “la estrella matutina es la estrella vespertina” que, sin embargo, no superarían
el argumento de la pregunta abierta. Lo mismo podría pasar con “bueno” y alguna otra
propiedad (o propiedades) natural. Cuando decimos que ”ser bueno es ser placentero”
no estamos diciendo que “bueno” es sinónimo de “placentero”, simplemente
estaríamos aludiendo a una misma propiedad con términos diferentes. No habría
problema en sostener que “bueno” es “placentero” si pudiéramos hacerlo del mismo
modo en el que sostenemos que agua es H2O, es decir si pudiéramos probarlo
empíricamente. En este caso el que el argumento de la pregunta abierta no sería
relevante.
36
Railton, 1992). Este “algo” puede muy bien ser una potencia dialéctica fruto de la cual
se han desarrollado diferentes teorías metaéticas a lo largo del siglo XX y que, aún hoy,
continúa siendo relevante en la detección de las debilidades de muchas de ellas.
Una idea, ya desde un punto de vista realista naturalista, sería tomar una versión un
poco menos ambiciosa del argumento de la pregunta abierta: según esta versión
cualquier propuesta de definición de “bueno” debería exponer por qué dicha definición
incluye una explicación de por qué lo “bueno” nos motiva. Esto se debe a que, de
acuerdo el realismo naturalista, es precisamente ese elemento práctico, la motivación y
más concretamente el hecho de no explicar tal motivación, aquello que hace que las
personas encuentren preguntas abiertas con las definiciones propuestas (Fisher, 2011).
Aunque este es uno de los principales problemas de esta rama de la metaética no se
presenta como una imposibilidad sino más bien como un reto porque en cierto punto
alguien puede dar con una definición que podría incluir este elemento práctico.
En mi opinión el tratamiento realista naturalista del problema del paso del ser al deber-
ser, es decir realizar este paso mediante definiciones de términos morales demostradas
empíricamente, se ajusta a la intención original de Hume. Al fin y al cabo, él era un
naturalista y lo que pretendía al proponer el problema del ser/deber-ser era evitar
sencillas y descuidadas inferencias que van de lo que “es” a lo que “debería ser”. Esta es
la actitud que considero que se debe tomar en ciencia y tecnología: un naturalismo
sofisticado que, sin caer en cientismos, sea capaz de superar cualquier reflexión
especulativa en los campos en los que sea aplicable el método de la ciencia. La moralidad
es uno de ellos, especialmente cuando se trata del desarrollo de sistemas artificiales
morales autónomos. Por ello, en el resto de esta sección, de todas las propuestas
metaéticas que se han desarrollado en el siglo XX vamos a analizar las propuestas
realista naturalistas y su propuesta de aprendizaje moral que, como veremos, es muy
afín a las estrategias de aprendizaje de valores (bottom-up).
5.3.1. Introducción
En la sección anterior habíamos llegado a un punto en el que era necesario posicionarse
claramente con respecto a la rama metaética que creemos la más adecuada, dado que
esto tendrá una influencia importante en la forma en la que afrontaremos el debate
sobre el desarrollo de sistemas artificiales autónomos morales. Creo que muchas de las
discusiones que dificultan actualmente este debate, y particularmente las que
introducen conceptos metaéticos como el paso del ser al deber-ser o la falacia
naturalista, se enraízan en la tensión existente entre diferentes concepciones
metaéticas subyacentes, aparte de un acercamiento bastante superficial a la metaética
en general. Estas discusiones serían más productivas -o se haría evidente la dificultad de
37
llegar a un consenso- si las posiciones metaéticas de las distintas partes se hicieran
explícitas.
Como ya he avanzado, en este trabajo vamos a tomar una posición realista naturalista;
esta decisión está principalmente basada en mis convicciones personales generales. Por
otra parte, y quizás en parte a estos prejuicios, considero que la suposición de la
existencia de valores morales objetivos, vinculados a propiedades naturales, es más
convenientes para el desarrollo de sistemas artificiales autónomos morales.
38
naturalismo no analítico busca determinar cómo se relacionan los conceptos morales,
como lo (moralmente) bueno, con propiedades reales y desarrollar teorías explicativas
– y no únicamente análisis conceptuales- sobre por qué tales conceptos son útiles e
importantes en en la organización de nuestra vida. En este sentido y al igual que en la
ciencia, nuestras las limitaciones cognitivas humanas son la causa de las deficiencias de
tales teorías según esta versión de realismo naturalista. En consecuencia, no se aspira a
tener un modelo completamente satisfactorio de estos conceptos morales sino uno que
se vaya refinando a medida que aumenta nuestro entendimiento sobre las propiedades
naturales en las que se basan dichos conceptos.
Más que ofrecer una descripción detallada de estas variantes del realismo naturalista
me interesa destacar en ambos casos parece que nuestras propias limitaciones
cognitivas lo que impiden ver con claridad la relación existente entre los conceptos o
propiedades morales y las propiedades o hechos naturales. En un caso se plantea una
tarea continua de revisión de nuestros conceptos como se hace en la ciencia y en otro
caso se plantea un método para obtener unas definiciones quizás tan complejas que no
serían manejables por el ser humano. Pero en ningún caso, evidentemente, se plantea
que las propiedades éticas sean sui generis, o ninguna capacidad específicamente
humana para acceder a ellas y por supuesto no introducen ningún elemento no natural
para explicar la relación entre éstas y aquellas: las propiedades éticas están
profundamente vinculadas a propiedades naturales y únicamente a propiedades
naturales. Para explicar este vínculo los filósofos naturalistas se sirven frecuentemente
de la noción de superveniencia.
39
5.3.3. Superveniencia
La superveniencia es una relación necesaria entre características distintas: una
característica o grupo de características (S) superviene de otra característica o grupo de
características (T) si necesariamente fijando T también se fija S. Lo interesante de esta
relación es que no se requiere dar una definición analítica de la misma, lo cual la hace
especialmente útil para la propuesta naturalista no analítica introducida anteriormente.
El uso de la relación de superveniencia, sin embargo, no es exclusiva del realismo moral;
tenemos otros ejemplos paradigmáticos de su uso, por ejemplo, en física entre la
relación de la temperatura de un gas con la velocidad de las moléculas que lo componen,
o en filosofía de la mente entre los estados mentales y los estados cerebrales.
Sin embargo, uno de los problemas más importantes al que se enfrenta el realismo
naturalista y que la propuesta de superveniencia, pese a su papel explicativo, no logra
exponer satisfactoriamente es la componente normativa de las propiedades morales.
28
Las propiedades que supervienen dependen y son consecuencias de las propiedades sobre las que
supervienen. Fijadas éstas se fijan necesariamente aquellas, pero lo contrario no es necesario.
40
Para resolver estas dificultades, vamos a seguir aquí a Peter Railton, quien se basa en la
teoría Humeana de la “simpatía o solidaridad general” (general sympathy) como fuente
del sentimiento moral y ofrece una versión contemporánea de la misma basada en la
simulación afectiva y su papel en el aprendizaje moral (Railton, Moral Learning:
Conceptual foundations and normative relevance, 2016). Una introducción a estas
teorías es necesaria para completar la visión realista naturalista de la ética y
especialmente a incidir en dos ideas que son especialmente útiles para este trabajo: que
no hay ninguna capacidad misteriosa en el acceso a las propiedades morales y que
nuestras limitaciones cognitivas son la principal causa de no tener una descripción
completa de las propiedades morales, incluyendo su elemento normativo.
La pregunta principal que queremos responder aquí es cómo podemos llegar a formar
creencias a partir de experiencias, particularmente creencias morales que parecen
superar todas nuestras evidencias y cómo a pesar de esto pueden estar justificadas.
Resulta paradójico que la persona que postuló el vacío existente entre el ser y el deber-
ser sea la misma que nos ofrezca las primeras respuestas interesantes, pero como ya
indicamos antes, Hume era al fin y al cabo un naturalista. Para Hume es la proyección
imaginativa la que cubre ese vacío que no puede superar la inferencia lógica: las
creencias se proyectan espontáneamente en la red de asociación de ideas mediante
relaciones de similitud y analogía y su impulso inicial se “rompe en pedazos” en
respuesta al éxito o fracaso en las expectativas.
41
simulaciones (Railton, Moral Learning: Conceptual foundations and normative
relevance, 2016). Este aprendizaje moral en los humanos no necesita ninguna capacidad
innata aparte de las estructuras neuronales genéricas y un entrenamiento basado en
aprendizaje reforzado, sin necesidad de requerir un adiestramiento específico. Para
ofrecer su propuesta de aprendizaje moral, Railton emplea un proceso que ya ha usado
anteriormente en su obra (Miller, 2013): parte del ámbito no moral como paso previo al
estudio del problema completo. Y la conclusión es que, como ya indicamos más arriba,
lo que diferencia el aprendizaje moral es el papel de la empatía y la capacidad de incluir
en la simulación usada en ámbitos no morales (por ejemplo, la búsqueda de alimento)
los estados afectivos de los otros como parte de la experiencia del mundo y elemento
necesario en dicho aprendizaje.
42
También hemos resaltado la importancia de posicionarse claramente en el ámbito de
las diferentes teorías metaéticas y conocer las implicaciones que tiene esta decisión. En
mi opinión, hacer explícita esta decisión es fundamental a la hora de afrontar el debate
sobre el desarrollo y regulación de sistemas morales autónomos. Creo que muchas de
las discusiones que dificultan actualmente este debate se enraízan en la tensión
existente entre diferentes concepciones metaéticas subyacentes que si se hicieran
explícitas permitiría un tratamiento de problema más productivo o al menos se haría
evidente la dificultad de llegar a un consenso.
En este trabajo nos hemos decantado por una aproximación a la metaética realista
naturalista.
Veamos con un ejemplo como encaja esta aproximación teórica a los procesos de
regulación de tecnología actuales y los problemas a los que nos enfrentamos en el caso
de sistemas autónomos. Para ello vamos a tomar un ámbito de tecnologías altamente
reguladas y vamos a formular explícitamente el problema ser/deber ser que hemos
identificado anteriormente y como se esta resolviendo hasta ahora. Después veremos
cual es la diferencia con los sistemas autónomos y cual es la propuesta que estamos
realizando en esta sección.
43
Un ejemplo que considero práctico, actual y relevante proviene del ámbito aeronáutico:
la introducción y regulación de aviones remotamente pilotados29 para tareas tanto
civiles como militares como por ejemplo vigilancia, inspección de infraestructuras,
transporte de carga o incluso transporte de personas.
Por otro lado, tenemos a la sociedad, incluyendo a los usuarios potenciales de esta
tecnología y a aquellas personas potencialmente afectadas de alguna manera por la
misma. La sociedad está representada por una entidad gubernamental organismo
nacional o internacional encargado de regular la tecnología considerada. Este organismo
debe evaluar la tecnología y sus posibles usos. En Europa en el ámbito aeronáutico este
organismo es EASA31 que actualmente esta llevando a cado una revisión completa de la
regulación básica de aviación civil para incluir la operación de aviones remotamente
pilotados32.
29
Es importante que aquí evitamos los problemas relacionados con los sistemas autónomos que veremos
más adelante mediante la exigencia que estas plataformas estén continuamente controladas por ser
humano.
30
European Organization for Civil Aviation Equipment
31
European Aviation Safety Agency
32
Regulatory framework to accommodate unmanned aircraft systems in the Europena aviation system
(Rulemaking Task 0230)
44
Este sistema de relaciones, como hemos visto, no es realmente un círculo: es un vacío.
Un vacío entre el ámbito de la descripción y el ámbito de evaluación, que dificulta la
regulación de la nueva tecnología y su implantación ordenada, evitando en la medida de
los posible sus efectos negativos.
En mi opinión hasta ahora, aunque no haya sido una tarea trivial, el regulador ha
logrado proponer (o imponer) estos conceptos evaluativos (o valores tout court)
debido a que estos valores tenían una carga ética relativamente baja y esta es una de
las principales diferencias y dificultades en el ámbito de sistemas artificiales morales
autónomos: los valores que se están planteando sí tienen una importante carga
ética34.
33
Target Level of Safety: normalmente se define la probabilidad de una colisión por cada 107 a 109 horas
de vuelo
34
Aquí de nuevo nos inspiramos en Railton (Miller, 2013) y su forma de explicar el tratamiento realista
naturalista de lo bueno moral a partir de lo bueno no moral (valores homeostáticos en su ejemplo) para
introducir ciertas dificultades que considero características de los sistemas autónomos morales
artificiales. Aquí en lugar de diferenciar lo bueno no moral de lo bueno moral, introducimos el concepto
de carga ética de los valores como un continuo, que parece más adecuado para nuestro caso que el
concepto binario Railtoniano.
45
explicabilidad, justicia…). Esta dificultad apunta en mi opinión directamente al problema
que hemos introducido en los párrafos anteriores, pero ahora aplicados a unos valores
con una fuerte carga ética. Esto ha conducido a no haber logrado proponer unas
definiciones adecuadas hasta el momento, lo cual es una barrera de cristal -cuando no
explícita- en todas las publicaciones actuales en este ámbito. Aunque desde un punto
de vista realista naturalista sí es teóricamente posible proporcionar estas definiciones,
vemos que la estrategia top-down es en la práctica poco adecuada para los propósitos
de regulación de este tipo de sistemas y menos a corto plazo.
Todo esto parece indicar que desde una perspectiva realista naturalista no habría
ninguna objeción a un desarrollo de sistema autónomos mediante la estrategia bottom-
up. Esta estrategia propone desarrollar sistemas autónomos basado en algoritmos de
aprendizaje profundo (deep learning) como los descritos en la sección 2.2 debidamente
entrenados para tener un comportamiento moral satisfactorio, sin necesidad de haber
tenido que especificar los conceptos morales previamente a su desarrollo. Como hemos
visto en dicha sección una de las características más novedosas de esta tecnología es
que este tipo de sistemas tienen la capacidad de encontrar soluciones, o mejor dicho
predicciones con cierto grado de probabilidad, a problemas para los que no podemos
proporcionar una teoría o modelo satisfactorio, en base a la enorme capacidad que
tienen esta tecnología para establecer relaciones que están fuera del alcance de los
seres humanos. Hemos visto como estos sistemas se usan actualmente en ámbitos como
la biología o la física que han sido dominio exclusivo del método científico hasta ahora.
Un sistema como el postulado podría cubrir ese problemático vacío epistemológico
entre nuestras facultades cognitivas y los conceptos morales, convirtiéndose en lo que
algunos autores han llamado un microscopio moral (Frank, 2016).
Una de las conclusiones a las que hemos llegado es que, desde una perspectiva realista
naturalista, el desarrollo de sistemas autónomos según la estrategia botton-up no hay
ningún paso ilegítimo del ser al deber-ser ni se incurre en una falacia naturalista, que
era una de las principales preocupaciones al empezar este trabajo. La propuesta de
entrenar algoritmos de aprendizaje profundo no es más que una variación de la
46
propuesta realista naturalista de tipo metodológico que vimos en el apartado anterior
y que proponía trabajar en compatibilidad con los métodos de las ciencias naturales y
sociales. Aquí lo que se propone es seguir una tendencia que ha empezado a darse en
la ciencia, no para sustituir el método científico sino más bien para complementarlo.
Del mismo modo, no estamos proponiendo sustituir la reflexión sobre ética y moral por
algoritmos, datos y correlaciones, sino más bien complementar esta reflexión mediante
el uso de una tecnología que está dando sus frutos en otros ámbitos científicos.
35
Un problema mucho más complejo se da en sistemas autónomos que continúan aprendiendo durante
su operación en el mundo. Este tipo de sistemas amplifican enormemente los sesgos y prejuicios de las
personas que interactúan con el mismo. Un ejemplo paradigmático fue el chatbot Tay Tweets de
Microsoft que tuvo que ser dado de baja al comenzar a publicar mensajes racistas y sexistas tan solo 16
horas después de su lanzamiento.
47
dificultades de amplifican debido la mayor carga moral de los valores que se plantean
para su evaluación.
48
6. Conclusiones
En este trabajo hemos realizado una introducción sobre IA, resaltando aquellos
elementos técnicos relevantes en el campo de la moralidad artificial, por ejemplo la
arquitectura de redes neuronales, y problemas asociados, como la opacidad,
inescrutalibidad o sesgo en los datos. También hemos apuntado algunos usos actuales
de esta tecnología que se prevé ubicua en nuestras vidas en un futuro próximo,
introduciendo algunos usos en los que las consideraciones éticas comienza a ser
relevantes, como el transporte autónomo.
Hemos visto que tanto el vacío entre el “ser” y el “deber ser” como el problema de la
definición de los valores están íntimamente ligados a la falacia naturalista. En la última
sección hemos analizado este tema en particular, sosteniendo que muchas de las
discusiones que actualmente se dan en el campo de la moralidad artificial se enraízan
en la tensión existente entre diferentes concepciones metaéticas subyacentes. En este
trabajo hemos optado explícitamente por un tratamiento del problema desde el punto
de vista realista naturalista.
49
La falacia naturalista, tal y como fue formulado por Moore a principios de siglo XX,
sostiene que es imposible definir términos éticos usando términos no éticos. El realismo
naturalista contemporáneo no encuentra ninguna evidencia que pruebe esta aserción y
la confrontan desde dos variantes diferentes. En primer lugar, un realismo naturalista
analítico que se opone a la teoría de Moore proponiendo definiciones complejas, pero
usando únicamente términos naturales. Por otro lado, tenemos el realismo naturalista
no analítico que propone un modelo similar a la ciencia en el que nuestra definición de
conceptos éticos se va refinando a medida que aumenta nuestro entendimiento sobre
las propiedades naturales en las que se basan los mismos. El realismo naturalista se
opone a que las propiedades éticas sean sui generis, o que exista una capacidad
específicamente humana para acceder a ellas. De hecho, son nuestras limitaciones
cognitivas lo que impiden ver con claridad la relación existente entre los conceptos o
propiedades morales y las propiedades o hechos naturales, es decir definir
explícitamente la relación de superveniencia.
Todos estos elementos nos sirven para concluir que, desde un punto de vista metaético
realista naturalista no analítico:
50
7. Otras consideraciones y posibles líneas de trabajo
El problema de la definición de valores morales por otra parte apunta al corazón mismo
de la autonomía ética y, aunque en este trabajo nos hemos centrado en Moore y en las
consecuencias de su Principia Ethica, hay otros pensadores que debemos mencionar. De
hecho, probablemente cuando hablamos de la autonomía de la ética o de la definición
de valores éticos lo primero que nos venga a la cabeza sea el Tractatus de Wittgenstein:
“De lo que no se puede hablar, hay que callar.” Quizás una línea interesante de trabajo
sería ver si las propuestas actuales de entrenamiento basadas en machine learning son
otra forma de superar este primer Wittgenstein. En esta línea también podríamos
analizar el debate Russell/Kripke respecto a la definición de términos mediante otros
términos como proponía el primero o la necesidad de salir del lenguaje como sostenía
el segundo. Estos temas son extremadamente interesantes y enriquecerían
mutuamente el ámbito de la IA, y el de la filosofía de la lógica y del leguaje.
36
Tecnología autónoma (1979) o La ballena y el reactor: una búsqueda de los límites en la era de la alta
tecnología (1987)
37
A Dangerous Master: How to keep technology from slipping out of our control (2015)
51
Dado que “hacer predicciones es muy difícil, especialmente cuando se trata del
futuro”38, este es un campo que suscita gran interés tanto entre los especialistas como
en el gran público. La IGA, y en particular la ética de la IGA, involucra problemas como
el desarrollo de consciencia artificial, intencionalidad, libre albedrío o sensibilidad
(sentience) que requieren un tratamiento multidisciplinar en el que el enfoque filosófico
se hace especialmente necesario.
38
Cita normalmente atribuida a Niels Bohr (1885-1962), premio nobel de física en 1922
52
8. Referencias
Allen, C., Smit, I., & Wallach, W. (2006). Artificial Morality: Top-Down, Bottom-Up, and
Hybrid Approaches. Ethics and Information Technology, 149-155.
Anderson, M., Anderson, S., & and Armen, C. (2006). MedEthEx: A Prototype Medical
Ethics Advisor. Proceedings of the Eighteenth Conference on Innovative
Applications of Artificial Intelligence. Menlo Park: AAAI Press.
Gips, J. (2011). Towards the Ethical Robot. En S. L. Anderson, Machine Ethics (págs. 244-
253). Cambridge: Cambridge University Press.
High Level Expert Group on Artificial Intelligence. (2019). ETHICS GUIDELINES FOR
TRUSTWORTHY AI. Bruselas: European Commission.
Mazzocchi, F. (2015). Could Big Data be the end of theory in science? EMBO Report.
Moor, J. H. (2006). The nature, importance, and difficulty of machine ethics. IEEE
Intelligent Systems, 18-21.
53
Railton, P. (October de 2016). Moral Learning: Conceptual foundations and normative
relevance. Cognition, 167, 172-190.
Succi, S., & Coveney, P. (2019). Big data: the end of the scientific method? Philosophical
Transactions A Royal Society.
Tegmark, M. (2017). Life 3.0 : being human in the age of artificial intelligence. New York:
Penguin Random House.
Wallach, W., & Colin, A. (2009). Moral Machines. Teaching Robots Right from Wrong.
Oxford University Press.
Winfield, A. F., Michael, K., Pitt, J., & Evers, J. (2019). Machine Ethics: The Design and
Governance of Ethical AI and Autonomous Systems. Proceedings of the IEEE. New
York: Institute of Electrical and Electronics.
54