Documentos de Académico
Documentos de Profesional
Documentos de Cultura
48 - Artículo - Responsabilidad Ética e Inteligencia Artificial
48 - Artículo - Responsabilidad Ética e Inteligencia Artificial
Las aplicaciones de la inteligencia artificial (IA) son cada vez más numerosas,
desde la operadora virtual o las acciones que genera un chatbot, hasta las
decisiones que deben tomar los coches autónomos. Pero ¿cuál es la
secuencia de razonamiento, las reglas que deben definir el comportamiento
de un robot ante determinadas cuestiones?
Moral Machine
Para analizar las diferencias de criterio ético, el MIT Media Lab ha realizado el
experimento Moral Machine.Se trata de un juego de coches autónomos que
imita el llamado dilema del ferrocarril. Se plantean nueve situaciones en las que
hay vidas en peligro y se analiza cómo se toma la decisión de salvar a unas
personas sobre otras y qué criterios utilizan. El estudio se hizo viral y en tres
años se obtuvieron más de cuarenta millones de respuestas de hasta 233
países.
Desde luego, los resultados pusieron en evidencia cómo “lo correcto” también
admite variaciones culturales. Más allá de las preferencias globales, los
investigadores descubrieron que las decisiones variaban sensiblemente en
función de los países, y que, además, estaban relacionadas con la cultura y el
nivel social y económico. De esta forma, países con culturas muy colectivistas,
como China y Japón, eran menos proclives a salvar la vida del joven sobre la
persona mayor. El profundo respeto a los ancianos en estas sociedades
impacta sin duda en su criterio o predisposición ante este dilema ético.
Países con mayor proximidad física tendían a tomar decisiones similares, con
tres grupos dominantes: el Oeste, el Este y el Sur del mundo. La investigación
muestra asimismo interesantes conclusiones en países donde ya se está
probando el vehículo autónomo, por el posible impacto de este tipo de análisis
sobre los reguladores y fabricantes. En ese sentido, por ejemplo, en países
como China, los ciudadanos son mucho más partidarios de usar vehículos
autónomos siempre y cuando los protejan a ellos frente a los peatones.
Figura 1. Preferencias identificadas en las más de cuarenta millones de
respuestas recibidas en el experimento Moral Machine.
Regular la convivencia
Independientemente de la doctrina que se siga, se hace necesario valorar no
solo la tecnología sino también cómo se utiliza, y asignar responsables que
asuman las consecuencias de los actos. Para incorporar los valores morales
al uso de la tecnología es necesario recuperar una serie de principios básicos y
atemporales, principios como la convivencia pacífica, en este caso entre robots
y humanos.
En ese sentido, las leyes que propuso Isaac Asimov en 1942, muy novedosas
para la época, están sirviendo de inspiración en el contexto actual. Es el caso
de las que ha propuesto recientemente la Unión Europea, que completan y
amplían las que propuso el prolífico autor estadounidense de origen ruso.
Aunque aún se encuentran en fase de debate por parte de la Comisión
Europea, el regulador propone lo siguiente:
Ética y tecnología
Antes de que la inteligencia artificial se extienda al común de los mortales, se
hace necesario dotarla de la parte sociológica y regulatoria. Cada vez es más
importante que ingenieros y desarrolladores se aproximen al ámbito de las
ciencias sociales, así como que antropólogos, sociólogos y juristas se interesen
por la tecnología. Así, a la hora de diseñar el comportamiento de la máquina se
podrá aportar un contexto completo con conocimiento de todos los campos,
técnicos y sociales.
Cada vez resulta más crítico que los creadores de tecnología cuenten con la
adecuada formación en valores éticos para que tengan en cuenta las malas
prácticas que se puedan derivar. Es evidente que la IA, en manos de terroristas
o criminales, puede convertirse en un arma muy peligrosa: ciberataques de
origen desconocido, manipulación de datos, creación de contenido falso o
incluso de armas autónomas de destrucción masiva, entre otros riesgos.
Asimismo, las instituciones deben establecer sistemas para evitar los daños
sociales, o para ofrecer protección ante los que se puedan causar. Con este fin,
se debe fomentar la colaboración entre investigadores y legisladores, crear
marcos normativos y éticos o definir códigos de mejores prácticas. Otro
aspecto crítico sería el de la concentración financiera, que habría que evitar
para que no derive en un uso arbitrario de la tecnología que hace posible la IA.
Sujeto moral
Pero una de las claves evidentes en este escenario es si se puede considerar a
las máquinas como sujetos de juicios éticos, es decir, si podemos atribuirles un
delito o una falta. ¿Tienen o tendrán algún día responsabilidad jurídica? El
verdadero cambio de paradigma se produciría si pretendemos diseñar seres
inteligentes que algún día lleguen a ser autónomos y, por tanto, a responder de
sus actos al margen de sus dueños o diseñadores.
De momento, esto es ciencia ficción, una película más dentro del género
futurista que tantos éxitos de taquilla ha generado. Por detrás subyace la
pregunta de si debemos, en cualquiera de los casos, desplazar nuestra
característica más humana como sujetos de actos morales, y perder por tanto
la autoría de lo que sucede en nuestro entorno.