Está en la página 1de 16

HACIA UNA FILOSOFÍA POLÍTICA DE LA TECNOLOGÍA PARA EL FUTURO DE

LA INTELIGENCIA ARTIFICIAL Y SU RELACIÓN ÉTICA CON LO HUMANO


Julio Iván Salazar González, ​ji.ss00g@gmail.com

RESUMEN
La mayoría de los expertos en Inteligencia Artificial (IA) coinciden en que ésta llegará a ser
la tecnología más poderosa en la historia de nuestra especie; los propósitos de este artículo
responden a un esfuerzo por intentar entender ese ​dictum en su relación con lo humano desde
una perspectiva filosófica. Tras (1) ofrecer un breve recorrido histórico y general sobre el
campo, (2) aclaraciones conceptuales previas, (3) considerar el impacto político y ético de las
actuales capacidades de la IA y (4) dar cuenta de la certidumbre o incertidumbre que
podríamos tener respecto a las especulaciones sobre el futuro de la IA, defendemos la
siguiente tesis: la IA es el ejemplo más claro de que la tecnología es un producto
necesariamente humano y que por tanto requiere de al menos dos cosas: (a) un enfoque
complejo e interdisciplinario, tanto en su desarrollo como en su posible consolidación final en
el mundo y (b) una ética con una ideología política y una fundamentación filosófica detrás de
ella; consideramos (b) con detalle.
ABSTRACT
Most Artificial Intelligence (AI) experts agree that this will be the most powerful technology
ever created; the goals of this paper respond to a compelled effort to understand the former
dictum in its relation to the human spectre from a philosophical perspective. After (1) offer a
brief historical and general overview on the field, (2) preliminary conceptual clarifications,
(3) consider the ethical and political impact of the current AI capabilities and (4) give and
account of the degree of certainty or uncertainty we might have regarding future speculations
on AI, we defend the next thesis: AI it’s the most clear example that supports the claim that
technology it’s necessarily a human product, and therefore it requires at least two things: (a)
an interdisciplinary and complex approach, both in its development and possible final
realization in the world and (b) an ethic sustained by a political ideology and a philosophical
foundation; we consider (b) with detail.

I. Introducción
Es un lugar común en la comunicación y divulgación de la ciencia y la tecnología
contemporáneas escuchar hablar con frecuencia de la Inteligencia Artificial (IA) y sus
prospectos [1, 5, 18]. Más allá de esto, las novelas de ciencia ficción, los artículos de opinión
en los periódicos de gran alcance social [4, 14, 15, 26], las películas y la conversación pública
en general, constantemente nos advierten acerca de la IA y, sobre todo, sus peligros
potenciales.
Así, aunque no se tenga claridad ni sobre el concepto internamente ni sobre su forma de
funcionar comprobada, o sobre sus efectos prácticos, la IA se ha insertado con fuerza en el
debate público y parece que con el paso de los años gana mayor atención por parte de
especialistas de cualquier disciplina y del público en general.
En general, la idea motivadora detrás de la IA, y la que ha hecho que sea un tema que
genera tanta preocupación entre los más diversos sectores de la sociedad, es la posibilidad de
máquinas realizando prácticamente cualquier tarea típicamente destinada a los humanos,
desde jugar ajedrez al nivel de campeones mundiales1hasta resolver los más tortuosos
problemas que han roto la cabeza de los grandes científicos o filósofos en la historia de
nuestro mundo2.
La idea de las máquinas realizando toda clase de tareas humanas no es una cosa nueva,
pues desde la antigüedad [2] se han discutido estos temas, pero el campo de Inteligencia
Artificial, estrictamente, así como la acuñación del término, tienen su origen en la famosa
conferencia de 1956 llevada a cabo en el Darmouth College [2,4]. El evento, organizado por
John McCarthy, reunió a 10 expertos cuidadosamente seleccionados (entre los que destacan
nombres como el de Herbert Simon Marvin Minsky o Claude Shannon) que a lo largo de más
de un mes discutieron ideas, presentaron avances tecnológicos3 y en general llevaron a cabo
una “lluvia de ideas” colectiva con objeto de clarificar lo que se debía entender por
“Inteligencia Artificial”, “máquinas pensantes” y conceptos similares, así como explorar los
potenciales caminos para construir tales objetos. Desde entonces, se han hecho toda clase de
predicciones, erróneas en su mayoría, sobre el momento en el que tendremos máquinas
igualando las capacidades humanas. Si bien algunos avances se han dado, lo cierto es que
todavía estamos lejos de tener “máquinas inteligentes” que llenen por completo el lugar de
los humanos en las actividades de la vida diaria. No obstante, cabe señalar que el fracaso de
los tecnólogos y científicos en alcanzar esta meta se ha debido en parte a la falta de enfoque
correcto: mientras que McCarthy y los demás pioneros de la IA creían que conocidas técnicas
de programación de ordenadores podrían usarse para, en un punto muy avanzado de esta
tecnología, emular la mente humana, desde el siglo pasado se sabe que esto es prácticamente
inalcanzable [2, 4], y así a estos intentos primitivos de emular la mente humana mediante
operaciones computables se le ha dado el nombre de ​Old Fashioned Artificial intelligence
(OFAI). Posteriores enfoques se han propuesto, pero hoy día la tendencia general entre los
especialistas para alcanzar la misma meta es una tecnología conocida como “Machine
Learning” (que después evolucionó para ser llamada “Deep learning”), que a grandes rasgos
permite que la máquina, tal como un humano, aprenda por sí misma partiendo de funciones
básicas y experiencia acumulada. Esta tecnología se encuentra, sin embargo, en una etapa

1
Cosa que hacen desde hace tiempo: simplemente recuérdese la polémica victoria de Deep Blue, la
supercomputadora de IBM, sobre Garry Kasparov, uno de los mejores ajedrecistas en la historia, en
1997.
2
Conviene aquí atender el contraste señalado por Müller [16] entre inteligencia artificial y robótica:
mientras la inteligencia artificial por sí misma no requiere necesariamente de movimientos físicos en
una escala humana, la robótica sí. La combinación de un robot con características físicas humanas y
un “cerebro” (CPU) basado en tecnología de IA, daría como resultado, bajo el supuesto de que la
tecnología de IA en cuestión logre emular las acciones humanas, un cyborg, ​ie​., un “humano
artificial”.
3
Como el célebre programa presentado por Allen Newel y Herbert Simon, llamado Logic Theorist,
que podía probar primitivos teoremas matemáticos.
primitiva, y sus alcances, límites y significado no están cerca de clarificarse y apreciarse al
máximo todavía4.
Ahora bien, en primer lugar, no deseamos entrar aquí en una discusión histórica sobre si
realmente el evento de Dartmouth fue el acontecimiento fundacional de la Inteligencia
Artificial o no; como más arriba se señala, desde las antigüedad (muy claramente desde
Aristóteles) se discutía la posibilidad, primitiva quizá, de lo que hoy comúnmente
nombramos con el término de Inteligencia Artificial, y antes de 1956 se habían escrito textos
fundamentales (hoy en día todavía) del campo, siendo quizá el ejemplo más famoso el
célebre artículo de 1950 escrito por Alan Turing, ​Computing Machinery and Intelligence
[24], en el que se presenta una estrategia para distinguir (o no distinguir) a los humanos de las
máquinas (hoy esto se conoce como el “Test de Turing”) y se sugiere y alienta a la idea de
construir “máquinas pensantes”. (Sobre el test de Turing volveremos en la siguiente sección).
Además, discusiones sobre la posibilidad de programar máquinas que a partir de muy pocos
elementos fueran creciendo en complejidad hasta el punto de emular la mente humana habían
estado muy en auge entre lógicos, filósofos y matemáticos de principios del siglo XX, tiempo
en el que además las matemáticas por sí mismas se convirtieron en una cosa bastante
sofisticada; quizá el protagonista más importante de esta discusión fue el gran lógico y
filósofo Kurt Gödel, famoso por demostrar la indecibilidad de algunas proposiciones
matemáticas y, con ello, la incompleción de la aritmética. Sin mencionar más detalles sobre
“antecedentes” ​al evento de Darmouth, estos hechos nos hacen notar dos cosas
importantes: (1) desde sus primeras discusiones hasta el día de hoy, es evidente que la IA
no le pertenece exclusivamente a un campo, sino que desde físicos, filósofos, matemáticos,
científicos de la computación, científicos cognitivos, economistas, políticos, abogados,
ciudadanos, etc., han hecho importantes contribuciones tanto al estudio “técnico” de la IA
como al impacto de sus posibles implicaciones en la sociedad global (futura, presente o
pasada), por lo que la IA se debe considerar necesariamente como un campo de estudio
interdisciplinario, sociotécnico y de global importancia, en el que numerosas perspectivas
son dignas de atención; (2) sin caer en la tentación de conceder o no que en efecto hay un
origen “oficial” del campo, el tener presente que convencionalmente existe uno y saber cuál
es, es importante para tener presentes las promesas iniciales del campo y contrastarlas con
su actualidad empírica y evolución teórica.
En segundo lugar, tampoco tratamos de ofrecer una postura respecto a cuál es la mejor
forma tecnológica de alcanzar una inteligencia artificial, es decir, emular la mente humana en
un sentido pragmático5. Aquí partimos del supuesto, sustentado por numerosas opiniones
especializadas [2, 7, 10, 13, 18, 20, 21, 24], de que una tecnología, sea cual sea, pueda
alcanzar esta meta en algún momento futuro (por supuesto, esta meta tiene sus límites, como

4
Para una perspectiva más amplia sobre estos temas específicos, véanse [2, 9 y 20].
5
Con “pragmático” nos referimos a considerar únicamente las consecuencias prácticas de una cosa
como la totalidad de la cosa en sí. En el caso de la Inteligencia Artificial, como se verá en la siguiente
sección, “emular la mente humana” en un sentido pragmático significa que una máquina sea capaz
de realizar cualquier tarea que hoy día es propia de los humanos, ignorando si la máquina tiene de
hecho consciencia de sí misma y de lo que hace; por ahora tomaremos un enfoque de este estilo.
Para profundizar más sobre el pragmatismo filosófico y su relación con la ética véase el libro de
Kitcher del 2011 [11].
veremos más adelante). En este sentido, no abordamos el concepto de Inteligencia Artificial
desde la perspectiva de una teoría técnica específica que busca los mejores medios para llegar
al mismo fin, sino que nos concentramos en el fin mismo, a saber, el de máquinas que
sustituyan humanos en cualquier actividad; así pues, para los propósitos que aquí nos
conciernen, dentro del término “Inteligencia Artificial” habrán de admitirse todas las
tecnologías que potencialmente alcancen este fin o hayan ya alcanzado partes del mismo.
Pero, ¿cuáles son los propósitos que aquí nos conciernen? Comenzamos con un breve
recuento histórico y conceptual con la intención de que el lector tenga una idea clara de lo
que estamos hablando, pues a continuación consideramos detenidamente el concepto de IA
desde una dimensión ética, política y, sobre todo, humana. Así, el propósito del artículo es
pensar sobre las implicaciones humanas que ha tenido, tiene y podría tener el campo de la
Inteligencia Artificial; diferentes propuestas éticas se han planteado para abordar los
problemas que enfrentará nuestra especie cuando esta tecnología se encuentre en un punto
suficientemente óptimo para que llegue a ser tan indispensable en la vida humana como, por
ejemplo, la electricidad. Aquí no deseamos ni cuestionar la pertinencia de esas propuestas ni
argumentar en favor o en contra de cualquiera de ellas, pues la mayoría se tratan de
discusiones demasiado abstractas y sobre-especializadas que, en sí mismas, poco podrían
aportar al debate ciudadano, el cual, dicho sea de paso, consideramos como el más
importante, al menos cuando se trata de IA. Más bien, se intentan recuperar, de una manera
más centrada en los hechos y accesible tanto a especialistas como no-especialistas, partes de
dichas propuestas con un punto en común: el posible beneficio global y a largo plazo de las
sociedad.
Asimismo, es importante, de nuevo para los propósitos que aquí seguimos, tener en cuenta
la dimensión política de la IA. Como bien ha señalado Langdom Winner [27], toda
implementación de una nueva tecnología involucra necesariamente la elección de una forma
de vida, ¿qué forma de vida estamos eligiendo al elegir vivir con IA?, ¿Podemos tratar a las
máquinas pensantes como seres políticos y, aún más drásticamente, como seres éticos?, ¿Qué
implicaría esto? Para responder todas estas preguntas es importante tener un marco
conceptual claro sobre el concepto de Inteligencia, que es la cualidad ​humana que la
tecnología afirma poder emular, e incluso superar. Discutiremos esto a continuación.

II. Sobre la Inteligencia Humana, la Inteligencia Artificial y la Superinteligencia


Si concedemos que la inteligencia es un atributo exclusivamente humano, entonces por
simple definición habríamos de aceptar que una “inteligencia” artificial jamás podría,
estrictamente hablando, darse. Sin embargo, esto no sirve de mucho para pensar sobre las
dimensiones éticas y políticas de la IA, sino simplemente para construir argumentos en contra
o a favor de que las máquinas puedan o no “pensar”. Igualmente, conceder una definición
fisicalista de la mente humana (en la que ésta no es más que materia obedeciendo leyes),
además de que fallaría a la hora de explicar una enorme cantidad de fenómenos, significaría
renunciar por completo a la posibilidad de que siquiera debemos molestarnos en pensar
cuestiones éticas y políticas sobre la IA; por lo que ni la propuesta humanista rígida ni la
fisicalista nos ayudan por sí mismas. Lo que aquí conviene más bien es establecer diferencias
precisas entre la inteligencia humana y la inteligencia artificial.
Dar definiciones irrefutables y que generen consenso entre la comunidad de diferentes
expertos es indiscutiblemente difícil. Dar una definición no cuestionable del concepto de
inteligencia hasta ahora ha resultado imposible; más aún, definir en abstracto el término de
inteligencia artificial en su contraste con el de inteligencia humana parece ser una tarea que
en principio requiere de las perspectivas conjuntas de numerosas disciplinas y el acuerdo
mutuo entre los propios conceptos de estas disciplinas. En un mundo académico tan dividido
como el de hoy, esto también parece también una misión no alcanzable en poco tiempo. Sin
embargo, podemos resaltar que la pregunta que de entrada encierra el concepto de
inteligencia es la pregunta por la actividad de pensar. Todos estamos de acuerdo (salvo
extravagantes posiciones que aquí no consideramos) en que cualquier humano promedio es
capaz de pensar, ¿Qué implica pensar?, ¿qué significa, en suma, pensar?, ¿es imaginable que
una máquina sea capaz de pensar? Si bien estas son preguntas cuyas respuestas apropiadas
requieren una extensión de miles de páginas y experiencias más allá de con las que ahora
contamos para ser adecuadamente respondidas, detengámonos un poco en estas cuestiones en
el contexto de la Inteligencia Artificial.
En un famoso artículo de 1950 [24], Alan Turing propone intercambiar la pregunta sobre
si las máquinas pueden pensar por la pregunta sobre si las máquinas pueden hacerlo bien en
el juego de la imitación; el juego de la imitación sería posteriormente conocido como el Test
de Turing (TT). El TT consiste en que un interrogador humano, mediante toda clase de
preguntas, descubra la identidad de dos individuos X y Y, donde uno de ellos (A) es una
máquina y el otro (B) es un humano. La pregunta que debe responder el interrogador, con
base en métodos cuantitativos objetivos derivados del desempeño de los individuos en las
preguntas, es quién es la máquina y quién es el humano. Si el interrogador concluye o que no
puede objetivamente (ni intuitivamente) saber quién es A y quién es B o que de hecho cree
que X (la máquina) es B (el humano), la máquina entonces habrá pasado el TT y tendría que
responderse afirmativamente a la pregunta: “¿Pueden pensar las máquinas?” si suponemos
que ésta es intercambiable por la pregunta: “¿Pueden las máquinas pasar exitosamente el
TT?”.
Por supuesto, el TT en su planteamiento original tiene limitaciones considerables y
objeciones de diversas clases. Primero, el interrogador no puede ver ni escuchar a la máquina
o al humano en cuestión, por lo que de entrada el TT no serviría para de hecho saber si
funcionalmente una máquina podría sustituir a un humano en cualquier actividad práctica.
Segundo, y esta es quizá la objeción más fuerte al TT, el que una máquina sea capaz de
contestar preguntas, de hablar cualquier idioma, incluso de hacer cualquier tarea
perfectamente, no significa que la máquina sepa lo que está haciendo, es decir, que la
máquina tenga consciencia de sí misma.
Sobre las limitaciones del TT no hay mucho qué decir, pues hoy en día la tecnología no
está muy lejos de alcanzar a emular la voz humana, así como los movimientos corporales
característicos. Por otro lado, hace mucho tiempo existen máquinas que realizan actividades
físicas con mucha mayor eficacia que los humanos (como transportarse de un punto X a un
punto Y o unir piezas en una gran edificación), siendo la única excepción los movimientos
corporales que requieren cierto grado de artisticidad (como los deportes o el ballet); sin
embargo, dada, por ejemplo, la ley de Moore6, no hay razón para suponer que no llegará un
punto en el que tengamos humanoides jugando tenis al nivel de los jugadores de élite de la
ATP o bailando al nivel de los bailarines de las más grandes compañías de danza.
Vale la pena considerar con seriedad, no obstante, la objeción al TT descrita más arriba.
Preliminarmente sería justo decir que de alguna manera el mismo Turing, hasta cierto punto,
considera esta objeción y le da el nombre del contraargumento de la consciencia (pp.
445-446) en contra de la pertinencia de su test al reemplazar la pregunta sobre si las máquinas
pueden pensar. Sin embargo, Turing no considera de forma completa, formal y claramente
esta objeción; quien sí lo hace años después es el filósofo John Searle (1980) en su artículo
Minds, Brains and Programs [​ 22] con su famoso argumento en contra de la posibilidad de lo
que él denomina Inteligencia Artificial Fuerte (IAF) en contraste con la Inteligencia Artificial
Débil (IAD), la cual Searle parece conceder sin problema. ¿A qué se refiere Searle con IAF,
por un lado e IAD, por otro? La propiedad fundamental que diferencia estas dos nociones es
la del ​entendimiento;​ para usar el mismo ejemplo de Searle, mientras que los humanos que
hablan chino entienden chino, una computadora puede perfectamente hablar chino sin de
hecho entender una sola palabra de lo que habla, ¿cómo opera el argumento de Searle para
llegar a esta conclusión? De entrada, intuitivamente se puede más o menos ver con claridad
cómo ninguna máquina hasta ahora, ni las más sofisticadas, entiende algo de lo que hace,
pues simplemente siguen programas, órdenes, y operan con base en variables cuantificables.
Si no se ve tan intuitivo como parece, el ahora famoso experimento mental de Searle lo
clarifica: él se imagina a sí mismo encerrado en un cuarto en el que le entregan una serie de
instrucciones (un programa) para traducir palabras de inglés a chino y de chino a inglés, y así
responder preguntas que le llegan en chino simplemente siguiendo el programa, haciendo
creer por completo a quienes hacen las preguntas que entiende chino a la perfección cuando
de hecho no lo hace7.
Si usamos el experimento de Searle como analogía para explicar todo lo que sucede con
las máquinas, nos encontraríamos con la conclusión de que en ningún momento podríamos
tener máquinas “inteligentes” en el sentido humano del término, pues aunque aparentaran
tener cada una de las capacidades cognitivas que los humanos tenemos, de hecho no las
tendrían. No sólo es el entendimiento, sino las emociones, los sentimientos, el sentido del
gusto y demás cualidades cognitivas que podríamos considerar como parte de la inteligencia
humana serían, por lo visto hasta ahora, carentes en las máquinas.
¿Qué podríamos decir ante todo esto? Las conclusiones de estos argumentos, tomadas en
un sentido extremo, podrían hacer inútil cualquier investigación ética sobre el futuro de la

6
La ley de Moore consiste en la observación hecha en 1965 por Gordon Moore de la cual se
desprende que el poder de las computadoras y los aparatos electrónicos crecerá dramáticamente
cada dos años durante al menos 50 años (el mismo Moore predijo que llegaría el punto en el que su
ley terminaría); sin embargo hoy día esta ley sigue siendo válida y la evidencia para suponer que el
número de crecimiento de poder de las computadoras y los aparatos electrónicos pasará el límite
establecido por la ley de Moore es más amplia que la que existe para creer que pasará lo contrario.
7
Véase el artículo de Searle [22] para estudiar con más cuidado este argumento.
Inteligencia Artificial, y también cualquier promesa tecnológica sobre alguna máquina
emulando a la inteligencia humana. Por una parte, no tiene caso meternos aquí en una
discusión tan amplia y compleja como aquella de aquella sobre si la mente es materia y alma
o es simplemente materia (si es simplemente materia no habría ningún problema con aceptar
que pueda haber máquinas pensantes en un punto del futuro), puesto que se han escrito miles
de páginas sobre esto y tenemos indicios de que esta no es una discusión que vaya a terminar
pronto, pues siempre se ofrecen cada más sofisticados argumentos de una o de otra parte. Las
ciencias del cerebro (o neurociencias) se encuentran en una joven etapa y lo cierto es que
todavía sabemos objetivamente muy poco sobre la mente como para poder dar una respuesta
clara y definitiva a todos los cuestionamientos planteados anteriormente, de hecho, es
altamente probable que nunca tengamos una concepción definitiva e incuestionable sobre
aquello que llamamos consciencia, pues las discusiones no han llevado ni parecen llevar a
ningún consenso. Por otra parte, parece más que claro que, al igual que hace Turing, para
poder hablar de máquinas inteligentes, de máquinas que piensen, debemos primero aclarar lo
que se entiende por pensar y lo que se entiende por máquinas.
Así, podemos o no tener justificaciones suficientes para creer que las máquinas podrán
emular la mente humana en algún punto, pero no tiene ningún sentido no pensar sobre las
implicaciones que esto tendrá en la sociedad, independientemente de que se llegue a dar o no;
pues incluso si no existe, como piensa Searle, posibilidad alguna de una IA fuerte, sí existe la
posibilidad de tener máquinas hablando chino y toda clase de idiomas, de tener máquinas
resolviendo teoremas, conduciendo vehículos, determinando culpables en juicios, haciendo
películas, imitando emociones y toda clase de actividades humanas. Más aún, los expertos en
el campo nos advierten de esta posibilidad en un futuro no tan lejano [10] y, aunque bien
sabemos que las predicciones de los expertos no suelen ser las mejores, no tomarlas en cuenta
y no pensar a largo plazo nunca es el mejor camino.
Por supuesto, considerar posibilidades de lo que podría implicar algo que todavía no se da
también es una actitud peligrosa, pues tales posibilidades se tendrían que condicionar sin
suficiente evidencia, por lo que podríamos encontrarnos aquí también con reflexiones, en
última instancia, inútiles; sin embargo, la evidencia cada vez está más presente: hoy las
máquinas realizan traducciones primitivas por nosotros, le ganan a campeones mundiales en
juegos tan complejos como el Go o el ajedrez, nos indican rutas a seguir para transportarnos,
nos hacen sugerencias de películas que nos podrían gustar, etcétera. Como habíamos señalado
antes, lo que provoca la fascinación (o paranoia) por pensar en el futuro de IA es el prospecto
de que las máquinas suplan todas las actividades humanas, esto ciertamente es posible bajo
algunas condiciones y límites que más adelante mencionamos; lo que no está claro que sea
posible es si de hecho las máquinas pueden tener todas los atributos cognitivos de los
humanos sin sólo aparentar tenerlos. Por ejemplo, no tenemos certeza de cómo puede una
máquina responder a las contradicciones aparentes que se presentan en el mundo, o cómo
puede darle sentido, a partir de un número finito de hechos h1,...,hn, a un nuevo hecho hn+1
completamente diferente a los anteriores. Tampoco podemos saber qué clase de piezas
artísticas realizarán las máquinas dado que aparentemente el arte requiere de emociones
genuinas, que las máquinas solamente pueden simular tener. Sobre estas cuestiones
volveremos más aelante, pero por ahora, por razones ya expuestas, asumimos lo siguiente: A)
Si bien es cierto que existen notables diferencias entre inteligencia humana e inteligencia
artificial, estas diferencias, la mayoría enfocadas a un espectro interno, no impiden la
posibilidad de que llegue un momento en el que las máquinas puedan hacer cualquier trabajo
humano, al menos cualquier trabajo “productivo” en el sentido de que este trabajo contribuya
a lo que se entiende por “progreso”, es decir, que produzca dinero y avances tecnológicos que
garanticen la supervivencia de la vida (a todo esto bien podríamos darle el nombre de
consecuencias prácticas de lo que llamamos inteligencia); ahora bien, esto no impide que
tales diferencias se discutan de un modo más elaborado y con más evidencia en el futuro. B)
Aunque a partir de ahora asumimos que las diferencias ya discutidas no impiden pensar
política ni éticamente tanto el futuro como el presente de la IA, estas diferencias son
importantes y más adelante (secciones 3 y 4) las retomamos con objeto de que nos puedan
decir algo más o menos realista respecto al futuro de la IA y, por tanto, el futuro de la
humanidad.
Finalmente, es importante notar que emular las consecuencias prácticas de lo que
llamamos inteligencia no es lo mismo que superar estas consecuencias, es decir, tener una
superinteligencia que rebase los límites de cualquier consecuencia práctica de la inteligencia
que hayamos visto hasta ahora. Al prospecto de que algún día llegue una cosa así se le ha
conocido como el argumento de la singularidad tecnológica. El argumento de la singularidad
se ha discutido extensamente y encontramos toda clase de posiciones al respecto, desde
quienes piensan que es de hecho imposible hasta quienes asumen que será lo mejor que a la
humanidad le haya pasado alguna vez [12, 13] o quienes piensan que será el riesgo
existencial más grande para nuestra especie y amenaza seriamente con la extinción humana
[2, 3]. Más allá de discutir estas posiciones, veamos el argumento con mayor claridad desde
la que se podría ver como su primera formulación, escrita por I. J. Good en 1965 [2]:
Una máquina ultrainteligente será definida como una máquina que puede superar
por mucho toda actividad intelectual de cualquier hombre, por muy listo que sea.
Dado que el diseño de máquinas es una de estas actividades intelectuales, una
máquina ultrainteligente podría diseñar máquinas incluso mejores que ella; entonces
tendríamos incuestionablemente una "explosión de inteligencia”, y la inteligencia
del hombre será dejada muy atrás. Así, la primera máquina ultrainteligente es la
última invención que el hombre necesita hacer alguna vez (…)8.
De entrada, la posibilidad de una singularidad tecnológica como la descrita por el
argumento es bastante cuestionable por las mismas razones que ya se expusieron para
cuestionar la posibilidad de máquinas pensantes al nivel de los humanos y otras razones
adicionales sobre las que no tiene caso detenernos aquí. Sin embargo, tendremos presente el
argumento, sin conceder por completo, por ahora en favor de una importante razón: Como ya

8
Esta cita aparece originalmente en [2]: Bostrom (2014, p. 5) de la siguiente forma: “Let an
ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of
any man however clever. Since the design of machines is one of these intellectual activities, an
ultraintelligent machine could design even better machines; there would then unquestionably be an
‘intelligence explosion’, and the intelligence of man would be left far behind. Thus the first
ultraintelligent machine is the last invention that man need ever make, provided that the machine is
docile enough to tell us how to keep it under control”. La traducción se realizó para este trabajo.
se expuso más arriba, las objeciones que se presenten no impiden que no se pueda pensar
ética y políticamente sobre esto, de hecho el hacerlo, además de ser un deber, probablemente
sea benéfico para clarificar algunos puntos sobre los que no se tiene consenso todavía.
Asimismo, no debemos ignorar que un considerable número de especialistas [2, 13, 18, 19,
21] cree en la posibilidad de una singularidad tecnológica (o cosas más o menos equivalentes)
y que ya hay máquinas que superan al humano en actividades intelectuales que por mucho
tiempo se consideraban inalcanzables para las máquinas, como el ajedrez o el Go. Por último,
si ninguna de estas razones nos convence para pensar estos temas, valdría la pena recordar la
importancia histórica de los experimentos mentales para obtener mejores resultados
empíricos de dimensiones técnicas, teóricas y sociales. Así, tener presente el argumento de la
singularidad y el prospecto de máquinas emulando las consecuencias prácticas de la
inteligencia humana, es útil incluso si sólo se le ve como experimento mental. No obstante,
como veremos más adelante, las objeciones planteadas a estas posibilidades también juegan
un papel importante en este “experimento”.

III. Actuales capacidades de la IA desde una perspectiva social y humana


Siguiendo el modelo propuesto en [17], en lugar de concentrarnos en dividir la investigación
ética sobre la IA en cercano y largo plazo, nos concentramos en analizar primero el impacto
de la IA en el mundo globalmente, así como sus actuales capacidades; tendremos en cuenta,
no obstante, que el consenso general entre los especialistas, y también las estadísticas lo
sugieren [2], que el impacto y las capacidades de la IA probablemente aumenten de una
manera cada vez más frecuente durante los siguientes años [10, 19].
Cada vez el mundo se llena de más computadoras, la vida virtual ha reemplazado gran
parte de lo que solía ser la vida, y hoy día parecería imposible vivir sin ciertas tecnologías,
vivir sin internet, por ejemplo, no parece viable en nuestra civilización contemporánea. ¿Qué
tan rodeados estamos de “Inteligencias Artificiales”? Dados los prejuicios que el progreso
tecnológico ha formado, esa es una pregunta particularmente difícil de responder. Parece que
el precepto de John McCarthy [2] según el cual, una vez que un sistema funciona, nadie lo
llama Inteligencia Artificial de nuevo, aplica de forma muy clara a nuestra situación actual.
Por ejemplo, dejamos que una aplicación como Waze tome decisiones por nosotros respecto
a qué ruta seguir mientras conducimos un auto, muchos de nuestros actuales smartphones
usan reconocimiento facial basado en tecnología de IA (lo que hace que nuestro rostro quede
registrado en una base de datos que rara vez tenemos certeza de quién posee), jugamos
ajedrez y otros juegos virtualmente contra computadoras, permitimos que algoritmos que no
comprendemos nos den sugerencias de amistad en redes sociales, hoy es posible emular
mediante videos falsos la voz y los movimientos de cualquier persona mediante técnicas de
IA, lo que nos deja incertidumbre respecto a quién está detrás de la cámara9. Más ejemplos se
podrían seguir citando. Pero el punto es que, como Langdon Winner [27] advertía en los

9
Para el estudio del caso específico del actor Jordan Peele siendo grabado y modificado digitalmente
para que su cara, voz y movimientos hicieron idénticos a los del ex-presidente Barack Obama, véase:
Borel, Brooke, 2018, “Clicks, Likes and Videotape”, ​Scientific American​, 01/Octubre/2018.
ahora lejanos años 80, parece que la era de un “sonambulismo tecnológico” supera cada vez
más sus anteriores niveles, y aceptamos sin ningún problema la realidad que se nos impone,
creyendo que eventualmente tendremos mejores condiciones de vida.
Está claro que el impacto ético y político que estos hechos generan es colosal, incluso si
de entrada no parece intuitivo. Una de las preguntas que nos encontramos en la dimensión
política es, por ejemplo, ¿la Inteligencia Artificial, en su actualidad, favorece un gobierno
republicano y democrático o no, favorece a los sectores históricamente más desfavorecidos o
no? Parece [6] que son las grandes compañías tecnológicas las que poseen gran parte de la
Inteligencia Artificial (o al menos gran parte de sus aplicaciones prácticas), las que poseen
una gran cantidad de datos ciudadanos, y la mayoría de regulaciones gubernamentales no
parecen estar haciendo mucho al respecto; en estas condiciones, gran parte del futuro de toda
nuestras especie estaría en manos de unos cuantos privilegiados, y la mayoría de la población
apenas podría mover un dedo para asegurar un futuro deseable cuando el impacto de la IA sea
cada vez más alto en la sociedad y en los individuos. En la dimensión ética, nos encontramos
también con problemas, p. ej., el de los cada vez más cercanos coches de piloto automático,
¿A quién culpamos si el coche automático tiene un accidente en el que una más personas
resultan heridas?, ¿A la compañía que fabricó el coche, al humano que se dejó conducir por
ese coche, a los investigadores que hicieron posible la existencia de coches autónomos o al
coche mismo? La respuesta parece complicada si no tenemos respuestas a preguntas más
fundamentales, de hecho parecemos no tener claridad respecto a cuáles son o deberían ser
estas preguntas.
Propuestas éticas para hacerle cara a estos problemas sin duda se han planteado y son cada
vez más frecuentes en las líneas de investigación de la ética práctica y de la política, pero,
como bien se señala en [25], la investigación continua e integradora entre una ética práctica y
el desarrollo de sistemas artificiales inteligentes y “autónomos” es todavía una difícil tarea,
pues ambas áreas apenas se tocan ligeramente, siendo la investigación institucional dominada
por el reduccionismo teórico, la falta de comunicación y continuación entre disciplinas, así
como la falta de claridad conceptual.
Así pues, más allá de dar respuestas concretas a las preguntas planteadas anteriormente,
simplemente debemos recordar algunos puntos que la mayoría de investigadores (hasta donde
yo sé) han pasado por alto o no le han tomado la suficiente importancia:
1) Hasta ahora ningún sistema autónomo ha rebasado las habilidades cognitivas
generales de los humanos, y el consenso general entre especialistas de diversas ramas
[3] es que las capacidades de la IA todavía se quedan cortas respecto a las
capacidades humanas en inteligencia general. Pues si bien ya contamos con máquinas
que hacen cálculos más rápido que los humanos, que juegan mejor ajedrez y Go,
etcétera, debemos recordar que estas máquinas están diseñadas para ser excepcionales
en dominios específicos, careciendo de habilidad en todos los demás. Por ejemplo,
AlphaGo, el programa de la compañía de Demis Hassabis, DeepMind, que venció al
campeón mundial de Go, no podría jugar poker ni a un nivel amateur. Así, tanto los
paranoicos como los optimistas parecen olvidar la evidencia de la capacidad limitada
de las máquinas, lo que les hace ser escépticos respecto a asumir un mundo de
cooperación entre humanos y máquinas, donde las máquinas, como señala Manuela
Veloso [21] posean una “autonomía simbólica”, en el sentido de que pueden consultar
vía remota a los humanos cuando un problema se presente. (Sobre el aspecto de la
cooperación humano-máquina volveremos con más detalle en la siguiente sección).
2) Haciendo alusión al concepto de “racionalidad limitada” formulado por Herbert
Simon [23], que originalmente se aplica a contextos económicos, se desprende que la
racionalidad, en sus manifestaciones cuantificables, es una estrategia limitada para
tomar decisiones. Este hecho tiene por lo menos dos consecuencias: a) los humanos,
por lo menos todavía, tenemos el control de las decisiones que tomen las máquinas, o
incluso de tomar la decisión sobre si las máquinas deben tomar decisiones y cuáles
decisiones deben tomar y b) mientras la racionalidad siga siendo la única capacidad
cognitiva que las máquinas puedan emular, la innovación debería establecer límites al
espectro de decisiones que una máquina pueda y deba tomar, pues, como bien lo
demuestran las caídas en la bolsa de valores, por ejemplo, los humanos no sólo somos
racionales, y hay factores más allá de la racionalidad que juegan un importante papel
en la toma de decisiones.
3) Como bien han señalado algunos [5, 6, 18], al menos buena parte de las decisiones
respecto al futuro y presente de la IA se toman entre un reducido número de personas
que básicamente se dividen en tres grupos (cuya importancia va en el orden escrito
aquí): Las grandes corporaciones, algunos gobiernos de países poderosos y muy pocos
investigadores y académicos expertos en IA. Las razones por las que esto es
inaceptable se explican en los anteriores puntos, pero hay un problema de fondo más
allá de esto, que sólo es una consecuencia: el de la comunicación. Primero, la
comunicación entre la gente que trabaja en un mismo campo es ineficiente, y esto en
parte se debe a la cultura competitiva que tanto se ha fomentado en los últimos años.
Segundo, la comunicación entre diferentes disciplinas es igualmente no sólo
ineficiente, sino prácticamente inexistente salvo muy contadas excepciones. Tercero,
y quizá lo más importante, la comunicación de los especialistas hacia el público
general, hacia la sociedad, es muchas veces también inexistente o ineficiente, ¿por
qué sucede esto? Hay varios motivos que comienzan por la normalización académica
de artículos que se publican a diario y alcanzan, con suerte estratosférica, 10 mil
lectores en 20 años o más [21]. El otro motivo quizá estribe en la falta de
democratización de la información, pues aunque ésta esté presente, acceder a ella no
es tan fácil como parece, incluso en la era del mundo interconectado en el que
vivimos, como muestra de esto léase [5], donde se menciona un caso en el que
investigadores africanos no pudieron asistir a una importante conferencia sobre IA
porque les fue negada la visa americana.
¿Qué nos dice todo esto? Al menos dos cosas: 1) Para que los impactos de las actuales
capacidades de la IA sean benéficos para la humanidad, en primer lugar la investigación
estándar en el campo debe tomar un rumbo alternativo, un rumbo en el que mediante la
comunicación eficiente se incluyan numerosas perspectivas en la toma de decisiones,
enfatizando la inclusión de los ciudadanos y, sobre todo, de los ciudadanos marginados, de
países “subdesarrollados”, de sectores vulnerables; esto no se trata simplemente una ideología
política de inclusión exacerbada, sino de la elección de una forma de vida: quienes toman las
decisiones más globales en el mundo han demostrado una falta de eficacia y de compromiso
con el trabajo en equipo y la democratización de la información; si se viaja a lugares como la
India o pequeños pueblos indígenas de México uno se puede percatar de la extraordinaria
manera que en la que esta gente coopera una con otra, de las excepcionales comunidades que
se crean y de las numerosas formas de racionalidad que son admitidas, casi como un sistema
complejo donde el todo siempre es más que las partes, ¿por qué no implementar estos
modelos en el globalizado y tecnológico mundo de hoy?, ¿por qué no dejarnos enseñar de
quienes nunca hemos aprendido nada? El papel de los grupos sociales “marginados” será
inmenso en el mundo que cada vez depende más de la IA, podemos elegir, mediante la
inclusión y la comunicación efectiva, que este papel nos traiga a todos beneficios y no al
revés. 2) Para alcanzar una comunicación efectiva, se requiere en primer lugar de una
clarificación filosófica de conceptos, particularmente de una clarificación de lo que una ética
de la IA significa. Un trabajo más grande y amplio se requiere para que dicha clarificación
sea completa, pero aquí proponemos, por todas las razones expuestas hasta ahora, que la
búsqueda de esta claridad debe tener presente la equivalencia entre ética y eficiencia;
independientemente de que se le puedan o no adscribir cualidades éticas a las máquinas, un
sistema no es eficiente si no hay una ética práctica detrás de él. Veamos un ejemplo clásico:
un auto autónomo no sabrá qué clase de decisión tomar cuando se le da a elegir entre salvar a
su pasajero o salvar a un civil; aunque bien es poco probable que esta clase de elecciones se
presenten frecuentemente, el ejemplo, sin importar la solución al problema, ilustra lo
importante que es una comunicación continua entre investigaciones en ética e investigaciones
en inteligencia artificial cuyos resultados a su vez se revelen al público de una forma más
eficaz que el clásico y de poco alcance artículo académico de investigación como el presente.

IV. Sobre el futuro de la Inteligencia Artificial y la ética evolutiva


No obstante todo lo que se ha dicho anteriormente, una cosa se ve más o menos clara: las
actuales capacidades de la IA, si bien exprimen muchos problemas éticos y políticos en un
punto lo suficientemente alto como para buscar nuevas teorías y conceptos que se adapten a
los hechos (y a su vez comunicar estos avances teóricos para que los hechos mejoren); sin
embargo, estas capacidades no tienen todavía un impacto lo suficientemente global y alto
como para plantear problemas éticos similares a los que, en un grado de intensidad menor, ya
plantean otras tecnologías.
En la sección II, se habló del concepto de ​superinteligencia y se cuestionó su pertinencia.
Más allá la incertidumbre que podamos tener respecto a una cosa como esa, hay algo de lo
que sí tenemos certidumbre: las capacidades de la IA se encuentran en constante proceso de
evolución, y lo más probable es que cada vez estemos cerca de contar con máquinas cercanas
al prospecto de superinteligencia, a pesar de los problemas formales que el concepto presenta
per se,​ problemas que ya discutimos más arriba. Al menos esto es físicamente posible y
existe una opinión generalizada entre los investigadores expertos en IA que la pregunta no es
si esto pasará alguna vez, sino cuándo [10]​.
Independientemente de que estas opiniones sean justificables o no, lo que nos interesa
aquí es resaltar dos hechos importantes, uno de dimensiones políticas y otro de dimensiones
éticas.
Primero, ¿qué pasará con nuestros trabajos, con nuestra forma de vida en general cuando
la IA alcance un punto óptimo en el que la realidad haya superado la ficción?. (Por supuesto
que alguien podría cuestionar, preliminarmente, la pertinencia de comparar la realidad con la
ficción, pero, después de todo, ¿no es la ficción el medio de comunicación más cercano a la
ciudadanía? Ya se resaltó la importancia de la comunicación en la sección pasada y lo mucho
que la investigación estándar la subestima, ¿por qué, en lugar de criticarse unos a otros,
investigadores y creadores de contenido de ficción no se complementan, complementan la
imaginación con la racionalidad para obtener mejores resultados de las dos partes?).
La evidencia empírica parece ayudarnos con este “experimento mental”: han pasado ya
varios años desde aquel lejano 1997 en el que Deep Blue venció al Garry Kasparov en
ajedrez; sin embargo, esto no impidió que tuviéramos a un Magnus Carlssen (quizá el mejor
ajedrecista de la actualidad) brillando a un nivel parecido al de Kasparov en el ajedrez). Si
bien es cierto que no vale extrapolar el ejemplo a todas las demás profesiones (por ejemplo,
la profesión de conducir un camión o un taxi), sí nos dice algo importante: buena parte de las
profesiones que hoy mantenemos se quedarán siendo profesiones estelarmente humanas, por
más máquinas que puedan existir y lo hagan “mejor” que cualquier humano. De hecho,
podemos esperar, como señala el prominente cosmólogo Martin Rees ​[18], que la gran
hazaña de las Inteligencias Artificiales más avanzadas se dé en el espacio exterior, fuera de la
Tierra y no dentro de ella como mucho hemos temido. Tenemos incluso ya evidencia de esto:
ahora mismo existen robots (siguiendo remotas indicaciones humanas) explorando Marte; la
NASA, SpaceX o la ESA, ya dedican varias de sus prioridades de investigación a la
implementación de IA en la exploración espacial10. Más allá de esto, la reciente pandemia
causa del COVID-19 nos ha enseñado lo frágiles que somos los humanos: el espacio presenta
grandes amenazas para el organismo humano y, al menos que encontremos una forma de
protegernos contra estas amenazas, algunas inesperadas (dicho sea de paso, la IA lo
suficientemente avanzada para emprender exploración espacial a una escala cósmicamente
alta parece más cerca en el tiempo que dichas formas de protección), lo más probable es que
ningún humano actual llegue tan lejos en el espacio como podrían hacerlo las máquinas.
¿Qué implica todo esto? En primer lugar, de nuevo da cuenta del carácter interdisciplinario
de la IA y, en segundo, da cuenta de que la cooperación humano-máquina parecerá esencial
en un futuro, por lo que debemos abrazar muchas posibilidades y tener una mente abierta
global, que otorgue el mismo valor a todas las vidas humanas en el espacio y el tiempo; aquí,
los conceptos ya mencionados de “autonomía simbólica” y “desarrollo sociotécnico”, jugarán
un rol muy importante, por lo que pensarlos con más cuidado es esencial.

10
Véanse:
https://www.nasa.gov/feature/goddard/2019/nasa-takes-a-cue-from-silicon-valley-to-hatch-art
ificial-intelligence-technologies​.
https://www.esa.int/Enabling_Support/Preparing_for_the_Future/Discovery_and_Preparation
/Robots_in_space2​ .
Segundo, sin caer en un subjetivismo ético débil, también debemos estar abiertos a nuevas
formas de pensar los problemas morales con las nuevas situaciones que se presenten. Como
bien se señala en [3], si se voltea a ver la historia de nuestra civilización, fácilmente se podrá
percibir que las ideas éticas no son constantes, o al menos la aplicación de las mismas (para
los griegos antiguos la esclavitud era moralmente justificada y ahora las cosas son diferentes;
también, dada la evolución social, el aborto está a punto de normalizarse cuando en el pasado
se le había condenado, etc.). A esto se le puede dar el nombre de ​ética evolutiva​: la sociedad
es una cosa viva que evoluciona, y el advenimiento de máquinas cuya capacidad podría ser
más grande de lo que hoy podamos concebir sin duda implicará grandes cambios en la forma
que tenemos de ver el mundo, ¿cómo enfrentamos estos cambios sin dejarnos atrapar por una
distopía? Es una pregunta particularmente difícil de responder porque en muchas ocasiones
dependerá de la circunstancia, pero incluso para responder a una situación particular debe
haber un concepto filosófico claramente definido; desarrollar este concepto es tarea de
investigaciones posteriores a esta, pero debe tener presente al menos lo siguiente: como se ha
ejemplificado y argumentado a lo largo del texto, toda tecnología es necesariamente humana
y, por consiguiente, tanto su conceptualización como la elección de su fabricación y su
posterior implementación son decisiones no neutrales, requieren de una fundamentación
filosófica y una ideología política sustentada por esta fundamentación. Quizá la mejor manera
de buscar tal fundamentación es hacernos, teniendo presente siempre lo anterior, las
preguntas correctas por lo que significa la inteligencia para el universo, la relación de los
humanos con el mundo y lo que significa el bien que trascienda límites estándares del espacio
y el tiempo. Así, mantener un principio universal cuyas aplicaciones no obstante evolucionen
conforme a las circunstancias es quizá el reto más grande que en conjunto tendremos hacer
para que la IA sea, más allá de lo mejor o lo peor que le pueda pasar a la humanidad, algo
bueno tanto para ésta como para el universo pasado, presente y futuro.

Conclusiones
Si a algo se ha llegado con este trabajo es a comprender que a pesar de que existe la
posibilidad de frenar la implementación de una tecnología nueva y tan prometedora como la
IA, hacerlo también puede tener repercusiones negativas, pues la sociedad es necesariamente
evolutiva; si nuestras formas de vida no evolucionan es probable que algún día ya no
tengamos elección sobre ellas. Sin embargo, esto no quiere decir que debamos abrazar
cualquier implementación de la IA (o de otra tecnología) tal como se nos imponga, sino que
debemos tener presente, tal como hemos ejemplificado a lo largo de todo el texto, que la IA
está necesariamente subordinada al espectro de lo humano, es decir, a un espectro social y
político; por lo que quizás el mayor beneficio que podemos esperar de una tecnología cuyos
prospectos parecen estar más inherentemente conectados a nosotros que las demás
tecnologías en nuestra historia sea que traiga consigo cambios sociales y éticos que hemos
estado esperando por mucho tiempo, como la erradicación de la pobreza, la inclusión de los
sectores sociales desfavorecidos la comunidad de intelectuales trabajando en conjunto por
una misma meto común, donde el todo es más que las partes siempre.
Por supuesto, esta visión parece ser una ciegamente optimista sobre el futuro, pero se trata
más bien de algo más modesto: un llamado a la integración conjunta de disciplinas para evitar
la mala Inteligencia Artificial y trabajar por la benéfica, ¿cómo diferenciamos ambas? Para
hacerlo requerimos al menos dos cosas: 1) La búsqueda de fundamentos filosóficos detrás de
las elecciones políticas, fundamentos que responden una serie conjunta de necesidades que ya
hemos enunciado anteriormente. 2) Una ética evolutiva cuyas aplicaciones cambien a través
del tiempo y las circunstancias, pero cuyos principios más fundamentales respondan a
conceptos universales y objetivos basados en el reconocimiento de que toda tecnología está
necesariamente ligada a las personas, a los humanos.

REFERENCIAS:
[1] Beall, Abigail, 2018, “It's time to address artificial intelligence's ethical problems”, ​Wired​,
24/agosto/2018.
[2] ​Bostrom, Nick, 2014, ​Superintelligence: Paths, Dangers, Strategies​, Oxford: Oxford
University Press.
[3] Bostrom, Nick and Eliezer Yudkowsky, 2014, “The Ethics of Artificial Intelligence”, en
The Cambridge Handbook of Artificial Intelligence​, Keith Frankish and William M. Ramsey
(eds.), Cambridge: Cambridge University Press, 316–334.
doi:10.1017/CBO9781139046855.020.
[4] ​Bringsjord, Selmer and Naveen Sundar Govindarajulu, "Artificial Intelligence", ​The
Stanford Encyclopedia of Philosophy ​(Summer 2020 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/sum2020/entries/artificial-intelligence/>.
[5] Cave, Stephen, 2019, “To Save Us from a Kafkaesque Future, We Must Democratise AI”,
The Guardian ,​ 04/enero/2019.
[6] Calvin, Nathan y Leung, Jade, 2020, ​Who owns artificial intelligence? A preliminary
analysis of corporate intellectual property strategies and why they matter,​ Future of
Humanity Institute, University of Oxford.
[7] Dennett, Daniel C., 1997, “When HAL kills, who’s to blame? Computer ethics”, in ​HAL’s
Legacy: 2001’s Computer as Dream and Reality,​ editado por David G. Stork. Cambridge,
MA: MIT Press, pp. 351–365.
[8] Franssen, Maarten, Gert-Jan Lokhorst & Ibo van de Poel, "Philosophy of Technology",
The Stanford Encyclopedia of Philosophy (Fall 2018 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/fall2018/entries/technology/>.
[9]​ Goodfellow, Ian; Bengio, Yoshua y Courville, Aaron, 2016, ​Deep learning​, MIT Press
[10] Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao y Evans, Owain, 2018,
“When will AI Exceed Human Performance? Evidence from AI experts”, en ​Journal of
Artificial Intelligence Research​ #62 729-754.
[11]​ Kitcher, Philip, 2011, ​The Ethical Project,​ Cambridge, MA: Harvard University Press.
[12] Kurzweil, Ray, 1999, The Age of Spiritual Machines: When Computers Exceed Human
Intelligence​, London: Penguin.
[13] Kurzweil, Ray, 2005, The Singularity Is Near: When Humans Transcend Biology,​
London: Viking.
[14] Lufkin, Bryan, 2017, “Why the biggest challenge facing AI is an ethical one”, ​BBC
Future,​ 07/marzo/2017.
[15] Metz, Cade, 2019, “Is Ethical A.I. Even Possible?”, ​The New York Times​,
01/marzo/2019.
[16] Müller, Vincent C., "Ethics of Artificial Intelligence and Robotics", ​The Stanford
Encyclopedia of Philosophy (Fall 2020 Edition), Edward N. Zalta (ed.), forthcoming URL =
<https://plato.stanford.edu/archives/fall2020/entries/ethics-ai/>.
[17] Prunkl, Carina y Whittlestone, Jess, 2020, “Beyond Near- and Long-Term: Towards a
Clearer Account of Research Priorities in AI Ethics and Society”, en ​AIES '20: Proceedings
of the AAAI/ACM Conference on AI, Ethics, and Society​, ACM, New York, NY, USA,
138-143. Doi: ​https://doi.org/10.1145/3375627.3375803​.
[18] Rees, Martin, 2018, ​On the Future: Prospects for Humanity, Princeton: Princeton
University Press.
[19] Russell, Stuart, Dewey, Daniel, & Tegmark, Max, 2015, “Research Priorities for Robust
and Beneficial Artificial Intelligence”, ​AI Magazine, ​36(4)​, 105-114.
https://doi.org/10.1609/aimag.v36i4.2577​.
[20] Russell, S. & Norvig, P., 2009, ​Artificial Intelligence: A Modern Approach 3rd edition,​
Saddle River, NJ: Prentice Hall.
[21] Russell, Stuart; Hauert, Sabine; Altman, Russ y Veloso, Manuela, 2015, “Robotics:
Ethics of artificial intelligence”, ​Nature #​521, 415–418, 28/Mayo/2015.
Doi:10.1038/521415a.
[22] Searle, John R., 1980, “Minds, Brains, and Programs”, en ​Behavioral and Brain
Sciences​, 3(3): 417–424. doi:10.1017/S0140525X00005756.
[23] Simon, Herbert A., 1969, ​The Sciences of the Artificial​, Cambridge, MA/London: MIT
Press.
[24] Turing, Alan M., 1950, “Computing Machinery and Intelligence”, en ​Mind, Volume LIX,
Issue 236, October 1950,​ 433–460. Doi: ​https://doi.org/10.1093/mind/LIX.236.433​.
[25] Vakkuri, Ville y Abrahamsson, Pekka, 2018, “The Key Concepts of Ethics of Artificial
Intelligence” en ​2018 IEEE International Conference on Engineering, Technology and
Innovation (ICE/ITMC)​ . IEEE. ​http://dx.doi.org/10.1109/ICE.2018.8436265​.
[26]​ Walch, Kathleen, 2019, “Ethical Concerns of AI”, ​Forbes​, 29/diciembre/2019.
[27] Winner, Langdon, 1989, ​The whale and the reactor, The University of Chicago Press,
Chicago.

También podría gustarte