Está en la página 1de 5

Traducido del inglés al español - www.onlinedoctranslator.

com

Actas de la Trigésima Primera Conferencia AAAI sobre Inteligencia Artificial (AAAI-17)

Por qué es importante enseñar ética a los profesionales de la IA

Judy Goldsmith, Emanuelle Burton

Abstracto capaz de apoyar a los estudiantes porque aceptan financiación militar;


como tal, la preocupación por la financiación no puede descartarse
Sostenemos que es crucial para el futuro de la IA que nuestros
como puramente egoísta (aunque todavía refleja una preferencia por su
estudiantes reciban capacitación en múltiples modos complementarios
propia comunidad de investigadores de IA).
de razonamiento ético, para que puedan tomar decisiones éticas de
diseño e implementación, decisiones profesionales éticas y que su
software esté programado para tener en cuenta las complejidades de De hecho, muchas personas tomaron su decisión basándose en
actuar éticamente en el mundo. preocupaciones morales y, sin embargo, llegaron a respuestas
diferentes. No era sólo que la gente llegara a conclusiones
diferentes; en muchos casos, comenzaban con ideas diferentes
Introducción sobre cómo tomar una decisión ética. En este artículo, mostramos
Consideremos la decisión que muchos de nosotros tomamos el año pasado cómo el conocimiento de diferentes marcos éticos puede iluminar
sobre si firmar o no la carta abierta solicitando a la ONU que prohibiera el los diferentes enfoques para la toma de decisiones que tomaron
desarrollo de IA como arma. Los autores (uno de los cuales es un practicante diferentes profesionales de la IA, y reexaminamos la cuestión de si
de IA que también tuvo que tomar esta decisión) utilizan este estudio de caso firmar o no desde dentro de cada uno de estos marcos.
para demostrar que el conocimiento de los marcos éticos es una herramienta
de crucial importancia en la caja de herramientas de un estudiante de IA, un Demostramos que la mayoría de los profesionales de la IA operan
practicante de IA y un teórico de la IA. dentro del marco ético llamado utilitarismo, que ha sido el modo
Para algunos profesionales de la IA, la decisión de firmar esta dominante de pensamiento ético en Occidente durante los últimos 150
carta abierta fue una obviedad, ya sea porque esas personas ya años, y que es la teoría ética que es, con diferencia, la más compatible
estaban comprometidas con la no violencia de alguna forma o con el análisis de la teoría de las decisiones. (Burton y otros). Después de
porque habían pensado detenidamente sobre los peligros de la IA describir la teoría utilitarista, presentamos brevemente la deontología y
armada. Sin duda, algunos firmaron porque los líderes de la la ética de las virtudes, los otros dos modos principales de análisis ético,
comunidad lo hicieron y querían ser vistos como uno de los “chicos y mostramos cómo estos dos modos pueden ofrecer nuevas
geniales”. Muchos otros, sin embargo, optaron por no firmar la perspectivas sobre la decisión de agregar el nombre de uno a dicha
carta, e incluso se opusieron firmemente a ella, porque creen que la carta. Reconocemos fácilmente que hay mucho más en la IA que los
IA como arma es inevitable o deseable; porque creen que cualquier robots de guerra, y más en las decisiones de los profesionales sobre las
IA puede usarse como arma;1porque eran reacios a asociar su declaraciones públicas de lo que indica este resumen inicial. Podríamos
nombre con una petición cuando no podían predecir las aplicar un marco y un análisis similares al uso de la IA en la medicina, la
ramificaciones, o por muchas otras razones que surgían de su gestión, los juegos de ordenador o cualquier otra área. Sin embargo,
comprensión de la investigación, la política o sus imperativos este caso ejemplifica uno de los dos tipos amplios de decisiones que
morales personales. requieren un análisis ético: decisiones personales de profesionales y
No estaba del todo claro dónde aterrizaría un agente codicioso en programadores de IA, y decisiones tomadas por sistemas de IA.
esta cuestión. La carta estaba vinculada a una organización que ofrecía
subvenciones para IA, más concretamente para proyectos de ética e IA.
Por otro lado, se podría concluir razonablemente que firmar dicha carta Lo que parece ser una simple decisión binaria: ¿firmar la carta o
podría tener un efecto negativo sobre el posible apoyo a través de no? - es sólo la etapa final en la evaluación de las opiniones propias
investigaciones financiadas por el ejército. En algunos países, existe una (probablemente no binarias) sobre varias cuestiones complicadas.
importante financiación militar para la IA, aunque a menudo para ¿Deberían utilizarse robots para matar personas? ¿Bajo qué
trabajos formulados en términos de defensa y seguridad, más que de condiciones podrían desarrollarse dichos robots de manera
ataque y armas. Algunos laboratorios de investigación están responsable? ¿Se dan esas condiciones? Pero también: ¿a qué otros
propósitos valiosos o positivos podría servir esta misma tecnología?
Derechos de autocr©2017, Asociación para el Avance de las Tecnologías
Artificiales ¿Podría continuar nuestro trabajo en otras áreas de la IA sin el
Inteligencia (www.aaai.org). Reservados todos los derechos. apoyo financiero de los militares? Para muchos profesionales de la
1En palabras de Ani DiFranco, "Porque cada herramienta es un arma IA, las respuestas a estas preguntas no son blancas o negras.
– si lo mantienes bien”. (De la canción Mi IQ)

1
Un análisis utilitario de la decisión de firmar el agente antiterrorista Jack Bauer tortura rutinariamente a sospechosos
Al tomar una decisión, los informáticos suelen analizar la cuestión para obtener información), resaltan tanto la prevalencia del
en términos de utilidad. La primera pregunta que podría plantearse pensamiento utilitario como el atractivo de esta línea de razonamiento
un profesional de la IA, al definir la utilidad de firmar y de no firmar, (Nissel 2010).
es "¿Utilidad para quién?". Este agente puede considerar el costo Pero el análisis de la teoría de la decisión no es elmismo
para ella misma en términos de posible financiamiento militar como análisis utilitario, y aplicar el principio utilitario central de
futuro, y para su institución y sus estudiantes. Puede sopesar eso “el mayor bien para el mayor número posible” impone algunos
con el efecto sobre su reputación como investigadora ética. O límites a mi análisis teórico de decisiones que son a la vez
puede considerar el posible impacto sobre los enemigos de su país desafiantes y útiles. Este principio requiere que el agente moral
si decidiera desarrollar IA armada, y compararlo con el impacto de considere el bienestar de todos los que están potencialmente
que soldados humanos intentaran los mismos actos. Además, afectados y actúe de la manera que produzca el mayor
podría considerar el impacto que tendría que su país –o todos los beneficio posible en ese grupo. No es aceptable, por ejemplo,
países– tuviera la tecnología que ella podría desarrollar. que ella decida que las necesidades de los investigadores de IA
(o de los habitantes de su país, o de los miembros de su propia
Para calcular los valores esperados de firmar o no firmar, este fe) superan las necesidades de otras personas; y si llega a esta
profesional debe decidir los valores de vidas individuales que conclusión, debe someterla a un cuidadoso escrutinio. Lo que
podrían terminar con la tecnología, o la falta de ella. Debe decidir es menos obvio es cómo los diferentes tipos de utilidad (que
de quién es la utilidad que importa y el peso relativo de las van desde la seguridad física básica hasta mejores
necesidades y deseos de cada persona. Debe decidir cómo oportunidades profesionales) deberían ponderarse entre sí y, lo
manejará las recompensas y beneficios futuros esperados. Cada que es aún más importante, si el bienestar del “enemigo”
una de estas decisiones de modelado tiene un enorme impacto en debería figurar en sus cálculos. y cuánto debería importar su
la política óptima para ese modelo. bienestar en comparación con el de los ciudadanos y soldados
de su propio bando.
Este tipo de razonamiento moral tiene un fundamento sólido en
la teoría ética, específicamente en una teoría llamada utilitarismo. El pensamiento utilitario, que aquí sólo hemos resumido
En lo que respecta a las teorías éticas, el utilitarismo es muy brevemente, no proporciona respuestas directas a estas preguntas,
reciente y se remonta solo a finales del siglo XVIII (aunque algunos pero ofrece herramientas analíticas para ayudar a abordarlas de
elementos aparecieron mucho antes (Driver 2014).) Su principio manera exhaustiva y responsable en una variedad de situaciones.
básico se formula comúnmente como “el mayor bien para el mayor Puede permitir al profesional de la IA alcanzar una posición
número posible de personas”. .” El utilitarismo sostiene que la éticamente más integral, permitiéndole desplegar modos de
principal obligación moral de uno es trabajar para lograr la mayor razonamiento familiares al mismo tiempo que lo desafía a mirar
felicidad posible (definida por John Stuart Mill en su influyente libro más allá de su propia utilidad y preocupaciones personales.
Utilitarismotanto como placer como ausencia de dolor) para la A pesar del valor de la ética utilitarista, creemos que los
mayor parte de las personas (Mill 2002). Esta insistencia en el bien profesionales de la IA también deberían estar familiarizados con las
público (o incluso universal) es lo que distingue al utilitarismo de un otras dos escuelas principales de teoría ética, la deontología y la
simple análisis de costo-beneficio, porque exige que el agente ética de las virtudes. Estos dos enfoques son mucho menos
descarte sus propias preferencias por sí mismo o por ciertos grupos compatibles con el análisis teórico de decisiones y otras estrategias
favorecidos. analíticas familiares, lo que puede hacer que su comprensión y
aplicación sean difíciles. Sostenemos que vale la pena, e incluso es
Tenga en cuenta que el lenguaje “políticas óptimas” en el ejemplo
anterior corresponde al de planificación basada en la teoría de
esencial, que los profesionales de la IA enfrenten este desafío y
decisiones; percibimos una fuerte correspondencia entre un análisis apliquen estas teorías para lograr la comprensión más clara posible
utilitario de una decisión, por un lado, y el modelado de la decisión y las de una situación dada, y de su propio razonamiento y toma de
elecciones consiguientes como un proceso de decisión de Markov, por el decisiones en respuesta a ella.
otro. En cualquier caso, el agente intenta optimizar la utilidad total
esperada a lo largo del tiempo. Decidir sobre el alcance de la utilidad y Deontología: ética por reglas
asignar valores a diferentes tipos de vidas son las decisiones “morales” Aunque el utilitarismo es la teoría ética más compatible con la
disponibles. Todo lo demás es descriptivo, aunque su validez como cultura contemporánea y, por lo tanto, suele considerarse la más
descripción depende de conceder previamente los valores que el agente “útil”, casi todas las personas en el mundo de hoy también tienen
le ha asignado. alguna experiencia con la deontología o la ética basada en la ley. La
A diferencia de las otras dos escuelas importantes de teoría ética, ética deontológica (del griego “deon”, que significa “deber” u
el utilitarismo se preocupa únicamente por los resultados, más que “obligación”), concibe la ética en términos de leyes o reglas: mis
por los métodos o las intenciones. Esto significa que cualquier acciones son éticas en la medida en que se ajustan (o no violan) la
posible ley o regla podría dejarse de lado, en una situación dada, si ley ( Alejandro y Moore 2015). Vale la pena señalar que puede haber
un agente determina que adherirse a esa ley entra en conflicto varios niveles de derecho; por ejemplo, la ley de “no matar” es más
significativamente con el bien mayor. Según el utilitarismo, un fundamental que la ley de conducir por el lado correcto de la
agente a veces esrequeridohacer daño para elegir el mejor camino carretera en su país, pero esta última ley sigue siendo vinculante
posible; como tal, el agente no es moralmente responsable por el (excepto en aquellas raras condiciones en las que es necesario
daño causado en tales circunstancias, porque fue la elección violar la ley más baja). ley para preservar la superior), porque crea
“correcta”. Escenarios de “bomba de tiempo”, como los retratados las condiciones para que sigas la ley moral. Aunque no siempre es
en la serie de televisión.24(en el cual fácil saber qué

2
la ley exige, uno siempre está obligado a seguirla. Este requisito hace
sobre si uno comparte o no sus axiomas, y cree que es correcto aplicar
que la deontología sea mucho menos flexible que el utilitarismo, pero
esos mismos axiomas en todas las situaciones relacionadas con la
también puede proporcionarle a uno la convicción de adoptar posturas
propiedad intelectual o las violaciones del derecho civil.
difíciles o impopulares.
De manera similar, existen diferentes puntos de partida posibles
Existen diferentes formas de entender o definir el derecho. Las para un análisis deontológico de la decisión de firmar (o no firmar)
tres religiones abrahámicas (judaísmo, cristianismo e islam) son la carta abierta. Un practicante de IA que comience con la ley “no
todas tradiciones del Mandato Divino, en las que se entiende que la matar” probablemente firmará la carta, porque construir robots de
ley es dada por Dios; es deber de una persona seguir esa ley, guerra requiere trabajar en contra de ese principio. Pero también
aunque la mayoría de las denominaciones de cada una de estas podría decidir no firmar basándose en la teoría de la guerra justa.
religiones reconocen que los seres humanos tienen que trabajar Esta teoría invoca la lógica de costo-beneficio para argumentar que
mucho para interpretar las leyes y determinar la mejor manera de la guerra, aunque terrible, a veces es mejor que la alternativa. La
aplicarlas en situaciones complejas. Sin embargo, en la teoría de la guerra justa exige que se cumplan criterios específicos
reformulación de Immanuel Kant, la ley moral es algo que cada para que una guerra se considere justa; por ejemplo, los actos de
individuo debe descubrir por sí mismo, no confiando en la guerra deben ser proporcionales y deben estar dirigidos
autoridad sino mediante la aplicación constante de la razón. Según únicamente a combatientes enemigos activos, y no a civiles o
Kant, la verdadera ley es universal: cuanto más se puede soldados heridos. Si este practicante llegara a la conclusión de que
generalizar un principio dado, más se acerca a la verdadera ley la IA militar ayudaría al ejército de su país a realizar ataques más
(Rohlf 2016). (Así, uno puede descubrir a través de la razón que “no dirigidos con menos daños colaterales (y si confiara en que los
matar” es más fundamental que “conducir por el lado correcto de la líderes militares la usarían de esa manera), entonces podría concluir
carretera”). En todas las formas de deontología, la capacidad de que desarrollar esta tecnología sería la mejor manera. para honrar
seguir la ley depende de la capacidad del agente para evaluar este principio. Otro profesional podría creer que su deber principal
correctamente qué parte(s) de la ley son las más fundamentales. es cumplir con sus deberes profesionales porque se ha
El lenguaje de las reglas o leyes puede hacer que la deontología comprometido a hacerlo, tanto al convertirse en un experto en el
parezca análoga, a primera vista, a la aplicación de sistemas campo como al aceptar un trabajo. Puede concluir que no debería
axiomáticos. En cierto modo, la comparación es útil: así como los firmar la carta, porque gran parte de la investigación sobre IA
miembros de tradiciones religiosas tienen que analizar situaciones depende de financiación militar. Alternativamente, podría decidir
que no encajan cómodamente dentro de las leyes existentes (a que la investigación en IA necesita romper sus vínculos con el
veces porque las situaciones son producto de desarrollos modernos ejército, aunque esta ruptura implicará una pérdida significativa de
posteriores a las leyes (ver una discusión extensa sobre esto en financiación y prestigio; Si llegara a esta conclusión, estaría
Johnson (2009) )), a veces porque la situación existe en la moralmente obligada a firmar la carta, aunque las consecuencias
intersección de varias leyes, que parecen dictar diferentes serían graves.
soluciones), los programadores también dedican mucho tiempo, Estos son sólo dos de los muchos principios o axiomas posibles que
energía y creatividad al manejo de excepciones. Pero respetar la podrían usarse para guiar el razonamiento. Como hemos demostrado, el
deontología se parece más a vivir dentro de un sistema axiomático razonamiento deontológico no siempre lleva a diferentes agentes a las
que a construir uno, porque el razonamiento y el análisis mismas conclusiones, incluso cuando el principio fundamental es
deontológicos no permiten cambiar las leyes. Ya sea que las leyes consistente, sino que también dependerá de cómo el agente describe la
sean dadas por la autoridad o determinadas por la razón, se situación a la que está respondiendo (por ejemplo, ¿esta tecnología
entiende que existen independientemente de las metas o deseos funcionará?). ¿Se puede utilizar para llevar a cabo una guerra más justa?)
del individuo. Para el practicante que lucha por determinar qué principio(s) debe(n)
Aunque la deontología supone que un determinado agente se rige tener prioridad sobre los demás, la preferencia de la deontología por
consistentemente por el mismo conjunto de leyes o axiomas (en lugar de reglas generalizables puede ser una forma útil de determinar qué
elegir según la situación), se puede comenzar con cualquier axioma algo principios son los más fundamentales.
general y aplicar el razonamiento deontológico. Consideremos el
proyecto de Aaron Swartz para hacer que los artículos protegidos por Etica de la Virtud
derechos de autor estén disponibles gratuitamente (Mechanic 2013; La ética de las virtudes, el tercer enfoque importante de la ética, se
Swartz 2008). Se podría argumentar que, dado que Swartz vivía en los centra en el carácter individual y en cómo uno desarrolla buenas
Estados Unidos y se beneficiaba del orden creado por sus leyes, estaba cualidades “o virtudes” (como la honestidad o el coraje) y la capacidad de
obligado a defender esas leyes; y debido a que descargar material aplicarlas. La ética de la virtud tiene raíces antiguas en el pensamiento
protegido por derechos de autor con la intención de compartirlo griego y chino, aunque la terminología contemporánea proviene
libremente es ilegal, las acciones de Swartz no fueron éticas. principalmente de Aristóteles, cuyoÉtica a Nicómacotodavía se considera
Alternativamente, se podría comenzar con el axioma de que la erudición fundamental (Hursthouse 2013) (Aristóteles 1999). La ética de la virtud es
debería estar disponible públicamente (o, de manera similar, que los un sistema de “panorama general”, y las acciones y problemas
académicos deberían poder distribuir su propio trabajo libremente) y individuales se evalúan en términos de cómo encajan en el arco de la
que Swartz actuó correctamente; de hecho, si uno considera que la libre vida de una persona. Según la ética de la virtud, el carácter de una
disponibilidad de conocimientos académicos es una ley fundamental, persona es producto de hábitos, que están fuertemente influenciados
entonces está obligado a respetar esa ley incluso si enfrentará cargos por su contexto social: es mucho más probable que una persona haga
penales. El análisis deontológico ayuda a explicar por qué Swartz podría algo que parezca normal, ya sea porque coincide con su
haber sentido que sus acciones eran éticamente necesarias; si uno cree autocomprensión o simplemente porque parece " algo normal” que
o no que fueron éticos, punto, dependerá hacer. Esto significa que la de una persona

3
Las acciones pasadas son un predictor útil de cómo elegirán actuar
conexiones entre el desarrollo tecnológico y las elecciones
en el presente. También significa que las elecciones actuales de una
morales, y elegir si actuar o no de manera que proteja
persona pueden y deben entenderse, en parte, como elecciones
nuestro carácter y el de los demás.
sobre quién será en el futuro, porque afectan el alcance de las
La perspectiva de la ética de la virtud nos muestra que el desarrollo de la
acciones que le resultan familiares o “como yo”.
tecnología de robots de guerra cambia las condiciones sociales para la toma
La ética de la virtud ofrece un marco muy diferente para un de decisiones morales. Al abordar el marco de la ética de las virtudes, los
practicante que está decidiendo si firma o no la carta. Como la
profesionales de la IA pueden cuestionar cómo la IA da forma a la sociedad y,
ética de la virtud se ocupa del carácter, se centra en patrones
por lo tanto, crea las condiciones para ciertas crisis morales.
de acción a largo plazo, más que en actos individuales; El
análisis de cualquier decisión individual deberá enmarcarse en
preguntas como: “¿quién quiero ser?” y "¿qué espero lograr?" La Conclusiones
decisión del agente podría estar completamente separada de
Hemos utilizado la cuestión de elegir si firmar una carta abierta
sus creencias sobre si una carta abierta a la ONU afectará el para mostrar que la aplicación de marcos éticos al análisis de una
futuro de la guerra mecanizada, pero en cambio reflejará lo que decisión enriquece enormemente nuestros procesos de decisión y
él cree que será el impacto de su decisión en su propia esfera. nos brinda herramientas para comprender y evaluar las decisiones.
Su pregunta no es si los robots deberían matar, sino si él Como lo dejan claro las discusiones anteriores, la teoría ética
debería ser el tipo de persona que protesta públicamente introduce nuevas herramientas críticas para el análisis, pero puede
contra la IA armada, y cómo la decisión de firmar influirá en la ayudar a identificar las formas en que uno ya está pensando y
persona (y el profesional) en que se convertirá. Probablemente
razonando sobre cuestiones éticas. Esta misma forma de replantear
sopesará la cuestión de si firmar la carta le hará ganarse el
y discutir decisiones puede aplicarse a muchos tipos de decisiones
cariño de su supervisor y colegas o si los alejará; También
que tomamos como profesionales de la IA y a decisiones que
podría considerar cómo su decisión afectará la posibilidad de
nuestro software puede tomar en nuestro nombre (Burton,
futuras vías de investigación, aunque podría concluir que su
Goldsmith y Mattei 2015).
decisión sobre la carta es más importante. Podría considerar
Debido a que el trabajo con IA tiene enormes efectos en la
cómo su decisión elevará su perfil, dentro de su comunidad
sociedad (incluidas las formas en que los individuos interactúan, en
local, como defensor de ciertos tipos de causas. Podría
nuestras economías, en la práctica de la medicina y los usos del
preguntarse cómo explicaría su decisión a su cónyuge o a sus
ocio, por nombrar algunos), creemos que todos los profesionales de
amigos, y cómo cambiaría su comprensión de él. Su decisión
la IA, y aquellos que razonan sobre la IA tecnología, debería poder
también puede depender de si opta por definirse como un
enmarcar el debate en términos de ética. Además, creemos que la
profesional de la IA, como un ciudadano estadounidense, como
cultura popular promueve una comprensión muy limitada de cómo
un padre o como un ser humano (lo que sea que esos términos
encuadrar y analizar la toma de decisiones éticas. Por lo tanto,
signifiquen para él). Todas estas preguntas reflejan el interés
defendemos que se enseñe la ética en las clases de IA y que
del practicante. en quién llegará a ser, tanto como individuo
como miembro de su comunidad. Muchas personas ya se desarrollemos materiales y cursos para enseñar marcos éticos y
hacen este tipo de preguntas a la hora de afrontar una decisión razonamiento a las personas que trabajan en IA (Burton, Goldsmith
importante. La ética de las virtudes ofrece un modelo para y Mattei 2016). (Ver también (Burton, Goldsmith y Mattei 2015;
organizarlas en torno a objetivos considerados y para evaluar 2016) para una discusión sobre el uso de la ciencia ficción en cada
cómo cada elección posible encaja con esos objetivos. ética de la IA).

Al centrarse en el contexto social de la acción ética, la ética de la Expresiones de gratitud


virtud también ofrece un marco para que un agente reflexione sobre las
Este material se basa en el trabajo respaldado por la National
formas en que la IA y las acciones de sus practicantes crean un contexto Science Foundation bajo la subvención n.° 1646887. Cualquier
social más amplio para la acción moral. La ética de la virtud nos lleva a opinión, hallazgo y conclusión o recomendación expresada en
considerar el carácter de quienes toman las decisiones que programan
este material son las del autor (es) y no reflejan necesariamente
los robots de guerra, o de los políticos o líderes militares que deciden los puntos de vista de la National Science Foundation. Base.
desplegarlos. Según la ética de la virtud, el acto de tomar estas
Agradecemos a Nicholas Mattei (nuestro colaborador en el
decisiones y de participar en su implementación tiene un impacto en
proyecto a largo plazo que informa este artículo) y a John Fike
esos individuos: con el tiempo, su carácter cambia para adaptarse a las
por sus útiles debates.
acciones que están emprendiendo, a medida que su sentido de lo que es
normal o apropiado migra. . Al construir robots que matan (aunque sólo
sea con fines especializados concretos), adaptan su sentido de lo que es Referencias
normal para dejar espacio a lo que están haciendo y, por lo tanto, se Alexander, L. y Moore, M. 2015. Ética deontológica. En
convierten en el tipo de personas más propensas a pensar que los Zalta, EN, ed.,La enciclopedia de filosofía de
robots que matan son los mejores. solución adecuada a un problema Stanford. Edición primavera 2015.
dado. Por lo tanto, la ética de la virtud nos empuja a considerar el tipo de
decisiones inherentes a los trabajos que desempeñan los profesionales
Aristóteles. 1999.Ética a Nicómaco. Hackett. trans.
Terence Irwin.
de la IA y nos ayuda a pensar en los contextos sociales y tecnológicos
que obligan a tomar esas decisiones. Esto puede ayudarnos a ver Burton, E.; Orfebre, J.; Koenig, S.; Kuipers, B.; Mattei, N.; y
Walsh, T. Consideraciones éticas en cursos de inteligencia
artificial.Invitado para la revista AI.

4
Burton, E.; Orfebre, J.; y Mattei, N. 2015. Enseñar la ética de la IA
utilizando la ciencia ficción. En1er Taller Internacional sobre IA,
Ética y Sociedad, Talleres en la Vigésima Novena Conferencia
AAAI sobre Inteligencia Artificial.
Burton, E.; Orfebre, J.; y Mattei, N. 2016. Uso de “La
máquina se detiene” para enseñar ética en inteligencia
artificial e informática. EnIA y ética: talleres en la
trigésima conferencia AAAI sobre inteligencia artificial.
Driver, J. 2014. La historia del utilitarismo. En Zalta, EN, ed.,
La enciclopedia de filosofía de Stanford. Edición invierno
2014.
Hursthouse, R. 2013. Ética de la virtud. En Zalta, EN, ed.,La
enciclopedia de filosofía de Stanford. Edición de otoño de 2013.
Johnson, Director General 2009.Ética informática. Prensa de Prentice Hall.

Mecánico, M. 2013. ¡Roba este trabajo de investigación! (Ya


pagaste por ello).Madre Jones.
Molino, JS 2002.Utilitarismo. Hackett Publishing Co.
Nissel, M. 2010. La bomba que siempre hace funcionar: examinando la
promoción de la tortura por parte de 24 en el contexto del 11 de septiembre.
mira 3:37–51.

Rohlf, M. 2016. Immanuel Kant. En Zalta, EN, ed.,La enciclopedia


de filosofía de Stanford. Edición primavera 2016.
Swartz, A. 2008. Acción abierta de guerrilla.
impuesto manifiesto. recurso en línea,
http://archive.org/stream/GuerillaOpenAccessManifesto /
Goamjuly2008 djvu.txt.

También podría gustarte