Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Why Teaching Ethics To AI Practitioners Is Important - En.es
Why Teaching Ethics To AI Practitioners Is Important - En.es
com
1
Un análisis utilitario de la decisión de firmar el agente antiterrorista Jack Bauer tortura rutinariamente a sospechosos
Al tomar una decisión, los informáticos suelen analizar la cuestión para obtener información), resaltan tanto la prevalencia del
en términos de utilidad. La primera pregunta que podría plantearse pensamiento utilitario como el atractivo de esta línea de razonamiento
un profesional de la IA, al definir la utilidad de firmar y de no firmar, (Nissel 2010).
es "¿Utilidad para quién?". Este agente puede considerar el costo Pero el análisis de la teoría de la decisión no es elmismo
para ella misma en términos de posible financiamiento militar como análisis utilitario, y aplicar el principio utilitario central de
futuro, y para su institución y sus estudiantes. Puede sopesar eso “el mayor bien para el mayor número posible” impone algunos
con el efecto sobre su reputación como investigadora ética. O límites a mi análisis teórico de decisiones que son a la vez
puede considerar el posible impacto sobre los enemigos de su país desafiantes y útiles. Este principio requiere que el agente moral
si decidiera desarrollar IA armada, y compararlo con el impacto de considere el bienestar de todos los que están potencialmente
que soldados humanos intentaran los mismos actos. Además, afectados y actúe de la manera que produzca el mayor
podría considerar el impacto que tendría que su país –o todos los beneficio posible en ese grupo. No es aceptable, por ejemplo,
países– tuviera la tecnología que ella podría desarrollar. que ella decida que las necesidades de los investigadores de IA
(o de los habitantes de su país, o de los miembros de su propia
Para calcular los valores esperados de firmar o no firmar, este fe) superan las necesidades de otras personas; y si llega a esta
profesional debe decidir los valores de vidas individuales que conclusión, debe someterla a un cuidadoso escrutinio. Lo que
podrían terminar con la tecnología, o la falta de ella. Debe decidir es menos obvio es cómo los diferentes tipos de utilidad (que
de quién es la utilidad que importa y el peso relativo de las van desde la seguridad física básica hasta mejores
necesidades y deseos de cada persona. Debe decidir cómo oportunidades profesionales) deberían ponderarse entre sí y, lo
manejará las recompensas y beneficios futuros esperados. Cada que es aún más importante, si el bienestar del “enemigo”
una de estas decisiones de modelado tiene un enorme impacto en debería figurar en sus cálculos. y cuánto debería importar su
la política óptima para ese modelo. bienestar en comparación con el de los ciudadanos y soldados
de su propio bando.
Este tipo de razonamiento moral tiene un fundamento sólido en
la teoría ética, específicamente en una teoría llamada utilitarismo. El pensamiento utilitario, que aquí sólo hemos resumido
En lo que respecta a las teorías éticas, el utilitarismo es muy brevemente, no proporciona respuestas directas a estas preguntas,
reciente y se remonta solo a finales del siglo XVIII (aunque algunos pero ofrece herramientas analíticas para ayudar a abordarlas de
elementos aparecieron mucho antes (Driver 2014).) Su principio manera exhaustiva y responsable en una variedad de situaciones.
básico se formula comúnmente como “el mayor bien para el mayor Puede permitir al profesional de la IA alcanzar una posición
número posible de personas”. .” El utilitarismo sostiene que la éticamente más integral, permitiéndole desplegar modos de
principal obligación moral de uno es trabajar para lograr la mayor razonamiento familiares al mismo tiempo que lo desafía a mirar
felicidad posible (definida por John Stuart Mill en su influyente libro más allá de su propia utilidad y preocupaciones personales.
Utilitarismotanto como placer como ausencia de dolor) para la A pesar del valor de la ética utilitarista, creemos que los
mayor parte de las personas (Mill 2002). Esta insistencia en el bien profesionales de la IA también deberían estar familiarizados con las
público (o incluso universal) es lo que distingue al utilitarismo de un otras dos escuelas principales de teoría ética, la deontología y la
simple análisis de costo-beneficio, porque exige que el agente ética de las virtudes. Estos dos enfoques son mucho menos
descarte sus propias preferencias por sí mismo o por ciertos grupos compatibles con el análisis teórico de decisiones y otras estrategias
favorecidos. analíticas familiares, lo que puede hacer que su comprensión y
aplicación sean difíciles. Sostenemos que vale la pena, e incluso es
Tenga en cuenta que el lenguaje “políticas óptimas” en el ejemplo
anterior corresponde al de planificación basada en la teoría de
esencial, que los profesionales de la IA enfrenten este desafío y
decisiones; percibimos una fuerte correspondencia entre un análisis apliquen estas teorías para lograr la comprensión más clara posible
utilitario de una decisión, por un lado, y el modelado de la decisión y las de una situación dada, y de su propio razonamiento y toma de
elecciones consiguientes como un proceso de decisión de Markov, por el decisiones en respuesta a ella.
otro. En cualquier caso, el agente intenta optimizar la utilidad total
esperada a lo largo del tiempo. Decidir sobre el alcance de la utilidad y Deontología: ética por reglas
asignar valores a diferentes tipos de vidas son las decisiones “morales” Aunque el utilitarismo es la teoría ética más compatible con la
disponibles. Todo lo demás es descriptivo, aunque su validez como cultura contemporánea y, por lo tanto, suele considerarse la más
descripción depende de conceder previamente los valores que el agente “útil”, casi todas las personas en el mundo de hoy también tienen
le ha asignado. alguna experiencia con la deontología o la ética basada en la ley. La
A diferencia de las otras dos escuelas importantes de teoría ética, ética deontológica (del griego “deon”, que significa “deber” u
el utilitarismo se preocupa únicamente por los resultados, más que “obligación”), concibe la ética en términos de leyes o reglas: mis
por los métodos o las intenciones. Esto significa que cualquier acciones son éticas en la medida en que se ajustan (o no violan) la
posible ley o regla podría dejarse de lado, en una situación dada, si ley ( Alejandro y Moore 2015). Vale la pena señalar que puede haber
un agente determina que adherirse a esa ley entra en conflicto varios niveles de derecho; por ejemplo, la ley de “no matar” es más
significativamente con el bien mayor. Según el utilitarismo, un fundamental que la ley de conducir por el lado correcto de la
agente a veces esrequeridohacer daño para elegir el mejor camino carretera en su país, pero esta última ley sigue siendo vinculante
posible; como tal, el agente no es moralmente responsable por el (excepto en aquellas raras condiciones en las que es necesario
daño causado en tales circunstancias, porque fue la elección violar la ley más baja). ley para preservar la superior), porque crea
“correcta”. Escenarios de “bomba de tiempo”, como los retratados las condiciones para que sigas la ley moral. Aunque no siempre es
en la serie de televisión.24(en el cual fácil saber qué
2
la ley exige, uno siempre está obligado a seguirla. Este requisito hace
sobre si uno comparte o no sus axiomas, y cree que es correcto aplicar
que la deontología sea mucho menos flexible que el utilitarismo, pero
esos mismos axiomas en todas las situaciones relacionadas con la
también puede proporcionarle a uno la convicción de adoptar posturas
propiedad intelectual o las violaciones del derecho civil.
difíciles o impopulares.
De manera similar, existen diferentes puntos de partida posibles
Existen diferentes formas de entender o definir el derecho. Las para un análisis deontológico de la decisión de firmar (o no firmar)
tres religiones abrahámicas (judaísmo, cristianismo e islam) son la carta abierta. Un practicante de IA que comience con la ley “no
todas tradiciones del Mandato Divino, en las que se entiende que la matar” probablemente firmará la carta, porque construir robots de
ley es dada por Dios; es deber de una persona seguir esa ley, guerra requiere trabajar en contra de ese principio. Pero también
aunque la mayoría de las denominaciones de cada una de estas podría decidir no firmar basándose en la teoría de la guerra justa.
religiones reconocen que los seres humanos tienen que trabajar Esta teoría invoca la lógica de costo-beneficio para argumentar que
mucho para interpretar las leyes y determinar la mejor manera de la guerra, aunque terrible, a veces es mejor que la alternativa. La
aplicarlas en situaciones complejas. Sin embargo, en la teoría de la guerra justa exige que se cumplan criterios específicos
reformulación de Immanuel Kant, la ley moral es algo que cada para que una guerra se considere justa; por ejemplo, los actos de
individuo debe descubrir por sí mismo, no confiando en la guerra deben ser proporcionales y deben estar dirigidos
autoridad sino mediante la aplicación constante de la razón. Según únicamente a combatientes enemigos activos, y no a civiles o
Kant, la verdadera ley es universal: cuanto más se puede soldados heridos. Si este practicante llegara a la conclusión de que
generalizar un principio dado, más se acerca a la verdadera ley la IA militar ayudaría al ejército de su país a realizar ataques más
(Rohlf 2016). (Así, uno puede descubrir a través de la razón que “no dirigidos con menos daños colaterales (y si confiara en que los
matar” es más fundamental que “conducir por el lado correcto de la líderes militares la usarían de esa manera), entonces podría concluir
carretera”). En todas las formas de deontología, la capacidad de que desarrollar esta tecnología sería la mejor manera. para honrar
seguir la ley depende de la capacidad del agente para evaluar este principio. Otro profesional podría creer que su deber principal
correctamente qué parte(s) de la ley son las más fundamentales. es cumplir con sus deberes profesionales porque se ha
El lenguaje de las reglas o leyes puede hacer que la deontología comprometido a hacerlo, tanto al convertirse en un experto en el
parezca análoga, a primera vista, a la aplicación de sistemas campo como al aceptar un trabajo. Puede concluir que no debería
axiomáticos. En cierto modo, la comparación es útil: así como los firmar la carta, porque gran parte de la investigación sobre IA
miembros de tradiciones religiosas tienen que analizar situaciones depende de financiación militar. Alternativamente, podría decidir
que no encajan cómodamente dentro de las leyes existentes (a que la investigación en IA necesita romper sus vínculos con el
veces porque las situaciones son producto de desarrollos modernos ejército, aunque esta ruptura implicará una pérdida significativa de
posteriores a las leyes (ver una discusión extensa sobre esto en financiación y prestigio; Si llegara a esta conclusión, estaría
Johnson (2009) )), a veces porque la situación existe en la moralmente obligada a firmar la carta, aunque las consecuencias
intersección de varias leyes, que parecen dictar diferentes serían graves.
soluciones), los programadores también dedican mucho tiempo, Estos son sólo dos de los muchos principios o axiomas posibles que
energía y creatividad al manejo de excepciones. Pero respetar la podrían usarse para guiar el razonamiento. Como hemos demostrado, el
deontología se parece más a vivir dentro de un sistema axiomático razonamiento deontológico no siempre lleva a diferentes agentes a las
que a construir uno, porque el razonamiento y el análisis mismas conclusiones, incluso cuando el principio fundamental es
deontológicos no permiten cambiar las leyes. Ya sea que las leyes consistente, sino que también dependerá de cómo el agente describe la
sean dadas por la autoridad o determinadas por la razón, se situación a la que está respondiendo (por ejemplo, ¿esta tecnología
entiende que existen independientemente de las metas o deseos funcionará?). ¿Se puede utilizar para llevar a cabo una guerra más justa?)
del individuo. Para el practicante que lucha por determinar qué principio(s) debe(n)
Aunque la deontología supone que un determinado agente se rige tener prioridad sobre los demás, la preferencia de la deontología por
consistentemente por el mismo conjunto de leyes o axiomas (en lugar de reglas generalizables puede ser una forma útil de determinar qué
elegir según la situación), se puede comenzar con cualquier axioma algo principios son los más fundamentales.
general y aplicar el razonamiento deontológico. Consideremos el
proyecto de Aaron Swartz para hacer que los artículos protegidos por Etica de la Virtud
derechos de autor estén disponibles gratuitamente (Mechanic 2013; La ética de las virtudes, el tercer enfoque importante de la ética, se
Swartz 2008). Se podría argumentar que, dado que Swartz vivía en los centra en el carácter individual y en cómo uno desarrolla buenas
Estados Unidos y se beneficiaba del orden creado por sus leyes, estaba cualidades “o virtudes” (como la honestidad o el coraje) y la capacidad de
obligado a defender esas leyes; y debido a que descargar material aplicarlas. La ética de la virtud tiene raíces antiguas en el pensamiento
protegido por derechos de autor con la intención de compartirlo griego y chino, aunque la terminología contemporánea proviene
libremente es ilegal, las acciones de Swartz no fueron éticas. principalmente de Aristóteles, cuyoÉtica a Nicómacotodavía se considera
Alternativamente, se podría comenzar con el axioma de que la erudición fundamental (Hursthouse 2013) (Aristóteles 1999). La ética de la virtud es
debería estar disponible públicamente (o, de manera similar, que los un sistema de “panorama general”, y las acciones y problemas
académicos deberían poder distribuir su propio trabajo libremente) y individuales se evalúan en términos de cómo encajan en el arco de la
que Swartz actuó correctamente; de hecho, si uno considera que la libre vida de una persona. Según la ética de la virtud, el carácter de una
disponibilidad de conocimientos académicos es una ley fundamental, persona es producto de hábitos, que están fuertemente influenciados
entonces está obligado a respetar esa ley incluso si enfrentará cargos por su contexto social: es mucho más probable que una persona haga
penales. El análisis deontológico ayuda a explicar por qué Swartz podría algo que parezca normal, ya sea porque coincide con su
haber sentido que sus acciones eran éticamente necesarias; si uno cree autocomprensión o simplemente porque parece " algo normal” que
o no que fueron éticos, punto, dependerá hacer. Esto significa que la de una persona
3
Las acciones pasadas son un predictor útil de cómo elegirán actuar
conexiones entre el desarrollo tecnológico y las elecciones
en el presente. También significa que las elecciones actuales de una
morales, y elegir si actuar o no de manera que proteja
persona pueden y deben entenderse, en parte, como elecciones
nuestro carácter y el de los demás.
sobre quién será en el futuro, porque afectan el alcance de las
La perspectiva de la ética de la virtud nos muestra que el desarrollo de la
acciones que le resultan familiares o “como yo”.
tecnología de robots de guerra cambia las condiciones sociales para la toma
La ética de la virtud ofrece un marco muy diferente para un de decisiones morales. Al abordar el marco de la ética de las virtudes, los
practicante que está decidiendo si firma o no la carta. Como la
profesionales de la IA pueden cuestionar cómo la IA da forma a la sociedad y,
ética de la virtud se ocupa del carácter, se centra en patrones
por lo tanto, crea las condiciones para ciertas crisis morales.
de acción a largo plazo, más que en actos individuales; El
análisis de cualquier decisión individual deberá enmarcarse en
preguntas como: “¿quién quiero ser?” y "¿qué espero lograr?" La Conclusiones
decisión del agente podría estar completamente separada de
Hemos utilizado la cuestión de elegir si firmar una carta abierta
sus creencias sobre si una carta abierta a la ONU afectará el para mostrar que la aplicación de marcos éticos al análisis de una
futuro de la guerra mecanizada, pero en cambio reflejará lo que decisión enriquece enormemente nuestros procesos de decisión y
él cree que será el impacto de su decisión en su propia esfera. nos brinda herramientas para comprender y evaluar las decisiones.
Su pregunta no es si los robots deberían matar, sino si él Como lo dejan claro las discusiones anteriores, la teoría ética
debería ser el tipo de persona que protesta públicamente introduce nuevas herramientas críticas para el análisis, pero puede
contra la IA armada, y cómo la decisión de firmar influirá en la ayudar a identificar las formas en que uno ya está pensando y
persona (y el profesional) en que se convertirá. Probablemente
razonando sobre cuestiones éticas. Esta misma forma de replantear
sopesará la cuestión de si firmar la carta le hará ganarse el
y discutir decisiones puede aplicarse a muchos tipos de decisiones
cariño de su supervisor y colegas o si los alejará; También
que tomamos como profesionales de la IA y a decisiones que
podría considerar cómo su decisión afectará la posibilidad de
nuestro software puede tomar en nuestro nombre (Burton,
futuras vías de investigación, aunque podría concluir que su
Goldsmith y Mattei 2015).
decisión sobre la carta es más importante. Podría considerar
Debido a que el trabajo con IA tiene enormes efectos en la
cómo su decisión elevará su perfil, dentro de su comunidad
sociedad (incluidas las formas en que los individuos interactúan, en
local, como defensor de ciertos tipos de causas. Podría
nuestras economías, en la práctica de la medicina y los usos del
preguntarse cómo explicaría su decisión a su cónyuge o a sus
ocio, por nombrar algunos), creemos que todos los profesionales de
amigos, y cómo cambiaría su comprensión de él. Su decisión
la IA, y aquellos que razonan sobre la IA tecnología, debería poder
también puede depender de si opta por definirse como un
enmarcar el debate en términos de ética. Además, creemos que la
profesional de la IA, como un ciudadano estadounidense, como
cultura popular promueve una comprensión muy limitada de cómo
un padre o como un ser humano (lo que sea que esos términos
encuadrar y analizar la toma de decisiones éticas. Por lo tanto,
signifiquen para él). Todas estas preguntas reflejan el interés
defendemos que se enseñe la ética en las clases de IA y que
del practicante. en quién llegará a ser, tanto como individuo
como miembro de su comunidad. Muchas personas ya se desarrollemos materiales y cursos para enseñar marcos éticos y
hacen este tipo de preguntas a la hora de afrontar una decisión razonamiento a las personas que trabajan en IA (Burton, Goldsmith
importante. La ética de las virtudes ofrece un modelo para y Mattei 2016). (Ver también (Burton, Goldsmith y Mattei 2015;
organizarlas en torno a objetivos considerados y para evaluar 2016) para una discusión sobre el uso de la ciencia ficción en cada
cómo cada elección posible encaja con esos objetivos. ética de la IA).
4
Burton, E.; Orfebre, J.; y Mattei, N. 2015. Enseñar la ética de la IA
utilizando la ciencia ficción. En1er Taller Internacional sobre IA,
Ética y Sociedad, Talleres en la Vigésima Novena Conferencia
AAAI sobre Inteligencia Artificial.
Burton, E.; Orfebre, J.; y Mattei, N. 2016. Uso de “La
máquina se detiene” para enseñar ética en inteligencia
artificial e informática. EnIA y ética: talleres en la
trigésima conferencia AAAI sobre inteligencia artificial.
Driver, J. 2014. La historia del utilitarismo. En Zalta, EN, ed.,
La enciclopedia de filosofía de Stanford. Edición invierno
2014.
Hursthouse, R. 2013. Ética de la virtud. En Zalta, EN, ed.,La
enciclopedia de filosofía de Stanford. Edición de otoño de 2013.
Johnson, Director General 2009.Ética informática. Prensa de Prentice Hall.