Está en la página 1de 2

EL AUTO AUTÓNOMO-FILOSÓFICO

Supongamos que dos niños que persiguen una pelota saltan delante de un auto autónomo.
Basándose en sus cálculos instantáneos, el algoritmo que conduce el auto concluye que la única
manera de evitar atropellarlos es cambiarse de pista, y arriesgarse a chocar con un camión que
viene en sentido contrario. El algoritmo calcula que en tal caso existe un porcentaje altísimo de
probabilidad de que el propietario del auto, el que puede estar perfectamente dormido en el
asiento o haciendo otra cosa, muera en el impacto. ¿Qué debería hacer el algoritmo?

Es aquí donde nos topamos con una versión moderna del clásico «problemas del tranvía». Los
filósofos llevan milenios debatiendo sobre estos problemas, pero hasta ahora, estos debates han
tenido poquísima influencia sobre el comportamiento real, esto debido a que, en épocas de crisis,
los humanos suelen olvidar con demasiada frecuencia sus opiniones filosóficas y en cambio siguen
sus emociones e instintos. El ser humano emplea las emociones para tomar rápidas decisiones de
vida o muerte. Estos heredados de nuestros antepasados, los cuales pasaron tiempos mucho más
salvajes y difíciles. Es por esto que, lo que era bueno para la supervivencia en la sabana africana
hace miles de años no tiene por qué dar lugar necesariamente a un comportamiento responsable
en las calles del siglo XXI. Podemos enviar a todos nuestros filósofos y pensadores a que
prediquen ética a los conductores, pero en la calle seguirán predominando las emociones propias
y los instintos naturales. Immanuel Kant, John Stuart Mill y John Rawls podrían sentarse, con un
buen whisky, a discutir durante días problemas teóricos de ética, pero ¿realmente los conductores
aplicarán sus conclusiones en plena emergencia y en una fracción de segundo?

Aquí es donde destaca que los algoritmos informáticos no han sido conformados por la selección
natural, y no tienen emociones ni instintos. De ahí que, en momentos críticos, van a seguir
directrices éticas al pie de la letra. Por lo tanto, si nuestro automóvil autónomo está programado
para pasar al otro carril a fin de esquivar a los niños en su trayectoria, podemos apostar la vida a
que será justo esto lo que hará. Esto significa que cuando diseñen su automóvil autónomo, Tesla,
por ejemplo, va a transformar un problema teórico de la filosofía de la ética en un problema
práctico de ingeniería. Sin duda, estos algoritmos filosóficos nunca serán perfectos. Todavía habrá
errores, que provocaran heridos, muertos y debates intensos. Lo que nos hace preguntarnos,
¿Podríamos por primera vez en la historia llegar a demandar a un filósofo por las consecuencias
de sus teorías, ya que por primera vez podremos demostrar una conexión causal directa entre
ideas filosóficas y acontecimientos de la vida real?

Sin embargo, los filósofos rara vez se ponen de acuerdo en el procedimiento adecuado, ya que
pocos “problemas del tranvía” se han resuelto a gusto de todos los filósofos, donde pensadores
consecuencialistas como John Stuart Mill (que juzga acciones por sus consecuencias) sostienen
opiniones muy diferentes a los deontologistas como Immanuel Kant (que juzga acciones mediante
reglas absolutas). ¿Sería lo ideal que quien fabrique el auto imponga su pensamiento filosófico al
de sus clientes?

Es por esta misma razón que quizás esta decisión se deje al cliente. Se fabricarán dos modelos
autónomos: uno que en una emergencia sacrifica a su dueño por un bien mayor y otro que hace
cuanto está a su alcance para salvar a su dueño, incluso si ello significa atropellar al peatón.
Entonces los clientes podrán comprar el auto que mejor se adapte a su opinión filosófica favorita.
En estudios pasados, a personas se les presentó esta situación hipotética. La mayoría dijeron que
en este caso el auto tenía que salvar a los peatones, pero cuando después se les preguntó si ellos
realmente comprarían un auto programado para sacrificar a su dueño, la mayoría contestaron que
no.

Imagínense ustedes en la misma situación: compraron un auto nuevo, pero antes de empezar a
usarlo, se meten al menú de configuración para elegir una de las opciones. En caso de un
accidente, ¿Prefieren que el auto sacrifique su vida o la de un peatón que se cruza por su camino?

¿Es esta una elección que realmente nos gustaría hacer?

¿Acaso el Estado debería intervenir para regular el mercado e imponer un código ético para todos
los automóviles autónomos?

Todas las anteriores son preguntas que, por lejanas que suenen, quizás llegue ya el momento en
que tengamos que enfrentarlas.

También podría gustarte