Documentos de Académico
Documentos de Profesional
Documentos de Cultura
27 feb 2017
Vinayak Dalmia
Investor, Amber
Kavi Sharma
Chief Operating Officer, President Electronics USA
¿Debe su automóvil sin conductor valorar su vida más que la de otro peatón? ¿Debería
usarse Fitbit contra usted en un caso judicial? ¿Deberíamos permitir que los drones se
conviertan en los nuevos paparazzi? ¿Se puede patentar un gen humano? Los científicos ya
se están enfrentando a estos dilemas. A medida que entramos en la nueva era digital,
necesitamos un nuevo conjunto de normas codificadas globales.
Esto está comenzando a suceder. El año pasado, la Universidad Carnegie Mellon de Estados
Unidos anunció un nuevo centro de estudios de la ética de la inteligencia artificial; durante la
presidencia del Presidente Obama, la Casa Blanca publicó un trabajo sobre el mismo tema y
los gigantes de la tecnología, incluyendo Facebook y Google, han anunciado una asociación
para redactar un marco ético para la inteligencia artificial (IA). Tanto los riesgos como las
oportunidades son inmensos: Stephen Hawking, Elon Musk y otros expertos firmaron una
carta abierta en la que llaman a hacer todos los esfuerzos posibles para garantizar que la IA
sea un beneficio para la sociedad:
"Los beneficios potenciales son enormes, ya que todo lo que la civilización tiene que ofrecer
es un producto de la inteligencia humana; no podemos predecir lo que podríamos lograr
cuando esta inteligencia se magnifique por las herramientas que la IA pueda proporcionar,
como podría ser la erradicación de las enfermedades y la pobreza. Dado que la IA tiene un
potencial enorme, es importante investigar cómo disfrutar de sus beneficios evitando sus
posibles riesgos".
¿A quién salvar? Simulación del dilema de un auto sin conductor. Imagen: MIT
Estos son grandes nombres y grandes ideales. Sin embargo, muchos esfuerzos carecen de
cooperación mundial. Además, las implicaciones de la Cuarta Revolución Industrial van más
allá de Internet y de la IA.
El profesor Klaus Schwab, fundador del Foro Económico Mundial, cree que esta fase se
construirá en torno a los "sistemas ciberfísicos" con el desdibujamiento de los sistemas
físicos, digitales y biológicos. A medida que adoptemos esta era de las máquinas,
necesariamente nos enfrentaremos a nuevos desafíos éticos, que exigirán nuevas leyes. En
algunos casos, es posible que se deba reiniciar el código moral en su totalidad. Tal es la
naturaleza de los avances tecnológicos. Creemos que la humanidad pronto estará en el
umbral de repensar los valores morales: una ética 2.0.
Los orígenes de la ética
La ética derivada de la filosofía o la religión no encaja fácilmente en el mundo de la tecnología.
Todo, desde Aristóteles hasta los Diez Mandamientos, nos da una dirección moral, pero
cualquier conjunto de reglas establecido tiende a presentar dilemas. El mundo de la ciencia
también ha hecho algunos intentos, desde Las tres leyes de la robótica de Asimov al trabajo
sobre ética de Nick Bostrom. Sin embargo, los seres humanos tienen gran dificultad para
desarrollar virtudes para su propia conducta, menos aún para construir virtudes relevantes en
nuevas tecnologías.
Las implicaciones éticas van desde lo inmediato (¿cómo influyen los algoritmos detrás de
Facebook y Google en todo, desde nuestras emociones hasta nuestras elecciones?) hasta el
futuro (¿qué pasará si los vehículos autodirigidos eliminan los puestos de trabajo de los
conductores de camiones?) Lo que sigue es una muestra, no exhaustiva, de las decisiones
éticas que deberemos enfrentar:
Ciencias de la vida
¿Debe la modificación de genes ser legal para manipular a la raza humana y crear "bebés de
diseño"? El investigador del cáncer Siddhartha Mukherjee, en su aclamado libro The Gene,
destacó las profundas preguntas éticas que los avances en la ciencia del genoma plantearán.
La lista de preguntas éticas es larga: ¿qué pasaría si una prueba prenatal predijera que su hijo
tendrá un coeficiente intelectual de 80 puntos, muy por debajo del promedio, a menos que le
haga una pequeña modificación? ¿Qué pasaría si solo las personas ricas pudiesen usar estas
tecnologías?
Con el tiempo, la inteligencia artificial nos ayudará a tomar todo tipo de decisiones. Pero,
¿cómo podemos garantizar que estos algoritmos estén diseñados de manera apropiada?
¿Cómo eliminamos nuestras inclinaciones en estos sistemas, que eventualmente se utilizarán
para determinar las promociones en el trabajo, admisiones universitarias e, incluso, nuestra
elección de un compañero de vida?
Robots y máquinas
¿Cómo determinamos las decisiones que deben tomar los autos sin conductor? ¿Cómo
determinamos qué decisiones deben tomar los robots? ¿Será necesario que un robot tenga
algo equivalente a una Declaración de derechos? ¿Qué pasará con los derechos de los seres
humanos a casarse con los robots y de los robots de ser propietarios? ¿Debería permitirse a
un Cyborg muy avanzado postularse para cargos políticos?
Existe la necesidad de un foro internacional estructurado para armar una lista de tecnologías
que requieran dirección, para evaluar cada una de ellas y publicar un modelo para su código
de conducta. Por ejemplo, un organismo gubernamental internacional podría establecer
reglas específicas, tales como hacer obligatoria la publicación de la lógica detrás de ciertos
algoritmos de la IA.
Conclusión
La humanidad se enfrentará a preguntas que aún no ha tenido que responder. Debemos
empezar este debate ahora mismo.
Si no nos preparamos con anticipación, nos enfrentaremos a varios riesgos. Nos arriesgamos
a perder nuestro poder y a ponerlo en las manos de las máquinas. Nos arriesgamos a alterar
el curso de la humanidad sin comprender plenamente las consecuencias. Corremos el riesgo
de crear una desigualdad masiva entre “una clase tecnológica rica” y una inmensa clase
marginal.
Cualquiera que haya visto incluso un solo episodio de la galardonada serie de televisión Black
Mirror debería estar preocupado por el futuro antiutópico que podría esperarnos si no
abordamos estas difíciles preguntas filosóficas y legales ahora.
Esta no es la primera revolución tecnológica. Las preocupaciones no son nuevas. Han estado
presentes por más de 200 años desde la Revolución Industrial. Pero como lo expresa el
historiador y filósofo Yuval Harari, es cuestión de que el niño (que gritó lobo) llegue
eventualmente a tener razón.
La sociedad se adapta a los cambios con facilidad, desde la máquina a vapor hasta el iPhone,
hasta el notable aumento de las expectativas de vida. Como Bill Gates sostiene, "la
tecnología es amoral". Depende de nosotros decidir cómo usarla y dónde trazar la línea
Este artículo se publicó por primera vez en Medianama. Consulte también: La biblioteca de
ensayos sobre la ética de las tecnologías emergentes.
Escrito por
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
Email Subscribe