Está en la página 1de 3

The moments that could have accidentally ended humanity.

El punto central del artículo hace referencia a las pocas (pero significativas) veces
en las que el futuro de la humanidad (y la destrucción de la misma) estuvo en manos
de un reducido grupo de personas, a la merced tanto de sus intereses como de sus
errores o fallas, y navega la sombría realidad de que a medida que la tecnología
avanza y las sociedades se apoyan más en ella para funcionar, este riesgo que puede
parecer casi ficticio, se vuelve aún más posible, y el poder letal de estos elementos,
cuyos propósitos y usos pueden terminar siendo un arma de doble filo, queda aún más
delegada a un grupo reducido de autoridad, y a su vez a sus políticas y a la tecnología
creada e implementada por ellos.

Para probar su punto, el autor menciona dos ejemplos que ponen en contexto el
porqué de esta preocupación en acontecimientos reales sucedidos en el pasado. El
primer ejemplo data del siglo 20, con los primeros viajes al espacio, donde durante el
regreso del Apollo 11 se corría el riesgo del 1% de que la misión trajera consigo
organismos lunares y se produjera la llamada “back contamination”, es decir, que los
astronautas trajeran consigo a la tierra vida u organismos que podían poner en peligro
al mundo (menciona que estos organismos incluso podían haber consumido todo el
oxígeno del planeta). La nasa en su momento consideró más importante la comodidad
a corto plazo de las personas dentro de la capsula, y violaron el protocolo acordado de
mantenerlos dentro y movilizarlos, abriendo así la misma provocando que el aire de
adentro de la capsula entrara en contacto con el océano, y si bien afortunadamente la
misión no trajo organismos peligrosos, la preocupación individual de la institución por
los astronautas fue más importante que el riesgo del 1% de que los mismos pudieran
contaminar a la tierra y provocar una catástrofe.

El segundo ejemplo habla sobre las primeras pruebas de las armas nucleares en
1945 donde los científicos del Proyecto de Manhattan descubrieron a través de sus
cálculos la posibilidad, si bien baja, igualmente posible de que el calor de la explosión
pudiera accidentalmente incendiar la atmosfera y los océanos, destruyendo gran parte
de la vida en la tierra. A pesar del riesgo que se corría, los funcionarios decidieron
seguir adelante con la prueba, y si bien no ocurrió una catástrofe, se sabe que dicho
riesgo no fue informado a terceros que pudieron haber considerado más seriamente
este riesgo, si no que los militares y los científicos involucrados tomaron la decisión en
nombre de la humanidad.

Resalta en el artículo que si bien el riesgo de esas situaciones pueden ser atribuidas
a la falta de conocimiento y de tecnologías de la época, la realidad es que las
posibilidades de una catástrofe generada por la toma de decisiones de un grupo
reducido de personas o por fallas de la tecnología y las técnicas aplicadas a la misma
es incluso más posible en el siglo 21. El riesgo de la extinción humana durante el siglo
20 era de 1 en 100, hoy en día es de 1 en 6 (BBC Future, 2021), esta escala se redujo
cuando se sumaron a los riesgos tradicionales (como lo son las armas nucleares, que
hoy en día son mucho más avanzadas y abundantes, con la capacidad de provocar un
“invierno nuclear”), factores producto de la evolución como las redes sociales y la
conectividad global que esta permite y que puede traer consigo males como el de la
desinformación, así como la inteligencia artificial desalineada o manipulable, el
aumento de las emisiones de carbón o la posibilidad de la alteración biológica de virus,
etc.

Esto da lugar a la “hipótesis del mundo vulnerable”, que básicamente resalta como
las tecnologías y los nuevos descubrimientos pueden ser armas de doble filo, e incluso
como algunas de las ya existentes tienen la capacidad de volverse una potencial
amenaza para la humanidad, sin embargo la tarea de prepararse para algo como la
extinción de la raza humana a manos de la tecnología o de un error imprevisto suena
irreal para la mayoría de las personas, y esto es lo que se conoce como “la tragedia de
los no comunes”, que es básicamente la poca credibilidad que hay sobre la posibilidad
de que exista el riesgo de una catástrofe que no es frecuente, y se da por tres razones:
la inexistencia de dichos desastres en el pasado, lo que las hace parecer menos
probables a suceder, segundo por el “efecto adormecimiento” que demuestra que la
preocupación de las personas hacia la muerte de otras disminuye a medida que el
número de estas es mayor y la tercera siendo el efecto laissez-faire que parece tener el
tomar un riesgo de tal calibre, ya que si la humanidad se extingue producto de una
mala decisión tomada por alguna autoridad o un error de cálculo, aplicación o
funcionamiento, es un hecho que este no tendría repercusiones por lo ocurrido.

Concluyendo así el artículo con la esperanza de que en el futuro la humanidad siga


teniendo la misma suerte, ya que al exponer el precio que la misma pudo haber pagado
en pro del progreso tecnológico, demuestra como este riesgo sigue siendo inminente a
medida que las sociedades del mundo incorporan cada vez más la tecnología en todos
los ámbitos de sus vidas, donde si bien la misma parece accesible para todos y otorga
un falso sentido de decisión, las vidas de los ciudadanos del mundo siguen en mano
del grupo reducido de autoridades cuyas fallas o aciertos pueden decidir el futuro de
toda la vida terrestre.

También podría gustarte