Está en la página 1de 5

Cmo se va a extinguir la humanidad Sean Coughlan BBC Domingo, 28 de abril de 2013

Cules son las ms grandes amenazas globales para la humanidad? Estamos al borde de nuestra propia inesperada extincin? Un equipo internacional de cientficos, matemticos y filsofos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford est investigando cul es el mayor peligro para la supervivencia del Hombre como especie. En el documento "Riesgo existencial como prioridad global" argumenta que los dirigentes internacionales tienen que prestarle mucha atencin a una serie de amenazas. El director del instituto, el filsofo sueco Nick Bostrom, advierte que lo que est en juego no puede ser ms importante: si nos equivocamos, ste puede ser el ltimo siglo de la humanidad. Las buenas noticias Cules son los mayores peligros?

Se estima que el 99% de las especies que han existido se han extinguido, como el dodo. Empecemos por lo alentador. Las pandemias y los desastres naturales pueden causar colosales y catastrficas prdidas de vida, pero Bostrom cree que no acabaran con la humanidad. La especie humana ya sobrevivi muchos miles de aos a enfermedades, hambrunas, inundaciones, depredadores, persecuciones, terremotos y cambios climticos. As que la probabilidad est a nuestro favor. Por otro lado, en el marco temporal de un siglo, califica el riesgo de extincin por el impacto de un asteroide o una sper explosin volcnica como "extremadamente bajo". Respecto a conflictos blicos, incluso las prdidas de vida sin precedentes autoinflingidas del siglo XX, con dos guerras mundiales, no lograron frenar el aumento de la poblacin global. Una guerra nuclear podra ocasionar una horrible destruccin, pero el equipo de expertos calcula que suficientes individuos podran sobrevivir como para permitir que la especie subsista. Uff! Si ese es el consuelo para hacernos sentir bien... de qu nos tenemos que preocupar entonces? "ste es el primer siglo en la historia del mundo en el que el ms grande riesgo viene de la humanidad" Lord Rees, astrnomo real britnico

Bostrom seala que hemos entrado en una nueva clase de era tecnolgica con el potencial de desafiar nuestro futuro como nunca antes. Son "amenazas sobre las que no tenemos historial de supervivencia". Comparndolo con un arma peligrosa en manos de un nio, le dijo a la BBC que el avance en la tecnologa ha rebasado nuestra capacidad de controlar las posibles consecuencias. Experimentos en reas como biologa sinttica, nanotecnologa e inteligencia artificial se estn precipitando hacia el territorio de lo accidental e imprevisto. Una por una La biologa sinttica, en la que la biologa se encuentra con la ingeniera, promete importantes beneficios mdicos. No obstante, a Bostrom le inquietan las secuelas inesperadas de la manipulacin de las fronteras de la biologa humana.

La creacin de nuevos organismos puede tener efectos secundarios ecolgicos desconocidos. Sen O'Heigeartaigh, un genetista del instituto y experto en evolucin molecular, desconfa de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genticas, desmantelando y reconstruyendo las estructuras genticas. "Lo ms probable es que no se propongan hacer algo daino", apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. "Estamos desarrollando cosas que pueden resultar profundamente mal", declara O'Heigeartaigh en entrevista con la BBC. La nanotecnologa, trabajar a nivel molecular o atmico, tambin podra tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribi que los gobiernos futuros enfrentarn el gran reto de controlar y restringir su mal uso. El poder de lo pequeo

La manera en la que la inteligencia artificial interactuar con el mundo exterior es otro de los temores del eclctico grupo de expertos reunidos en Oxford. Esa "inteligencia" informtica puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economa.

Se teme una explosin descontrolada de inteligencia artificial. Pero tambin es completamente indiferente a cualquier perjuicio fortuito. Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una "explosin de inteligencia" en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. "La inteligencia artificial es una de las tecnologas que pone ms y ms poder en paquetes ms y ms pequeos", le dice a la BBC Dewey, quien antes trabaj en Google. As como con la biotecnologa y la nanotecnologa, "se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo". Lo que no sabemos Estos no son conceptos abstractos, asegura O'Heigeartaigh. "Con cualquier nueva poderosa tecnologa -opina O'Heigeartaigh-, debemos pensar detenidamente en qu sabemos, pero quizs es ms importante en este momento estar conscientes de lo que no estamos seguros de saber". "ste es el primer siglo en la historia del mundo en el que el ms grande riesgo viene de la humanidad", seala el astrofsico y actual astrnomo real britnico Martin Rees. "Con cualquier nueva tecnologa hay ventajas pero tambin riesgos", observa. "Es una cuestin de escala: vivimos en un mundo ms interconectado: ms noticias y rumores se difunden a la velocidad de la luz. Por ello, las consecuencias de un error o terror son ms desmedidas que en el pasado".

Lamenta que mientras que s nos preocupamos por riesgos individuales ms inmediatos, como los vuelos areos o seguridad alimentaria, tenemos ms dificultad en reconocer peligros ms serios. Debemos angustiarnos por un apocalipsis inminente?

"Hay un cuello de botella en la historia de la humanidad. La condicin humana va a cambiar" Nick Bostrom sta no es una ficcin distpica: la brecha entre la velocidad del avance tecnolgico y nuestro conocimiento de sus implicaciones es real, recalca Bostrom. "Estamos al nivel de los nios en trminos de responsabilidad moral, pero con la capacidad tecnolgica de adultos". No obstante, la trascendencia del riesgo existencial "no ha entrado en el radar de la gente". Listos o no, advierte, el cambio est prximo. "Hay un cuello de botella en la historia de la humanidad. La condicin humana va a cambiar. Puede ser que termine en una catstrofe o que nos transformemos tomando ms control de nuestra biologa", sostiene el filsofo. "No se trata de ciencia ficcin, ni de una doctrina religiosa o una conversacin en un bar: no hay ninguna razn moral admisible para no tomarlo en serio".