Cómo se va a extinguir la humanidad
Expertos de la Universidad de Oxford señalan que en cuestión de un siglo la humanidad podría desaparecer de la faz de la Tierra. Pero, ¿cuál es la peor amenaza para el hombre?
¿Cuáles son las más grandes amenazas globales para la humanidad? ¿Estamos al borde de nuestra propia inesperada extinción?
Un equipo internacional de científicos, matemáticos y filósofos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford está investigando cuál es el mayor peligro para la supervivencia del Hombre como especie.
En el documento "Riesgo existencial como prioridad global" argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas.
El director del instituto, el filósofo sueco Nick Bostrom, advierte que lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad.
Las buenas noticias
¿Cuáles son los mayores peligros?
Empecemos por lo alentador.
Las pandemias y los desastres naturales pueden causar colosales y catastróficas pérdidas de vida, pero Bostrom cree que no acabarían con la humanidad.
La especie humana ya sobrevivió muchos miles de años a enfermedades, hambrunas, inundaciones, depredadores, persecuciones, terremotos y cambios climáticos. Así que la probabilidad está a nuestro favor.
Por otro lado, en el marco temporal de un siglo, califica el riesgo de extinción por el impacto de un asteroide o una súper explosión volcánica como "extremadamente bajo".
Respecto a conflictos bélicos, incluso las pérdidas de vida sin precedentes autoinflingidas del siglo XX, con dos guerras mundiales, no lograron frenar el aumento de la población global.
Una guerra nuclear podría ocasionar una horrible destrucción, pero el equipo de expertos calcula que suficientes individuos podrían sobrevivir como para permitir que la especie subsista.
¡Uff!
Si ese es el consuelo para hacernos sentir bien... ¿de qué nos tenemos que preocupar entonces?
Bostrom señala que hemos entrado en una nueva clase de era tecnológica con el potencial de desafiar nuestro futuro como nunca antes. Son "amenazas sobre las que no tenemos historial de supervivencia".
Comparándolo con un arma peligrosa en manos de un niño, le dijo a la BBC que el avance en la tecnología ha rebasado nuestra capacidad de controlar las posibles consecuencias.
Experimentos en áreas como biología sintética, nanotecnología e inteligencia artificial se están precipitando hacia el territorio de lo accidental e imprevisto.
Una por una
La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. No obstante, a Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana.
Seán O'Heigeartaigh, un genetista del instituto y experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas.
"Lo más probable es que no se propongan hacer algo dañino", apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente.
"Estamos desarrollando cosas que pueden resultar profundamente mal", declara O'Heigeartaigh en entrevista con la BBC.
La nanotecnología, trabajar a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.
El poder de lo pequeño
La manera en la que la inteligencia artificial interactuará con el mundo exterior es otro de los temores del ecléctico grupo de expertos reunidos en Oxford. Esa "inteligencia" informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía.
Pero también es completamente indiferente a cualquier perjuicio fortuito.
Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una "explosión de inteligencia" en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable.
"La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños", le dice a la BBC Dewey, quien antes trabajó en Google.
Así como con la biotecnología y la nanotecnología, "se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo".
Lo que no sabemos
Estos no son conceptos abstractos, asegura O'Heigeartaigh.
"Con cualquier nueva poderosa tecnología -opina O'Heigeartaigh-, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber".
"Éste es el primer siglo en la historia del mundo en el que el más grande riesgo viene de la humanidad", señala el astrofísico y actual astrónomo real británico Martin Rees.
"Con cualquier nueva tecnología hay ventajas pero también riesgos", observa. "Es una cuestión de escala: vivimos en un mundo más interconectado: más noticias y rumores se difunden a la velocidad de la luz. Por ello, las consecuencias de un error o terror son más desmedidas que en el pasado".
Lamenta que mientras que sí nos preocupamos por riesgos individuales más inmediatos, como los vuelos aéreos o seguridad alimentaria, tenemos más dificultad en reconocer peligros más serios.
¿Debemos angustiarnos por un apocalipsis inminente?
Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real, recalca Bostrom.
"Estamos al nivel de los niños en términos de responsabilidad moral, pero con la capacidad tecnológica de adultos".
No obstante, la trascendencia del riesgo existencial "no ha entrado en el radar de la gente".
Listos o no, advierte, el cambio está próximo.
"Hay un cuello de botella en la historia de la humanidad. La condición humana va a cambiar. Puede ser que termine en una catástrofe o que nos transformemos tomando más control de nuestra biología", sostiene el filósofo.
"No se trata de ciencia ficción, ni de una doctrina religiosa o una conversación en un bar: no hay ninguna razón moral admisible para no tomarlo en serio".
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.