Las armas nucleares son muy temidas a la hora de hablar de una posible extinción de la humanidad. Sin embargo, muchos líderes de tecnología creen que la Inteligencia Artificial tiene el mismo potencial y que sus desconocidos límites amenazan nuestra existencia.

Así lo establece la carta que firmaron 350 científicos y ejecutivos de tecnología, incluido Sam Altman, el creador de ChatGPT y OpenAI, donde resaltaron que “mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.

Líderes de tecnología afirman que la Inteligencia Artificial puede provocar la extinción humana, igual que las armas nucleares

El temor de que la IA provoque la extinción humana

A fines de marzo, se publicó una carta distinta, que reunió más de mil firmas de líderes en tecnología, incluido Elon Musk, donde pedían una pausa en el desarrollo de la Inteligencia Artificial hasta que se pudiera regular su seguridad.

Sin embargo, faltaron las firmas de muchos otros representantes de la tecnología que sí se sumaron a esta nueva carta, como los dos ejecutivos más importantes en esta materia de Google, Demis Hassabis y James Mayka,  y el director de tecnología Microsoft, Kevin Scott.

En el escrito actual, piden transparentar y hacerse cargo de los posibles y graves riesgos que conlleva la IA, comparándola con las armas nucleares.

Líderes de tecnología afirman que la Inteligencia Artificial puede provocar la extinción humana, igual que las armas nucleares. Foto: REUTERS/Elizabeth Frantz

También llamó la atención que Sam Altman, el creador de OpenAI y ChatGPT, firmó la carta. Y es que el líder está en una postura donde colabora con las autoridades estadounidenses, advirtiendo el daño significativo que la IA podría causar al mundo.

“Estas tecnologías ya no son fantasías de ciencia ficción. Desde el desplazamiento de millones de trabajadores hasta la difusión de información errónea, la IA plantea amenazas y riesgos generalizados para nuestra sociedad”, dijo el senador estadounidense Richard Blumenthal, que está presionando para que la Casa Blanca comience a regular la tecnología.

Líderes de tecnología afirman que la Inteligencia Artificial puede provocar la extinción humana, igual que las armas nucleares

Altman, por su parte, explicó la necesidad de que exista una organización internacional que pueda inspeccionar estos sistemas, probar su cumplimiento con los estándares de seguridad e imponer restricciones sobre su uso. Tal y como lo hace la Agencia Internacional de Energía Atómica con la tecnología nuclear.

Además, sobre la aparente “hipocresía” de que a pesar de alarmar sobre los riesgos de la IA siga desarrollando su chatbot ChatGPT, Altman aseguró que era mejor hacer llegar la tecnología a muchas personas ahora que todavía es temprano para que la sociedad comprenda y evalúe sus riesgos, en lugar de esperar a que ya sea demasiado tarde y poderoso para controlarla.