Columna de Cristián de la Maza: ¿Un nuevo proyecto Manhattan? Dilemas éticos en la IA

Cristian de la Maza USS

El integrante de País Humanista, Cristián de la Maza, plantea que el desarrollo acelerado de la Inteligencia Artificial y la carrera por el liderazgo tecnológico para llegar a la denominada “Superinteligencia”, plantea dilemas éticos respecto a la civilización humana, tal como se planteó en su momento en la carrera por el desarrollo de la bomba nuclear.


Un ex ejecutivo de OpenAI, Leopold Aschenbrenner, en su reciente ensayo “Situational Awareness: the decade ahead”, pronostica que antes del 2030 se alcanzará la Inteligencia Artificial General (IAG), con sistemas que superarán las capacidades humanas en prácticamente todas las tareas cognitivas. En un proceso de automejora, la IAG se transformaría en una “Superinteligencia” de gran riesgo y de difícil control, pero que otorgaría un gran poder para lograr ventaja económica, militar y geopolítica, en la carrera por la hegemonía entre EE.UU. y China.

Aschenbrenner propone un nuevo proyecto “Manhattan”, liderado desde el Gobierno, integrando a la industria tecnológica y la academia, para liderar la carrera hacia la Superinteligencia, emulando al proyecto Manhattan (dirigido por Oppenheimer) para obtener la bomba nuclear con una capacidad destrucción masiva inédita y que provocó también un gran dilema ético en su tiempo.

José María Lasalle ya nos ha advertido de la capacidad transformadora de la IAG, representando un punto de inflexión en la civilización humana, mediante una revolución digital que está creando una verdadera civilización artificial, con un grado de automatización y dependencia de datos y algoritmos que implicarán una “mutación ontológica”. De esta manera está cambiando la forma en que los humanos interactúan con el mundo y entre sí, afectando la democracia liberal y la libertad individual, con riesgos de una dictadura tecnológica.

La Inteligencia Artificial (IA), como herramienta, ha demostrado un tremendo potencial para el bien de la humanidad, con aplicaciones crecientes en prácticamente todos los campos de la actividad humana: salud, educación, ciencia, energía, transporte entre otros. Sin embargo persisten riesgos asociados a sesgos algorítmicos, desinformación, privacidad, desigualdad, falta de transparencia y de “explicabilidad” o entendimiento de la forma y los datos procesados que dificultan el control y la mitigación de daños o usos nocivos de esta tecnología.

Por lo anterior, la Unión Europea ha adoptado una aproximación más cauta para el desarrollo de sistemas IA, basada en mitigación de riesgos y protección de derechos de los ciudadanos, lo que puede significar también una mayor lentitud e inhibición de inversiones en tecnologías de avanzada. Por su parte, EE.UU. ha seguido una aproximación más liberal, priorizando la investigación y desarrollo nacional de IA, con una regulación en base a principios pero que trata de evitar afectar el liderazgo de su industria.

Un avance en la dirección propuesta de un nuevo proyecto Manhattan, ya recogido en documentos programáticos para el próximo gobierno, afirmaría que la velocidad de avance sería definitivamente prioritaria, ya que su referente sería el riesgo a la Seguridad Nacional que representa un desarrollo de IAG liderado por China.

Así, al igual que con el proyecto Manhattan original, nos enfrentamos a nuevos dilemas éticos. En un escenario en que pareciera que el realismo se impone al idealismo en un proceso que avanza por inercia, es necesario una visión desde las humanidades para, junto a la técnica, buscar un equilibrio complejo entre regulación e innovación, discriminar el nivel de aceptación de riesgos presentes para asegurar el futuro deseado y entre afectación de derechos individuales para preservar la seguridad o hegemonía nacional.

Estos dilemas éticos son un incentivo para pensar e imaginar qué tipo de civilización humana estamos construyendo y cuál queremos heredar a las nuevas generaciones.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.