¿Las empresas de tecnología se están moviendo demasiado rápido en el despliegue de una poderosa tecnología de inteligencia artificial que algún día podría ser más astuta que los humanos?
Esa es la conclusión de un grupo de destacados informáticos y otros notables de la industria tecnológica, como Elon Musk y el cofundador de Apple, Steve Wozniak, que piden una pausa de 6 meses para considerar los riesgos.
Su petición publicada el miércoles es una respuesta al reciente lanzamiento de GPT-4 por parte de la startup OpenAI de San Francisco, un sucesor más avanzado de su chatbot ChatGPT de IA ampliamente utilizado que ayudó a desencadenar una carrera entre los gigantes tecnológicos Microsoft y Google para presentar aplicaciones similares.
¿Qué dice Elon Musk?
La carta advierte que los sistemas de inteligencia artificial con “inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad”, desde inundar Internet con desinformación y automatizar trabajos hasta riesgos futuros más catastróficos fuera del ámbito de la ciencia ficción.
Dice que “los últimos meses han visto a los laboratorios de IA encerrados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”.
“Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4″, dice la carta. “Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”.
Varios gobiernos ya están trabajando para regular las herramientas de IA de alto riesgo. El Reino Unido publicó un documento el miércoles que describe su enfoque, que dijo que “evitará una legislación de mano dura que podría sofocar la innovación”. Los legisladores de las 27 naciones de la Unión Europea han estado negociando la aprobación de amplias reglas de IA.
¿Quién la firmó?
La petición fue organizada por el Future of Life Institute, una organización sin fines de lucro, que dice que los signatarios confirmados incluyen al pionero de la IA, ganador del Premio Turing, Yoshua Bengio, y otros investigadores líderes en IA, como Stuart Russell y Gary Marcus. Otros que se unieron incluyen a Wozniak, el excandidato presidencial de los EE. UU. Andrew Yang y Rachel Bronson, presidenta del Bulletin of the Atomic Scientists, un grupo de defensa orientado a la ciencia conocido por sus advertencias contra la guerra nuclear que termina con la humanidad.
Musk, que dirige Tesla, Twitter y SpaceX y fue cofundador de OpenAI y uno de los primeros inversores, ha expresado durante mucho tiempo su preocupación por los riesgos existenciales de la IA. Una inclusión más sorprendente es Emad Mostaque, CEO de Stability AI, fabricante del generador de imágenes de IA Stable Diffusion que se asocia con Amazon y compite con el generador similar de OpenAI conocido como DALL-E.
¿Cuál fue la respuesta?
OpenAI, Microsoft y Google no respondieron a las solicitudes de comentarios el miércoles, pero la carta ya tiene muchos escépticos.
“Una pausa es una buena idea, pero la carta es vaga y no toma en serio los problemas regulatorios”, dice James Grimmelmann, profesor de derecho digital y de la información de la Universidad de Cornell. “También es profundamente hipócrita que Elon Musk firme dado lo mucho que Tesla ha luchado contra la responsabilidad por la IA defectuosa en sus autos sin conductor”.
¿Es la IA inteligente?
Si bien la carta plantea el espectro de una IA nefasta mucho más inteligente de lo que realmente existe, la IA no es “sobrehumana”, como les preocupa a algunos de los que firmaron. Si bien es impresionante, una herramienta como ChatGPT es simplemente un generador de texto que hace predicciones sobre qué palabras responderían al mensaje que se le dio en función de lo que aprendió al ingerir grandes cantidades de trabajos escritos.
Gary Marcus, un profesor emérito de la Universidad de Nueva York que firmó la carta, dijo en una publicación de blog que no está de acuerdo con otros que están preocupados por la perspectiva a corto plazo de máquinas inteligentes tan inteligentes que pueden mejorar por sí mismas más allá del control de la humanidad. Lo que más le preocupa es la “IA mediocre” que está ampliamente desplegada, incluso por delincuentes o terroristas para engañar a las personas o difundir información errónea peligrosa.
“La tecnología actual ya plantea enormes riesgos para los que no estamos preparados”, escribió Marcus. “Con la tecnología del futuro, las cosas podrían empeorar”.