Por qué Mark Zuckerberg intensificó el debate sobre el futuro de la IA: esto dijo el fundador de Meta
El también CEO del gigante tecnológico compartió su perspectiva en una carta, en la que se refirió a los sistemas de código abierto y lo que pueden implicar.
A finales de julio de 2024, el fundador y CEO de Meta, Mark Zuckerberg, compartió una carta en la que aseguró que la inteligencia artificial (IA) de código abierto es “el camino” que se debe seguir.
En su misiva, el magnate presentó sus argumentos de por qué opina que estos sistemas deben ser de libre acceso, en vez de ser cerrados y estar sujetos a revisiones estrictas para identificar inminentes riesgos.
Su escrito llegó de la mano con la presentación de Llama 3.1, sistema que desde la empresa describen como “el primer modelo de IA de código abierto de última generación”.
Desde la visión de Zuckerberg, la IA de código abierto no solo beneficiará a Meta y a los desarrolladores, sino que también contribuirá “al mundo”.
“La IA tiene más potencial que cualquier otra tecnología moderna para aumentar la productividad, la creatividad y la calidad de vida humanas, y para acelerar el crecimiento económico y al mismo tiempo desbloquear avances en la investigación médica y científica”, manifestó.
En este sentido, sostuvo que “el código abierto garantizará que más personas en todo el mundo tengan acceso a los beneficios y oportunidades de la IA, que el poder no se concentre en manos de un pequeño número de empresas y que la tecnología pueda implementarse de manera más uniforme y segura en toda la sociedad”.
Las declaraciones de Zuckerberg se posicionan en medio de un debate en el que los acelerados avances en este campo han planteado dudas sobre cómo debiera ser la regulación.
Sin embargo, distintas voces de la industria defienden lo propuesto por el fundador de Meta.
El inversionista estadounidense, Bill Gurley, compartió la carta en su cuenta de X (ex Twitter) y afirmó que en esta “Zuck opina sobre otros que intentan utilizar el gobierno para protegerse y ‘capturar’ el mercado de la IA”.
“Esto es algo heroico del Sr. Zuckerberg. Excelente para todo el ecosistema de emprendedores y desarrolladores”, agregó.
La publicación de Gurley fue comentada, entre otros, por Elon Musk, quien escribió “+1 para Zuck”, refiriéndose a que apoya lo que expone.
De la misma manera, el programador e inversionista británico, Paul Graham, compartió la carta en su cuenta de la red social y dijo que se trata de “un elocuente manifiesto”.
Cabe precisar que “cuando se habla de un sistema de IA de código abierto, se trata de un algoritmo o modelo preentrenado cuyo código fuente está a disposición de todos y todas, típicamente de forma gratuita”, explicó la fundadora y directora ejecutiva del Eon Institute, Claudia del Pozo, en una columna que escribió para Wired en marzo de 2024.
Por qué Mark Zuckerberg intensificó el debate sobre el futuro de la IA
Según un análisis publicado en la revista Time, la estrategia de Meta con Llama se traduce en presión para sus competidores, mientras que a su vez despierta el apoyo de muchos desarrolladores del área de la tecnología, quienes tienden a oponerse a las regulaciones que puedan limitar el lanzamiento de sistemas de IA de código abierto.
Sin embargo, también genera críticas de numerosos especialistas del ámbito de la ciberseguridad, quienes creen que el uso abierto de modelos de IA de última generación puede desencadenar mayores daños a nivel social.
El director ejecutivo de Control AI, Andrea Miotti, sugirió al citado medio que la carta de Zuckerberg “es parte de una tendencia más amplia de algunos CEOs y capitalistas de riesgo de Silicon Valley, que se niegan a asumir la responsabilidad por los daños que su tecnología de IA pueda causar”.
“Incluidos resultados catastróficos”, agregó.
Como es de suponer, Zuckerberg es consciente de las críticas y también aludió a estas en su escrito.
“Existe un debate en curso sobre la seguridad de los modelos de IA de código abierto y mi opinión es que será más segura que las alternativas. Creo que los gobiernos concluirán que les conviene apoyar el código abierto, porque hará que el mundo sea más próspero y seguro”.
En este sentido, precisó que considera la existencia de dos categorías de daños: los “no intencionales” y los “intencionales”.
Con los primeros alude a “cuando un sistema de IA puede causar daño incluso cuando no era la intención de quienes lo ejecutaban”.
Por otro lado, los segundos corresponden a “cuando un mal actor utiliza un modelo de IA con el objetivo de causar daño”.
Según él, los “no intencionales” incluyen “la mayoría de las preocupaciones que la gente tiene en torno a la IA, desde la influencia que tendrán los sistemas de IA en los miles de millones de personas que los utilizarán hasta la mayoría de los escenarios de ciencia ficción verdaderamente catastróficos para la humanidad”.
“En este frente, el código abierto debería ser significativamente más seguro, ya que los sistemas son más transparentes y pueden ser examinados ampliamente. Históricamente, el software de código abierto ha sido más seguro por este motivo”, aseguró el fundador y CEO de Meta.
Respecto a lo que llama daños “intencionales”, dijo que “es útil distinguir entre lo que los actores individuales o de pequeña escala pueden hacer en comparación con lo que los actores de gran escala, como los estados nacionales con vastos recursos, pueden ser capaces de hacer”.
En esta línea, continuó: “En algún momento en el futuro, los malos actores individuales podrán utilizar la inteligencia de los modelos de IA para fabricar daños completamente nuevos a partir de la información disponible en Internet. En este punto, el equilibrio de poder será fundamental para la seguridad de la IA”.
“Creo que será mejor vivir en un mundo donde la IA esté ampliamente implementada, para que los actores más grandes puedan controlar el poder de los actores malos más pequeños. Así es como hemos gestionado la seguridad en nuestras redes sociales: nuestros sistemas de IA más sólidos identifican y detienen amenazas de actores menos sofisticados que a menudo utilizan sistemas de IA de menor escala”.
“En términos más generales, las instituciones más grandes que implementen IA a escala promoverán la seguridad y la estabilidad en toda la sociedad. Mientras todo el mundo tenga acceso a generaciones similares de modelos (que el código abierto promueve), los gobiernos y las instituciones con más recursos informáticos podrán controlar a los malos actores con menos computación”, agregó.
Frente a dicho argumento, el especialista en políticas estadounidenses del Future of Life Institute, Hamza Tariq Chaudhry planteó a la revista Time que Zuckerberg no está considerando que “no todos los ‘grandes actores’ son benévolos”.
“Los estados más autoritarios probablemente reutilizarán modelos como Llama para perpetuar su poder y cometer injusticias”.
Bajo esta línea, recalcó: “Al provenir del Sur Global (el experto es originario de Pakistán), soy muy consciente de que los ciberataques impulsados por IA, las campañas de desinformación y otros daños representan un peligro mucho mayor para los países con instituciones incipientes y graves limitaciones de recursos”.
Asimismo, Andrea Miotti de Control AI dijo que “las declaraciones de Zuckerberg muestran un preocupante desprecio por la seguridad básica en el enfoque de Meta hacia la IA”.
“Cuando se trata de peligros catastróficos, es un hecho simple que la ofensiva solo necesita tener suerte una vez, pero la defensa necesita tenerla siempre. Un virus puede propagarse y matar en días, mientras que implementar un tratamiento puede llevar años”.
No obstante, el fundador y CEO de Meta está convencido de que “parece más probable que un mundo solo de modelos cerrados dé lugar a que un pequeño número de grandes compañías, además de nuestros adversarios geopolíticos, tengan acceso a los modelos más avanzados, mientras que las startups, las universidades y las pequeñas empresas pierden oportunidades”.
“Además, limitar la innovación estadounidense a un desarrollo cerrado aumenta la posibilidad de que no seamos líderes en absoluto. En su lugar, creo que nuestra mejor estrategia es construir un sólido ecosistema abierto y hacer que nuestras empresas líderes colaboren estrechamente con nuestro gobierno y nuestros aliados para asegurarse de que pueden aprovechar mejor los últimos avances y lograr una ventaja sostenible a largo plazo”, subrayó Zuckerberg.
Comenta
Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.