¿Hasta qué punto debería preocuparnos la amenaza de la IA para la humanidad? Ni siquiera los líderes tecnológicos se ponen de acuerdo
Los expertos en inteligencia artificial debaten si hay que centrarse en evitar un apocalipsis de la IA, o en problemas como los sesgos, la desinformación. La disputa se intensifica a medida que empresas y gobiernos de todo el mundo intentan decidir dónde concentrar los recursos y la atención de modo que se maximicen los beneficios y se minimicen los inconvenientes de una tecnología que se considera potencialmente revolucionaria.
Los pioneros de la inteligencia artificial (IA) discuten sobre cuál de los peligros de esta tecnología es el más atemorizante.
Un bando, que incluye a algunos de los principales ejecutivos que construyen sistemas avanzados de IA, sostiene que sus creaciones podrían conducir a la catástrofe. En el otro bando hay científicos que afirman que la preocupación debería centrarse principalmente en cómo se está aplicando la IA en la actualidad y cómo podría causar daños en nuestra vida cotidiana.
Dario Amodei, líder del desarrollador de IA Anthropic, se encuentra en el grupo que advierte del peligro existencial. Este verano declaró ante el Congreso que la IA podría suponer un riesgo de este tipo para la humanidad. Sam Altman, responsable del fabricante de ChatGPT OpenAI, recorrió el mundo esta primavera diciendo, entre otras cosas, que la IA podría algún día causar graves daños o algo peor. Y Elon Musk señaló en un evento del Wall Street Journal, en mayo, que “la IA tiene una probabilidad no nula de aniquilar a la humanidad”, poco antes de lanzar su propia empresa de IA.
Se espera que Altman, Musk y otros altos ejecutivos de IA asistan la semana que viene a la primera de una serie de reuniones a puerta cerrada sobre IA convocada por el líder de la mayoría del Senado de EE.UU., Chuck Schumer (D., N.Y.), para considerar temas que incluyen “escenarios catastróficos”.
El otro bando de científicos de la IA califica esas advertencias de distracción alimentada por la ciencia ficción, o incluso de perversa estratagema de marketing. Dicen que las empresas y los reguladores de la IA deberían centrar sus limitados recursos en las amenazas existentes e inminentes de la tecnología, como las herramientas que ayudan a producir una potente desinformación sobre las elecciones o los sistemas que amplifican el impacto de los prejuicios humanos.
La disputa se intensifica a medida que empresas y gobiernos de todo el mundo intentan decidir dónde concentrar los recursos y la atención de modo que se maximicen los beneficios y se minimicen los inconvenientes de una tecnología que se considera potencialmente revolucionaria.
“Es una dicotomía muy real y cada vez mayor”, afirmó Nicolas Miailhe, cofundador de Future Society, un grupo de reflexión que trabaja en la gobernanza de la inteligencia artificial y trata de salvar la brecha. “Es el fin del mes frente al fin del mundo”, planteó.
A pesar de toda la atención que ha recibido, el debate público sobre el riesgo existencial de la IA -o “riesgo x”, como prefieren llamarlo los más preocupados por ella- se había limitado hasta hace poco a una franja de filósofos e investigadores de IA.
Esto cambió tras el lanzamiento de ChatGPT por OpenAI a finales del año pasado y sus posteriores mejoras, que han proporcionado respuestas similares a las humanas, lo que ha encendido las alarmas sobre la posibilidad de que estos sistemas adquieran una inteligencia sobrehumana. Destacados investigadores como Geoffrey Hinton, considerado uno de los padrinos de la IA, han afirmado que contiene un atisbo de razonamiento humano. Hinton abandonó este año su puesto en Google, de Alphabet, para debatir más libremente sobre los riesgos de la IA.
Con las advertencias de riesgo existencial, “ha existido el tabú de que se burlarán de ti y te tratarán como a un loco, y de que afectará a tus perspectivas laborales”, sostuvo David Krueger, profesor de aprendizaje automático en la Universidad de Cambridge. Krueger ayudó a organizar en mayo una declaración en la que se afirmaba que el riesgo de extinción de la IA estaba a la altura de los peligros de las pandemias y la guerra nuclear. La firmaron cientos de expertos en IA, incluidos altos cargos e investigadores de Google, OpenAI y Anthropic.
“Quería que los investigadores supieran que están en buena compañía”, aseguró Krueger.
Algunos expertos indicaron que para las empresas de IA resulta paradójico destacar el riesgo x de los sistemas, porque transmite la sensación de que su tecnología es extraordinariamente sofisticada.
“Es obvio que estos tipos se benefician del bombo que se sigue alimentando”, acusó Daniel Schoenberger, un exabogado de Google que trabajó en su lista de principios de IA de 2018 y ahora está en la Fundación Web3. Dijo que los responsables políticos deberían centrarse más en los riesgos a corto plazo, como que la IA abarate el montaje de campañas para difundir información falsa y engañosa, o que concentre más poder en Silicon Valley.
“Existe el riesgo de dominación, de que Big Tech se convierta en Big AI”, agregó Schoenberger.
Los líderes de la IA preocupados por los riesgos existenciales afirman que su inquietud es genuina, no una estratagema. “Decir: ‘Oh, los gobiernos no tienen remedio, así que la petición de regulación es una especie de jugada de ajedrez 4D’, no es como pensamos. Se trata de un riesgo existencial”, explicó Altman de OpenAI en junio.
Los llamados catastrofistas no dicen que la IA vaya a surgir necesariamente como Skynet en las películas de Terminator para destruir a los humanos. A algunos les preocupa que los sistemas de IA entrenados para buscar recompensas puedan acabar con impulsos ocultos de búsqueda de poder, dañen inadvertidamente a los humanos mientras cumplen nuestros deseos, o simplemente superen a los humanos y tomen el control de nuestro destino. La investigación en esta comunidad se centra en gran medida en lo que se denomina alineación: cómo garantizar que las mentes informáticas del mañana tengan objetivos intrínsecamente sincronizados con los nuestros.
En cambio, a los especialistas en ética y equidad de la IA les preocupa cómo estas herramientas, accidental o intencionadamente, explotan a los trabajadores y agravan la desigualdad de millones de personas. Quieren que las empresas tecnológicas y los reguladores apliquen normas y técnicas de formación para reducir esa amenaza.
La diversidad es un tema candente. Los especialistas en ética de la IA han demostrado que los sistemas de IA entrenados a partir de datos históricos pueden introducir discriminaciones pasadas en decisiones futuras de alto riesgo, como la vivienda, la contratación o la condena penal. La investigación también ha demostrado que los sistemas generativos de IA pueden producir imágenes sesgadas. También argumentan que la falta de diversidad entre los investigadores de IA puede impedirles ver el impacto que la IA podría tener en las personas de color y en las mujeres.
El debate puede ser acalorado. “¿Cuál es su plan para asegurarse de que no suponga un riesgo existencial?” preguntó Max Tegmark, presidente del Future of Life Institute, a Melanie Mitchell, destacada investigadora de IA y profesora del Santa Fe Institute, durante un foro público sobre el riesgo x celebrado en junio. “No está respondiendo a mi pregunta”, añadió.
“No creo que exista un riesgo existencial”, replicó Mitchell, señalando que la gente está trabajando duro “en mitigar los riesgos más inmediatos del mundo real”, mientras Tegmark abría los ojos de par en par.
Mitchell manifestó en una entrevista que el debate sobre el riesgo existencial está “todo basado en especulaciones, realmente no hay ciencia”.
Tegmark, profesor del Instituto Tecnológico de Massachusetts, cuya organización sin fines de lucro pretende evitar que la tecnología genere riesgos extremos a gran escala, sostuvo que cree que a las empresas les interesa avivar la división entre la gente centrada en cuestiones de equidad y el riesgo existencial para evitar la regulación.
“La gente de ambos bandos se hace un flaco favor si no está de acuerdo con la otra parte”, afirmó en una entrevista.
El conflicto ha provocado chispas durante años. En 2015, algunos académicos y científicos se reunieron para debatir los riesgos de la IA al margen de una conferencia celebrada en el campus de Google. Uno de los bandos se enfrentó a los defensores del riesgo existencial, argumentando que la atención debía centrarse en los daños actuales, incluida la parcialidad.
Los x-riskers respondieron que, con el futuro de la humanidad en la balanza, nadie debería preocuparse de que la IA cause una diferencia de un cuarto de punto en una hipoteca, recordó Steven Weber, profesor de la Universidad de California en Berkeley que estaba presente.
“Casi pensé que iba a ser una pelea a puñetazos en una reunión académica”, dijo Weber.
La preocupación por el apocalipsis dista mucho de estar unificada, y algunos agoreros sostienen que incluso los ejecutivos de las grandes empresas que aseguran estar preocupados no están haciendo lo suficiente para evitarlo.
“Estamos asistiendo a una ridícula carrera hacia IA divinas por parte de los principales actores”, enfatizó Connor Leahy, director ejecutivo de Conjecture, una empresa de IA que trabaja en soluciones al problema de la alineación. Leahy se toma con humor la preocupación de las grandes empresas tecnológicas por el riesgo existencial. “Cuidado con las manos, no con la boca”, añadió Leahy.
También hay esfuerzos por salvar la brecha. Algunos investigadores éticos afirman que no descartan por completo el riesgo existencial, sino que piensan que debería abordarse como parte de problemas más definidos que existen en la actualidad. Algunos catastrofistas puntualizan que el camino hacia la catástrofe bien podría provenir de preocupaciones destacadas por la comunidad ética, como la desinformación industrializada que derriba gobiernos o inicia guerras. Ambas partes están interesadas en poder penetrar en la caja negra de cómo piensa la IA, lo que se denomina el problema de la interpretabilidad.
“Algunas personas están intentando realmente tender un puente entre estos dos espacios”, aseguró Atoosa Kasirzadeh, profesora adjunta de ética de la IA en la Universidad de Edimburgo, que anteriormente trabajó para Google DeepMind. “Esperemos que esas comunidades puedan convencerse de que, en el fondo, a todos les preocupa el mismo tipo de cosas”, concluyó.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.