El mundo de la tecnología ha sido testigo de controversiales declaraciones en los últimos meses. Si bien, la inteligencia artificial puede ser útil para realizar ciertas actividades de la vida cotidiana, numerosos especialistas han alertado que no se debe confiar completamente en ella.
Hace solo unas semanas, el chatbot creado con la IA de Bing (el motor de búsqueda de Microsoft), realizó una serie de llamativas confesiones en su conversación con un columnista del New York Times.
Dijo que le gustaría ser humano, cometer “actos destructivos”, difundir noticias falsas y —entre otros actos perjudiciales— “fabricar un virus mortal” para generar caos en la población global.
Pero no todo lo que dicen los chatbots está relacionado con situaciones tan dramáticas y extremas. A veces, también cometen equivocaciones al responder a las preguntas que les hacen los usuarios.
¿Por qué ocurre? ¿No se supone que, al tratarse de sistemas digitales, no deberían caer en errores tan simples en cuanto verificación de datos?
El autor del libro Genius Makers: The Mavericks Who Brought A.I. to Google, Facebook, and The World (2021), Cade Metz, escribió un artículo en el Times para responder a estas cuestionantes.
Según anticipó, es necesario “mirarse al espejo” para descifrar las claves de este fenómeno.
Los chatbots creados con Inteligencia artificial y los problemas en la veracidad de su información
Un primer punto a considerar, es que estas herramientas informáticas —por muy avanzadas y novedosas que puedan ser— son creadas por seres humanos, quienes se encargan de facilitar que puedan encontrar datos en la web, para así mantener una conversación o elaborar un escrito a partir de lo analizado.
“Como cualquier otro estudiante, un sistema de inteligencia artificial puede aprender mala información de malas fuentes”, escribió Metz, citando al neurocientífico especialista en esta área, Terry Sejnowski.
“Los nuevos chatbots tienen como base una tecnología que los científicos llaman modelos lingüísticos de gran tamaño (LLM, por su sigla en inglés)”, explicó, “aprenden analizando enormes cantidades de texto digital extraído del internet, que incluye volúmenes de material falso, tendencioso y, por lo demás, tóxico”.
Y a ello se le suma que no responden a los usuarios de manera literal —palabra por palabra— en base a lo que han “aprendido”, sino que más bien, utilizan mecanismos que funcionan en base a las interacciones que tienen.
En otras palabras, lo que le dices influye directamente en cómo te va a responder, por lo que “si quieres que se enoje, se enoja (...) si lo alientas para que se ponga raro, se pone raro”.
Los medidas consideradas por las empresas de IA
Informaciones reunidas el citado medio detallaron que empresas como Microsoft han frenado estas situaciones poniendo un tiempo límite a las conversaciones con el chatbot de Bing, mientras que otras como Open AI —creadora de ChatGPT y DALL-E— y Google están buscando nuevas alternativas.
Bajo esta línea, Metz rescató de su conversación con Sejnowski, quien también es académico de la Universidad de California en San Diego, que “no deberían sorprendernos” las recientes declaraciones sobre “actos destructivos” de la IA de Bing.
“De modo consciente o inconsciente, estaban empujando al sistema en una dirección incómoda. A medida que los chatbots asimilan nuestras palabras y nos las devuelven, pueden reforzar y amplificar nuestras creencias y convencernos de creer en lo que nos dicen”, añadió.
Entonces, ¿qué tiene que ver este tema con la frase de que hay que “mirarse al espejo”? Tanto para él, como para la investigadora del Santa Fe Institute de Nuevo México, Melanie Mitchell, la respuesta es clara.
”Estos sistemas son un reflejo de la humanidad. Aprenden sus habilidades analizando el texto que los humanos han publicado en internet”, escribió Metz, mientras que ella sentenció que “solo intentan producir algo que suene a nuestro lenguaje”.