Cómo disminuir las alucinaciones de los chatbots de Inteligencia Artificial
Aunque no existe una fórmula mágica para terminar con las fallas en los resultados de los chatbots, se pueden realizar algunas estrategias para aminorarlas.
Los chatbots de Inteligencia Artificial (IA) han llegado a revolucionar la manera en que interactuamos con la tecnología. Herramientas como ChatGPT se han convertido en los aliados preferidos de miles usuarios que buscan resolver preguntas sobre una amplia variedad de temas, traducir textos en diferentes idiomas o generar resúmenes.
Sin embargo, aunque los chatbots suelen ofrecer respuestas muy convincentes, también son propensos a caer en alucinaciones.
En términos simples, las alucinaciones en el contexto de la IA son cuando los resultados que aparecen tras las preguntas son erróneos, sesgados o incoherentes. Aunque parece ser un fenómeno inofensivo, la realidad es que puede ser potencialmente riesgoso por el creciente uso que han experimentado estas aplicaciones y la confianza que los usuarios depositan en ellas.
No existe una fórmula mágica para evitar esos errores, pero se pueden realizar varias estrategias para reducirlos significativamente, según indicaron expertos a The Wall Street Journal.
Cómo reducir las alucinaciones en chabots de IA
Acá, algunas recomendaciones para tus prompt con los chatbot conversacionales, como ChatGPT de OpenAI, R1 de DeepSeek o Llama de Meta.
1- Dale al chatbot instrucciones muy detalladas
Uno de los pasos esenciales para disminuir las alucinaciones es pedirle a la IA lo que deseas saber usando instrucciones muy exactas y limitadas. ¿La razón? Si tu solicitud es menos específica, el sistema es más propenso a contestar con información errónea o incoherente.
Darin Stewart, analista de la compañía de asesoría tecnológica Gartner, así lo explica: “Quieres instrucciones detalladas, quieres un lenguaje preciso, pero también tienes que asegurarte de que sea conciso, es decir, que todo en esa instrucción sea directamente relevante a la consulta”.
2- Divide tu consulta
Si estás buscando resolver una consulta con un chatbot, olvídate de las preguntas generales. En lugar de eso, realiza preguntas más pequeñas y directas, una tras otra, lo que se conoce como incitación iterativa.
Los expertos señalan que no hay que ver las interacciones con los chatbots como pregunta y respuesta, sino que más bien “como un diálogo” que va fluyendo.
Incluso, para obtener mejores resultados, los usuarios también pueden pedirle a la IA que elabore su respuesta de la forma más formal posible, incluyendo “una introducción, tus hallazgos clave, los pros y contras de los distintos modelos y su conclusión”, indicaron a WSJ.
3- Guía a la IA a fuentes conocidas
En algunas ocasiones, un chatbot puede recurrir a fuentes poco confiables que terminan afectando significativamente las respuestas presentadas a los usuarios. Una estrategia es pedirle directamente que se limite a usar ciertos tipos de fuentes al momento de construir sus respuestas, lo que dependerá del tema abordado.
4- Pídele que no invente
Los expertos consultados por el diario estadounidense también sugieren que es necesario indicarle al chatbot que “no invente una respuesta” en el caso de que no esté totalmente seguro de la información que va a entregar.
Al aplicar esta técnica, se podrían reducir las posibilidades de que la tecnología se sienta obligada a entregar una respuesta al usuario cuando su base de datos es débil o confusa.
5- Meta-prompting
Aunque puede parecer confuso, otra recomendación es pedirle al chatbot que escriba las preguntas que deseas hacer. Esta técnica, que se denomina meta-prompting, tiene por fin facilitar el ajuste de las indicaciones en los modelos de lenguaje.
6- Pide al chatbot que verifique su respuesta
Si las respuestas que la IA no son lo suficientemente precisas, o solo quieres comprobar que son confiables, una técnica que puede ser útil es pedirle que vuelva a revisar lo que ha respondido. Esta estrategia llamada cadena de verificación también puede aminorar significativamente las alucinaciones.
Comenta
Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.