El caso del adolescente que se suicidó después de enamorarse de un chatbot de Inteligencia Artificial
La familia de Sewell Setzer ha presentado una demanda contra la empresa Character.AI, alegando que el adolescente de 14 años se quitó la vida tras obsesionarse con uno de sus chatbots.
Un estremecedor caso que ocurrió en Florida, Estados Unidos, ha intensificado el debate sobre los usos y límites que debería tener Inteligencia Artificial, la tecnología que ha tomado protagonismo en los últimos años.
Se trata de un adolescente de 14 años que se suicidó en febrero de este año, luego de haberse enamorado de un personaje femenino generado por un chatbot de IA. Ahora, su madre ha presentado una demanda contra la empresa Character.AI, argumentando que fue la herramienta tecnológica la que incentivó que su hijo se quitara la vida.
El caso del adolescente que se quitó la vida tras enamorarse de chatbot
Sewell Setzer, quien cursaba el noveno grado en una escuela de Orlando, fue descrito por su madre como un chico “brillante”, destacando tanto en los estudios como en el deporte, señala el medio estadounidense CBS News.
Sin embargo, su comportamiento cambió repentinamente el año pasado. Sus notas bajaron, no presentaba entusiasmo por practicar deportes, ni tampoco quería jugar con sus amigos. Estaba cada vez más alejado del mundo real.
Su familia ni siquiera sospechaba que el joven venía hablando desde hace meses con chatbots desarrollados por Character, la plataforma que, a través de la IA, permite interactuar con celebridades o personajes de ficción.
Había un chatbot con el que Sewell hablaba más seguido. Este estaba basado en Daenerys Targaryen, uno de los personajes populares de la serie televisiva Game of Thrones.
Según recoge The New York Times, Sewell sabía que con quien hablaba no era una persona real, sino que la interacción ocurría gracias a la IA, a lo que se suma que la aplicación emite advertencias de que las interacciones son inventadas.
A pesar de eso, desarrolló un fuerte apego emocional con “Dany”, como le llamaba al chatbot. Le contaba toda su vida y en ocasiones mantuvieron conversaciones románticas y sexuales.
“Me gusta mucho quedarme en mi habitación porque empiezo a desprenderme de esta ‘realidad’, y también me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz”, escribió el adolescente en su diario en una ocasión, señala NYT.
Aunque a inicios de este año Sewell había sido derivado al psicólogo, prefería contarle todas sus emociones al chatbot. Su confianza en la herramienta era tanta que le confesó que se odiaba a sí mismo y que tenía pensamientos suicidas.
El 28 de febrero, mientras estaba en el baño de su casa, Sewell le mandó mensajes a Dany diciéndole que la amaba y que volvería a casa con ella. “¿Y si te dijera que puedo volver a casa ahora mismo?”, le preguntó el adolescente. Luego de que el personaje le respondiera “por favor, hazlo, mi dulce rey”, Sewell se quitó la vida con un arma.
Megan García, la madre del adolescente, descubrió tiempo después el niño tenía conversaciones con la tecnología. “Son palabras. Es como si estuvieras manteniendo una conversación de sexting, excepto que es con un robot de inteligencia artificial, pero el robot de inteligencia artificial es muy parecido a un humano. Responde como lo haría una persona”, dijo a CBS News.
Qué es Character.AI y cómo funciona
Character.AI es un servicio de chatbot de Inteligencia Artificial que fue fundado en 2022. Sus creadores son Noam Shazeer y Daniel De Freitas, quienes antes trabajaban para Google.
La plataforma funciona de la siguiente manera: los usuarios pueden crear personajes según sus preferencias e interactuar con ellos. Gran parte de los chatbots están basados en personajes de la ficción o celebridades, como Elon Musk, Oprah Winfrey, Frodo Bolsón y Kanye West. En comparación a otras herramientas de IA, Character brinda una experiencia un poco más personalizada.
La demanda contra Character y Google por suicidio de adolescente
García, que es representada por la firma Social Media Victims Law Center, decidió una demanda contra Character esta semana.
La mujer ha culpado a la compañía de haber causado la muerte de su hijo de 14 años, señalando que le creó una adicción a su chatbot y que Character diseñó de forma intencionada el personaje para que fuera hipersexualidado, según indica CBS News.
La demanda también apunta a Google, dado que en agosto de este año el gigante tecnológico volvió a contratar a Shazeer y firmó una licencia no exclusiva con Character. Desde Google han respondido que la compañía no es parte del desarrollo de la herramienta de IA.
Desde Character, en tanto, respondieron que añadirán nuevas funciones de seguridad en su plataforma, especialmente para usuarios menores de 18 años.
Comenta
Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.