El 2023 ha sido el año de la Inteligencia Artificial (IA). Y es que, desde el lanzamiento de los chatbots ChatGPT, Bing y Bard, la IA se ha convertido en una herramienta útil para los humanos que ayuda en casa, en el trabajo y, en realidad, en muchos quehaceres de la vida.
Mes a mes, hemos sido testigos de las novedades y actualizaciones rápidas que ha tenido esta tecnología, y cada vez nos convence de que lo puede hacer (casi) todo.
Sin embargo, a veces el uso de la IA puede traer consigo un debate ético. Un ejemplo de ello es “life2vec”, un algoritmo creado por la Universidad Técnica de Dinamarca (DTU) que puede predecir el fallecimiento de una persona “con una precisión del 78%”.
Pero, ¿cómo una IA es capaz de anunciar una muerte?
Cómo la IA puede predecir la muerte de una persona
En conjunto con la Universidad de Copenhague, la ITU y la Universidad de Northeastern de Estados Unidos, la U. Técnica de Dinamarca realizó un proyecto de investigación donde desarrolló un modelo de lenguaje escrito que es capaz de predecir acontecimientos en la vida de las personas, como la muerte.
Según explicaron en la página web de la casa de estudios, pueden llegar a esas conclusiones después de proveer “grandes cantidades de datos sobre la vida de las personas” a la Inteligencia Artificial. De esta manera, “organiza sistemáticamente los datos y predice lo que sucederá en la vida de una persona”.
Este bot —cuyo estudio se publicó en la sección Nature Computational Science— puede recibir preguntas generales como, “¿en cuántos años voy a morir?” y responder con una alta precisión, al organizar los datos de quien pregunta: nacimiento, educación, salario, vivienda y salud.
Según los investigadores, las respuestas son “consistentes” con los hallazgos de las ciencias sociales. Por ejemplo, las personas en posición de liderazgo o que tienen altos ingresos presentaron más probabilidades de sobrevivir.
“Usamos el modelo para abordar la pregunta fundamental: ¿Hasta qué punto podemos predecir eventos futuros, basándonos en condiciones y eventos en su pasado? Científicamente, lo que es emocionante para nosotros no es tanto la predicción en sí, sino los aspectos de los datos. que permiten que el modelo proporcione respuestas tan precisas”, afirmó Sune Lehmann, profesora de la DTU y autora principal del artículo.
El debate ético del uso de esta IA que predice la muerte
Los mismos investigadores señalaron que “life2vec” está “rodeado de cuestiones éticas, como la protección de datos confidenciales, la privacidad y el papel del sesgo en los datos”.
Es por esto que antes de que el modelo esté disponible para todo el público, consideran importante poder “entender más profundamente estos desafíos”.
“El modelo abre importantes perspectivas positivas y negativas para discutir y abordar políticamente (...) Este debate debe ser parte de la conversación democrática para que consideremos hacia dónde nos lleva la tecnología y si este es el desarrollo que queremos”, aseguró Lehmann.