¿Es humano o Inteligencia Artificial? Nuevas herramientas para detectar robots
Hay software y consejos que pueden ayudarte a reconocer contenidos de ChatGPT y otros.
Casi de la nada se ha popularizado el uso de la inteligencia artificial para generar cuentos para dormir, cartas de amor, ensayos de la escuela e incluso orientaciones sobre salud mental (por no hablar de obras de arte premiadas). Muchas personas no se sienten cómodas con los contenidos creados por bots y pueden sentirse engañadas.
Los investigadores y otros programadores se han puesto manos a la obra para crear herramientas que ayuden a la gente a saber qué ha salido de la mente de un ser humano y qué ha sido improvisado por un bot. Pero en un periodo de rápidos avances como el actual, cualquier herramienta puede tener dificultades para seguir el ritmo.
Daniel Morgan, de 39 años y padre de dos hijos, ha experimentado varias veces con el bot de texto ChatGPT de OpenAI, escribiendo notas de agradecimiento, elaborando cuentos para dormir y desarrollando material de marketing.
Morgan, que tiene dislexia, dice que ha utilizado ChatGPT para ayudarlo a escribir entradas de blog para su empresa de inversión y corretaje inmobiliario, Marterra Group.
“Ahora puedo tener esas ideas de contenido más desarrolladas, dárselas a alguien de nuestro equipo y que ellos las personalicen sin tener que preocuparme de sentirme deprimido porque estoy escribiendo mal o porque mi gramática es incorrecta”, dijo.
Los robots de OpenAI -incluido su chatbot ChatGPT, capaz de crear contenido escrito, y su motor artístico Dall-E 2- forman parte de una creciente ola de herramientas capaces de generar obras realistas difíciles de distinguir de las realizadas por humanos. Otras herramientas de IA crean videos “deepfake” que pueden producir secuencias de palabras y acciones que en realidad nunca se filmaron.
Mientras que Morgan ha dicho a algunos de sus colegas que está recibiendo ayuda de ChatGPT, otros podrían no tenerlo tan claro. He aquí algunas formas de tratar de identificar los contenidos generados por IA, para no dejarse engañar por un robot.
Detectives digitales
ChatGPT ha suscitado temores de que los alumnos lo utilicen para escribir ensayos y otras tareas de redacción, aunque los profesores siguen siendo capaces de detectar errores y otras faltas. El Departamento de Educación de Nueva York, por ejemplo, prohibió recientemente el acceso a este producto en sus redes y dispositivos. En otros sectores también se teme que los trabajadores lo utilicen como atajo para sus tareas.
Edward Tian, un estudiante de 22 años de la Universidad de Princeton, creó GPTZero a principios de este mes para hacer frente a la creciente preocupación de que la gente no sepa cuándo algo ha sido escrito por máquinas. Su uso es sencillo: Copia y pega cualquier texto que sospeches que ha sido generado con ayuda de IA.
GPTZero te muestra la probabilidad de que el texto sea falso o real. El software evalúa el texto basándose en un puñado de factores. Una métrica clave que utiliza es la tendencia de las personas a usar una mayor variación en la elección de palabras y la longitud de las frases, mientras que el texto de la IA es más coherente.
Tian aseguró que no se opone a que la gente utilice la IA para apoyar o mejorar su trabajo. “Pero hay cualidades de la escritura humana, elementos realmente bellos y crudos de la prosa escrita, que los ordenadores no pueden ni deben cooptar”, afirmó sobre los motivos que le llevaron a crear GPTZero.
Por su parte, Hugging Face, una empresa que desarrolla herramientas de aprendizaje automático de IA, tiene un sitio web similar que puso en marcha en 2019. Suelta unas 50 palabras de texto, y te mostrará un resultado porcentual de lo real o falso que es.
Ambas herramientas tienen limitaciones y requerirán actualizaciones para mantenerse al día con los avances de la IA. La herramienta de Hugging Face está entrenada en GPT-2, una versión antigua del motor de texto de OpenAI, y etiquetará como real lo escrito con el actual motor de texto GPT-3 de OpenAI. GPTZero ofrece resultados basados en cálculos GPT-2. Puede que GPTZero no sea tan bueno detectando contenido GPT-3, pero aún así ofrece una mejor evaluación de si la escritura es real o generada.
Entrenamiento cerebral
El escepticismo es tan importante como el método de detección, afirmó Irene Solaiman, directora de políticas de Hugging Face. La gente puede buscar señales como repeticiones o imprecisiones que indiquen que lo que están leyendo o viendo ha sido generado por IA, explicó.
“A veces, un modelo lingüístico puede indicar que está malinterpretando datos modernos o marcos temporales”, afirmó Solaiman.
Puedes entrenar tus propios ojos y tu cerebro para detectar bots, especialmente en el caso de imágenes y videos con contenido generado por IA, incluidos los deepfakes.
Empieza con un proyecto de investigación llamado Detect Fakes, co-creado por Matt Groh, un candidato a doctor de 34 años del Laboratorio de Medios del Instituto Tecnológico de Massachusetts. El ejercicio te pedirá que determines cuáles de los 32 ejemplos de texto, imagen y video son reales y cuáles son deepfaked utilizando IA.
El equipo de Detect Fakes recomienda otras formas de detectar un deepfake, como prestar atención a si los movimientos de los labios de alguien parecen reales o no, señal de que algo va mal. También puede ser útil dar un paso atrás y pensar por qué existe esa imagen o video.
“Pueden poner atención al contexto, a la probabilidad de que esto ocurra teniendo en cuenta lo que saben del mundo”, dijo Groh. “Y pueden poner atención a los incentivos y a lo que alguien está diciendo y por qué alguien podría estar diciendo esto”. Sin embargo, no hay una forma mágica de detectar todos los deepfakes, aseguró.
Una batalla interminable
Otras empresas y universidades trabajan en herramientas de detección de imágenes y videos generados por IA.
Intel lanzó FakeCatcher en noviembre. La herramienta busca indicios de flujo sanguíneo -ligeros cambios de coloración indicativos de procesos biológicos típicos- para clasificar un video como falso o real. Según Ilke Demir, investigadora científica sénior de la empresa, ya está disponible para algunas empresas, como agencias de noticias y redes sociales.
Sin embargo, lo más probable es que los futuros generadores de IA encuentren formas de engañar a marcadores auténticos como el flujo sanguíneo en la cara, afirmó Demir.
A medida que proliferen las herramientas de IA, el peligro estará en confiar en un único modelo o enfoque para detectarlas, explicó Demir.
Ahora bien, una mejor solución es una plataforma que pueda combinar diversos resultados para determinar la autenticidad de un contenido, afirmó Demir. “Será más fiable porque no estamos diciendo que tenemos un algoritmo que estamos intentando conquistar”, señaló finalmente.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.