En julio pasado, un ingeniero de Accenture fue golpeado hasta morir por una multitud que pensó que era un secuestrador de niños. Estaban enojados, violentos y completamente equivocados. Los rumores sobre el hombre eran "noticias falsas" difundidas en WhatsApp, un servicio de mensajería increíblemente popular y propiedad de Facebook.
En respuesta, el gobierno de la India ahora quiere obligar a las empresas a tomar varias medidas, incluida la ruptura del cifrado, que podrían comprometer la privacidad y la seguridad de sus usuarios. Pero, ¿qué pasaría si hubiera una manera de combatir la información falsa en la plataforma y al mismo tiempo mantener la privacidad?
La mayoría de los 1.500 millones de usuarios de WhatsApp utilizan la aplicación para comunicarse con amigos, hacer negocios y mantenerse en contacto con la familia. Sin embargo, también se está convirtiendo en un conducto mundial para la desinformación política, la lucha contra el miedo a las vacunas y los rumores de agitación. Especialmente en regiones con poca educación y gobierno, las consecuencias pueden ser mortales y desestabilizadoras.
No hay una solución fácil para este problema. Los mensajes de WhatsApp se cifran de extremo a extremo, lo que significa que nadie además del usuario, ni siquiera WhatsApp en sí, puede leerlos. La compañía puede usar metadatos para determinar quién se contactó con quién y con qué frecuencia, pero el contenido de cada mensaje es inaccesible. Este tipo de cifrado es fundamental para la privacidad: garantiza que WhatsApp no pueda orientarlo con anuncios basados en lo que escribe o perder sus mensajes a manos de piratas informáticos, y ofrece protecciones cruciales para los usuarios en regímenes autoritarios. Pero también hace que abordar la desinformación sea extremadamente difícil.
En su defensa, WhatsApp ha tratado de sortear estas limitaciones. Lanzó una campaña de educación pública, reenvío de mensajes limitados y agregó una etiqueta que muestra cuándo se ha transmitido un mensaje de otros, lo que podría ser un indicador de información falsa. Grupos externos de "supresores de rumores", incluido Verificado, proyecto editorial de servicio al lector, piden a los usuarios de WhatsApp que les envíen información falsa potencial para que puedan desmentirla públicamente. Pero si bien estos esfuerzos son un comienzo decente, aún no se han arraigado tan bien como los rumores.
En este caso, parece haber un término medio fundamental entre la privacidad y la calidad de la información. No obstante, WhatsApp en realidad no tiene que elegir.
Para empezar, podría crear una lista actualizable de rumores y comprobaciones de hechos, similar a la que usa Facebook para identificar información errónea en su feed de noticias. Cada teléfono podría recibir regularmente una parte de esta lista adaptada para que coincida con lo que el usuario podría ver (según los metadatos que la aplicación ya recopila, como la ubicación). Cada vez que los usuarios publican o reciben un enlace o un rumor que está en la lista, WhatsApp podría mostrar una verificación de hechos, un artículo relacionado u otro contexto, tal como lo ha hecho Facebook. Incluso podría advertirles antes de que compartan información falsa conocida. Lo bueno de este enfoque es que no requiere que WhatsApp recopile información nueva sobre nadie. Mantiene la privacidad al tiempo que aborda directamente la información falsa.
Sin embargo, para lograr que un sistema de este tipo funcione, deberían responderse algunas preguntas, en particular, ¿cómo averiguaría WhatsApp la información falsa y cómo podría curarla? Analicemos una por una.
Primero, WhatsApp podría agregar una función "¿Esto es real?" que permita a los usuarios enviar mensajes o medios de comunicación de apariencia sospechosa a un grupo de verificadores de confianza, similar al sistema pionero de Facebook y la Red Internacional de Verificación de Hechos. Una vez que se haya revisado el contenido, se podría notificar al usuario que lo informó si se había desmentido o si había más contexto disponible. Esa información también se pondrá a disposición de todos los usuarios, ya sea que la informen o no. Esto le daría a todos la capacidad de marcar discretamente contenido cuestionable, incluso si es compartido por amigos o familiares, al tiempo que permite a WhatsApp alertar a los usuarios sobre información falsa sin infringir su privacidad.
En segundo lugar, los verificadores de hechos necesitarían saber en qué enfocarse. Un enfoque de fuerza bruta para cada tipo de contenido sospechoso no funcionará. En cambio, WhatsApp debería ayudar a los periodistas a clasificar. Facebook hace esto analizando qué contenido se comparte más, pero el cifrado de WhatsApp implica que no puede adoptar el mismo enfoque. Una posible solución a este dilema es la "privacidad diferencial", una técnica que utiliza Apple para extraer información de grandes conjuntos de datos, como determinar qué es popular o qué sitios web consumen la mayor vida útil de la batería, sin comprometer la privacidad de ningún individuo en particular.
Ideas como estas no resolverán por completo el problema de la desinformación, que requerirá cambios importantes en la sociedad. Pero pueden proteger a amigos y familiares bien intencionados de ser engañados para que envíen contenido dudoso. Pueden proporcionar una especie de educación contextual en tiempo real, ayudando a los usuarios a interpretar y juzgar la información que reciben. Quizás, también, pueden ayudarnos a tener todo a la vez: mantener la privacidad, apoyar el discurso público y proteger a las personas de rumores mortales.