The Facebook Papers: la compañía se “congeló” cuando los comentarios contra las vacunas invadieron a sus usuarios
Cuando las afirmaciones falsas sobre la seguridad de las vacunas amenazaban con socavar la respuesta mundial al Covid-19, los investigadores de Facebook descubrieron que podían reducir la información errónea modificando cómo se muestran las publicaciones de los inmunizantes en las noticias de los usuarios. Sin embargo, la empresa archivó algunas sugerencias del estudio.
En marzo, cuando las afirmaciones sobre los peligros y la ineficacia de las vacunas contra el coronavirus se difundieron en las redes sociales y socavaron los intentos de detener la propagación del virus, algunos empleados de Facebook pensaron que habían encontrado una manera de ayudar.
Al modificar la clasificación de las publicaciones sobre las vacunas en las fuentes de noticias de las personas, los investigadores de la compañía se dieron cuenta de que podían reducir la información engañosa que las personas veían sobre las vacunas Covid-19 y ofrecer a los usuarios publicaciones de fuentes legítimas como la Organización Mundial de la Salud.
“Dados estos resultados, supongo que esperamos lanzarlo lo antes posible”, escribió un empleado de Facebook, respondiendo al memorando interno sobre el estudio.
En cambio, Facebook archivó algunas sugerencias del estudio. No se realizaron otros cambios hasta abril.
Cuando otro investigador de Facebook sugirió deshabilitar los comentarios en las publicaciones de vacunas en marzo hasta que la plataforma pudiera hacer un mejor trabajo al abordar los mensajes antivacunas que acechan en ellas, esa propuesta fue ignorada.
Los críticos dicen que la razón por la que Facebook tardó en tomar medidas sobre las ideas es simple: al gigante tecnológico le preocupaba que pudiera afectar las ganancias de la empresa.
“¿Por qué no eliminarías los comentarios? Porque el compromiso es lo único que importa”, dijo Imran Ahmed, director ejecutivo del Centro para Contrarrestar el Odio Digital, un grupo de vigilancia de internet. “Atrae la atención y la atención es igual a ojos y ojos iguales a ingresos publicitarios”.
En una declaración enviada por correo electrónico, Facebook dijo que ha logrado un “progreso considerable” este año al reducir la información errónea sobre las vacunas en los feeds de los usuarios.
Las discusiones internas de Facebook se revelaron en divulgaciones hechas a la Comisión de Bolsa y Valores y proporcionadas al Congreso en forma redactada por el asesor legal de la exempleada de Facebook convertida en denunciante, Frances Haugen. Las versiones redactadas recibidas por el Congreso fueron obtenidas por un consorcio de organizaciones de noticias, incluida The Associated Press.
El tesoro de documentos muestra que en medio de la pandemia de Covid-19, Facebook investigó cuidadosamente cómo sus plataformas difunden información errónea sobre las vacunas que salvan vidas. También revelan que los empleados de base sugirieron regularmente soluciones para contrarrestar el contenido antivacunas en el sitio, sin éxito. The Wall Street Journal informó sobre algunos de los esfuerzos de Facebook para lidiar con los comentarios contra las vacunas el mes pasado.
La respuesta de Facebook plantea dudas sobre si la empresa priorizó la controversia y la división sobre la salud de sus usuarios.
“Estas personas están vendiendo miedo e indignación”, dijo Roger McNamee, un capitalista de riesgo de Silicon Valley e inversor temprano en Facebook que ahora critica a la empresa. “No es una casualidad. Es un modelo de negocio”.
Por lo general, Facebook clasifica las publicaciones por participación: la cantidad total de me gusta, no me gusta, comentarios y veces que se comparte. Ese esquema de clasificación puede funcionar bien para temas inocuos como recetas, fotos de perros o el último canto viral. Pero los propios documentos de Facebook muestran que cuando se trata de problemas de salud pública divisivos, como las vacunas, la clasificación basada en la interacción solo enfatiza la polarización, el desacuerdo y la duda.
Para estudiar formas de reducir la información errónea sobre las vacunas, los investigadores de Facebook cambiaron la forma en que se clasifican las publicaciones de más de 6.000 usuarios en EE.UU., México, Brasil y Filipinas. En lugar de ver publicaciones sobre vacunas que se eligieron en función de su popularidad, estos usuarios vieron publicaciones seleccionadas por su confiabilidad.
Los resultados fueron sorprendentes: una disminución de casi el 12% en el contenido que hizo afirmaciones desacreditadas por verificadores de hechos y un aumento del 8% en el contenido de organizaciones autorizadas de salud pública como la OMS o los Centros para el Control de Enfermedades de EE.UU. Esos usuarios también tuvieron una disminución del 7% en las interacciones negativas en el sitio.
Los empleados de la empresa reaccionaron al estudio con entusiasmo, según los intercambios internos incluidos en los documentos de la denunciante.
“¿Hay alguna razón por la que no haríamos esto?”, escribió un empleado de Facebook en respuesta a un memorando interno que describía cómo la plataforma podría frenar el contenido antivacunas.
Facebook dijo que implementó muchos de los hallazgos del estudio, pero no hasta dentro de un mes, un retraso que se produjo en una etapa fundamental del lanzamiento mundial de la vacuna.
En un comunicado, la portavoz de la compañía, Dani Lever, dijo que los documentos internos “no representan el progreso considerable que hemos logrado desde ese momento en la promoción de información confiable sobre el Covid-19 y la expansión de nuestras políticas para eliminar más desinformación dañina sobre el Covid y las vacunas”.
La compañía también dijo que tomó tiempo considerar e implementar los cambios.
Sin embargo, la necesidad de actuar con urgencia no podría haber sido más clara: en ese momento, los estados a través de EE.UU. estaban implementando vacunas para los más vulnerables: los ancianos y los enfermos. Y los funcionarios de salud pública estaban preocupados. Solo el 10% de la población había recibido su primera dosis de una vacuna Covid-19. Y un tercio de los estadounidenses estaban pensando en saltarse la dosis por completo, según una encuesta de The Associated Press-NORC Center for Public Affairs Research.
A pesar de esto, los empleados de Facebook reconocieron que “no tenían ni idea” de lo malo que era el sentimiento contra las vacunas en las secciones de comentarios de las publicaciones de Facebook. Pero la investigación de la compañía en febrero encontró que hasta el 60% de los comentarios en las publicaciones sobre vacunas eran antivacunas o reacios a las vacunas.
“Ese es un gran problema y tenemos que solucionarlo”, decía la presentación del 9 de marzo.
Peor aún, los empleados de la empresa admitieron que no sabían manejar esos comentarios. Y si lo hicieran, Facebook no tenía una política para eliminar los comentarios. El programa gratuito permitía a los usuarios invadir publicaciones sobre vacunas de medios de comunicación u organizaciones humanitarias con comentarios negativos sobre las vacunas.
“Nuestra capacidad para detectar (la reticencia a vacunarse) en los comentarios es mala en inglés, y básicamente no existe en otros lugares”, dijo otro memorando interno publicado el 2 de marzo.
Derek Beres, residente de Los Ángeles, autor e instructor de acondicionamiento físico, ve que el contenido contra las vacunas prospera en los comentarios cada vez que promueve las inmunizaciones en sus cuentas de Instagram, que es propiedad de Facebook. El año pasado, Beres comenzó a presentar un podcast con amigos después de que notaron teorías de conspiración sobre el Covid-19 y las vacunas se arremolinaban en los feeds de las redes sociales de influencers en salud y bienestar.
A principios de este año, cuando Beres publicó una foto de él mismo recibiendo la inyección contra el Covid-19, algunos en las redes sociales le dijeron que probablemente caería muerto en seis meses.
“La sección de comentarios es un basurero para muchas personas”, dijo Beres.
Los comentarios contra las vacunas en Facebook crecieron tanto que incluso cuando agencias de salud pública prominentes como Unicef y la Organización Mundial de la Salud instaban a las personas a vacunarse, las organizaciones se negaron a utilizar la publicidad gratuita que Facebook les había dado para promover la inoculación, según los documentos.
Algunos empleados de Facebook tuvieron una idea. Si bien la compañía trabajó para elaborar un plan para frenar todo el sentimiento contra las vacunas en los comentarios, ¿por qué no deshabilitar por completo los comentarios en las publicaciones?
“Muy interesado en su propuesta de eliminar TODOS los comentarios en línea para las publicaciones de vacunas como una solución provisional hasta que podamos detectar suficientemente la reticencia a la vacuna en los comentarios para refinar nuestra remoción”, escribió un empleado de Facebook el 2 de marzo.
La sugerencia no llegó a ninguna parte.
En cambio, el CEO de Facebook, Mark Zuckerberg, anunció el 15 de marzo que la compañía comenzaría a etiquetar publicaciones sobre vacunas que las describieran como seguras.
La medida permitió que Facebook continuara obteniendo una gran interacción y, en última instancia, ganancias, de los comentarios contra las vacunas, dijo Ahmed, del Centro para Contrarrestar el Odio Digital.
“Estaban tratando de encontrar formas de no reducir la interacción, pero al mismo tiempo hacer que pareciera que estaban tratando de hacer algunos movimientos para solucionar los problemas que causaban”, dijo.
No es realista esperar que una empresa multimillonaria como Facebook cambie voluntariamente un sistema que ha demostrado ser tan lucrativo, dijo Dan Brahmy, director ejecutivo de Cyabra, una empresa de tecnología israelí que analiza las redes sociales y la desinformación. Brahmy dijo que las regulaciones gubernamentales pueden ser lo único que podría obligar a Facebook a actuar.
“La razón por la que no lo hicieron es porque no tenían que hacerlo”, dijo Brahmy. “Si esto daña el resultado final, se puede deshacer”.
La legislación bipartidista en el Senado de EE.UU. requeriría que las plataformas de redes sociales ofrezcan a los usuarios la opción de desactivar los algoritmos que utilizan las empresas de tecnología para organizar las fuentes de noticias de las personas.
El senador John Thune, republicano por Dakota del Sur, patrocinador del proyecto de ley, le pidió a la denunciante de Facebook Haugen que describiera los peligros de la clasificación basada en la interacción durante su testimonio ante el Congreso a principios de este mes.
Ella dijo que hay otras formas de clasificar el contenido, por ejemplo, por la calidad de la fuente o cronológicamente, que servirían mejor a los usuarios. La razón por la que Facebook no los considerará, dijo, es que reducirían la interacción.
“Facebook sabe que cuando seleccionan el contenido... pasamos más tiempo en su plataforma, ganan más dinero”, dijo Haugen.
Los documentos filtrados de Haugen también revelan que un número relativamente pequeño de usuarios antivacunas de Facebook son recompensados con grandes páginas vistas bajo el sistema de clasificación actual de la plataforma tecnológica.
La investigación interna de Facebook presentada el 24 de marzo advirtió que la mayor parte del “contenido problemático de la vacuna” provenía de un puñado de áreas en la plataforma. En las comunidades de Facebook donde la desconfianza por las vacunas era mayor, el informe vinculó el 50% de las páginas vistas en contra de las vacunas en solo 111, o 0,016% de las cuentas de Facebook.
“Los principales productores son en su mayoría usuarios que publican en serie contenido (sobre la reticencia a vacunarse) para los feeds”, encontró la investigación.
Ese mismo día, el Centro para Contrarrestar el Odio Digital publicó un análisis de las publicaciones en las redes sociales que estimó que solo una docena de usuarios de Facebook fue responsable del 73% de las publicaciones contra las vacunas en el sitio entre febrero y marzo. Fue un estudio que los líderes de Facebook dijeron al público en agosto que era “defectuoso”, a pesar de la investigación interna publicada meses antes que confirmó que una pequeña cantidad de cuentas impulsa el sentimiento contra las vacunas.
A principios de este mes, una encuesta de AP-NORC encontró que la mayoría de los estadounidenses culpan a las empresas de redes sociales, como Facebook, y a sus usuarios por la desinformación.
Pero Ahmed dijo que Facebook no debería simplemente cargar con la culpa por ese problema.
“Facebook ha tomado decisiones que han llevado a que las personas reciban información errónea que les provocó la muerte”, dijo Ahmed. “En este punto, debería haber una investigación de asesinato”.
Comenta
Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.