Facebook intentó hacer de su plataforma un lugar más saludable. En cambio, se volvió un lugar más rabioso
Los memorandos internos muestran cómo un gran cambio de 2018 recompensó la indignación y que el CEO Mark Zuckerberg se resistió a las correcciones propuestas.
En el otoño de 2018, Jonah Peretti, director ejecutivo de la editorial en línea BuzzFeed, envió un correo electrónico a un alto funcionario de Facebook. El contenido más divisivo que produjeron las editoriales se estaba volviendo viral en la plataforma, dijo, creando un incentivo para producir más.
Señaló el éxito de una publicación de BuzzFeed titulada “21 cosas que casi todas las personas blancas son culpables de decir”, que recibió 13.000 acciones y 16.000 comentarios en Facebook, muchos de personas que criticaron a BuzzFeed por escribirlo y discutieron entre sí sobre la raza. Otro contenido que produjo la compañía, desde videos de noticias hasta artículos sobre cuidado personal y animales, tuvo problemas para abrirse paso, dijo.
Peretti culpó a una revisión importante que Facebook le había dado a su algoritmo News Feed a principios de ese año para impulsar las “interacciones sociales significativas”, o MSI (su sigla en inglés), entre amigos y familiares, según documentos internos de Facebook revisados por The Wall Street Journal que citan el correo electrónico.
BuzzFeed construyó su negocio creando contenido que se volvería viral en Facebook y otras redes sociales, por lo que tenía un gran interés en cualquier cambio de algoritmo que dañara su distribución. Aún así, el correo electrónico del Sr. Peretti tocó un nervio.
El director ejecutivo de Facebook, Mark Zuckerberg, dijo que el objetivo del cambio de algoritmo era fortalecer los vínculos entre los usuarios y mejorar su bienestar. Facebook alentaría a las personas a interactuar más con amigos y familiares y dedicar menos tiempo a consumir pasivamente contenido producido profesionalmente, que según las investigaciones era perjudicial para su salud mental.
Sin embargo, dentro de la empresa, los empleados advirtieron que el cambio estaba teniendo el efecto contrario, según muestran los documentos. Estaba haciendo que la plataforma de Facebook fuera un lugar más rabioso.
Los investigadores de la empresa descubrieron que los editores y los partidos políticos estaban reorientando sus publicaciones hacia la indignación y el sensacionalismo. Esa táctica produjo altos niveles de comentarios y reacciones que se tradujeron en éxito en Facebook.
“Nuestro enfoque ha tenido efectos secundarios nocivos para la salud en sectores importantes del contenido público, como la política y las noticias”, escribió un equipo de científicos de datos, señalando las quejas del Sr. Peretti, en un memorando revisado por el Journal. “Esta es una responsabilidad cada vez mayor”, escribió uno de ellos en un memorando posterior.
Llegaron a la conclusión de que la gran ponderación del nuevo algoritmo del material compartido en su News Feed hizo que las voces enojadas fueran más fuertes. “La desinformación, la toxicidad y el contenido violento son excesivamente frecuentes entre las redes compartidas”, señalaron los investigadores en los memorandos internos.
Algunos partidos políticos en Europa le dijeron a Facebook que el algoritmo les había hecho cambiar sus posiciones políticas para que tuvieran más resonancia en la plataforma, según los documentos.
“Muchos partidos, incluidos aquellos que se han inclinado hacia lo negativo, se preocupan por los efectos a largo plazo sobre la democracia”, se lee en un informe interno de Facebook, que no menciona partidos específicos.
Los empleados de Facebook también discutieron el otro motivo menos publicitado de la compañía para hacer el cambio: los usuarios habían comenzado a interactuar menos con la plataforma, una tendencia preocupante, muestran los documentos.
El correo electrónico y las notas forman parte de una amplia gama de comunicaciones internas de la empresa revisadas por la revista. Ofrecen una visión incomparable de cuánto sabe Facebook sobre las fallas en su plataforma y cómo a menudo carece de la voluntad o la capacidad para abordarlas. Este es el tercero de una serie de artículos basados en esa información.
En una entrevista, Lars Backstrom, vicepresidente de ingeniería de Facebook, dijo que cualquier algoritmo corre el riesgo de promover contenido objetable o dañino para algunos usuarios.
“Como cualquier optimización, habrá algunas formas de explotarla o aprovecharla”, dijo. “Es por eso que tenemos un equipo de integridad que está tratando de rastrearlos y descubrir cómo mitigarlos de la manera más eficiente posible”.
Los científicos de datos de ese equipo de integridad, cuyo trabajo es mejorar la calidad y la confiabilidad del contenido en la plataforma, trabajaron en una serie de cambios potenciales para frenar la tendencia del algoritmo revisado a recompensar la indignación y las mentiras. Zuckerberg se resistió a algunas de las correcciones propuestas, según muestran los documentos, porque le preocupaba que pudieran dañar el otro objetivo de la empresa: hacer que los usuarios se involucraran más con Facebook.
Anna Stepanov, quien dirigió un equipo que abordó esos problemas, le presentó a Zuckerberg varios cambios propuestos destinados a abordar la proliferación de contenido falso y divisivo en la plataforma, según un memorando interno de abril de 2020 que escribió sobre la sesión informativa. Uno de esos cambios habría eliminado un impulso que el algoritmo le dio al contenido con más probabilidades de ser compartido por largas cadenas de usuarios.
“Mark no cree que podamos ser amplios” con el cambio, escribió a sus colegas después de la reunión. Zuckerberg dijo que estaba dispuesto a probar el enfoque, dijo, pero “no lanzaríamos si hubiera una compensación material con el impacto de MSI”.
El mes pasado, casi un año y medio después de que Stepanov dijera que Zuckerberg rechazó la idea de incorporar ampliamente una solución similar, Facebook anunció que estaba “expandiendo gradualmente algunas pruebas para poner menos énfasis en señales como la probabilidad de que alguien comente o compartir contenido político“. La medida es parte de un impulso más amplio , impulsado por encuestas de usuarios, para reducir la cantidad de contenido político en Facebook después de que la compañía fuera criticada por la forma en que los manifestantes electorales usaron la plataforma para cuestionar los resultados y organizar las protestas que llevaron a los disturbios en el Capitolio en Washington.
Backstrom, que supervisa la clasificación de contenido en News Feed, dijo que Facebook hizo el cambio reciente porque consideró que las desventajas de depender de métricas basadas en el compromiso para categorías de contenido sensible como la política superaban los beneficios.
El cambio de algoritmo de 2018 afectó a la función central de Facebook, News Feed, un rollo de fotos familiares de amigos y enlaces a noticias constantemente actualizado y personalizado. Representa la mayor parte del tiempo que los casi tres mil millones de usuarios de Facebook pasan en la plataforma. La compañía vende la atención de ese usuario a los anunciantes, tanto en Facebook como en su plataforma hermana Instagram, lo que representa casi la totalidad de sus US$ 86 mil millones en ingresos el año pasado.
Un algoritmo patentado controla lo que aparece en la sección de noticias de cada usuario. Tiene en cuenta quiénes son los amigos de los usuarios, qué tipo de grupos se han unido, qué páginas les han gustado, qué anunciantes han pagado para dirigirse a ellos y qué tipo de historias son populares o impulsan la conversación.
Los cambios significativos en el algoritmo pueden tener importantes implicaciones para la empresa, los anunciantes y los editores. Facebook ha realizado muchos ajustes de algoritmo a lo largo de los años. El cambio para enfatizar MSI fue uno de los más importantes.
“¿Es un cambio de clasificación la fuente de las divisiones del mundo? No“, dijo el portavoz de Facebook Andy Stone en una declaración escrita. “La investigación muestra que ciertas divisiones partidistas en nuestra sociedad han ido creciendo durante muchas décadas, mucho antes de que existieran plataformas como Facebook”.
News Corp, propietaria de The Wall Street Journal, tiene un acuerdo comercial para suministrar noticias a través de Facebook.
‘Lo correcto’
En enero de 2018, Facebook venía de un año difícil. Washington estaba a la defensiva sobre lo que los funcionarios de inteligencia estadounidenses dijeron que era el uso de la plataforma por parte de Rusia para inmiscuirse en las elecciones presidenciales estadounidenses de 2016.
Zuckerberg anunció que estaba cambiando el objetivo de los gerentes de productos de Facebook de ayudar a las personas a encontrar contenido relevante a ayudarlos a interactuar más con amigos y familiares.
Dijo que el cambio fue impulsado por investigaciones que mostraban que el consumo pasivo de medios en Facebook, en particular el video, que había estado explotando en la plataforma, no era tan bueno para el bienestar como la interacción con otras personas.
Se enmarca el cambio como un sacrificio. “Ahora, quiero ser claro: al hacer estos cambios, espero que el tiempo que la gente pasa en Facebook y algunas medidas de participación disminuyan”, escribió en Facebook. “Pero también espero que el tiempo que pases en Facebook sea más valioso. Y si hacemos lo correcto, creo que también será bueno para nuestra comunidad y nuestro negocio a largo plazo“.
Los videos de capacitación de Facebook y las notas internas muestran otra razón para el cambio: la creciente preocupación de la compañía por una disminución en la participación de los usuarios, que generalmente se refiere a acciones como comentar o compartir publicaciones. El compromiso se considera dentro de la empresa como una señal importante para la salud de la empresa.
Los comentarios, los me gusta y las veces que se compartieron disminuyeron hasta 2017, mientras que las publicaciones de “transmisión original” (el párrafo y la foto que una persona podría publicar cuando muere un perro) continuaron con un declive de un año que ninguna intervención pareció poder detener, según los memorandos internos. El temor era que eventualmente los usuarios dejaran de usar Facebook por completo.
Un científico de datos dijo en un memorando de 2020 que los equipos de Facebook estudiaron el tema y “nunca se dieron cuenta de por qué las métricas declinaron”. Los miembros del equipo finalmente concluyeron que la prevalencia de videos y otros contenidos producidos profesionalmente, en lugar de publicaciones orgánicas de individuos, probablemente eran parte del problema.
El objetivo del cambio de algoritmo era revertir la disminución de los comentarios y otras formas de participación, y fomentar publicaciones más originales. Recompensaría las publicaciones que obtuvieron más comentarios y emojis de emoción, que se consideraron más significativos que los me gusta, muestran los documentos.
En un video de capacitación interno, un empleado de Facebook dijo que además del “deber ético” de la compañía de no convertir a los usuarios en zombis con demasiado video, tenía razones comerciales para intervenir.
“La gente probablemente dejará la aplicación si no es buena para ellos”, dijo el empleado.
Clasificación de recursos compartidos
La solución de Facebook fue crear una fórmula que midiera cuánta interacción “significativa” generaba una publicación y luego organizar la sección de noticias para fomentar tanto como fuera posible. Bajo un sistema de puntos interno utilizado para medir su éxito, un “me gusta” valía un punto; una reacción, compartir sin texto o responder a una invitación valía cinco puntos; y un comentario significativo, mensaje, compartir o confirmar su asistencia, 30 puntos. Se agregaron multiplicadores adicionales dependiendo de si la interacción fue entre miembros de un grupo, amigos o extraños.
Así es como el cambio de algoritmo trataría una publicación de muestra. Los amigos comentan con mensajes sencillos y en gran parte positivos. Atrae la mayoría de los clics básicos del botón Me gusta, cada uno con un valor de un punto. Otras reacciones valen cinco puntos.
Alguien presenta un tema controvertido y la gente comienza a elegir el botón de reacción de ira, que vale cinco puntos cada vez que se usa. El MSI está aumentando y más usuarios ven esto en su News Feed.
A medida que más personas ven la publicación, más personas se involucran en el argumento. Los comentarios se alargan a medida que los usuarios defienden sus posiciones y utilizan botones de reacción distintos del botón Me gusta.
Facebook modificó el nuevo algoritmo casi de inmediato y ha seguido modificándolo.
Desde una perspectiva empresarial, funcionó. Como predijo Facebook, el tiempo dedicado a la plataforma disminuyó, pero el esfuerzo por maximizar las interacciones entre los usuarios ralentizó la caída libre en los comentarios y, en su mayoría, mejoró la importante métrica de “personas activas diarias” que usan Facebook, según las pruebas realizadas en agosto de 2018, según muestran las notas internas.
El cambio tuvo algunos efectos positivos. El contenido compartido por conexiones cercanas era más confiable y los usuarios lo encontraron más significativo que el material de conocidos más lejanos, según un memo. Pero esos beneficios fueron superados por el aspecto del cambio de algoritmo que favoreció las acciones del usuario como compartir y comentar.
En una de las primeras señales de problemas, durante el verano de 2018, los científicos de datos de Facebook encuestaron repetidamente a los usuarios y descubrieron que muchos sentían que la calidad de sus feeds había disminuido, según muestran los documentos.
Como Facebook había advertido que era probable, el cambio afectó a muchos editores en línea. En la primera mitad de 2018, BuzzFeed sufrió una disminución del 13% en el tráfico en comparación con los seis meses anteriores, Breitbart perdió un 46% y ABC News perdió un 12%, según la firma de datos en línea Comscore.
Topix, un sitio de noticias conocido por los foros de la comunidad local, perdió el 53% de su tráfico durante ese período. “Facebook era nuestro principal impulsor de tráfico en este momento”, dijo Chris Tolles, ex director ejecutivo de Topix. “Eso fue sin duda un problema para nosotros”. Topix fue comprado por Publishers Clearing House en 2019.
En entrevistas, más de una docena de ejecutivos de publicaciones describieron el cambio de Facebook como la gota que colmó el vaso después de varios años de políticas en constante cambio que los convencieron de que no podían depender de Facebook para el tráfico.
BuzzFeed saltó a la fama en confecciones de Internet como listas y cuestionarios, pero a lo largo de los años construyó una sólida operación de noticias y se expandió agresivamente al video. Facebook ha sido históricamente una fuente importante de tráfico para BuzzFeed, aunque el editor ha diversificado su distribución en los últimos años.
El Sr. Peretti de Buzzfeed, en su correo electrónico, escribió que el nuevo algoritmo parecía recompensar desproporcionadamente la división, según lo que el editor vio en sus propios números y sus observaciones sobre el desempeño de las publicaciones de otros editores.
“La clasificación de MSI no es en realidad contenido gratificante que impulse interacciones sociales significativas”, escribió Peretti en su correo electrónico al funcionario de Facebook, y agregó que su personal sintió “la presión de hacer contenido deficiente o de bajo rendimiento”.
No solo se trataba de material que explotaba las divisiones raciales, escribió, sino también de “ciencia de moda / basura”, “noticias extremadamente perturbadoras” e imágenes groseras.
Efecto político
En Polonia, los cambios hicieron que el debate político en la plataforma fuera más desagradable, dijeron los partidos políticos polacos a la compañía, según los documentos. Los documentos no especifican qué partes.
“El equipo de gestión de redes sociales de una de las partes estima que ha cambiado la proporción de sus publicaciones de 50/50 positivas / negativas a 80% negativas, explícitamente en función del cambio en el algoritmo”, escribieron dos investigadores de Facebook en un informe interno de abril de 2019. reporte.
Nina Jankowicz, quien estudia las redes sociales y la democracia en Europa Central y Oriental como becaria en el Woodrow Wilson Center en Washington, dijo que ha escuchado quejas de muchos partidos políticos en esa región de que el cambio de algoritmo hizo comunicación directa más difícil con sus seguidores a través de las páginas de Facebook. Ahora tienen un incentivo, dijo, para crear publicaciones que acumulen comentarios y compartidos, a menudo aprovechando la ira, para obtener exposición en los feeds de los usuarios.
Los investigadores de Facebook, escribieron en su informe que en España, los partidos políticos ejecutan operaciones sofisticadas para hacer que las publicaciones de Facebook viajen lo más lejos y rápido posible.
“Han aprendido que los duros ataques a sus oponentes generan el mayor compromiso”, escribieron. “Afirman que ‘intentan no hacerlo’, pero en última instancia, ‘usas lo que funciona’.”
En los 15 meses posteriores a los enfrentamientos de otoño de 2017 en España por el separatismo catalán, el porcentaje de insultos y amenazas en las páginas públicas de Facebook relacionadas con el debate social y político en España aumentó en un 43%, según una investigación realizada por Constella Intelligence, una empresa de protección de riesgos digitales.
Los investigadores de Facebook escribieron en su informe interno que escucharon quejas similares de partes en Taiwán e India.
Brad Parscale, quien fue el líder de estrategia digital para la campaña presidencial de Donald Trump en 2016, y se jactó de que Facebook es donde Trump ganó las elecciones, dijo que comenzó a notar cambios en el algoritmo a mediados de 2017, cuando el desempeño de videos políticos comenzó a declinar.
“‘Saludable’ es una palabra de cobertura para ‘Necesitamos reducir la propagación de los videos conservadores y de Trump’”, dijo en una entrevista para este artículo.
La presidenta del Comité Nacional Republicano, Ronna McDaniel, el entonces líder de la mayoría de la Cámara de Representantes Kevin McCarthy (R., California) y el Sr. Parscale se reunieron con ejecutivos de Facebook en junio de 2018 para registrar sus quejas. En esa reunión, que incluyó al jefe de política pública global de Facebook, Joel Kaplan, se les dijo a los republicanos que los cambios en el algoritmo estaban destinados a contrarrestar la propagación de lo que la compañía consideraba información errónea, según Parscale.
Correcciones propuestas
En abril de 2019, un científico de datos de Facebook propuso reducir la propagación de “compartidos profundos”, lo que significa que el espectador no es un amigo o seguidor del posteo original, según un memorando interno.
“Si bien la plataforma FB ofrece a las personas la oportunidad de conectarse, compartir y participar, un efecto secundario desafortunado es que el contenido dañino y desinformativo puede volverse viral, a menudo antes de que podamos detectarlo y mitigar sus efectos”, escribió. “Los agentes políticos y los editores nos dicen que se basan más en la negatividad y el sensacionalismo para la distribución debido a los recientes cambios algorítmicos que favorecen la posibilidad de compartir”.
Más tarde, los científicos de datos de Facebook se concentraron en un aspecto del algoritmo renovado llamado “MSI descendente”, que hacía que una publicación fuera más probable que apareciera en el News Feed de un usuario si el algoritmo calculaba que era probable que la gente la compartiera o comentara a medida que se transmitía. la cadena de compartir.
Las primeras pruebas mostraron cómo la reducción de ese aspecto del algoritmo para la información cívica y de salud ayudó a reducir la proliferación de contenido falso. Facebook realizó el cambio para esas categorías en la primavera de 2020.
Cuando la Sra. Stepanov le presentó al Sr. Zuckerberg la propuesta del equipo de integridad para expandir ese cambio más allá del contenido cívico y de salud, y algunos países como Etiopía y Myanmar donde ya se estaban realizando cambios, el Sr. Zuckerberg dijo que no quería seguirlo si reducía la participación de los usuarios, según los documentos.
James Barnes, un ex empleado de Facebook que se fue en 2019, dijo que Facebook esperaba que dar prioridad a la participación de los usuarios en News Feed acercaría a las personas. Pero la plataforma se había vuelto tan compleja que la empresa no entendía cómo el cambio podría ser contraproducente.
“No hay soluciones mágicas fáciles”, dijo.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.