X fracasa en su primera gran prueba de políticas de contenidos tras el conflicto en Israel
Mientras las empresas de redes sociales se enfrentan a videos mal identificados y a la violencia gráfica, la antigua Twitter lucha por mantenerse al día. Los estudiosos de redes sociales afirman que X se encuentra en una situación especialmente precaria, ya que Elon Musk ha reducido drásticamente muchos de los puestos de trabajo relacionados con los contenidos y la política de seguridad.
La guerra que estalló el pasado fin de semana entre Israel y Hamás es una de las mayores pruebas de control de contenidos de las redes sociales en años. De momento, X Corp. (ex Twitter) de Elon Musk está tropezando, y podría empeorar.
Desde que Hamás atacó Israel el 7 de octubre, las plataformas de las redes sociales se han enfrentado a una serie de problemas: videos mal identificados, información falsa y contenido violento.
Los brotes de terrible violencia ponen a prueba la capacidad de moderación de todas las empresas de redes sociales, ya que propagandistas y oportunistas inundan sus plataformas con falsedades.
Junto con X, TikTok y Facebook también han tenido que lidiar con contenidos falsos y engañosos tras el ataque de Hamás a Israel. Incluso las plataformas de redes sociales con grandes plantillas y recursos dedicados a vigilar los contenidos falsos o que incitan al odio han tenido problemas durante la última semana.
Ahora, los estudiosos de las redes sociales afirman que X se encuentra en una situación especialmente precaria. Musk ha reducido drásticamente muchos de los puestos de trabajo de la empresa relacionados con los contenidos y la política de seguridad, y ha empezado a vender la verificación, que antes se limitaba a usuarios de alto perfil y periodistas profesionales. La plataforma también depende cada vez más de voluntarios que redacten notas de verificación.
Entre las publicaciones que han proliferado en X en los últimos días figuran videoclips antiguos reutilizados de forma engañosa, imágenes de videojuegos presentadas falsamente como un ataque de Hamás y un comunicado de prensa falso de la Casa Blanca. El propio Musk suscitó polémica cuando sugirió a los usuarios que siguieran dos cuentas que, según los investigadores, eran dudosas. Su tuit fue borrado posteriormente.
“La plataforma está fallando”, dijo Jonathan Mayer, profesor adjunto de informática de la Universidad de Princeton. Mayer, cuya investigación critica las respuestas de las plataformas a los contenidos problemáticos, citó imágenes gráficas y mensajes que glorifican la violencia y piden más. “Está disponible y no se retira rápidamente”, afirmó. “Las pruebas son muy claras”, agregó.
Un alto funcionario de la UE, Thierry Breton, envió cartas en los últimos días a X, Meta Platforms y TikTok exigiéndoles que detallaran sus planes para hacer frente a los contenidos ilegales y la desinformación en torno al conflicto. Breton intensificó la presión sobre X el jueves enviando una solicitud de información adicional.
La CEO de X, Linda Yaccarino, se retiró el lunes de una comparecencia que tenía prevista desde hace tiempo en la conferencia anual de tecnología de The Wall Street Journal de la próxima semana, alegando que necesitaba centrarse en el conflicto.
Un día después, X declaró que Yaccarino está dirigiendo un grupo de trabajo que labora día y noche para combatir los contenidos engañosos o que infringen otras políticas y se asegura de que sus moderadores de contenidos estén en alerta máxima, incluida la moderación en hebreo y árabe. X también dijo que ha eliminado cuentas de nueva creación afiliadas a Hamás, ha eliminado cuentas que intentaban manipular los trending topics, se ha coordinado con un grupo del sector y ha eliminado o etiquetado decenas de miles de mensajes.
Musk ha descrito su estrategia de moderación de contenidos como libertad de expresión, no de alcance, diciendo que el sitio podría dejar contenidos negativos o bastante escandalosos dentro de la legalidad, pero no amplificarlos.
En los días anteriores y posteriores al atentado de Hamás, X comunicó un número de decisiones de moderación de contenidos en la Unión Europea muy inferior al de muchos de sus competidores en redes sociales, según una base de datos de este tipo de decisiones creada en virtud de la nueva ley de moderación de contenidos de la UE.
X informó una media de 8.900 decisiones de moderación al día en los tres días anteriores y posteriores al ataque, frente a las 415.000 diarias de Facebook, una proporción mucho menor si se tiene en cuenta la base de usuarios de cada plataforma en la UE. En aproximadamente tres cuartas partes de esos casos, X aplicó una etiqueta NSFW, o no seguro para el trabajo, a las publicaciones como parte de esas decisiones, pero no pareció eliminarlas.
La estrategia de Musk incluye recurrir en gran medida a Community Notes, una función de comprobación de hechos en la que los voluntarios escriben notas contextuales que se añaden debajo de las publicaciones engañosas. La empresa afirma que utiliza un algoritmo para mostrar las notas consideradas útiles por usuarios con diferentes puntos de vista.
Algunos observadores afirman que la táctica es errónea, argumentando que la gente tiende a desplazarse rápidamente por los mensajes, y si se toman el tiempo de leer una nota, es probable que ya hayan digerido el contenido, especialmente si se trata de video.
“Los medios visuales pueden analizarse al instante y son mucho más memorables”, señala Richard Lachman, profesor asociado de Tecnología y Ética de la Universidad Metropolitana de Toronto.
En los últimos días, cuentas en X, incluidas algunas verificadas, hicieron circular un video que mostraba la celebración de un campeonato deportivo en Argelia en 2020, afirmando falsamente que mostraba un ataque de Israel, sostuvo Alex Stamos, director del Observatorio de Internet de Stanford y exjefe de seguridad de Facebook.
Aunque el video llevaba adjunta una nota comunitaria de comprobación de hechos, una de esas publicaciones tenía 1,2 millones de visitas hasta el miércoles. La nota no aparecía en otras publicaciones que compartían el video y que habían tenido menos visitas a mediodía del miércoles.
X dijo el martes que en tres días sus voluntarios escribieron notas que han sido vistas decenas de millones de veces. La empresa publicó un enlace para que más usuarios se inscribieran, e indicó que recientemente había puesto en marcha una actualización para que las notas aparecieran más rápidamente debajo de una publicación y que estaba trabajando para mejorar su capacidad de encontrar y adjuntar notas automáticamente a las publicaciones que reutilizaban el mismo video e imágenes.
Pero además de tener que tomar en consideración esas notas, los usuarios también pueden sentir la necesidad de invertir esfuerzos en determinar si una cuenta no verificada es legítima, ya que X empezó recientemente a cobrar por la verificación y muchos usuarios se han mostrado reacios a pagar por ella.
David Frum, autor y antiguo redactor de discursos del Presidente George W. Bush, publicó el domingo en X que 20 minutos en Twitter solían ser mucho más valiosos que 20 minutos de noticias por cable. Ahora, manifestó, “todavía se puede encontrar información útil aquí, pero hay que trabajar mucho más que hace un año para encontrar, cribar y bloquear”.
Según los investigadores, la oleada de contenidos engañosos sobre la guerra también está poniendo en jaque a empresas de medios sociales con plantillas mucho más numerosas. Durante las primeras 48 horas del conflicto, más de 40.000 cuentas que participaban en conversaciones sobre el conflicto en X, TikTok y Facebook eran falsas, de acuerdo a la empresa de inteligencia de amenazas sociales Cyabra. Según la firma, algunas habían sido creadas con más de un año de antelación para preparar la campaña de desinformación. Los perfiles falsos han intentado dominar la conversación, difundiendo más de 312.000 mensajes y comentarios durante este tiempo.
“El nivel de sofisticación, junto con la escala de las cuentas falsas y la preparación necesaria para llevar a cabo campañas de operaciones de influencia en tiempo real, no tiene precedentes para un grupo terrorista y se asemeja al nivel de organización de un actor estatal”, afirmó Cyabra.
Una noticia viral que se propagó en mayor o menor medida por X, Facebook y TikTok afirmaba que Israel había bombardeado la iglesia ortodoxa griega de San Porfirio en Gaza. La iglesia desmintió la afirmación en su página de Facebook el lunes. Según una investigación del grupo de investigación Bellingcat, algunos de los vídeos compartían información legítima sobre ataques aéreos, pero a menudo estaban entrelazados con afirmaciones falsas.
La empresa matriz de Facebook, Meta Platforms, ha creado un centro de operaciones especiales con expertos que hablan hebreo y árabe con fluidez, y está trabajando día y noche para tomar medidas contra los contenidos infractores y coordinarse con terceros que comprueban los hechos en la región. TikTok aseguró que ha elevado los recursos para prevenir contenidos violentos, de odio o engañosos, incluyendo el aumento de la moderación en hebreo y árabe, y está trabajando con organizaciones de verificación de hechos.
La cobertura gráfica de la guerra tiene varias implicancias potencialmente en conflicto: está el posible trauma para los espectadores y la cuestión de eliminar información precisa que proporciona un registro histórico y posibles pruebas de crímenes de guerra. En 2018, Facebook recibió tanto elogios como críticas por retirar publicaciones que mostraban la violencia respaldada por el gobierno contra la minoría musulmana rohingya en Myanmar, dijo Stamos, exjefe de seguridad de Facebook.
La masacre de Christchurch (Nueva Zelanda) que se retransmitió en directo en Facebook en 2019 llevó a invertir en tecnología capaz de señalar la posible violencia que se retransmite en tiempo real. Sin embargo, una persona todavía necesita revisar el contenido marcado para que sea eliminado, apuntó Stamos, razón por la cual es tan crítico que las plataformas tengan equipos de moderación robustos.
Los militantes palestinos amenazaron el lunes con empezar a ejecutar prisioneros y dijeron que lo difundirían. La amenaza se produjo después de que el ejército israelí señalara que iba a pasar a la ofensiva con una campaña de bombardeos cada vez más intensa.
La posibilidad de que un gran volumen de imágenes en directo o grabadas de ejecuciones de rehenes aparezcan en las redes sociales es alta y podría ser muy difícil para las plataformas identificarlas y tratarlas con rapidez, advirtió Darrell West, investigador centrado en las redes sociales en la Brookings Institution. Eso podría incluir la eliminación del contenido o la advertencia.
“Cuando se trata de un esfuerzo organizado como este, puede haber miles de personas publicando”, alertó. “Va a ser difícil para las plataformas lidiar con esto”, añadió.
Comenta
Por favor, inicia sesión en La Tercera para acceder a los comentarios.