El difícil trabajo de los moderadores de redes sociales

Redes Sociales

TikTok fue recientemente demandada por dos ex empleadas dedicadas a moderar contenidos, un eufemismo para una labor de filtro que evita la propagación de imágenes brutales, discursos de odio y teorías conspirativas, en un variopinto menú de lo peor disponible en Internet. Facebook ya desembolsó US$52 millones en reparaciones de este tipo. Las acusaciones se repiten: daño psicológico, falta de apoyo emocional y sobrecarga laboral.


“Alguien tiene que sufrir y ver estas cosas”, reflexiona Ashley Vélez, una madre de Las Vegas con dos hijos menores de edad, que entre mayo y noviembre de 2021 trabajó para Telus International, una empresa canadiense contratista de TikTok que proporciona servicios tecnológicos. Según declaraciones de la mujer, consignadas por la National Public Radio de EE.UU., “nos dijeron que seríamos la primera línea de defensa para proteger a los niños de la violencia”.

El caudal y el calibre del material a revisar superó a esta moderadora de contenido, cuya función consiste en aplicar parámetros para definir rápidamente si el material de los usuarios -videos, imágenes o texto-, son aptos para una determinada red social, según códigos establecidos por la propia red. Una labor imposible de endosar por completo a la inteligencia artificial, aun cuando monitorea el 90% del tráfico.

Vélez asegura haber llorado dos horas tras ver la paliza sufrida por un niño. Presenció registros de “muerte y pornografía gráfica, muy gráfica”, y constantes desnudos de menores de edad. “Veía cómo disparaban a la gente en la cara”, detalló, entre otras atrocidades. El crudo menú sumaba maltrato animal, torturas y ejecuciones, en un sinnúmero de comportamientos execrables.

Junto a Reece Young, moderadora para la firma neoyorquina Atrium, demandaron a TikTok y su matriz, la multinacional china de tecnología en internet ByteDance, el pasado 24 de marzo en California. Exigen cinco millones de dólares.

En el mundo, hay 10 mil moderadores de contenido que trabajan para que TikTok y sus 1000 millones de usuarios disfruten de videos simpáticos de fácil consumo, la característica que llevó a la red al liderazgo mundial, superando en popularidad a Google en 2021.

“La mayoría no conoce este otro lado oscuro de TikTok, que esta gente está ayudando a que el resto de nosotros nunca vea”, declaró el abogado Steve Williams, del bufete Joseph Saveri, a cargo de la demanda que acusa a Tik Tok de no proteger a ambas mujeres de las traumáticas implicancias emocionales de su labor, infringiendo la ley californiana.

En turnos de 12 horas con un par de descansos que suman 30 minutos, las trabajadoras debían revisar varios videos simultáneamente -entre tres y diez-, y decidir en un rango no superior a los 25 segundos si es apto para su publicación. El margen de coincidencia entre el criterio del moderador y los parámetros de Tik Tok debía superar el 80%.

El sistema de TikTok, plantean los abogados, presionó a las empleadas al encadenar el pago a la productividad, sumando carga laboral. Por añadidura, los moderadores tienen prohibido revelar la naturaleza del trabajo a sus cercanos. Los demandantes estiman que estas condiciones confluyen en capacidades disminuidas para ejercer criterio en “imágenes mentalmente devastadoras”, sin mayor “asesoramiento significativo”.

Vélez asegura haber recurrido a un consejero de Telus International sobrepasado, cuya atención se extendió por 30 minutos. “Veían a tanta gente”, aseveró, “que no parecía que tuvieran tiempo para ayudarte realmente con lo que estabas sufriendo”.

El caso también argumenta que las teorías conspirativas, el negacionismo del Holocausto y las acusaciones de fraude sobre la pandemia de Covid-19, se suman al daño psicológico de Vélez y Young.

En TikTok no hubo declaraciones directas a la acción legal, pero la red social del momento aseveró mediante una portavoz que “se esfuerza por promover un entorno de trabajo solidario para nuestros empleados y contratistas”.

A este tipo de trabajadores, aseguraron, se les entregan “una serie de servicios de bienestar para que (...) se sientan apoyados mental y emocionalmente”.

A pesar del efervescente éxito de TikTok, valuada en 75 billones de dólares, los últimos meses no han sido fáciles para la red social. La invasión rusa a Ucrania, utilizada maliciosamente por las partes en conflicto con fines propagandísticos, ha puesto a prueba sus sistemas de verificación de información sin contar con protocolos diseñados para la crisis.

En los primeros días de marzo, TikTok decidió suspender videos emitidos desde Rusia. Luego suprimió para la Unión Europea los sitios rusos Sputnik y RT.

Sin embargo, a mediados de mes publicaron supuestas imágenes de la ciudad de Járkov, completamente devastada por bombardeos rusos. En rigor, las secuencias correspondían a la catástrofe de Beirut del 4 de agosto de 2020, cuando explotaron 2750 toneladas de nitrato de amonio en un recinto portuario. También subieron imágenes de supuestos paracaidistas rusos invadiendo Ucrania, correspondientes a ejercicios de hace siete años, y una supuesta escuadrilla aérea invasora, que también eran maniobras militares previas, en este caso de 2020. Ambos videos fueron eliminados de la plataforma china.

La denuncia sobre la falsedad de las imágenes de Járkov se puede ver en Facebook (FB). Interesante. La nave madre de las redes sociales con tejado de vidrio, apuntando a TikTok.

El confort del humor negro

Los abogados que defienden a Ashley Vélez y Reece Young tienen experiencia en este tipo de casos. En diciembre de 2021 representaron a la moderadora de contenido Candie Frazier, que también trabajaba para Telus International, en una demanda que no prosperó. Pero en 2020 tuvieron mucha mejor suerte en una acción legal iniciada dos años antes en contra de Facebook por las mismas razones. Moderadores de contenido superados acusando daño psicológico.

En un extenso reportaje publicado en febrero de 2019 por el sitio de noticias tecnológicas The Verge, una docena de empleados de Cognizant, empresa de soluciones tecnológicas contratista de FB para moderar, revelaron las condiciones de trabajo dignas de una novela de Chuck Palahniuk: largas filas para escasos baños, poco tiempo de descanso, alto consumo de marihuana, y sexo entre los empleados en escondrijos como escaleras y la sala de lactancia. Tal como TikTok, el contrato exige mantener reserva de las características de la labor, incluyendo los seres queridos. El ambiente laboral solía cargarse de humor negro extraído del material chequeado.

La paga en Cognizant por moderar contenidos resultaba modesta -apenas US$28.800 anuales- comparada a los sueldos de Facebook, con un promedio de US$240 mil al año según The Verge, mientras otras fuentes rebajan la paga a US$155 mil anuales. Aún así, un salario considerablemente superior.

Tras el reportaje, Cognizant anunció que dejaría de prestar servicios a Facebook con un costo de 240 millones de dólares, y el recorte de seis mil puestos de trabajo.

A dólar la hora

La red creada por Mark Zuckenberg comenzó a filtrar sus contenidos a partir de 2007, cuando el fiscal general de Nueva York Andrew Cuomo, exigió que bajaran en un plazo de 24 horas las crecientes imágenes de desnudos que los usuarios solían publicar en una suerte de rito colectivo.

Pronto se dieron cuenta que la tarea rebasaba sus posibilidades, por lo cual se desarrolló la subcontratación de empresas para ese cometido, con los consiguientes beneficios tributarios, junto con explorar la opción de automatizar los filtros.

En 2011 se descubrió que oDesk, contratada para tales propósitos, pagaba apenas un dólar por hora de trabajo en países como Marruecos. Paralelamente Accenture, multinacional de consultoría estratégica, servicios tecnológicos y externalización, se convertía en la principal de varias empresas dedicadas a monitorear contenidos para Facebook.

Acorde a información de The New York Times, Accenture pasó de destinar 300 empleados en 2015 para esos efectos, a 3000 en 2016. La consultora tomó otros gigantes para las mismas labores, incluyendo YouTube, Twitter y Pinterest. Facebook también encomendó a Accenture chequear cuentas falsas o duplicadas, y las cuentas de famosos y marcas para no desbordar comentarios odiosos.

FILE PHOTO: Former Facebook employee and whistleblower Frances Haugen testifies during a hearing entitled 'Protecting Kids Online: Testimony from a Facebook Whistleblower' in Washington
La crisis de Facebook se agravó luego que Frances Haugen, extrabajadora de la ahora compañía llamada Meta, revelara la crisis interna que tiene con respecto a la privacidad de la información y qué es lo que se les muestra a los usuarios.

La industria en torno a la moderación de contenidos debería facturar 8.8 mil millones de dólares durante este año.

Accenture ha enfrentado críticas de altos ejecutivos. En 2017, el fallecido CEO Pierre Nanterme, manifestó reparos con aspectos éticos del trabajo, versus los objetivos de la empresa sobre ganancias cuantiosas y experiencia. Al año siguiente, Izabela Dziugiel, consejera de Accenture en Varsovia, aseveró que se estaba contratando gente sin preparación. Más tarde renunció.

Ese mismo 2017, la sucursal de Austin, Texas, fue elegida para una auditoría. En aquella oficina, el moderador Spencer Darr tuvo que lidiar con el video de un perro desollado vivo y definir si era “perturbador” o eliminarlo, en tanto otro moderador, Joshua Sklar, vio la filmación de un hombre que se grabó violando a una pequeña.

Sin embargo, en vez de reforzar la medidas de resguardo psicológico, Accenture introdujo en 2018 el plan WeCare con profesionales denominados “monitores de bienestar”, a quienes se aconsejó suprimir evaluaciones a empleados afectados, en pos de paliativos inmediatos como caminatas o escuchar música.

Un trabajador de esa oficina se unió a la demanda colectiva iniciada en 2018 por una ex moderadora de Facebook, Selena Scola, que presentó cargos contra la empresa tras nueve meses de labores por desarrollar trastorno de estrés postraumático, debido al constante flujo de imágenes de violaciones, asesinatos y suicidios. A su acción judicial, se sumaron moderadores de contenido de cuatro estados. La acusación en contra de Facebook se concentró en no prodigar un espacio laboral seguro.

Facebook
Los moderadores de Facebook se exponen constantemente a contenido no apropiado para la red social.

En mayo de 2020, la red social logró un acuerdo con 11.250 moderadores pagando un mínimo de mil dólares hasta los US$50 mil, según los traumas y adicciones gatillados por la labor. El arreglo total implicó US$52 millones.

Facebook se comprometió a implementar medidas para preservar la salud mental de esta clase de personal. Entre las herramientas, silenciar audio y pasar a blanco y negro los videos, sesiones semanales con profesionales y terapia de grupo. Si un trabajador entra en crisis, debe ser atendido en 24 horas.

A su vez, los proveedores de estos servicios deben garantizar a Facebook que los reclutados son examinados sobre su capacidad de recuperación emocional, información en cada puesto de trabajo sobre atención psicológica, y vías de denuncia a Facebook si la empresa contratista incumple las medidas de la red social.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.

Este evento, que reunió en el Teatro Municipal de esa ciudad a expositores de distintas soluciones tecnológicas -entre ellos, Kinesix VR, Zeus y Huawei, partners de Claro empresas- fue también el punto de partida para la nueva Corporación de Innovación y Desarrollo Sostenible de la Ciudad Jardín.