Los empleados de Facebook señalan a los carteles de la droga y a los traficantes de personas. La respuesta de la empresa es débil, según muestran los documentos

Vigilantes of El Machete as they call themselves, an armed group made up mostly of indigenous people to defend themselves against drug cartels, hold up their machetes during an assembly with indigenous communities, in Pantelho
Un miembro de un grupo paramilitar indígena en México, conformado para defenderse de los carteles de drogas, que según un reportaje del WSJ, usan Facebook con mucha habitualidad. Foto: Reuters

Los empleados alertaron sobre cómo se usa el sitio en los países en desarrollo, donde su base de usuarios ya es enorme y se está expandiendo.


En enero, un expolicía que se volvió investigador de Facebook publicó un memorando para todo el personal en el tablero de mensajes interno de la compañía. Comenzó “¡Feliz 2021 para todos!” y luego procedió a detallar un nuevo conjunto de lo que llamó “aprendizajes”. El más grande: un cartel de la droga mexicano estaba usando Facebook para reclutar, entrenar y pagar a sicarios.

El comportamiento fue impactante y violaba claramente las reglas de Facebook. Pero la compañía no impidió que el cartel publicara en Facebook o Instagram, el sitio para compartir fotos de la compañía.

Puntuaciones de documentos internos de Facebook revisados por The Wall Street Journal muestran a los empleados dando alarmas sobre cómo se utilizan sus plataformas en algunos países en desarrollo, donde su base de usuarios ya es enorme y se está expandiendo. También muestran la respuesta de la empresa, que en muchos casos es inadecuada o nula.

Los empleados señalaron que los traficantes de personas en el Medio Oriente usaban el sitio para atraer a las mujeres a situaciones laborales abusivas en las que eran tratadas como esclavas u obligadas a realizar trabajo sexual. Advirtieron que grupos armados en Etiopía usaban el sitio para incitar a la violencia contra las minorías étnicas. Enviaron alertas a sus jefes sobre la venta de órganos, la pornografía y la acción del gobierno contra la disidencia política, según los documentos.

Facebook elimina algunas páginas, aunque muchas más operan abiertamente, según los documentos.

En algunos países donde opera Facebook, tiene pocas o ninguna gente que hable los dialectos necesarios para identificar usos peligrosos o criminales de la plataforma, muestran los documentos.

Cuando los problemas han surgido públicamente, Facebook ha dicho que los abordó eliminando las publicaciones ofensivas. Pero no ha arreglado los sistemas que permitían a los infractores repetir el mal comportamiento. En cambio, se da prioridad a retener a los usuarios, ayudar a los socios comerciales y, en ocasiones, aplacar a los gobiernos autoritarios, cuyo apoyo Facebook a veces necesita para operar dentro de sus fronteras, según muestran los documentos.

Facebook trata el daño en los países en desarrollo como “simplemente el costo de hacer negocios” en esos lugares, dijo Brian Boland, un exvicepresidente de Facebook que supervisó las asociaciones con proveedores de Internet en África y Asia antes de renunciar a fines del año pasado. Facebook ha centrado sus esfuerzos de seguridad en mercados más ricos con gobiernos e instituciones de medios poderosos, dijo, incluso cuando ha recurrido a los países más pobres para el crecimiento de usuarios.

“Rara vez hay un esfuerzo concertado y significativo para invertir en la reparación de esas áreas”, dijo.

El mundo en desarrollo ya tiene cientos de millones de usuarios de Facebook más que los EE.UU.; más del 90% de los usuarios mensuales están ahora fuera de EE.UU. y Canadá. Con el crecimiento en gran parte estancado allí y en Europa, casi todos los nuevos usuarios de Facebook provienen de países en desarrollo, donde Facebook es el principal canal de comunicación en línea y fuente de noticias. Facebook se está expandiendo rápidamente a esos países, planeando tecnología como Internet satelital y Wi-Fi ampliado para que los usuarios estén en línea, incluso en áreas pobres de Indonesia, un documento descrito como “barrios marginales”.

Los documentos revisados por la Revista son informes de empleados que están estudiando el uso de Facebook en todo el mundo, incluida la explotación humana y otros abusos de la plataforma. Escriben sobre su vergüenza y frustración, citando decisiones que permiten a los usuarios publicar videos de asesinatos, incitaciones a la violencia, amenazas del gobierno contra activistas a favor de la democracia y anuncios de trata de personas.

El material es parte de extensas comunicaciones de la compañía revisadas por el Journal que ofrecen detalles incomparables sobre las deficiencias de la compañía en áreas que incluyen reglas que favorecen a las élites , la salud mental de los adolescentes y los esfuerzos para administrar su algoritmo.

Algunos de los problemas más graves señalados por los documentos se encuentran en el extranjero. Los activistas se han quejado durante años de que Facebook hace muy poco para proteger a los usuarios extranjeros de los problemas que saben que ocurren en su plataforma. Los documentos muestran que muchos dentro de Facebook están de acuerdo.

“En países en riesgo de conflicto y violencia, tenemos una estrategia integral, que incluye confiar en equipos globales con hablantes nativos que cubren más de 50 idiomas, recursos educativos y asociaciones con expertos locales y verificadores de datos de terceros para mantener a las personas seguras”, dijo el portavoz de Facebook Andy Stone esta semana.

Andy Stone
Andy Stone, portavoz de Facebook.

‘No es suficiente’

El empleado que identificó al cartel mexicano de la droga es un expolicía y experto en delitos cibernéticos contratado en 2018 como parte de un nuevo equipo de investigación centrado principalmente en “países en riesgo”, donde el estado de derecho es frágil y la violencia es común.

Ese año, el discurso de odio en Myanmar proliferó en las plataformas de Facebook, y la compañía ha reconocido que no hizo lo suficiente para detener las incitaciones a la violencia contra la población minoritaria rohingya, que según Estados Unidos fue víctima de la limpieza étnica. Los ejecutivos describieron la violencia de Myanmar como una llamada de atención a las responsabilidades de la empresa en el mundo en desarrollo. El presidente ejecutivo, Mark Zuckerberg, escribió una carta de disculpa a los activistas después de minimizar inicialmente el papel de Facebook en la violencia y se comprometió a hacer más.

Un informe interno de Facebook de marzo dijo que los actores, incluidos algunos estados, estaban con frecuencia en la plataforma promoviendo la violencia, exacerbando las divisiones étnicas y deslegitimando las instituciones sociales. “Esto es particularmente frecuente y problemático en los países en riesgo”, dice el informe.

Continúa con un encabezado en negrita: “Las estrategias de mitigación actuales no son suficientes”.

El expolicía y su equipo desenredaron la red en línea del Cártel Jalisco Nueva Generación al examinar publicaciones en Facebook e Instagram, así como mensajes privados en esas plataformas, según los documentos. (Los mensajes en WhatsApp, otro producto de Facebook, están encriptados de forma predeterminada).

El equipo identificó a personas clave, rastreó los pagos que hicieron a los sicarios y descubrió cómo estaban reclutando a adolescentes pobres para que asistieran a los campos de entrenamiento de sicarios.

Los mensajes de Facebook mostraban a los reclutadores advirtiendo a los posibles jóvenes contratados “sobre ser golpeados seriamente o asesinados por el cártel si intentan abandonar el campo de entrenamiento”, escribió el exoficial.

El cartel, que según las autoridades policiales es la mayor amenaza criminal de drogas para Estados Unidos, no ocultó su actividad. Tenía varias páginas de Facebook con fotos de armas enchapadas en oro y escenas de crímenes sangrientos, según muestran los documentos.

Las páginas de Facebook se publicaron bajo el nombre “CJNG”, ampliamente conocido como la abreviatura de Cartél Jalisco Nueva Generación, a pesar de que la empresa había etiquetado internamente al cartel como una de las “Personas y Organizaciones Peligrosas” cuyas páginas deberían haber sido eliminadas automáticamente del plataforma bajo la política de Facebook.

El expolicía recomendó que la compañía mejore su seguimiento para garantizar que se apliquen las prohibiciones a los grupos designados y busque comprender mejor la actividad del cartel.

Facebook no eliminó por completo al cartel de sus sitios. Los documentos dicen que eliminó contenido vinculado al cartel e interrumpió la red.

El equipo de investigación pidió a otra unidad de Facebook encargada de coordinar diferentes divisiones que buscara formas de asegurarse de que se pudiera hacer cumplir una prohibición del cartel. Eso tampoco se hizo de manera efectiva, según los documentos, porque el equipo asignado al trabajo no dio seguimiento.

El 13 de enero, nueve días después de que el informe circulara internamente, apareció la primera publicación en una nueva cuenta de Instagram de CJNG: un video de una persona con una pistola dorada disparando a un joven en la cabeza mientras la sangre brota de su cuello. La siguiente publicación es una foto de un hombre golpeado atado a una silla; el siguiente es una bolsa de basura llena de manos cortadas.

d

La página, junto con otras páginas de Instagram y Facebook que anuncian el cartel, permaneció activa durante al menos cinco meses antes de ser eliminada. Desde entonces, han aparecido nuevas páginas bajo el nombre de CJNG con pistolas y decapitaciones.

El exoficial se negó a comentar sobre sus hallazgos y Facebook se negó a ponerlo a disposición para una entrevista.

Facebook dijo esta semana que sus empleados saben que pueden mejorar sus esfuerzos contra los cárteles y que la compañía está invirtiendo en inteligencia artificial para reforzar su aplicación contra dichos grupos.

Facebook dedica menos recursos a detener el daño en el extranjero que en los EE.UU., muestran los documentos.

En 2020, los empleados y contratistas de Facebook pasaron más de 3,2 millones de horas buscando y etiquetando o, en algunos casos, tomando información que la compañía concluyó que era falsa o engañosa, según muestran los documentos. Solo el 13% de esas horas se dedicaron a trabajar en contenido de fuera de los EE.UU. La compañía pasó casi tres veces más horas fuera de EE.UU. Trabajando en la “seguridad de la marca”, como asegurarse de que los anuncios no aparezcan junto con el contenido que los anunciantes pueden considerar inaceptable.

El equipo de investigación pasó más de un año documentando un bullicioso tráfico de personas en el Medio Oriente que tiene lugar en sus servicios. En Facebook e Instagram, las agencias de empleo sin escrúpulos anunciaron a los trabajadores que podían suministrar bajo términos coercitivos, utilizando sus fotos y describiendo sus habilidades y datos personales.

La práctica de firmar contratos laborales domésticos restrictivos y luego vender los contratos es objeto de un abuso generalizado y ha sido definida como trata de personas por el Departamento de Estado de EE.UU.

La compañía eliminó algunas páginas ofensivas, pero solo tomó medidas limitadas para tratar de cerrar la actividad hasta que Apple amenazó con eliminar los productos de Facebook de la App Store a menos que tomara medidas enérgicas contra la práctica. La amenaza fue en respuesta a una historia de la BBC sobre la venta de sirvientas.

En un resumen interno sobre el episodio, un investigador de Facebook escribió: “¿Facebook conocía este problema antes de la investigación de la BBC y la escalada de Apple?”

El siguiente párrafo comienza: “Sí”.

FILE PHOTO: In this photo illustration, a Facebook logo on a computer screen is seen through glasses held by a woman in Bern
Foto: Reuters

Un documento de principios de este año sugirió que la compañía debería usar un toque ligero con las advertencias en árabe sobre la trata de personas para no “alienar a los compradores”, es decir, los usuarios de Facebook que compran los contratos de los trabajadores domésticos, a menudo en situaciones similares a la esclavitud.

El portavoz de Facebook dijo que la compañía no sigue esa guía. “Prohibimos la explotación humana en términos inequívocos”, dijo Stone. “Hemos estado combatiendo la trata de personas en nuestra plataforma desde 2015 y nuestro objetivo sigue siendo evitar que cualquiera que busque explotar a otros tenga un hogar en nuestra plataforma”.

Añadió: “Tenemos un equipo dedicado que se relaciona con las agencias de aplicación de la ley en todo el mundo. En casos de daño inminente, también podemos proporcionar información relevante a las fuerzas del orden de acuerdo con la ley aplicable y nuestros términos de servicio “.

Brecha de idioma

En Etiopía, los grupos armados han utilizado Facebook para incitar a la violencia. Las comunicaciones internas de la empresa muestran que no tiene suficientes empleados que hablen algunos de los idiomas relevantes para ayudar a monitorear la situación. Para algunos idiomas, Facebook tampoco logró construir sistemas automatizados, llamados clasificadores, que pudieran eliminar los peores abusos. Los sistemas de inteligencia artificial que forman la columna vertebral de la aplicación de Facebook no cubren la mayoría de los idiomas utilizados en el sitio.

Facebook tampoco publica los “estándares comunitarios” que requiere que los usuarios cumplan en todos los idiomas que atiende en Etiopía, por lo que algunos usuarios pueden no conocer las reglas que se supone que deben seguir.

Facebook dijo esta semana que los estándares están disponibles en algunos idiomas etíopes y que ha comenzado a traducirlos a otros.

En un documento de planificación de diciembre, un equipo de Facebook escribió que el riesgo de malas consecuencias en Etiopía era terrible y que “la mayor parte de nuestro gran trabajo de integridad durante los últimos 2 años no funciona en gran parte del mundo”. En algunos lugares de alto riesgo, como Etiopía, decía: “Nuestros clasificadores no funcionan y, en gran medida, estamos ciegos a los problemas de nuestro sitio”.

Grupos asociados con el gobierno etíope y los medios estatales publicaron comentarios incitantes en Facebook contra la minoría tigrayan, llamándolos “hienas” y “un cáncer”. Las publicaciones que acusaban a los tigrayanos de delitos como el lavado de dinero se estaban volviendo virales, y algunas personas en el sitio dijeron que los tigrayanos deberían ser eliminados.

La violencia se intensificó hacia fines del año pasado, cuando el gobierno lanzó un ataque contra la capital de Tigray, Mekelle.

El secretario de Estado Antony Blinken dijo en marzo que los tigrayanos son víctimas de la limpieza étnica. El gobierno de Etiopía continúa cometiendo actos de violencia contra los tigrayanos , informó el Journal el mes pasado.

Facebook dijo esta semana que ha aumentado su capacidad de revisión en varios idiomas etíopes y mejorado sus sistemas automatizados para detener el contenido dañino. Dijo que tiene un equipo dedicado a reducir los riesgos en Etiopía que incluye a personas de la zona.

Millones de usuarios de Facebook hablan árabe en lo que la empresa llama una región altamente sensible. La mayoría de los revisores de contenido de Facebook que trabajan en el idioma hablan árabe marroquí y, a menudo, no pueden captar contenido abusivo o violento en otros dialectos o cometen errores al restringir publicaciones inofensivas, según un documento de diciembre. Los algoritmos de aplicación de Facebook tampoco eran capaces de manejar diferentes dialectos.

“Seguramente es de suma importancia dedicar más recursos a la tarea de mejorar los sistemas árabes”, escribió un empleado en el documento.

Cuando estalló la violencia entre Israel y los palestinos meses después, la compañía suprimió erróneamente a activistas y fuentes de noticias regionales en idioma árabe y comenzó a eliminar publicaciones que incluían el nombre “Al Aqsa”, una importante mezquita de Jerusalén que era un foco del conflicto. Al Aqsa también se usa en nombre de la Brigada de los Mártires de Al Aqsa, que Estados Unidos ha designado como organización terrorista.

“Quiero disculparme por la frustración que estos errores han causado”, escribió un gerente en una publicación interna.

BuzzFeed informó anteriormente del problema.

Facebook se disculpó públicamente y dijo esta semana que ahora tiene un equipo enfocado en prevenir errores similares.

Imágenes violentas

India tiene más de 300 millones de usuarios de Facebook, la mayor cantidad de cualquier país. Los investigadores de la compañía en 2019 establecieron una cuenta de prueba como usuaria india y dijeron que encontraron una “pesadilla” simplemente siguiendo las páginas y los grupos recomendados por los algoritmos de Facebook.

“El News Feed del usuario de prueba se ha convertido en un aluvión casi constante de contenido nacionalista polarizador, desinformación, violencia y sangre”, escribieron. El servicio de videos Facebook Watch “parece recomendar un montón de pornografía suave”.

Después de que un atentado suicida mató a decenas de oficiales paramilitares indios, que India culpó a su rival Pakistán, la cuenta mostraba dibujos que mostraban decapitaciones y fotografías que pretendían mostrar el torso cortado de un musulmán. “He visto más imágenes de personas muertas en las últimas 3 semanas de las que he visto en toda mi vida”, escribió un investigador.

En una declaración de misión de 2017, el Sr. Zuckerberg dijo que “dar voz a las personas es un principio con el que nuestra comunidad se ha comprometido desde que comenzamos”, y que la empresa “trabajaría en la creación de nuevas herramientas que fomenten un compromiso cívico reflexivo”.

En 2018, la directora de operaciones de Facebook, Sheryl Sandberg, dijo a un comité del Senado que la compañía apoya los principios democráticos en todo el mundo. Cuando se le preguntó sobre las operaciones de Facebook en Vietnam, dijo: “Solo operaríamos en un país cuando podamos hacerlo de acuerdo con nuestros valores”.

Facebook restringió la capacidad de los usuarios en Vietnam de ver las publicaciones de Bui Van Thuan, un destacado crítico del gobierno autoritario de Vietnam, durante nueve meses a partir del año pasado. Thuan dijo que Facebook actuó después de que un grupo organizado por el gobierno envió a la empresa miles de quejas sobre sus publicaciones.

Los documentos de Facebook muestran que el personal de la empresa estuvo de acuerdo en que el gobierno organizó esfuerzos contra el Sr. Thuan y utilizó su caso y una foto de él y su perfil de Facebook como ejemplo de lo que llamaron acoso sistemático.

Facebook registró 153.000 incidentes de este tipo durante tres meses a través de 36 grupos privados, probablemente “encargados y dirigidos por entidades gubernamentales / militares”. Dijeron que los esfuerzos funcionaron, con un “buen% de éxito en la supresión de la presencia objetivo de FB”.

Facebook dijo el año pasado que acordó restringir el acceso a contenido político disidente considerado ilegal a cambio de que el gobierno vietnamita ponga fin a su práctica de ralentizar los servidores locales de Facebook para presionar a la compañía.

Un ex empleado de Facebook que trabajó en Asia dijo que Facebook es consciente de que el gobierno vietnamita está utilizando la plataforma para silenciar a los disidentes, pero que tolera el abuso porque Vietnam es un mercado publicitario de rápido crecimiento.

“Nuestro objetivo es mantener nuestros servicios en funcionamiento en Vietnam para que podamos brindar un espacio para que la mayor cantidad de personas posible se expresen, se conecten con amigos y dirijan sus negocios”, dijo Stone, el portavoz de Facebook. “Como compartimos el año pasado, restringimos parte del contenido en Vietnam para garantizar que nuestros servicios sigan estando disponibles para millones de personas que dependen de ellos todos los días”.

Las restricciones a la cuenta de Thuan se levantaron el año pasado, pero dijo que sigue enfrentándose al acoso crónico en Facebook.

Facebook dijo esta semana que su perfil estaba restringido por error y que se corrigió el error.

El equipo de investigadores de explotación humana de Facebook, que además del ex oficial de policía incluía a un experto financiero polaco que previamente investigó las finanzas de la trata en el banco HSBC y un experto en refugiados marroquí que anteriormente trabajó en el Alto Comisionado de las Naciones Unidas para los Refugiados, reunió evidencia de tráfico.

Al buscar en los productos de Facebook, encontraron redes delictivas que reclutaban a personas de países pobres, coordinaban sus viajes y las sometían a la servidumbre doméstica o al trabajo sexual forzado en los Emiratos Árabes Unidos y otros países del Golfo Pérsico. Los productos de Facebook facilitaron cada paso y los investigadores siguieron las comunicaciones a través de las plataformas para identificar a los perpetradores y las víctimas.

Facebook en 2018 no tenía un protocolo para lidiar con el reclutamiento de publicaciones para la servidumbre doméstica. En marzo de 2018, los empleados encontraron perfiles de Instagram dedicados a la trata de sirvientes domésticos en Arabia Saudita. Un memorando interno dice que se les permitió permanecer en el sitio porque las políticas de la compañía “no reconocían la violación”.

El equipo de investigación identificó múltiples grupos de trata en operación, incluido uno con al menos 20 víctimas, y organizadores que gastaron al menos 152.000 dólares en anuncios de Facebook para salones de masajes.

El ex policía recomendó que Facebook deshabilite los números de WhatsApp asociados con los anillos, establezca nuevas políticas sobre anuncios comprados de forma anónima y mejore su inteligencia artificial para erradicar mejor las publicaciones relacionadas con la trata de personas, según los documentos. Agregó que Facebook debería desarrollar una red para prevenir el tráfico compartiendo los hallazgos con otras empresas de tecnología.

En otro memorando, el experto polaco en tráfico escribió que 18 meses después de que identificara el problema por primera vez, Facebook no había implementado sistemas para encontrar y eliminar las publicaciones de tráfico.

La BBC y Apple señalaron preocupaciones en 2019. Con la amenaza que presenta “consecuencias potencialmente graves para el negocio”, escribió el experto en tráfico, Facebook comenzó a moverse más rápido. Un barrido proactivo utilizando la investigación previa del equipo de investigación encontró más de 300,000 casos de posibles violaciones y deshabilitó más de 1,000 cuentas.

El equipo continuó encontrando publicaciones sobre trata de personas y Facebook luchó por implementar políticas efectivas. Un documento dice que Facebook retrasó un proyecto destinado a mejorar la comprensión de la trata de personas.

Otro memorando señala: “Sabemos que no queremos aceptar / sacar provecho de la explotación humana. ¿Cómo queremos calcular estos números y qué queremos hacer con este dinero? "

A finales de 2020, tras tres meses en los que Facebook investigaba una decena de redes sospechosas de trata de personas, se desactivó un sistema para detectarlo. Los investigadores de tráfico dijeron que eso perjudicó sus esfuerzos, según los documentos.

“Encontramos contenido que viola nuestra política de servidumbre doméstica que debería haber sido detectado automáticamente” por una herramienta de software llamada Civic Integrity Detection, escribió un empleado en un documento titulado “Servidumbre doméstica: esto no debería suceder en FB y cómo podemos solucionarlo”. Eso.” Ella recomendó a la empresa reactivar ese oleoducto.

Facebook dijo esta semana que hay sistemas de detección similares en funcionamiento.

El equipo de investigación también luchó para frenar el tráfico sexual. En 2019, descubrieron una red de prostitución que operaba en salones de masajes en los EE. UU. Facebook entregó la información a la policía, que realizó arrestos.

Facebook descubrió una red mucho más grande que usaba el sitio para reclutar mujeres de Tailandia y otros países. Fueron mantenidos cautivos, se les negó el acceso a la comida y se les obligó a realizar actos sexuales en los salones de masajes de Dubai, según un informe de investigación interna.

Facebook eliminó las publicaciones, pero no alertó a las autoridades locales. La investigación encontró que los traficantes sobornaron a la policía local para que apartara la mirada, según el informe.

Facebook dijo esta semana que lanzó nuevos programas este año que dificultan que los usuarios encuentren contenido relacionado con el tráfico sexual.

Durante el año pasado, Facebook contrató a un consultor externo para que lo asesorara sobre los riesgos del comercio continuo de personas en sus sitios. El consultor recomendó que si los ingresos provenían del tráfico de anuncios, Facebook debería desarrollar una política, como regalarlos, para evitar agregarlos a las arcas de Facebook, según los documentos.

La historia de la Sra. Kimani

En enero, Patricia Wanja Kimani, tutora y escritora independiente de 28 años de Nairobi, vio una publicación de reclutamiento en Facebook que prometía pasajes aéreos y visados gratuitos, a pesar de que Facebook ha prohibido los anuncios de empleo que promocionan viajes y gastos de visado gratuitos, según el documentos.

“La mayoría de las publicaciones decían que se necesitan limpiadores en Arabia Saudita”, dijo en una entrevista. Dijo que le prometieron 300 dólares al mes para trabajar en un servicio de limpieza en Riad.

En el aeropuerto de Nairobi, el reclutador le dio un contrato para que lo firmara. Dijo que recibiría un 10% menos de pago de lo que le habían prometido y que solo el empleador podía rescindir el contrato. Si la Sra. Kimani quisiera renunciar, perdería su visa y estaría en Arabia Saudita ilegalmente. La Sra. Kimani le dijo al reclutador que se estaba retirando.

El reclutador respondió que dado que el contrato de la Sra. Kimani ya se había vendido a un empleador, la agencia tendría que reembolsar al empleador si se retiraba. La Sra. Kimani tendría que pagarle a la agencia para compensar eso, dijo que le dijo el reclutador. No tenía dinero, así que voló a Riad. La agencia se quedó con su pasaporte.

Trabajaba en una casa donde una mujer la llamaba perro. Dormía en un trastero sin aire acondicionado. El patio cerrado y los altos muros de la casa hacían imposible salir. Trabajó desde las 5 de la mañana hasta el anochecer limpiando mientras estaba “completamente separada del resto del mundo”, dijo.

La Sra. Kimani dijo que se enfermó y no se le permitió tratamiento, y que no le pagaron.

Después de dos meses, le dijo a la agencia que quería regresar a Kenia. Dijeron que podía pagarles $ 2,000 para que se saliera del contrato. La Sra. Kimani no tenía el dinero y publicó sobre su difícil situación en Facebook. Ella nombró a la agencia de empleo, que la sacó del trabajo y dejó a la Sra. Kimani en un centro de deportación.

Dijo que había otras mujeres kenianas allí y que una tenía marcas de cadenas en las muñecas y los tobillos. Finalmente, sus publicaciones en Facebook fueron enviadas a un funcionario de la Organización Internacional para las Migraciones, un organismo de la ONU, que ayudó a negociar su liberación y regreso a Kenia en julio.

La Sra. Kimani dijo que Facebook la ayudó a meterse y salir del lío. Dijo que ha estado advirtiendo a otras personas sobre los riesgos de ser objeto de trata y le gustaría que Facebook trabaje más duro. “Creo que se debe hacer algo al respecto para que nadie entre a ciegas”, dijo.

Más en Qué Pasa

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.