Durante el fin de semana una nueva aplicación de cambio de rostro subió a la cima de la popularidad en las redes sociales chinas: ZAO. Esta nueva app creada por Momo-la misma empresa tras la aplicación de citas más importante de China, Tantan- no tardó en cautivar a los usuarios con la simple promesa de convertirlos en protagonistas de reconocidas series, películas o videos musicales gracias a la tecnología deepfake.

Como pueden imaginar, usar ZAO es muy simple y los usuarios solo tienen que tomarse o subir una selfie para formar parte del mundo de Game of Thrones, convertirse en Sheldon Cooper o reemplazar a Leonardo Dicaprio a lo largo de su filmografía. Todo gracias a la polémica tecnología deepfake que en este caso incluso funciona con imágenes creadas por CGI.

Los resultados de los videos pueden variar, pero a continuación encontrarán algunos de los ejemplos más populares para que se hagan una idea de lo que estamos hablando:

https://twitter.com/AllanXia/status/1168049059413643265

https://twitter.com/AllanXia/status/1168081219768045569

https://twitter.com/fs0c131y/status/1168500234244239366

https://twitter.com/JimanJiang/status/1167759502965272576

https://twitter.com/nikkmitchell/status/1168404481840517120

Naturalmente, con esta lúdica premisa, ZAO no tardó en convertirse en una sensación a través de las redes sociales chinas, inundando de publicaciones la plataforma Weibo y ascendiendo a lo más descargado para iOS en ese país. No obstante, como sucede con la mayoría de estas aplicaciones, los cuestionamientos a su política de privacidad no tardaron en llegar.

Desde Bloomberg acotan que para funcionar ZAO pide que los usuarios proporcionen una foto existente o se tomen varias fotografías parpadeando, abriendo la boca y realizando una serie de muecas para crear el deepfake más realista posible. No obstante, en lugar de asegurar la privacidad de esas fotos, la política de uso original de la app decía que al momento de acceder a su servicio, ZAO tenía derechos "gratuitos, irrevocables, permanentes, transferibles y con licencia" sobre todo este contenido generado por los usuarios.

Es decir, la aplicación y su compañía propietaria podían hacer lo que quisieran con los videos creados por las personas y las fotos que cargaron al servicio.

No obstante, como tras la popularización de la app- que por ahora solo está disponible en China- las críticas no tardaron en surgir a través de las propias redes sociales de ese país y algunos medios locales y extranjeros, ZAO modificó sus condiciones de servicio.

De acuerdo a Radii China, la nueva política de uso de ZAO establece que el contenido generado en la aplicación ya no se utilizará para otros fines sin el consentimiento previo del usuario y además afirma que si el usuario elimina el contenido de la app, este también se borrará de las bases de datos de ZAO.

Eso sí, la compañía añadió una cláusula que establece que los usuarios son responsables de contar con autorización sobre la foto que usan. Es decir, ellos son culpables si emplean la imagen de un tercero sin su consentimiento.

"Entendemos la preocupación por la privacidad. Hemos recibido los comentarios y solucionaremos los problemas que no tomamos en consideración y que necesitarán un poco de tiempo", dijo ZAO mediante un comunicado publicado en la red social Weibo.

Sin embargo, la respuesta de ZAO llegó un poco tarde y este lunes la app no solo contaba con cientos de reseñas negativas en la App Store y críticas a su privacidad, sino que también estaba en la mira del Centro de Investigación de Comercio Electrónico de China que instó a las autoridades a investigar esta situación.

Esta no es la primera vez que este tipo de aplicaciones de cambio de rostro son cuestionadas por temas de seguridad. Hace algunas semanas FaceApp levantó las alarmas en occidente por aspectos preocupantes de sus condiciones de uso. Mientras que los deepfakes constantemente han sido objeto de la discusión por sus potenciales usos nocivos que van desde registros pornográficos falsos hasta manipulación política.

Y si bien esto es preocupante en todo el mundo, los potenciales usos nocivos de apps como ZAO son particularmente delicados en China. En ese país la tecnología de escaneo facial se ha implementado, por ejemplo, para realizar transacciones bancarias; por lo que muchos usuarios han expresado nerviosismo por lo que eventualmente podrían facilitar este tipo de tecnologías.