Twitter está consciente que en algunas ocasiones su plataforma puede ser utilizada para hostigar y acosar a las personas, por lo que plataforma anunció que comenzará a probar una nueva función que precisamente busca hacerse cargo de aquello.
Se trata del “Modo de seguridad”, una nueva característica que permitirá bloquear temporalmente a las cuentas que al interactuar con los usuarios usan lenguaje potencialmente dañino (como insultos o comentarios de odio) o envían respuestas y realizan menciones repetitivas o no solicitadas.
De acuerdo a Twitter, para activar esta función los usuarios simplemente tendrán que ingresar a la configuración de su cuenta y después de habilitar el “Modo de seguridad” los sistemas de la plataforma “evaluarán la probabilidad de una participación negativa al considerar tanto el contenido del Tweet como la relación entre el autor y el receptor del tweet”.
En ese sentido, la plataforma sostiene que su tecnología tomará en cuenta la relación entre los usuarios para que, por ejemplo, no se bloquee a un amigo con el que suelen bromear. No obstante, Twitter advierte que este sistema aún no es infalible y por ende esta prueba será clave para su funcionamiento.
Así, la premisa inicial del “Modo de seguridad” establece que cuando la plataforma detecte comentarios dañinos o no solicitados la cuenta detrás de esos tweets será bloqueada automáticamente y por ende no podrán seguir, ver los tweets o enviarle mensajes directos al usuario que tiene habilitada dicha configuración.
Por otra parte, quienes activen el “Modo de seguridad” podrán revisar los detalles respecto a las cuentas bloqueadas e incluso recibirán una notificación cuando el período de cada “Modo de seguridad” esté por terminar.
Twitter implementará la prueba del “Modo de seguridad” para un grupo acotado de usuarios que tienen sus cuentas configuradas en inglés.