Publicado: 2 sep 2021 00:20 GMT
Twitter lanzó este miércoles una nueva función de seguridad que permitirá bloquear temporalmente las cuentas que utilicen un lenguaje potencialmente dañino, como insultos o comentarios de odio, o que envíen respuestas o menciones repetitivas y no deseadas.
Según Twitter, para activar esta función los usuarios tienen que acceder a las configuraciones de su cuenta y activar el ‘modo de seguridad’. A partir de ese momento, la plataforma evaluará “la probabilidad de un compromiso negativo teniendo en cuenta el contenido del tuit”. Así, cuando el sistema detecte insultos o comentarios de odio, bloqueará esos tuits de forma automática durante siete días.
Asimismo, la plataforma tomará en consideración la relación entre los usuarios, “por lo que las cuentas que sigues o con las que interactúas con frecuencia no se bloquearán automáticamente”, aclara la empresa en su blog.
De momento, la función estará disponible para un grupo reducido de usuarios de Twitter que tiene sus cuentas configuradas en inglés, mientras que la compañía observará cómo funciona la nueva función para poder incorporar mejoras y ajustes antes de ponerlo a disposición de todos los usuarios de la red social.