Twitter para iOS para testar usuários de alerta sobre linguagem "prejudicial"
Capturas de tela: Ian Fuchs / Cult of Mac
O Twitter testará em breve um novo recurso projetado para desencorajar as pessoas de usar "linguagem ofensiva ou prejudicial" em suas respostas, disse a empresa na terça-feira.
Em um tweet, a empresa explicou seus motivos para o teste de duas semanas:
![](/f/696327fa8baab867d5669a4fe3a6b6c0.jpg)
Suporte Twitter
@TwitterSupport
Quando as coisas esquentam, você pode dizer coisas que não quer dizer. Para permitir que você repense uma resposta, estamos realizando um experimento limitado no iOS com um prompt que oferece a opção de revisar sua resposta antes de ser publicada, se ela usar uma linguagem que possa ser prejudicial.
9,9K
2,5 K
Quando os usuários clicam em “enviar” em sua resposta, o Aplicativo do Twitter para iOS exibirá uma mensagem pop-up informando que seu tweet pode conter linguagem ofensiva e perguntando se eles gostariam de revisá-lo.
“Estamos tentando encorajar as pessoas a repensar seu comportamento e repensar sua linguagem antes de postar, porque muitas vezes elas estão no calor do momento e eles podem dizer algo de que se arrependam ”, disse Sunita Saligram, chefe global de política de sites do Twitter para confiança e segurança, em uma entrevista com
Reuters.Twitter policia sua plataforma
O Twitter foi criticado por não tomar medidas para limpar o conteúdo abusivo e de ódio em sua plataforma. As políticas da empresa não permitem que os usuários abordem indivíduos com calúnias, linguagem racista ou sexista ou conteúdo degradante.
Em 2017, o Twitter começou censurando perfis que postou o que a empresa considerou conteúdo "sensível". Pouco antes disso, o Twitter começou a proibir temporariamente usuários “abusivos”, evitando que seus tweets aparecessem para qualquer pessoa além de seus seguidores.
Saligram disse que o novo teste terá como alvo violadores de regras que não sejam infratores reincidentes. Ele será executado globalmente, mas apenas para tweets em inglês.