O Facebook anunciou esta semana uma atualização sobre o trabalho contínuo da empresa para manter os grupos seguros, incluindo uma série de mudanças para reduzir conteúdo nocivo e a desinformação.
No ano passado, a companhia removeu cerca de 1,5 milhão de peças de conteúdo em grupos por violação de políticas de ódio organizado, 91% das quais encontradas de forma proativa. Também retirou cerca de 12 milhões de peças de conteúdo em grupos por violar as políticas de discurso de ódio, 87% delas encontradas também de forma proativa.
Impedindo que os usuários violem as regras
A plataforma também informou que está tomando outras medidas para impedir que pessoas que violam repetidamente os Padrões da comunidade criem novos grupos. “Nossa política de reincidência impede que os administradores de um grupo criem outro semelhante ao que removemos. Daqui para frente, os administradores e moderadores de grupos removidos por violações de política não poderão criar nenhum novo grupo por um período de tempo”, garantiu Tom Alison, vice-presidente de Engenharia do Facebook.
Para os membros que tiverem qualquer violação dos padrões da comunidade em um grupo, suas publicações agora exigirão aprovação pelos próximos 30 dias. Isso impede que a publicação seja vista por outras pessoas até que um administrador ou moderador aprove. Se os administradores ou moderadores aprovarem repetidamente publicações que violem os Padrões da Comunidade, o grupo será removido.
Ajudando a garantir que os grupos tenham um administrador ativo
Os administradores estão no centro da promoção do propósito e da cultura de seus grupos e às vezes, podem renunciar sua função ou deixá-los. De um modo geral, eles podem ajudar a manter a comunidade e promover conversas mais produtivas. A partir de agora, portanto, o Facebook vai sugerir funções de administrador para membros que possam estar interessados. Vários fatores influenciam essas sugestões, incluindo se as pessoas têm um histórico de violações dos padrões da comunidade.
“Nas próximas semanas, começaremos a arquivar grupos que estão sem um administrador há algum tempo. Daqui para frente, quando o administrador remanescente decidir renunciar, ele poderá convidar membros para se tornarem administradores. Se nenhum membro convidado aceitar, iremos sugerir funções de administrador para membros que possam estar interessados. Se ninguém aceitar, arquivaremos o grupo”, destacou Alison.
Removendo grupos de saúde das recomendações
Os grupos do Facebook, incluindo de saúde, podem ser um espaço positivo para dar e receber apoio em circunstâncias difíceis. Ao mesmo tempo, é preciso que as pessoas obtenham informações sobre este assunto por fontes oficiais. Pensando nisso, o Facebook deixará de mostrar grupos relacionados à saúde nas recomendações. As pessoas ainda podem convidar amigos para esses grupos ou procurá-los.
Continuando a combater organizações e movimentos vinculados à violência
O Facebook também continuará agindo contra grupos ligados à violência. “Banimos uma violenta rede antigovernamental nos Estados Unidos e removemos 106 de seus grupos. Também expandimos nossa política para endereçar organizações e movimentos que demonstraram riscos significativos à segurança pública, incluindo QAnon, organizações de milícias baseadas nos Estados Unidos e grupos anarquistas que apoiam atos violentos em meio a protestos”.
A partir de agora, a rede social vai limitar a disseminação desses grupos, removendo-os das recomendações, restringindo-os na busca e, em breve, reduzindo seu conteúdo no feed de notícias. “Também removemos esses Grupos quando eles discutem violência potencial, mesmo que usem linguagem e símbolos velados. Sob essa política, por exemplo, removemos 790 Grupos vinculados ao QAnon”, apontou o vice-presidente.
Combatendo a desinformação nos Grupos
Para combater a desinformação no Facebook, a plataforma adotou uma abordagem de “remover, reduzir e informar”, que alavanca uma rede global de verificadores de fatos independentes. Para grupos do Facebook, este trabalho inclui:
– Remover grupos cujos usuários, sejam eles administradores ou moderadores, compartilham conteúdos que violam os padrões da comunidade;
– Reduzir a distribuição de grupos que compartilham desinformação, classificado como falso por verificadores de fatos, não serão recomendados para outras pessoas no Facebook, limitando as notificações para que menos membros vejam suas publicações;
– Informar as pessoas quando elas encontrarem informações incorretas. Os administradores do grupo também serão notificados cada vez que um conteúdo classificado como falso por verificadores de fatos é publicado em seu grupo.
Autorização para uso de informações
Em julho, o Facebook começou a pedir permissão para usar alguns tipos de dados de seus usuários no Brasil, citando o movimento para atender exigências da Lei Geral de Proteção de Dados (LGPD) no país, que entrou em vigor hoje.