Nos últimos dias, Twitter e YouTube confirmaram que estão trabalhando para “limpar” suas plataformas de contas tidas como inautênticas, o que gerou um burburinho nas redes sociais. Muitos usuários foram conferir suas contas e notaram que seus perfis perderam seguidores, seja no microblog ou na plataforma de vídeos do Google.

 

Segundo especialistas ouvidos por um veículo de comunicação do Brasil, esses movimentos são fruto de uma pressão social para que as redes se dediquem a tornar suas plataformas ambientes mais legítimos, em que a troca de informações entre usuários reais prevaleça sobre a ação automatizada de robôs.

 

Essa pressão, avalia o pesquisador e analista de redes sociais Fabio Malini, vai na contramão dos interesses financeiros das plataformas, que “vivem de engajamento para ter publicidade, e acabam sendo tímidas” na fiscalização de atividade inautêntica. Isso porque mesmo contas que não representam pessoas do mundo real e são ativadas de maneira automática, os chamados robôs, acabam servindo como gatilhos para que determinados conteúdos ganhem relevância nas redes.

 

Assim, os robôs ajudam a fazer “bombar” certo tema, mas boa parte do engajamento que prolonga o debate é alimentado por usuários reais, isto é, seres humanos que acabam reagindo a esses conteúdos, seja de forma crítica ou na defesa desses temas.

 

Até por isso, explica Malini, seria um engano considerar que a exclusão de contas feita pelo Twitter tenha focado somente em robôs. “O Twitter está fazendo uma limpa de contas que não têm atividade na plataforma há algum tempo, não são necessariamente robôs”. “Podem ser contas que usuários criaram e depois abandonaram, podem ser contas que tinham como objetivo inflar a popularidade de alguém e depois ficou inativa”, por exemplo.

 

De acordo com o pesquisador, que integra o Laboratório de Estudos sobre Imagem e Cibercultura da Universidade Federal do Espírito Santo (UFES), é justamente a inatividade o traço mais relevante das contas apagadas.

 

Para minimizar o impacto sobre contas de usuários praticamente inativos, mas que têm interesse de permanecer na plataforma, o Twitter permitiu que esses perfis, inicialmente suspensos, pudessem ser recuperados pelos usuários através de ferramentas de confirmação, uma espécie de “prova de vida” geralmente feita por e-mail ou número de telefone celular.

 

O Twitter informou que desenvolve um trabalho “frequente e global que tem como objetivo manter as contas seguras e prevenir tentativas de manipulação das conversas via spam”. “Este trabalho consiste em solicitar que contas que apresentem comportamentos suspeitos ou incomuns mudem sua senha ou verifiquem informações como número de celular, por exemplo. Enquanto as contas não passam por esse processo, elas ficam desabilitadas, com funcionalidades limitadas, e deixam de entrar no cálculo para contagem de seguidores”.

 

André Eler, diretor-adjunto da consultoria de análise de dados Bites, diz, no entanto, que a periodicidade dessas “limpezas” não é dita de maneira exata pelas redes sociais, e também não há critérios plenamente transparentes sobre o que caracteriza uma conta inautêntica. “Tem muito perfil que não publica nada e é autêntico”, defende.

 

“É possível que haja critérios bem claros para a limpeza, elas [as plataformas] só não publicizam quais são esses critérios, o que sempre vai gerar uma desconfiança do usuário”, continua Eler.

 

O especialista da Bites disse ter verificado que contas que na segunda-feira (14) registraram perdas relevantes em seu número de seguidores também verificaram ganhos atípicos na terça-feira (15), o que ele atribui à reabilitação das contas que foram autenticas por usuários após a suspensão do começo da semana.

 

Oficialmente, o YouTube diz não permitir “nenhuma prática que aumente artificialmente o número de visualizações, marcações ‘Gostei’, comentários ou outras métricas usando sistemas automáticos ou veiculando vídeos para espectadores que não os selecionaram”. O site exemplifica como comportamentos não tolerados a publicação de vídeos que ensinam a comprar tráfego e de vídeos com área clicáveis – os “cards” da rede – que direcionam espectadores a outro vídeo de maneira enganosa.

 

Em nota, o YouTube afirmou que identificou e removeu de sua plataforma “contas que eram, na verdade, spam em nossos sistemas”. “Como resultado, alguns criadores e canais poderão ver uma queda no número de assinantes. Em média, essa redução será de menos de cinco inscritos”.

 

Ação de robôs é superestimada

 

O peso da ação dos robôs nas redes sociais é, muitas vezes, superestimado, sustenta André Eler. “A gente tem que tirar da cabeça essa visão de que robôs comandam as redes. Há um problema quando usam esses robôs para artificialmente influenciar o debate, para enganar o algoritmo, mas, na prática, esses robôs não têm um alcance tão grande. É raro a gente ver movimentos que sejam impulsionados só por robôs”.

 

De acordo com Eler, em geral, os robôs são parte de movimentos maiores, coordenados por pessoas, por grupos com interesses específicos. Também é errado avaliar que a ação de robôs é sempre e necessariamente danosa. “Há robôs que eu gosto, que eu sigo, que eu sei que eu vou falar alguma palavra e vão interagir comigo”, pontua, citando como exemplo robôs usuários do Twitter operados por robôs e que podem servir a propósitos cotidianos, como lembrar a uma pessoa sobre algum conteúdo publicado anteriormente.

 

“Os robôs existem, são basicamente programas que ajudam a repercutir alguns conteúdos específicos”, sintetiza.

 

Efetividade da limpeza

Segundo Fabio Malini, a iniciativa das plataformas de tentar limitar a ação de contas inautênticas é limitada do ponto de vista de tentar frear as chamadas “mensagens divisivas”, que criam ou fortalecem polarização nas redes sociais. Embora as redes estejam aperfeiçoando suas técnicas para restringir a ações inautênticas, essas empresas ainda encontram dificuldade em lidar com disputas entre fãs que podem tornar mais áridos seus ambientes virtuais.

 

“As plataformas não definiram ainda o que é e o que não é robô. Boa parte desse engajamento [em disputas de fãs] vai acontecer graças a um comportamento automatizado, seja humano ou não”, analisa.

 

Na opinião de André Eler, só a proposta de tentar diminuir a ação considerada ilegítima nas plataformas já mostra, por parte das empresas, “uma disposição melhor, um jeito de aperfeiçoar o processo” de filtragem “sem punir as pessoas só por terem um comportamento diferente”.

 

Além disso, diz Eler, há robôs mais bem programados, com comportamentos mais próximos do que se espera de seres humanos, que impõem dificuldades adicionais para que as redes os identifiquem como robôs.

 

“A gente não tem nenhuma ilusão de que esse trabalho constante das redes um dia vai acabar completamente com os robôs, mas, pelo menos, passa mais confiança de que as redes não estão abandonando os usuários em uma terra sem lei, de contas inautênticas”, argumenta.

 

Fonte: CNN