A pergunta que dá origem a essa postagem foi feita, anteriormente, por Persily (2017), no Journal of Democracy, ao se analisarem as estratégias de campanhas presidenciais nos Estados Unidos de 2016. Assim como no período eleitoral norte-americano, há fortes indícios de que o ambiente de disputa presidencial brasileiro, de 2018, também foi alvo do uso indiscriminado de desinformações e bots, os quais podem ter representado papeis decisivos para a vitória de Jair Bolsonaro (ARNAUDO, 2019).

Como sabemos, é notável o crescimento de usuários de redes sociais no país, com base nos últimos 10 anos. Tal fato é confirmado nos dados do estudo de Ruediger (2018), pelo Diretoria de Análise de Políticas Públicas (DAPP), da FGV. Vale ressaltar que, no ano de 2017, o mesmo grupo de pesquisas foi responsável por denunciar a atuação de robôs no Twitter, em momentos marcantes das eleições de 2014 e 2016, chegando à conclusão de que os bots chegaram a ser responsáveis por mais de 10% das movimentações nessa rede social.

Com uma parcela cada vez maior de brasileiros se informando pelas redes sociais, em cenários aparentemente confiáveis, é que se abrem espaços para a proliferação de robôs e, consequentemente, manipulação dos cenários políticos e econômicos. Os bots visam imitar o comportamento de usuários das redes sociais, incitando discussões ou opiniões e, em muitos casos, interferindo no centro de debates espontâneos. Sobre essa questão, Ruediger (2017) pontua que

“com este tipo de manipulação, os robôs criam a falsa sensação de amplo apoio político a certa proposta, ideia ou figura pública, modificam o rumo de políticas públicas, interferem no mercado de ações, disseminam rumores, notícias falsas e teorias conspiratórias, geram desinformação e poluição de conteúdo, além de atrair usuários para links maliciosos que roubam dados pessoais, entre outros riscos.” (RUEDIGER, 2017, p. 9).

Em seu artigo de agosto de 2018, para divulgação científica, Ruediger (2018) elenca alguns tipos principais de bots:

  • Duplicadores: compartilhadores de tuites praticamente idênticos;
  • Duplicadores @: compartilham tuites, assim como os anteriores, mas citam um usuário aleatório e real;
  • Promotores maliciosos: postam serviços e fazem trabalho de marketing.

Além dos robôs (totalmente automatizados), existem, ainda os ciborgues, os quais podem ser classificados como robôs assistidos por humanos.

Muitos são os métodos para detecção de contas automatizadas. Alguns estudos consideram análises linguísticas, e outros, análises com base em aprendizado de máquinas. O método que escolhi para ilustrar essa postagem foi, novamente, desenvolvido pelos pesquisadores da FGV, no grupo DAPP. Ele considera os dados que indicam o dispositivo que gerou o tuite, bem como a recorrência de tuites postados no mesmo segundo, pela mesma conta. Um usuário que posta dois ou mais tuites em menos de um segundo, é considerado não-humano. Essa metodologia foi utilizada pelo DAPP em importantes cenários políticos brasileiros. Aqui, darei o exemplo da discussão sobre a exposição “Queermuseu – cartografias da diferença na arte da brasileira”, realizada em Porto Alegre, em 2017.

Entre a 0h de 08 de setembro e as 12h de 15 de setembro de 2017, a DAPP interceptou 778 mil postagens no Twitter, que se relacionavam à polêmica discussão sobre a exposição queer. Para ilustrar o fenômeno, foi criado um mapa de interações. Percebeu-se que cerca de 12% das interações contrárias à exposição condiziam com o uso de robôs, enquanto cerca de 7% da interações pró-exposição diziam respeito a robôs. O vermelho indica as interações pró-exposição, enquanto o azul indica as interações contrárias à exposições. Os pontos pretos se referem aos robôs detectados.

Mapa de interações no Twitter. (RUEDIGER, 2018).

Ruediger (2018) ainda acrescenta que as interações pró-exposição estão mais espaçadas, demonstrando maior variedade de argumentação (vide a marca vermelha), diferentemente das interações contrárias, as quais se encontram condensadas (vide a marca azul).

DISPAROS DE MENSAGENS NO WHAT’S APP E NOTÍCIAS FALSAS

Em relação às notícias falsas disseminadas durante o processo eleitoral de 2018, o grupo de pesquisas Eleições sem Fake, da UFMG, coletou mensagens espalhadas em 127 grupos de eleitores pelo What’s App. Em entrevista para o jornal El País, Fabrício Benevenuto, responsável pelas pesquisas, diz que o maior número de grupo se alinhava ao candidato (e eleito) Jair Bolsonaro. Em suas pesquisas, foram coletadas, no total, 210.609 mensagens veiculadas nos grupos, considerando texto, imagens, áudios e vídeos, separados em 7 categorias, conforme a tabela apresentada no trabalho.

O estudo se preocupou, ainda, em classificar os usuários em relação às suas regiões, com base no DDD. Constatou-se que há pessoas de todas as regiões do país, sendo que a maioria delas, da região sudeste.

Além disso, foram analisados 25.491 links (URLs) que, em muitas ocasiões, acompanhavam as mensagens. Os domínios mais populares, conforme o gráfico abaixo, se direcionam ao YouTube e ao Facebook. Isso nos mostra quais são as principais fontes de informação utilizadas.

Com a exposição dessas poucas pesquisas (e sim, existem muitas outras que não foram exploradas aqui), podemos perceber a magnitude do fenômeno da automatização de publicações – falsas ou não – e suas possíveis interferências nos cenários políticos nacional e internacional. Agora, levantamos a questão inicial: estaria o estado democrático ameaçado pela (des)informação massiva?

Referências:

ARNAUDO, D. (2017). Computational Propaganda in Brazil: Social Bots During Elections. University of Oxford.

BENEVENUTO, F. (28 de Setembro de 2018). Checagem no WhatsApp é o trabalho mais nobre para conter ‘fake news’. (E. País, Entrevistador)

ITUASSU, A., LIFSCHITZ, S., CAPONE, L., & MANNHEIMER, V. (2019). De Donald Trump a Jair Bolsonaro: democracia e comunicação política digital nas eleições de 2016, nos EUA, e 2018, no Brasil. Associação Brasileira de Pesquisadores em Comunicação e Política – Compolítica.

PERSILY, N. (2017). Can Democracy Survive the Internet? Journal of Democracy, 3-5.

RESENDE, G., ALMEIDA, J., MESSIAS, J., VASCONCELOS, M., SILVA, M., & BENEVENUTO., F. (Outubro de 2018). A System for Monitoring Public Political Groups in WhatsApp. Fonte: Eleições Sem Fake: http://www.eleicoes-sem-fake.dcc.ufmg.br/assets/articles/webmedia2018.pdf

RUEDIGER, M. A. (2017). Robôs, redes sociais e política no Brasil: estudo sobre interferências ilegítimas no debate público na web, riscos à democracia e processo eleitoral de 2018. Caderno de Referência FGV.

RUEDIGER, M. A. (2018). Robôs, redes sociais e política no Brasil: casos de interferências ilegítimas no debate público por automação de perfis. Cadernos de Referência FGV.

Por: Átila Soares.