Como os chatbots querem votar por você
O afeto e a confiança depositados em assistentes virtuais se tornam a nova fronteira da manipulação política. Pesquisas mostram que a IA é mais persuasiva quando usa “fatos”, mesmo que sejam falsos. E expõem os limites da regulação atual frente às big techs
Publicado 17/12/2025 às 17:31 - Atualizado 17/12/2025 às 17:32

Às vésperas das eleições de 2026, partidos e pré-candidatos já começam a se articular em meio ao ambiente digital, que se tornou um dos principais espaços de discussão e debate político, e também de persuasão e captura de votos. As redes sociais têm exercido influência significativa nos resultados das urnas há anos, fator fundamental, por exemplo, para explicar as eleições de 2018, nas quais correntes de desinformação fluíram quase livremente em função da omissão das plataformas e da opacidade de ferramentas de mensageria como WhatsApp e Telegram.
Um dos elementos que justificaram a demora para apurar não só o uso de diversos dispositivos que disparavam mensagens em massa com propaganda e fake news, como também a utilização de diversos bots, robôs que simulavam (e ainda simulam) movimentos de manada nas redes, fazendo com que temas chegassem aos tópicos mais comentados de forma artificial, foi o caráter de novidade. Rápidas transformações tecnológicas e na forma de sua utilização pegaram de surpresa autoridades da Justiça Eleitoral e mesmo profissionais de campanha. Isso resultou em uma centralidade do debate sobre a atuação das plataformas no Brasil e sobre como elas podem prejudicar o processo eleitoral, e diversos enfrentamentos e regulações entraram em vigor nos últimos anos, ajudando a limitar os efeitos desse tipo de ação. Contudo, a velocidade das mudanças na área digital já traz novos e gigantescos desafios.
Principal novidade em relação às eleições disputadas em 2022, as ferramentas de inteligência artificial (IA) generativa já alcançam 50 milhões de usuários no Brasil, segundo a pesquisa TIC Domicílios, do Comitê Gestor da Internet no Brasil (CGI.br), o equivalente a 32% das pessoas com acesso à internet no país. Entre os que declararam adotar ferramentas de inteligência artificial generativa, considerando um questionário de múltiplas respostas, 53% disseram usá-las para pesquisa ou trabalho escolar ou acadêmico, e 50% para uso profissional ou de trabalho. Contudo, a principal finalidade apontada por 84% dos usuários foi o uso pessoal, o que pode incluir, em um futuro próximo, a escolha de candidatos.
E aí mora um novo perigo. Duas pesquisas recentes, publicadas nas revistas Nature e Science, demonstram um tipo de poder persuasivo dos modelos de aprendizagem de linguagem (LLMs) da IA que difere das outras tecnologias. No estudo divulgado na Nature, pesquisadores do MIT, da Universidade Jagiellonian, da Polônia, e da Universidade Cornell recrutaram mais de 2,3 mil participantes que interagiram com um chatbot dois meses antes das eleições presidenciais realizadas nos Estados Unidos em 2024.
Cada eleitor interagiu com um chatbot treinado para defender o candidato oposto àquele em que tendia a votar no início do experimento. Ao final, os apoiadores de Donald Trump que conversaram com um modelo de IA que favorecia Kamala Harris demonstraram uma leve inclinação a apoiá-la, subindo 3,9 pontos percentuais em uma escala de 100 pontos. Trata-se de um efeito aproximadamente quatro vezes maior do que o observado em propagandas políticas durante as eleições de 2016 e 2020. O modelo de IA que favorecia Trump elevou a inclinação dos apoiadores de Harris em 2,3 pontos percentuais.
Os testes também foram realizados em períodos que antecederam as eleições canadenses de 2025 e as presidenciais polonesas no mesmo ano, e o efeito foi ainda maior: os chatbots alteraram as atitudes dos eleitores em cerca de 10 pontos percentuais.
Argumentação com fatos. Nem sempre verdadeiros
A estratégia de convencimento adotada pela variedade de modelos utilizados na pesquisa, incluindo variantes do GPT e do DeepSeek, mostrou-se mais persuasiva quando instruídos a usar fatos como base de argumentação. Contudo, parte deles era imprecisa ou mesmo falsa.
“Examinar as estratégias de persuasão utilizadas pelos modelos indica que eles persuadem com fatos e evidências relevantes, em vez de usar técnicas sofisticadas de persuasão psicológica. Nem todos os fatos e evidências apresentados, no entanto, eram precisos. Nos três países, os modelos de IA que defendiam candidatos da direita política fizeram mais afirmações imprecisas. Em conjunto, essas descobertas destacam o potencial da IA para influenciar os eleitores e o importante papel que ela pode desempenhar nas eleições futuras”, destacam os pesquisadores no estudo.
Resultado semelhante foi constatado na pesquisa publicada na revista Science, liderada por pesquisadores do Instituto de Segurança de IA do Reino Unido, da Universidade de Oxford e da Universidade Cornell. Foram testados mais de uma dúzia de chatbots diferentes, treinados para adotar abordagens de convencimento distintas sobre questões políticas no Reino Unido. “Observamos que um mecanismo primário que impulsionava a persuasão da IA era a densidade de informações: os modelos eram mais persuasivos quando seus argumentos eram repletos de afirmações factuais. Notavelmente, porém, documentamos uma preocupante relação inversa entre persuasão e precisão: as mesmas alavancas que tornaram a IA mais persuasiva, incluindo a persuasão pós-treinamento e a instrução focada em informações, também fizeram com que a IA produzisse informações com menor precisão factual”, pontuam os autores.
Os estudos evidenciam como essas ferramentas podem manipular usuários de uma forma ainda mais efetiva do que outros dispositivos digitais e mesmo do que a campanha política tradicional. “É muito difícil mudar a opinião das pessoas sobre candidatos políticos”, explica o professor de ciência da informação da Universidade Cornell e coautor de ambos os estudos, David G. Rand, ao jornal The Washington Post. “Uma das implicações disso é que, se [as empresas de IA] manipularem os resultados e configurarem os modelos para favorecer um lado ou outro, isso poderá mudar significativamente a opinião das pessoas”, alertou o especialista.
Os mecanismos de busca já influenciaram eleições, com sites articulando entre si para ocupar as primeiras posições das páginas quando desinformações passavam a circular nas redes sociais ou mesmo nas campanhas oficiais de candidatos. Para boa parte da população, uma consulta ao Google, feita sem qualquer tipo de checagem, ganha ares de legitimidade e pesquisas mostram que o mesmo acontece com a IA generativa. Segundo o estudo Confiança, atitudes e uso da Inteligência Artificial: um estudo global até 2025, que entrevistou mais de 48 mil pessoas em 47 países, 66% das pessoas confiam na avaliação dessas ferramentas, mesmo antes de verificar posteriormente sua precisão.
Big Techs e os riscos iminentes
No caso do estudo publicado na Science, os pesquisadores atentaram que, à medida que os modelos se tornaram mais persuasivos, passaram a fornecer cada vez mais informações enganosas ou falsas e ninguém sabe ao certo o porquê disso ter acontecido. “Pode ser que, à medida que os modelos aprendem a usar mais e mais fatos, eles acabem recorrendo ao que têm de mais valioso, tornando os fatos de pior qualidade”, pontua o pesquisador do Instituto de Segurança de IA do Reino Unido Kobi Hackenburg, que trabalhou no projeto, ao site do MIT.
Se as pesquisas demonstram o poder de um novo tipo de ferramenta, apontando para o desenvolvimento de chatbots nas campanhas, é necessário observar ainda a possível interferência das grandes ferramentas de IA generativa como uma espécie de consultora de eleitores indecisos. Com as Big Techs tendo acesso a inúmeros dados de usuários, por meio da própria utilização da inteligência artificial e de um eventual cruzamento de dados disponíveis em outras plataformas pertencentes a essas companhias, elas adquirem um imenso poder sobre as escolhas dos eleitores.
Com base nos estudos, a colunista do Guardian Gaby Hinsliff avalia que “ao que parece, quanto mais otimizados para persuadir, menos confiáveis se tornavam”, referindo-se a essas ferramentas. “O mesmo poderia ser dito, às vezes, de políticos humanos e é por isso que a propaganda política é regulamentada por lei. Mas quem está realmente fiscalizando coisas como o chatbot Grok, de Elon Musk, flagrado neste verão elogiando Hitler?”, questiona. Em vista das evidentes dificuldades de regular o que acontece em milhões de conversas privadas com dispositivos de IA generativa, “há escolhas a serem feitas que não podem ser simplesmente deixadas às forças do mercado: escolhas que exigem o envolvimento de todos nós”, defende a analista em artigo.
“Para o pleito do ano que vem, entram em cena também estas duas variáveis: os acompanhantes (ou assistentes) de IA e a publicidade nos serviços de mensageria. Isso significa que, mais do que a desinformação textual e a manipulação de imagens, vídeos e áudios, conteúdos gerados por algoritmos pouco transparentes, portadores de vieses sem escrutínio, poderão causar tanto estrago quanto a mentira lançada no ventilador virtual. Mais do que isso, a intimidade e os afetos que começamos a trocar com esses sistemas, além dos dados privados que geramos nas redes sociais, acabarão podendo ter influência sobre o voto de indecisos e mesmo de eleitores convictos”, adverte o especialista em Políticas Públicas e Gestão Governamental, membro suplente do Comitê Gestor da Internet no Brasil desde 2020, James Görgen, em artigo publicado no Congresso em Foco.
Quando Görgen menciona a intimidade e os afetos, chama a atenção para outro tipo de interação que as pessoas estabelecem com a IA, também objeto de diversas pesquisas, o que potencializa ainda mais seu impacto. “Acredito ser importante a Corte brasileira propor que essas duas novas variáveis (assistentes de IA e publicidade na mensageria) sejam também incluídas na escuta pública que colherá subsídios para as resoluções que regrarão a próxima corrida eleitoral”, pontua o especialista, lembrando que eleitores e partidos também devem criar forças-tarefa para desenvolver aplicações que ajudem a monitorar as mensagens que poderão servir como prova para processos junto à Justiça Eleitoral.
Mais uma vez, a sociedade se depara com ameaças ao processo eleitoral desenvolvidas, em sua maior parte, por grandes companhias multinacionais com histórico de falta de compromisso com o interesse público em diversos países, inclusive no Brasil, onde sua relação com autoridades se deu de forma mais conflituosa. No entanto, pela experiência acumulada em relação ao que já ocorreu em eleições anteriores, o Brasil não pode se dar ao luxo de ignorar os riscos que essas novas tecnologias trazem.
Outras Palavras é feito por muitas mãos. Se você valoriza nossa produção, contribua com um PIX para [email protected] e fortaleça o jornalismo crítico.

