Poderão os robôs ajudar a combater as fake news?

A inteligência artificial consegue identificar contas falsas, comportamentos suspeitos e até mentira. Pesquisador acredita que será possível rastrear 80% delas — mas a guerra é permanente, pois a desinformação, como o vírus, sofre mutações

.

Por Jorge G. Garcia, no El País Brasil

O falso e o verídico seguem padrões determinados. Algo assim como um código unívoco. O problema é que são tão complexos, em particular no caso das fake news, que chega a ser possível confundir o falso com o real. Segundo um relatório da consultoria Gartner, em 2022 consumiremos mais boatos que informação verdadeira. Entretanto, alguns algoritmos já conseguiram rastrear essa espécie de fórmula mágica e determinar certas características. É o caso de uma pesquisa feita pela Universidade de Granada (Espanha) e pelo Imperial College de Londres que permitiu à inteligência artificial entender as emoções emanadas pela linguagem e o impacto sociológico de um simples tuíte.

Juan Gómez, integrante da equipe de pesquisa e professor de Ciências da Computação na Universidade de Granada, reconhece que a complexidade das mensagens dificulta encontrar estas estruturas de veracidade e falsidade. “Há recursos visuais simples e chamativos, como os emoticons e as letras maiúsculas, que são pistas relevantes para identificar as fake news; mas sua engenharia também evolui. Ou seja, os dados de treinamento que usamos em um determinado contexto agora já não podem mais ser aplicados.” Assim como as capacidades da inteligência artificial evoluem, o maquinário dos boatos e mentiras evolui inclusive mais rapidamente.

Diante desta situação, Claire Wardle, diretora de pesquisa do projeto FirstDraft, foge de um conceito único de desinformação. Em sua opinião, estamos diante de pelo menos sete cenários diferentes, que vão da notícia inventada ou manipulada até a sátira —que, embora sem intenção de causar dano, tem um elevado potencial de induzir ao erro. “Se formos realmente conter o problema em que nos encontramos, devemos compreender sua gravidade e entender contra o que estamos lutando”, afirma. Esta é a batalha interna travada pelo aprendizado de máquinas e pelos programadores que as treinam: oferecer informações e variáveis mais profundas para que cheguem a esse código universal da mentira.

Metadatos, conteúdo, organização temática, contexto e coerência são alguns dos sinais que Ricardo Baeza-Yates, diretor de Ciência de Dados da Universidade Northeastern (Boston) e catedrático de Informática da Universidade Pompeu Fabra (Barcelona), incorporou o uso de algoritmos para prevenir a desinformação. Ele tenta que o machine learning permita ao computador entender se um texto respeita a congruência semântica, se os fatos mencionados existem e se há uma relação lógica no seu conjunto. Não basta apenas rastrear bots e a autoria. Outra questão é sua precisão. “Podemos nos permitir entre 60% e 80%. Acredito que seja um percentual razoável. Se você perguntar a 20 pessoas diferentes que notícias são mais confiáveis, nem entre elas haverá unanimidade”, observa.

Os investigadores insistem na inconveniência de depositar a responsabilidade da verificação unicamente na tecnologia. Sua vantagem principal é contar com uma maior capacidade de detecção. Baeza-Yates cita um exemplo elementar: o código HTML. “É um sinal valioso para identificar essas estruturas falsas e que não está exatamente ao alcance de todas as pessoas”, diz. Até mesmo o excesso de coerência representa um marcador determinante, e esses algoritmos imediatamente disparam o alarme. Como explica o especialista, o ruído e a incoerência são características próprias do ser humano.

A era da aprendizagem profunda

Um estudo da Iniciativa de Economia Digital do MIT, que tinha analisado 126.000 threads do Twitter, determinou que a verdade demora aproximadamente seis vezes mais que a mentira para alcançar 1.500 pessoas. Espalha-se mais longe e mais rapidamente. Para melhorar a capacidade de rastreamento dos algoritmos das fake news, pelo menos assim interpreta Gómez, chegou a hora de que a aprendizagem profunda brilhe. “Ela pode ter a chave de algumas estruturas mais sólidas. Percebemos que as técnicas de deep learning, como as que processam a linguagem natural, melhoram as estatísticas.”

Este cenário pode estar mais perto do que o previsto. Há não muito tempo, uns 10 anos, o spam paralisava as caixas de entrada, e agora está mais controlado graças ao aperfeiçoamento dos filtros, que evoluíram graças ao deep learning. O problema, embora a inteligência artificial melhore sua eficácia contra boatos, é que os criadores dessas informações falsas continuarão refinando a técnica. Nas palavras de Baeza-Yates, será como os vírus informáticos: todo ano aparece um novo que não sabemos como desativar. “Trata-se de uma batalha eterna entre maus e bons. Como com a evasão fiscal. Sempre há um subterfúgio pelo qual a desinformação acabará se infiltrando.”

A margem de melhora dos algoritmos é muito ampla, apesar de todos os avanços obtidos recentemente. Uma margem um pouco estreita se atendermos às considerações de Baeza-Yates. Seu nível de acerto depende dos dados, por isso alguém precisa ser melhor que a máquina para ensiná-la. “Se formos incapazes de encontrar artigos mais complexos, não poderemos treinar o algoritmo para que detecte boatos cada vez mais sofisticados”, conclui.

A própria evolução das fake news também reduz as perspectivas para o machine learning. Gómez destaca que a ideia inicial na sua criação partia de mudar as opiniões sobre um fato. Como isso é difícil, o salto foi para manter uma comunidade em alerta. Fidelizar os simpatizantes. “Muitos textos são de consumo interno. Como controlamos isso? Como a inteligência artificial consegue aprender isso?”, questiona. Ninguém pretende que a tecnologia seja a única responsável por diferenciar entre falso e verdadeiro, mas sim uma ferramenta que ajude a decidir. Pouco a pouco se deixa enganar com menos frequência, por mais que dificultemos.

Leia Também: