A inteligência artificial melhora sua precisão na hora de detectar notícias falsas, embora a sofisticação desse conteúdo dificulte o trabalho.
Segundo um relatório da consultoria Gartner, em 2022 consumiremos mais boatos que informação verdadeira. O falso e o verídico seguem padrões determinados. O problema é que são padrões tão complexos, que evoluem com o tempo, que é possível confundi-los. Entretanto, alguns algoritmos já conseguiram rastrear essa codificação e determinar certas características. É o caso de uma pesquisa feita pela Universidade de Granada (Espanha) e pelo Imperial College de Londres que permitiu à inteligência artificial entender as emoções emanadas pela linguagem e o impacto sociológico de um post em rede social.
Há recursos visuais simples e chamativos, como os emoticons e as letras maiúsculas, que são pistas relevantes, mas sua engenharia também evolui. Aliás, evolui mais rápido que a capacidade de detectá-la.
O projeto FirstDraft trata sete cenários diferentes de desinformação, que vão da notícia inventada ou manipulada até a sátira —que, embora sem intenção de causar dano, tem um elevado potencial de induzir ao erro. Esta é a batalha interna travada pelo aprendizado de máquinas e pelos programadores que as treinam: oferecer informações e variáveis mais profundas para que cheguem a esse código universal da mentira.
O especialista Ricardo Baeza-Yates incorporou o uso de algoritmos para prevenir a desinformação por meio de metadatos, conteúdo, organização temática, contexto e coerência. Ele testa se o machine learning permita ao computador entender se um texto respeita a congruência semântica, se os fatos mencionados existem e se há uma relação lógica no seu conjunto. Não basta apenas rastrear bots (perfis falsos e automatizados) e a autoria da mentira. Para ele, a precisão do mecanismo pode ser relativa, na medida que, mesmo pessoas bem treinadas terão dificuldade de acordo sobre notícias não confiáveis. Ele fala de 60% a 80% de aceitação.
Embora haja inconveniência de depositar a responsabilidade da verificação unicamente na tecnologia, sua vantagem principal é contar com uma maior capacidade de detecção. Ninguém pretende que a tecnologia seja a única responsável por diferenciar entre falso e verdadeiro, mas sim uma ferramenta que ajude a decidir.
O código HTML, por exemplo, é um sinal valioso para identificar essas estruturas falsas. Até mesmo o excesso de coerência representa um marcador determinante que algoritmos disparam o alarme. Como explica o Baeza-Yates, o ruído e a incoerência são características próprias do ser humano.
Aprender a detectar mentiras
Um estudo da Iniciativa de Economia Digital do MIT, que tinha analisado 126.000 threads do Twitter, determinou que a verdade demora aproximadamente seis vezes mais que a mentira para alcançar 1.500 pessoas. Espalha-se mais longe e mais rapidamente.
O cenário de “aprendizado profundo” dos algoritmos pode estar mais perto do que o previsto. Há uns 10 anos, o spam paralisava as caixas de entrada, e agora está mais controlado graças ao aperfeiçoamento dos filtros, que evoluíram graças ao deep learning. O problema, embora a inteligência artificial melhore sua eficácia contra boatos, é que os criadores dessas informações falsas continuarão refinando a técnica. Nas palavras de Baeza-Yates, será como os vírus informáticos: todo ano aparece um novo que não sabemos como desativar, ou como a evasão fiscal, que sempre encontra meios de ocorrer apesar dos avanços da fiscalização.
Alguém precisa ser melhor que a máquina para ensiná-la. “Se formos incapazes de encontrar artigos mais complexos, não poderemos treinar o algoritmo para que detecte boatos cada vez mais sofisticados”, conclui.
por Cezar Xavier | Texto em português do Brasil
Exclusivo Editorial PV / Tornado