A investigadora Sofia Pinto, do Instituto Superior Técnico (IST), alerta que os atuais mecanismos de verificação de factos são demasiado lentos, o que contribui para a disseminação de desinformação. Segundo a especialista, a verificação manual é a abordagem mais comum para lidar com notícias falsas, mas a sua natureza trabalhosa não se adequa à escala do problema. Neste contexto, a verificação automatizada de factos surge como uma solução promissora.
No seu artigo intitulado “Verificação de factos automatizada e explicada para jornalistas”, Sofia Pinto destaca que a verificação automatizada se baseia em ferramentas de Inteligência Artificial (IA), nomeadamente modelos de linguagem em grande escala. Estes modelos permitem gerar conjuntos de dados que facilitam a verificação de factos, apoiando assim outras abordagens.
Embora a verificação humana continue a ser crucial para mitigar os impactos negativos das falsas notícias, a investigadora sublinha que a viralização de algumas afirmações torna a tarefa demorada e, muitas vezes, ineficaz. Em entrevista à Lusa, Pinto explicou que um dos principais objetivos do seu projeto é acelerar a identificação de desinformação, dado que o tempo entre a viralização de uma publicação online e a sua correção por um órgão de comunicação social é frequentemente demasiado longo.
“A tarefa jornalística de verificação e explicação de notícias manipuladas exige tempo e recursos, o que dificulta a capacidade de conter a partilha viral logo no início”, afirma a investigadora. Este atraso faz com que as notícias falsas se tornem “verdades” aceites pelo público, enquanto os desmentidos perdem relevância, tornando-se notícias de ontem.
Para ajudar nesta questão, Sofia Pinto sugere o desenvolvimento de uma ferramenta que permita aos jornalistas reagir de forma mais rápida à verificação de notícias. O modelo proposto visa reduzir o tempo necessário para avaliar conteúdos com potencial de fake news, agilizando a verificação de factos e apoiando os profissionais na luta contra a desinformação.
Este sistema de IA automatiza todos os passos que normalmente são realizados manualmente por jornalistas, bastando para isso a identificação do enunciado a verificar. O utilizador tem acesso a todas as etapas do processo de verificação, incluindo as fontes consultadas e um veredicto baseado nas evidências. Além disso, o modelo gera um artigo explicativo que detalha as razões por trás do veredicto.
Sofia Pinto admite que, apesar de o modelo ter sido desenvolvido e testado em inglês, seria interessante explorar a sua aplicação em português. O trabalho envolveu a participação de mais de uma centena de jornalistas profissionais, permitindo validar o funcionamento do modelo e a qualidade das explicações geradas.
A iniciativa faz parte do projeto CIMPLE, que se dedica a investigar e desenvolver explicações inovadoras de IA social e baseada no conhecimento, testando-as na deteção e rastreamento de informações manipuladas. O CIMPLE utiliza modelos de criatividade humana para criar explicações mais compreensíveis e personalizáveis.
Leia também: O impacto da desinformação na sociedade contemporânea.
verificação de factos Nota: análise relacionada com verificação de factos.
Leia também: Ordem dos Advogados critica constituição de advogado como arguido
Fonte: ECO