Verificação automatizada de factos combate desinformação

A investigadora Sofia Pinto, do Instituto Superior Técnico (IST), alerta que os atuais mecanismos de verificação de factos são demasiado lentos, o que contribui para a disseminação de desinformação. Segundo a especialista, a verificação manual é a abordagem mais comum para lidar com notícias falsas, mas a sua natureza trabalhosa não se adequa à escala do problema. Neste contexto, a verificação automatizada de factos surge como uma solução promissora.

No seu artigo intitulado “Verificação de factos automatizada e explicada para jornalistas”, Sofia Pinto destaca que a verificação automatizada se baseia em ferramentas de Inteligência Artificial (IA), nomeadamente modelos de linguagem em grande escala. Estes modelos permitem gerar conjuntos de dados que facilitam a verificação de factos, apoiando assim outras abordagens.

Embora a verificação humana continue a ser crucial para mitigar os impactos negativos das falsas notícias, a investigadora sublinha que a viralização de algumas afirmações torna a tarefa demorada e, muitas vezes, ineficaz. Em entrevista à Lusa, Pinto explicou que um dos principais objetivos do seu projeto é acelerar a identificação de desinformação, dado que o tempo entre a viralização de uma publicação online e a sua correção por um órgão de comunicação social é frequentemente demasiado longo.

“A tarefa jornalística de verificação e explicação de notícias manipuladas exige tempo e recursos, o que dificulta a capacidade de conter a partilha viral logo no início”, afirma a investigadora. Este atraso faz com que as notícias falsas se tornem “verdades” aceites pelo público, enquanto os desmentidos perdem relevância, tornando-se notícias de ontem.

Para ajudar nesta questão, Sofia Pinto sugere o desenvolvimento de uma ferramenta que permita aos jornalistas reagir de forma mais rápida à verificação de notícias. O modelo proposto visa reduzir o tempo necessário para avaliar conteúdos com potencial de fake news, agilizando a verificação de factos e apoiando os profissionais na luta contra a desinformação.

Leia também  Inquérito a Filipe Melo do Chega por violação de deveres parlamentares

Este sistema de IA automatiza todos os passos que normalmente são realizados manualmente por jornalistas, bastando para isso a identificação do enunciado a verificar. O utilizador tem acesso a todas as etapas do processo de verificação, incluindo as fontes consultadas e um veredicto baseado nas evidências. Além disso, o modelo gera um artigo explicativo que detalha as razões por trás do veredicto.

Sofia Pinto admite que, apesar de o modelo ter sido desenvolvido e testado em inglês, seria interessante explorar a sua aplicação em português. O trabalho envolveu a participação de mais de uma centena de jornalistas profissionais, permitindo validar o funcionamento do modelo e a qualidade das explicações geradas.

A iniciativa faz parte do projeto CIMPLE, que se dedica a investigar e desenvolver explicações inovadoras de IA social e baseada no conhecimento, testando-as na deteção e rastreamento de informações manipuladas. O CIMPLE utiliza modelos de criatividade humana para criar explicações mais compreensíveis e personalizáveis.

Leia também: O impacto da desinformação na sociedade contemporânea.

verificação de factos Nota: análise relacionada com verificação de factos.

Leia também: Ordem dos Advogados critica constituição de advogado como arguido

Fonte: ECO

Não percas as principais notícias e dicas de Poupança

Não enviamos spam! Leia a nossa política de privacidade para mais informações.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Back To Top