Chatbots de IA ignoram fontes em 92% das notícias analisadas

Um estudo recente intitulado “AI News Audit – How AI Models Use and Distribute Canadian Journalism” revelou que os chatbots de inteligência artificial, como ChatGPT, Claude, Gemini e Grok, não citam as fontes de notícias na maioria das suas respostas. A investigação, promovida pelo Centre for Media, Technology and Democracy, analisou 2.267 notícias canadenses, em inglês e francês, entre janeiro de 2024 e fevereiro de 2026, resultando em 18.134 respostas.

Os resultados mostram que, apesar de os modelos de IA demonstrarem um conhecimento considerável sobre a atualidade canadiana, apenas 8% das respostas incluíram a atribuição correta das fontes. Em 92% dos casos, os chatbots não mencionaram o nome do órgão de comunicação social, nem forneceram recomendações ou referências. Esta omissão levanta preocupações sobre a ética no jornalismo e o papel que a IA pode desempenhar na disseminação de informações.

Num segundo teste, os modelos de IA tiveram acesso à pesquisa na web para responder a perguntas sobre 140 artigos específicos de sete publicações. O objetivo era avaliar se a IA poderia funcionar como um substituto viável para o jornalismo e se, ao fazê-lo, daria o devido crédito às fontes. Embora os chatbots tenham incluído links em 52% das respostas, apenas 28% mencionaram explicitamente a fonte no texto. Os investigadores alertam que, embora as ligações possam oferecer um caminho de volta à fonte, os consumidores raramente percebem de onde provém a informação.

Além disso, os modelos mostraram-se capazes de contornar paywalls, acessando conteúdos de fontes pagas em 64% dos casos, uma taxa semelhante à de conteúdos de acesso livre. Isso sugere que as paywalls podem não ser tão eficazes em bloquear a recuperação automatizada de informações. O resultado, segundo o estudo, é que os meios de comunicação de origem não recebem nem tráfego nem crédito.

Leia também  Google alerta para riscos de bolha em investimentos em IA

Em termos de desempenho, o Gemini e o Claude foram os modelos que melhor cobriram a informação das notícias, mas o Gemini creditou a fonte apenas 6% das vezes. O Grok e o ChatGPT apresentaram resultados semelhantes, com taxas de atribuição muito baixas. O estudo conclui que, em situações mais realistas, quando um utilizador faz uma pergunta sem exigir citações, os chatbots tendem a partilhar links, mas escondem a origem da informação.

Os investigadores sublinham que a diferença entre a experiência padrão e a melhor situação possível é significativa. Quando os utilizadores pedem explicitamente a citação de uma fonte, as taxas de atribuição disparam. No entanto, a maioria dos consumidores não faz esse tipo de pedido, o que significa que a experiência padrão reflete a realidade do mercado do jornalismo.

Em suma, o estudo levanta questões importantes sobre a forma como os chatbots de IA, como o ChatGPT, interagem com o jornalismo e a responsabilidade que têm ao disseminar informações. A falta de atribuição de fontes pode comprometer a credibilidade das notícias e a confiança dos consumidores. Leia também: O impacto da IA no futuro do jornalismo.

chatbots de IA chatbots de IA chatbots de IA chatbots de IA Nota: análise relacionada com chatbots de IA.

Leia também: Petrobras visa autossuficiência do Brasil em gasóleo em cinco anos

Fonte: ECO

Simular quanto pode poupar nos seus seguros!

Não percas as principais notícias e dicas de Poupança

Não enviamos spam! Leia a nossa política de privacidade para mais informações.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Back To Top