menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Pesquisador usou IA como fonte de notícias durante um mês; confira o resultado

10 28
yesterday

Um experimento conduzido durante um mês pelo professor Jean-Hugues Roy, da Escola de Mídia da Universidade do Quebec em Montreal (UQAM), revelou os graves riscos de utilizar chatbots de inteligência artificial como fonte de informação jornalística. Ao testar sete sistemas de IA generativa diariamente, o pesquisador descobriu que essas ferramentas frequentemente inventam notícias, citam fontes inexistentes e criam conclusões sem qualquer respaldo factual.

O estudo analisou 839 respostas de ferramentas como ChatGPT, Claude, Gemini, Copilot, DeepSeek, Grok e Aria. Os números são preocupantes: apenas 37% das respostas forneceram um URL completo e válido como fonte. Em 18% dos casos, as ferramentas sequer citaram veículos de comunicação, recorrendo a sites governamentais, grupos de pressão ou simplesmente inventando fontes imaginárias. A maioria dos links fornecidos levava a erros 404 ou páginas genéricas, dificultando a verificação da confiabilidade das informações.

Segundo o pesquisador, um dos casos que chamou mais sua atenção envolveu o Gemini, sistema do Google, que inventou um site de notícias chamado “fake-example.ca” (ou “exemplefictif.ca”, em francês) para noticiar uma greve de motoristas de ônibus escolares que nunca aconteceu.

“O sistema de IA generativa oferecido pelo Google levou seu veículo de mídia fictício a noticiar que uma greve de motoristas de ônibus escolares havia sido convocada para 12 de setembro de 2025 em Quebec. Mas esse não foi o motivo da interrupção do transporte escolar naquele dia. O problema foi a retirada dos ônibus da Lion Electric devido a uma falha técnica”, relatou Roy, em artigo publicado no

© Revista Fórum