sábado, 29 de novembro de 2025

Toolkit News Integrity in AI Assistants: um guia para compreender e melhorar as respostas da IA às notícias

 

 #inteligenciaartificial

 

 

 

 Em fevereiro de 2025, a BBC publicou um inquérito¹ - News Integrity in AI Assistants: An International PSM Study - examinando o modo como quatro assistentes de IA amplamente utilizados – ChatGPT da OpenAI, Copilot da Microsoft,Gemini da Google e Perplexity – respondiam a questões sobre notícias. O estudo encontrou problemas significativos em mais de 50% das respostas, incluindo o facto de os assistentes distorcerem frequentemente o conteúdo da BBC quando esta era utilizada como fonte.

Desde então, a investigação tem confirmado o papel crescente que os assistentes de IA desempenham no consumo de notícias digitais – cerca de 7% das pessoas utilizam agora os assistentes de IA como fonte de notícias, atingindo até 15% dos
menores de 25 anos². Isto sublinha a importância de os assistentes prestarem às pessoas informações precisas e fiáveis ​​ao responderem a perguntas sobre notícias.

Após a publicação do relatório da BBC, a estação fez uma parceria com a União Europeia de Radiodifusão (UER) para uma segunda fase de investigação.
Este projeto incluiu 22 organizações de comunicação social de serviço público (MSP), representando 18 países e 14 línguas. O seu objetivo era avaliar a qualidade das respostas dos assistentes em diferentes nações, línguas e organizações, descobrir se os problemas identificados na primeira ronda de pesquisa são sistémicos e reunir um conjunto abrangente de exemplos que ilustram os tipos de problemas que ocorrem quando os assistentes de IA respondem a perguntas relacionadas com notícias.

Juntamente com este relatório, estamos a lançar um “News Integrity in AI Assistants Toolkit, desenvolvido para ajudar a criar soluções para os problemas destacados no relatório. Isto inclui melhorar as respostas dos assistentes de IA e a literacia mediática entre os utilizadores. 


 

 

 

 



Este Kit de Ferramentas é um recurso complementar ao relatório da BBC/EBU  News Integrity in AI Assistants: An International PSM Study (Estudo Internacional de Media de Serviço Público), que avalia como os assistentes de IA respondem a perguntas sobre notícias. Em junho-julho de 2025, participantes da pesquisa de 22 organizações de Media de Serviço Público (MSP) analisaram e avaliaram mais de 3.000 respostas de assistentes de IA a perguntas relacionadas com notícias, identificando centenas de exemplos do modo como os assistentes erram.

Este Kit de Ferramentas, que pretende ser um recurso autossuficiente e em constante evolução, foi desenvolvido pela BBC/EBU para ajudar a abordar duas questões-chave levantadas pelas descobertas da pesquisa: “O que torna uma boa resposta de um assistente de IA a uma pergunta sobre notícias?” e “Quais são os problemas que precisam de ser corrigidos?” 
 
 
O Toolkit apresenta:
  • Critérios para uma boa resposta: precisão, contexto, distinção entre factos e opiniões, e fontes confiáveis.
  • Uma taxonomia de erros: citações inventadas, falta de contexto, informações desatualizadas ou fontes pouco fiáveis.
  • Ferramentas para análise e melhoria, apoiando literacia mediática e algorítmica.
 
 

Sem comentários: