Rastros do ChatGPT
A Associação Americana para Pesquisa do Câncer (AACR), que publica 10 revistas científicas da área de oncologia, detectou uma prevalência elevada do uso de programas de inteligência artificial generativa nos trabalhos submetidos a seus periódicos. Vinte e três por cento dos manuscritos encaminhados por autores em 2024 continham indícios de que os textos foram preparados ou revisados com o apoio de grandes modelos de linguagem (LLM), sistemas de inteligência artificial treinados com enormes volumes de texto para compreender a linguagem humana, nos quais se baseiam ferramentas como o ChatGPT. O problema se estende, embora em menor escala, ao trabalho dos revisores – especialistas que avaliam o conteúdo dos




Um estudo divulgado em agosto na revista Journalism Practice, da editora Taylor & Francis, revelou vieses na forma como repórteres de ciência escolhem assuntos para abordar em suas reportagens que podem ter impacto na percepção do público sobre a produção do conhecimento. O objetivo do trabalho era mapear procedimentos utilizados por um grupo de 23 desses jornalistas para identificar artigos divulgados nos chamados periódicos predatórios – aqueles que publicam trabalhos de baixa qualidade, apenas em troca de dinheiro – e compreender como os profissionais entrevistados decidem se uma revista é ou não confiável como fonte de informação.
É hoje!
Cardiologista italiano acumula retratações por publicar um mesmo conteúdo em revistas diferentes