O uso de chatbots de IA entrou de vez no fluxo de escrita científica, mas o campo regulatório ainda patina entre lacunas e abordagens divergentes. Para editores e pesquisadores, isso se traduz em dúvidas práticas: onde declarar o uso de IA? É aceitável gerar imagens? Pode-se citar um chatbot como fonte? Uma auditoria publicada em 28 de fevereiro de 2025 no periódico Research Integrity and Peer Review analisou as políticas de 162 editoras científicas, técnicas e médicas (membros da International Association of the Scientific, Technical, and Medical Publishers - STM) e oferece um retrato detalhado desse cenário — com números, exemplos e tendências que ajudam a orientar decisões editoriais hoje.
Mais do que listar proibições, o estudo organiza o terreno: quando a IA pode ajudar sem comprometer a integridade? E onde os riscos superam benefícios? A promessa aqui é clara: transformar a fotografia atual das políticas em um guia prático para que cada periódico ajuste suas diretrizes com segurança jurídica, consistência ética e operacionalidade.
O panorama em números: políticas ainda são minoria
Entre 1º de setembro e 31 de dezembro de 2023, os autores auditaram os sites das 162 editoras STM. Resultado: apenas 56 possuíam políticas públicas específicas para o uso de chatbots de IA por autores — 34,6% do total. Em outras palavras, cerca de dois terços ainda não ofereciam orientação visível naquele período, embora muitas políticas estivessem em elaboração ou delegadas a revistas individuais.
Transparência como eixo: divulgue o uso — e onde
Quando há política, quase sempre há exigência de divulgação: 82,1% (46 de 56) pedem que o uso de IA seja declarado, geralmente em Methods ou Acknowledgements. Algumas editoras vão além e fornecem texto padrão para a seção de “Declaração de uso de IA”, como Elsevier e Geoscience Frontiers, o que facilita a padronização e a checagem pelos editores. A Federation of European Publishers, por sua vez, admite que a divulgação pode não ser obrigatória quando a IA foi apenas uma “ferramenta no processo criativo”, sinalizando uma nuance importante para fluxos que envolvem tarefas de baixo impacto.
Autoria e citação: o que a IA não pode ser
Há forte consenso ao negar autoria à IA: 91,1% das políticas que existem dizem explicitamente que chatbots não podem ser listados como autores, e nenhuma editora permite o contrário. Também há restrição à citação de chatbots como fontes primárias: 16 editoras proíbem expressamente, e apenas uma — Karger Publishers — exige citar a tecnologia de IA utilizada como fonte primária, postura ainda isolada. A mensagem subjacente é clara: pessoas respondem pelo conteúdo; sistemas não assumem responsabilidade ética nem conflitos de interesse.
Onde a IA entra (e onde não entra): texto, métodos, imagens e revisão
Há permissividade maior para usos não metodológicos, como rascunhar introduções e seções contextuais: 42 editoras permitem esse apoio à escrita, mas sem detalhar mecanismos de verificação de acurácia ou antiplágio para o conteúdo gerado. Já em “métodos formais”, 18 editoras aceitam a participação de IA em atividades como organização e análise de dados, simulação e NLP — embora muitas políticas usem termos amplos e pouco operacionais. Em imagens, 20 editoras autorizam a geração por IA, enquanto outras vedam alterações substanciais, refletindo a preocupação com manipulação e traçabilidade. Para proofreading, apenas 14 editoras explicitam permissão — um número modesto, mas em crescimento.
Zonas vermelhas: proibição total existe — e é exceção
Quatro editoras — AAAS, ASCE, ASME e EB Medicine — proíbem completamente o uso de chatbots por autores. São casos minoritários (7,1% entre as políticas existentes), porém importantes por servir de referência a áreas ou revistas com maior sensibilidade a riscos de erro, viés ou responsabilidade regulatória.
Por que isso importa para editores e pesquisadores?
O estudo indica três eixos de convergência: transparência sistemática, responsabilização humana e cautela em usos de maior impacto (métodos, imagens, citações). Para a governança editorial, isso significa alinhar expectativas entre autores, revisores e editores, reduzir retrabalho em triagem e revisão, e criar trilhas de auditoria mais claras para indexadores e agências. Além disso, reflete recomendações de fóruns éticos como COPE e ICMJE, que reforçam a impossibilidade de atribuir autoria a ferramentas que não assumem responsabilidade.
Como transformar a evidência em diretriz prática
Uma política eficaz precisa ser específica o suficiente para orientar decisões do dia a dia, sem travar inovação. Eis um conjunto de escolhas operacionais ancoradas nas tendências observadas:
- Declaração obrigatória e padronizada: exija divulgação do uso de IA em seção dedicada, com modelo de texto e parâmetros mínimos (qual ferramenta, versão, tarefas, prompts sensíveis). Facilita a revisão e a curadoria pós-publicação.
- Autoria proibida, responsabilidade humana explícita: deixe claro que autores são responsáveis pelo material gerado por IA, incluindo checagem factual, direitos autorais e privacidade de dados.
- Mapa de usos permitidos: autorize apoio em seções não metodológicas e proofreading com ressalvas; detalhe o que é aceitável em métodos (por exemplo, “pré-análise exploratória, sem substituir validações estatísticas”).
- Imagens com trilha de origem: se permitir geração/alteração, exija arquivo-fonte, parâmetros e indicação clara na legenda da figura.
- Citação de IA: desestimule chatbots como fontes primárias; quando necessário, registre a ferramenta em apêndice ou materiais suplementares, nunca como autoridade cognitiva.
Implementação: do texto da política ao fluxo editorial
Políticas só funcionam quando viram rotina. Inclua checagens na submissão (campo obrigatório para uso de IA), no desk review (verificação de declaração) e na decisão final (conferência de responsabilização). Forneça exemplos positivos e negativos para orientar autores; publique FAQs e atualize-as conforme a tecnologia evolui. Crie um procedimento para lidar com alegações pós-publicação envolvendo conteúdo gerado por IA, com prazos, papéis e medidas corretivas.
O que observar nos próximos 12–18 meses
Os autores sugerem reavaliar o cenário em até 18 meses, período em que novas políticas tendem a surgir e as existentes podem ganhar precisão, especialmente em imagens, métodos e revisão textual. Para periódicos, vale antecipar-se: estabelecer agora critérios claros economiza tempo de revisão e reforça a integridade antes que o volume de submissões com IA dispare ainda mais.
No fim, a régua continua a mesma da boa ciência: transparência, responsabilidade e verificabilidade. A IA pode ser uma parceira produtiva — desde que editores desenhem limites operacionais e autores assumam, por escrito, o que fizeram, por que fizeram e como garantiram a qualidade do que submetem.
Referências
Bhavsar, D., Duffy, L., Jo, H. et al. Policies on artificial intelligence chatbots among academic publishers: a cross-sectional audit. Res Integr Peer Rev 10, 1 (2025). https://doi.org/10.1186/s41073-025-00158-y
Texto produzido com auxílio de inteligência artificial. Nossa newsletter agora está no Substack e você pode se inscrever gratuitamente para recebê-la diretamente em seu email, ler no app e acessar todo o conteúdo do ecossistema Peletron!Assine nossa newsletter