O uso de chatbots de IA entrou de vez no fluxo de escrita científica, mas o campo regulatório ainda patina entre lacunas e abordagens divergentes. Para editores e pesquisadores, isso se traduz em dúvidas práticas: onde declarar o uso de IA? É aceitável gerar imagens? Pode-se citar um chatbot como fonte? Uma auditoria publicada em 28 de fevereiro de 2025 no periódico Research Integrity and Peer Review analisou as políticas de 162 editoras científicas, técnicas e médicas (membros da International Association of the Scientific, Technical, and Medical Publishers - STM) e oferece um retrato detalhado desse cenário — com números, exemplos e tendências que ajudam a orientar decisões editoriais hoje.

Mais do que listar proibições, o estudo organiza o terreno: quando a IA pode ajudar sem comprometer a integridade? E onde os riscos superam benefícios? A promessa aqui é clara: transformar a fotografia atual das políticas em um guia prático para que cada periódico ajuste suas diretrizes com segurança jurídica, consistência ética e operacionalidade.

O panorama em números: políticas ainda são minoria

Entre 1º de setembro e 31 de dezembro de 2023, os autores auditaram os sites das 162 editoras STM. Resultado: apenas 56 possuíam políticas públicas específicas para o uso de chatbots de IA por autores — 34,6% do total. Em outras palavras, cerca de dois terços ainda não ofereciam orientação visível naquele período, embora muitas políticas estivessem em elaboração ou delegadas a revistas individuais. 

Transparência como eixo: divulgue o uso — e onde

Quando há política, quase sempre há exigência de divulgação: 82,1% (46 de 56) pedem que o uso de IA seja declarado, geralmente em Methods ou Acknowledgements. Algumas editoras vão além e fornecem texto padrão para a seção de “Declaração de uso de IA”, como Elsevier e Geoscience Frontiers, o que facilita a padronização e a checagem pelos editores. A Federation of European Publishers, por sua vez, admite que a divulgação pode não ser obrigatória quando a IA foi apenas uma “ferramenta no processo criativo”, sinalizando uma nuance importante para fluxos que envolvem tarefas de baixo impacto.

Autoria e citação: o que a IA não pode ser

Há forte consenso ao negar autoria à IA: 91,1% das políticas que existem dizem explicitamente que chatbots não podem ser listados como autores, e nenhuma editora permite o contrário. Também há restrição à citação de chatbots como fontes primárias: 16 editoras proíbem expressamente, e apenas uma — Karger Publishers — exige citar a tecnologia de IA utilizada como fonte primária, postura ainda isolada. A mensagem subjacente é clara: pessoas respondem pelo conteúdo; sistemas não assumem responsabilidade ética nem conflitos de interesse.

Onde a IA entra (e onde não entra): texto, métodos, imagens e revisão

permissividade maior para usos não metodológicos, como rascunhar introduções e seções contextuais: 42 editoras permitem esse apoio à escrita, mas sem detalhar mecanismos de verificação de acurácia ou antiplágio para o conteúdo gerado. Já em “métodos formais”, 18 editoras aceitam a participação de IA em atividades como organização e análise de dados, simulação e NLP — embora muitas políticas usem termos amplos e pouco operacionais. Em imagens, 20 editoras autorizam a geração por IA, enquanto outras vedam alterações substanciais, refletindo a preocupação com manipulação e traçabilidade. Para proofreading, apenas 14 editoras explicitam permissão — um número modesto, mas em crescimento.

Zonas vermelhas: proibição total existe — e é exceção

Quatro editoras — AAAS, ASCE, ASME e EB Medicine — proíbem completamente o uso de chatbots por autores. São casos minoritários (7,1% entre as políticas existentes), porém importantes por servir de referência a áreas ou revistas com maior sensibilidade a riscos de erro, viés ou responsabilidade regulatória.

Por que isso importa para editores e pesquisadores?

O estudo indica três eixos de convergência: transparência sistemática, responsabilização humana e cautela em usos de maior impacto (métodos, imagens, citações). Para a governança editorial, isso significa alinhar expectativas entre autores, revisores e editores, reduzir retrabalho em triagem e revisão, e criar trilhas de auditoria mais claras para indexadores e agências. Além disso, reflete recomendações de fóruns éticos como COPE e ICMJE, que reforçam a impossibilidade de atribuir autoria a ferramentas que não assumem responsabilidade.

Como transformar a evidência em diretriz prática

Uma política eficaz precisa ser específica o suficiente para orientar decisões do dia a dia, sem travar inovação. Eis um conjunto de escolhas operacionais ancoradas nas tendências observadas:

  • Declaração obrigatória e padronizada: exija divulgação do uso de IA em seção dedicada, com modelo de texto e parâmetros mínimos (qual ferramenta, versão, tarefas, prompts sensíveis). Facilita a revisão e a curadoria pós-publicação.
  • Autoria proibida, responsabilidade humana explícita: deixe claro que autores são responsáveis pelo material gerado por IA, incluindo checagem factual, direitos autorais e privacidade de dados.
  • Mapa de usos permitidos: autorize apoio em seções não metodológicas e proofreading com ressalvas; detalhe o que é aceitável em métodos (por exemplo, “pré-análise exploratória, sem substituir validações estatísticas”).
  • Imagens com trilha de origem: se permitir geração/alteração, exija arquivo-fonte, parâmetros e indicação clara na legenda da figura.
  • Citação de IA: desestimule chatbots como fontes primárias; quando necessário, registre a ferramenta em apêndice ou materiais suplementares, nunca como autoridade cognitiva. 

Implementação: do texto da política ao fluxo editorial

Políticas só funcionam quando viram rotina. Inclua checagens na submissão (campo obrigatório para uso de IA), no desk review (verificação de declaração) e na decisão final (conferência de responsabilização). Forneça exemplos positivos e negativos para orientar autores; publique FAQs e atualize-as conforme a tecnologia evolui. Crie um procedimento para lidar com alegações pós-publicação envolvendo conteúdo gerado por IA, com prazos, papéis e medidas corretivas.

O que observar nos próximos 12–18 meses

Os autores sugerem reavaliar o cenário em até 18 meses, período em que novas políticas tendem a surgir e as existentes podem ganhar precisão, especialmente em imagens, métodos e revisão textual. Para periódicos, vale antecipar-se: estabelecer agora critérios claros economiza tempo de revisão e reforça a integridade antes que o volume de submissões com IA dispare ainda mais.

No fim, a régua continua a mesma da boa ciência: transparência, responsabilidade e verificabilidade. A IA pode ser uma parceira produtiva — desde que editores desenhem limites operacionais e autores assumam, por escrito, o que fizeram, por que fizeram e como garantiram a qualidade do que submetem.


Referências

Bhavsar, D., Duffy, L., Jo, H. et al. Policies on artificial intelligence chatbots among academic publishers: a cross-sectional audit. Res Integr Peer Rev 10, 1 (2025). https://doi.org/10.1186/s41073-025-00158-y

Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor

Assine nossa newsletter

Nossa newsletter agora está no Substack e você pode se inscrever gratuitamente para recebê-la diretamente em seu email, ler no app e acessar todo o conteúdo do ecossistema Peletron!

Assinar gratuitamente


Compartilhe!


Teste com 13 modelos revela risco de uso de IA para produzir “ciência lixo”

Um estudo recente apontou que modelos de linguagem baseados em inteligência artificial podem ser utilizados para produzir conteúdo científico fraudulento ou de baixa qualidade. A análise avaliou 13 grandes modelos...

Tempo de leitura: 1 - 2 minutos