Uma conversa do COPE (Committee on Publication Ethics) realizada em setembro do ano passado reuniu líderes em ética editorial e inovação em IA para debater como o mundo acadêmico deve lidar com a transformação tecnológica que está redefinindo os fundamentos da confiança na publicação científica. Os temas discutidos revelaram que a comunidade científica ainda está em processo de estabelecer diretrizes claras e equilibradas para o uso responsável de ferramentas de inteligência artificial.
De ações reativas a ações propositivas
Segundo Maris Sudier, chefe de ética editorial da Frontiers e membro eleito do COPE, e Hong, diretor sênior de produtos e inovação em IA, há uma mudança significativa na narrativa que envolveu o COPE desde o surgimento acelerado das ferramentas generativas. "Nos últimos dois anos, havia um foco forte em reagir ao uso repentino de IA e garantir o uso ético pelos autores. Agora, as questões estão realmente se movimentando para o uso responsável de IA por revisores e editores", explica Sudier.
Essa transição reflete que a IA não é mais um problema isolado da autoria; ela permeia todo o ecossistema editorial. A tecnologia está sendo aplicada desde a detecção automática de infrações éticas, passando pela recomendação de revisores, até análises de qualidade de manuscritos. Esse espectro amplo de aplicações revelou lacunas em políticas e orientações, levando o COPE a abrir, em julho de 2025, um fórum dedicado ao tema que gerou mais de 20 perguntas sem resposta sobre como prosseguir de forma ética.
Detecção frágil e facilmente contornável
Um dos temas centrais do debate é a confiabilidade das ferramentas de detecção de conteúdo gerado por IA. Segundo Hong, mais de 50 ferramentas comerciais, construídas por editoras e de código aberto concorrem pelo mercado, incluindo Turnitin, Grammarly, Copyleaks, Winston AI, Original.ai, além de detectores de imagem como ImageCheck e ImageTracer.
No entanto, essas ferramentas enfrentam limitações técnicas substanciais. Existem três categorias de abordagens: classificadores de aprendizado de máquina que identificam padrões em estrutura e gramática (mas lutam contra novos modelos e funcionam como "caixa preta"), assinaturas de palavras que marcam frases específicas como "meu conhecimento até..." (facilmente contornáveis via edição), e métricas de "humanidade" que verificam se o texto é muito previsível ou robótico (também vulneráveis a ajustes textuais).
"A maioria dos detectores atuais é reativa", observa Hong. "Eles precisam de dados de treinamento de novos modelos de linguagem grande e lutam para separar IA assistida de IA autoria. Isso resulta em acurácia frágil".
Emergem iniciativas mais sofisticadas, como o Project Origin e o Google Things ID, que incorporam marcas d'água de proveniência diretamente no conteúdo gerado para rastrear propriedade e evitar uso indevido. Ainda assim, essas soluções dependem de adoção ampla pela indústria e são suscetíveis a manipulação.
O que editores podem fazer quando suspeitam do uso não divulgado de IA ?
Com a fragilidade das ferramentas de detecção, o COPE recomenda uma abordagem cuidadosa quando se suspeita de uso não divulgado de IA. Em vez de acusar imediatamente, editores devem questionar autores de forma neutra, observando que os recursos do manuscrito são consistentes com assistência de IA generativa e solicitando clarificação conforme a política da revista.
Sudier enfatiza: "O importante é começar questionando os autores, não acusando. Você pode contatá-los em tom muito neutro". Se o manuscrito tiver características estilísticas sugestivas, um exemplo de comunicação apropriada seria:
"Notamos algumas características estilísticas no manuscrito que são consistentes com assistência de IA generativa. Diante da política de nossa revista, você poderia esclarecer se essas ferramentas foram usadas e, se sim, atualizar sua declaração de divulgação?" complementa.
Por enquanto, rejeitar manuscritos baseado apenas em suspeita de IA não divulgada não é recomendado, a menos que haja evidência conclusiva de violação de política ou má conduta grave. No entanto, se houver padrões de não conformidade repetida, particularmente se o editor já contatou o autor antes, rejeição direta é justificável.
Um exemplo de "caso grave" seria receber quatro artigos em poucas semanas do mesmo autor que parecem gerados por IA, potencialmente em campos diversos ou nos quais o autor não é especialista. Isso configuraria má conduta e justificaria escalar para a instituição do autor, por exemplo.
Editores também devem procurar por pistas além do texto gerado por IA: conflitos de interesse não divulgados, problemas com dados, manipulação de imagens, referências irrelevantes, autoplágio excessivo, frases distintivas que indicam falta de expertise ou padrões de publicação acelerados em múltiplas disciplinas.
Transparência, Divulgação e Confiança
Um dos resultados mais claros da conversa é que a indústria editorial reconhece agora uma verdade incômoda: a percepção de que usar IA equivale a má conduta está criando hesitação e prevenindo transparência.
"Há um grande equívoco: usar IA é igual a má conduta. Esse medo cria hesitação e previne transparência. Mas na realidade, o risco real não é a divulgação, é ocultação", observa Hong.
Pesquisas recentes (como a da Wiley) mostram que a maioria dos pesquisadores já está usando IA. Logo, é impraticável — e contraproducente — rejeitar todo conteúdo com assistência de IA. "A editoras não podem, francamente, se dar ao luxo de rejeitar texto gerado por IA. É mais a norma do que a exceção. É melhor ser mais transparente neste ponto", conclui Hong.
Em resposta, muitos editores (incluindo Wiley e Frontiers) agora exigem declarações de divulgação obrigatórias nos sistemas de submissão. A COPE já havia orientado em 2021 que editoras divulguem quando usam IA para recomendar revisores ou verificar qualidade de artigos. Isso está se tornando a norma.
Revisão por Pares e o risco de violação de confidencialidade
Um dos temas mais controversos é o uso de IA por revisores. Há muito pouca orientação disponível, e muitos ainda não sabem que carregar manuscritos em ferramentas de IA de terceiros (como ChatGPT gratuito) viola confidencialidade, pois essas plataformas podem ingerir o conteúdo em seus bancos de dados.
"Muitos revisores não estão cientes de que não deveriam fazer upload de manuscritos em ferramentas de IA externas para gerar uma revisão", explica Sudier. "Isso viola confidencialidade. Você não deve enviar esses manuscritos para ferramentas de IA externas".
Nos últimos anos, a reação inicial de organizações foi banir completamente o uso de IA por revisores. "Era uma mensagem mais fácil de proibir totalmente do que explicar que você pode usar sua própria IA ou IA fornecida pela plataforma de uma editora", observa Sudier.
A mensagem está evoluindo. Com o surgimento de ferramentas de IA proprietárias e modelos ChatGPT customizados que respeitam confidencialidade, é agora viável permitir revisores de usar IA como assistente (por exemplo, estruturação de relatórios, identificação de pontos fortes e fracos, avaliação de metodologia e novidade). Porém, editoras devem garantir que o revisor realmente conduz a análise, não apenas apresenta um relatório gerado por IA.
Sudier ressalta: "Não importa quão avançada seja a IA, a colaboração humano-IA será o coração da revisão por pares". Da mesma forma, a COPE há muito tempo orienta que IA não pode tomar decisões finais de aceitar ou rejeitar manuscritos; apenas humanos podem ser responsáveis por essas decisões.
Três exemplos de uso de IA em manuscritos: Permitido, Cinzento e Proibido
O guia mais abrangente vem da STM (Association of Academic and Scholarly Publishers), oferecido em seu Guide to Generative AI in Scholarly Communication (2023) e em uma classificação mais recente que busca feedback da comunidade.
Sudier destaca três exemplos práticos:
- Permitido sem divulgação: Usar IA como ferramenta básica de suporte para refinar, corrigir, editar ou formatar manuscritos, como as funções básicas do Copilot no Word ou Grammarly.
- Zona cinzenta (permitido com divulgação): Usar Copilot, Grammarly ou ChatGPT para criar parte ou todo o texto usando prompts, pedir ao IA para expandir texto, ou gerar resumos automáticos de outros artigos para a introdução. Esses usos vão além da ferramenta básica de suporte. Para a maioria das editoras, esse uso é permitido se divulgado. "Você deve mencionar que usou essas ferramentas com essa intenção", instrui Sudier.
- Não permitido: Alterar ou manipular dados originais de pesquisa, imagens ou resultados, especialmente se apresentado como original em vez de gerado. Sudier oferece um exemplo prático: "Se você fez vários experimentos em seu laboratório e tem muitas imagens de microscopia de células, mas não tem uma imagem perfeita que mostre tudo que deseja no artigo, é tentador usar IA para gerar uma imagem mesclada. Mas você não deve fazer isso".
Governança, políticas e caminhos a seguir
Para Hong, o caminho para restaurar confiança passa por três pilares: políticas claras, transparência operacional e responsabilidade humana. Desde sua perspectiva como desenvolvedor de tecnologia, sua equipe implementa diretrizes rigorosas para criação de ferramentas de IA: documentação regular de fontes de dados, rastreamento de modelos e parâmetros, avaliação crítica de impactos positivos e negativos, auditorias de viés e reprodutibilidade, e busca ativa por feedback de usuários e stakeholders.
"Nosso objetivo é estabelecer um padrão para inovação responsável, construindo soluções de IA que sirvam a comunidade acadêmica com integridade", afirma Hong.
Sudier concorda que confiança é o "alicerce da publicação científica" e que "a rápida adoção de IA em nosso espaço desestabilizou muitos desses fundamentos". Mas ela também vê potencial positivo: a IA pode derrubar barreiras de idioma, ajudar autores com tradução e reconhecimento de fala, recomendar revisores mais diversos além das redes tradiconais de países com alto output de pesquisa.
Ambos enfatizam que a comunidade não precisa começar do zero. Empresas líderes como IBM, Microsoft e a Comissão Europeia já têm políticas robustas de IA que editoras podem consultar. COPE também planeja desenvolver orientações adicionais específicas para uso de IA em revisão por pares.
Conclusão
O panorama atual da IA na publicação científica é de transição delicada. A detecção continua frágil, mas necessária. A transparência é agora reconhecida como melhor caminho do que a proibição. E a colaboração humano-IA — não IA substituindo humanos — parece ser o modelo consensual que preserva integridade e confiança. O COPE e a comunidade editorial agora enfrentam a tarefa de institucionalizar essas práticas antes que o ritmo de inovação tecnológica deixe a questão ainda mais desalinhada.
Fonte: COPE
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Nossa newsletter agora está no Substack e você pode se inscrever gratuitamente para recebê-la diretamente em seu email, ler no app e acessar todo o conteúdo do ecossistema Peletron!Assine nossa newsletter