A adoção acelerada de ferramentas de inteligência artificial (IA) na rotina acadêmica apresenta um cenário complexo para a integridade da comunicação científica. Debates recentes sobre os riscos da IA na ciência refletem-se em publicações como o artigo de Ernesto Spinak, intitulado "A bajulação na IA: o risco da complacência", publicado no SciELO em Perspectiva1. Para além de potenciais comportamentos complacentes de sistemas automatizados, a intersecção entre o crescimento exponencial das publicações — mais de quatro milhões de artigos por ano — e a capacidade da IA de gerar conteúdos fraudulentos altamente convincentes criou uma "tempestade perfeita" contra a integridade científica2.
Nesse cenário de risco mediado pela IA, a própria tecnologia se torna uma ferramenta de defesa. A análise de redes permite identificar, em larga escala, "fábricas de artigos" (papermills) e padrões de pesquisas questionáveis a partir de rastros digitais deixados em publicações2. Contudo, especialistas alertam que a tecnologia isolada é insuficiente. A inteligência artificial carece do julgamento e da nuance necessários para avaliar a integridade da pesquisa, tornando a supervisão humana essencial, especialmente quando determinações sobre má conduta podem arruinar carreiras acadêmicas2.
O antídoto mais poderoso contra as fraudes e os desafios impostos pela IA é a adoção de práticas da Ciência Aberta. O compartilhamento de dados, metodologias e códigos dificulta a sustentação de enganos e aumenta a qualidade geral da pesquisa2. No Brasil, um esforço prático para essa implementação foi documentado pelos pesquisadores Pablo Rogers e Ricardo Limongi, no editorial "Fundamentos, Prática e Implementação da Ciência Aberta"3. Eles propõem o ARTE Workflow (Article Reprodutibility Template & Environment), um modelo escalável voltado às ciências sociais aplicadas e administração. Em vez de focar no uso de IA, esse modelo integra ferramentas concretas de reprodutibilidade, como RStudio, Quarto, Git/GitHub, OSF e Docker. Essa estrutura metodológica cria repositórios públicos e permite que os cientistas avancem, de forma documentada, da reprodutibilidade mínima à completa, combatendo a crise de reprodutibilidade3.
A adaptação a esse novo mundo exige, por fim, transformações educacionais e institucionais. Educadores já começam a repensar avaliações tradicionais, buscando ensinar os estudantes a colaborar de forma eficaz e ética com as ferramentas de IA, em vez de apenas proibi-las. Paralelamente, as instituições e agências de fomento precisam reavaliar os métodos de julgamento científico, abandonando o simples foco na quantidade de publicações, que incentiva estratégias focadas apenas em produtividade. O foco deve passar a ser a adoção de métricas multifacetadas que valorizem o rigor, a transparência e a reprodutibilidade.
Apenas com uma colaboração profunda entre editores, instituições e pesquisadores será possível garantir que a IA seja uma aliada transparente, construindo um ecossistema científico mais confiável para as próximas gerações.
Referências
- SciELO em Perspectiva. A bajulação na IA: o risco da complacência. SciELO em Perspectiva; 2026 Mar 12. Disponível em: https://blog.scielo.org/blog/2026/03/13/a-bajulacao-na-ia-o-risco-da-complacencia/.
- Research Solutions. What experts are saying about the future of research integrity in an AI-driven world. Research Solutions Blog; 2025 Mar 10. Disponível em: https://www.researchsolutions.com/blog/what-experts-are-saying-about-the-future-of-research-integrity-in-an-ai-driven-world
- Rogers P, Limongi R. Fundamentos, prática e implementação da ciência aberta. SciELO em Perspectiva Humanas; 2025 Nov 30. Disponível em: https://humanas.blog.scielo.org/blog/2025/12/01/fundamentos-pratica-e-implementacao-da-ciencia-aberta/.
Assine nossa newsletter
Nossa newsletter agora está no Substack e você pode se inscrever gratuitamente para recebê-la diretamente em seu email, ler no app e acessar todo o conteúdo do ecossistema Peletron!