Um caso recente expôs de forma contundente os riscos do uso indiscriminado de inteligência artificial na produção científica. A suposta doença “bixonimania”, completamente fictícia, conseguiu enganar sistemas como ChatGPT e Gemini — e foi além: chegou a ser citada em artigo científico revisado por pares.
A fraude começou como um experimento para testar a confiabilidade dos modelos de linguagem. Com descrições plausíveis, linguagem técnica e estrutura típica de textos médicos, a condição inexistente foi rapidamente assimilada por diferentes IAs, que passaram a tratá-la como real, com causas, sintomas e até estimativas de prevalência.
O problema se agravou quando o conteúdo ultrapassou o ambiente dos chatbots. Um artigo publicado no periódico Springer Nature mencionou a doença como se fosse uma condição emergente — o que levou à posterior retratação após questionamentos da revista Nature.
O caso da “bixonimania” não surgiu de uma descoberta clínica, mas de um teste deliberado para avaliar os limites da inteligência artificial na interpretação de informações plausíveis. A condição fictícia foi construída com linguagem técnica e características verossímeis, suficientes para ser assimilada por sistemas como ChatGPT e Gemini, que passaram a descrevê-la como real.
Embora não se trate de um experimento científico formal, com metodologia publicada e autoria institucional definida, o episódio funcionou como uma demonstração prática das fragilidades desses sistemas — especialmente quando inseridos em ecossistemas informacionais que carecem de verificação rigorosa.
O que esse caso revela sobre IA e publicação científica
O episódio evidencia uma fragilidade estrutural: modelos de IA não distinguem verdade de verossimilhança — eles respondem com base em padrões linguísticos, não em validação factual. Quando um texto tem “cara de ciência”, a tendência é que a IA amplifique aquela informação, mesmo que seja falsa.
Esse comportamento está diretamente ligado ao fenômeno conhecido como “alucinação” de IA, já amplamente documentado na literatura acadêmica. Há registros, inclusive, de geração de referências inexistentes em revisões por pares automatizadas e textos científicos. Além dessas situações, cientistas também alertam para “Al Stop” (algo como “sucata de IA”). Para saber mais acesse Revista Science alerta: controle humano é essencial contra “AI slop” na pesquisa científica
Implicações para o contexto editorial e científico
Para periódicos científicos, editores e pesquisadores, o caso funciona como um alerta crítico:
- IA não pode ser fonte primária de validação científica
- Conteúdos gerados por IA exigem verificação rigorosa (fact-checking)
- Referências e citações devem sempre ser auditadas manualmente
- Processos editoriais precisam incorporar mecanismos de detecção e revisão de conteúdo assistido por IA
A questão não se limita à redação de textos. Ferramentas de IA já são utilizadas em tradução, revisão, análise de dados, sugestão de referências e até avaliação de manuscritos — o que amplia o risco de contaminação da literatura por informações fabricadas.
Um problema de cultura científica, não apenas de tecnologia
Mais do que uma falha técnica, o caso expõe um problema de prática acadêmica. Como aponta a própria reportagem, há uma “preguiça perigosa” na verificação de informações que permite que conteúdos falsos avancem até a publicação.
Em outras palavras:
a IA não cria o problema sozinha — ela amplifica fragilidades já existentes no sistema científico.
Caminhos e recomendações
Diante desse cenário, algumas diretrizes se tornam centrais para o uso responsável de IA na ciência:
- Transparência no uso de IA (declaração explícita em artigos)
- Revisão humana qualificada como etapa obrigatória
- Capacitação editorial para identificar conteúdo gerado por IA
- Desenvolvimento de políticas institucionais claras sobre IA na pesquisa
Já vislumbramos algumas iniciativas para normatizar a IA no ambiente acadêmico brasileiro como a iniciativa da Virtualia Journal, periódico da Universidade Federal de Ouro Preto na área de Filosofia, anunciou a adoção da Declaração CRediT-IA e a nova edição do Guia de Boas Práticas Científicas da USP que incorpora orientações sobre integridade e uso de IA.
Conclusão
O caso da “bixonimania” é emblemático porque rompe uma barreira crítica: não se trata apenas de um erro pontual em chatbots, mas da infiltração de conteúdo fabricado na própria literatura científica — o espaço que deveria operar como instância máxima de validação do conhecimento.
Esse episódio reforça um diagnóstico mais amplo: as fragilidades não estão apenas nas ferramentas de IA, mas no modo como o sistema científico organiza, valida e circula informação. Nesse sentido, dialoga diretamente com discussões recentes sobre a necessidade de reconfiguração dos modelos de publicação.
Como abordado em matéria anterior aqui no Periódico Eletrônico, o modelo Publish–Review–Curate (PRC), proposto pela Confederation of Open Access Repositories, surge como uma alternativa ao fluxo tradicional ao separar — e tornar explícitas — as etapas de publicação, avaliação e curadoria. Nesse arranjo, os trabalhos são inicialmente disponibilizados (frequentemente como preprints), passam por processos de revisão aberta e contínua, e posteriormente são organizados e validados por diferentes iniciativas de curadoria.
Mais do que uma mudança operacional, trata-se de uma mudança de lógica: ao ampliar transparência, rastreabilidade e escrutínio público, o modelo reduz a possibilidade de que conteúdos não verificados — inclusive aqueles gerados ou amplificados por IA — sejam incorporados de forma silenciosa ao corpo da literatura científica.
Assim, o caso recente não apenas expõe os riscos do uso acrítico de IA, mas evidencia a urgência de fortalecer mecanismos de validação distribuída e transparente. Em última instância, reforça um princípio fundamental: a confiança na ciência não pode depender da aparência de rigor, mas de processos efetivos — e verificáveis — de validação.
Se por um lado a IA amplia produtividade e acesso, por outro exige um princípio básico da ciência que não pode ser terceirizado: verificar, validar e duvidar sistematicamente.
Fonte: Correio 24 horas
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Nossa newsletter agora está no Substack e você pode se inscrever gratuitamente para recebê-la diretamente em seu email, ler no app e acessar todo o conteúdo do ecossistema Peletron!Assine nossa newsletter