17 outubro 2025

O paradoxo da transparência no uso de IA generativa na pesquisa acadêmica

A consolidação da inteligência artificial (IA) generativa, com ferramentas como ChatGPT, Gemini, Claude, DeepSeek e afins, está transformando significativamente a produção de conhecimento acadêmico. Ferramentas que auxiliam na redação, análise de dados e geração de ideias se tornaram onipresentes, prometendo aumentar a eficiência e democratizar o acesso à produção científica. No entanto, essa revolução tecnológica impõe um dilema ético central aos pesquisadores, colocando-os diante da escolha entre seguir a recomendação consensual de declarar o uso de IA e arriscar sua credibilidade, ou omiti-lo e comprometer a integridade científica. Este paradoxo, no qual a transparência colide com custos sociais, revela tensões entre ética, percepção e inovação na academia. Internacionalmente, temos praticamente um consenso da necessidade de transparência. Entidades, como o Comitê de Ética em Publicação (Committee on Publication Ethics, COPE), e editoras, a exemplo de Cambridge, Elsevier, Oxford, Taylor & Francis, exigem que autores declarem explicitamente o emprego de IAs generativas.   Saiba mais.   
Fonte: SciELO em Perspectiva – 10/10/25