A consolidação da inteligência artificial (IA) generativa, com
ferramentas como ChatGPT, Gemini, Claude, DeepSeek e afins, está transformando significativamente a
produção de conhecimento acadêmico. Ferramentas que auxiliam na redação,
análise de dados e geração de ideias se tornaram onipresentes, prometendo
aumentar a eficiência e democratizar o acesso à produção científica. No
entanto, essa revolução tecnológica impõe um dilema ético central aos
pesquisadores, colocando-os diante da escolha entre seguir a recomendação
consensual de declarar o uso de IA e arriscar sua credibilidade, ou omiti-lo e
comprometer a integridade científica. Este paradoxo, no qual a transparência
colide com custos sociais, revela tensões entre ética, percepção e inovação na
academia. Internacionalmente, temos praticamente um consenso da
necessidade de transparência. Entidades, como o Comitê de Ética em Publicação (Committee on Publication Ethics, COPE), e editoras, a exemplo de Cambridge, Elsevier, Oxford, Taylor
& Francis, exigem que autores declarem explicitamente o
emprego de IAs generativas. Saiba mais.
Fonte: SciELO em
Perspectiva – 10/10/25