Skip to content

O Anel de Giges e a IA na ciência: Quando a invisibilidade desafia a integridade

  • Geral

Publicado em: O Anel de Giges e a IA na ciência: Quando a invisibilidade desafia a integridade

Por Ricardo Limongi França Coelho

No Livro II de A República, Platão apresenta a alegoria do Anel de Giges: um pastor que, ao encontrar um anel mágico capaz de torná-lo invisível, utiliza esse poder para seduzir a rainha, assassinar o rei e tomar o trono. A história não é apenas um conto de corrupção moral; é uma provocação filosófica profunda. Se qualquer pessoa pudesse agir com a garantia absoluta de que seus atos jamais seriam descobertos, continuaria sendo justa? Ou a moralidade humana depende fundamentalmente do medo das consequências e do olhar alheio?

Essa pergunta, formulada há mais de dois milênios, ressurge no contexto da produção científica contemporânea. A inteligência artificial generativa (IAG) oferece aos pesquisadores uma espécie de anel da invisibilidade: ferramentas capazes de produzir textos, análises e até imagens científicas de forma praticamente indetectável. Diante dessa realidade, a comunidade científica se vê confrontada com a mesma questão que Sócrates precisou responder a Glauco: se a detecção é falha e as consequências incertas, o que sustenta a integridade científica?

A ilusão da detecção

A primeira resposta intuitiva ao problema seria desenvolver mecanismos de vigilância cada vez mais sofisticado,  detectores capazes de identificar textos gerados por IA (Inteligência Artificial) e, assim, punir os transgressores. Essa abordagem, contudo, enfrenta severas limitações empíricas.

O estudo de Liang et al. (2023), GPT detectors are biased against non-native English writers 1 , publicado na revista Patterns, demonstrou que detectores de IA apresentam viés sistemático contra escritores não nativos de inglês: 97,8% dos ensaios TOEFL (Test of English as a Foreign Language) foram incorretamente sinalizados como gerados por IA, com uma taxa média de falsos positivos de 61,3%. A revisão sistemática de Weber-Wulff et al. (2023), Testing of detection tools for AI-generated text 2, avaliou 12 ferramentas de detecção e concluiu que as opções disponíveis “não são nem precisas nem confiáveis”, com metade dos textos gerados por IA conseguindo evadir a detecção após edição manual. A própria OpenAI descontinuou seu classificador em julho de 2023 devido à baixa precisão, e a Universidade Vanderbilt desabilitou a detecção de IA do Turnitin, citando preocupações com falsos positivos.

Esses dados revelam uma assimetria fundamental: enquanto a capacidade de gerar texto por IA avança exponencialmente, a de detectá-lo permanece estruturalmente limitada. O anel de Giges, na prática, funciona.

O cenário brasileiro: um vácuo institucional

Se as ferramentas de detecção forem insuficientes, restaria às instituições estabelecer diretrizes claras que orientem pesquisadores quanto ao uso aceitável da IAG. No cenário internacional, há uma convergência. O COPE (Committee on Publication Ethics) estabeleceu, em 2024, que ferramentas de IA “não podem atender aos requisitos de autoria, pois não podem assumir responsabilidade pelo trabalho submetido”3. A Nature proíbe LLMs como autores desde janeiro de 20234 e exige documentação na seção de métodos. A Science classifica violações como “má conduta científica, não distinta de imagens alteradas ou de plágio”.

No Brasil, contudo, persiste uma lacuna preocupante. Até o momento, CAPES e CNPq não publicaram políticas formais sobre o uso de IAG na produção científica. A CAPES divulgou, em abril de 2025, um documento intitulado “A inteligência artificial na pesquisa e no fomento”, porém classificado explicitamente como “Texto para Discussão”, não como uma política institucional vinculante.

O SciELO destaca-se como exceção virtuosa no contexto nacional, tendo publicado em setembro de 2023 o Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO5, que estabelece princípios claros: declaração obrigatória de uso, verificação de conteúdo quanto a plágio, proibição de IA como autor e vedação ao uso de IA na elaboração de pareceres de revisão.

Para preencher parcialmente esse vácuo, pesquisadores brasileiros lançaram, em 2024, as Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa6, publicadas pela Editora Intercom. O documento, de autoria de Sampaio (UFPR), Sabbatini (UFPE) e Limongi (UFG), critica a dependência de políticas de empresas internacionais e propõe a centralidade da agência humana nos processos de pesquisa.

O paradoxo da transparência

Mesmo onde existem diretrizes, sua efetividade enfrenta obstáculos. O chamado paradoxo da transparência7, documentado por Sampaio (2025) no Blog SciELO em Perspectiva, revela uma tensão: embora declarar o uso de IA seja eticamente correto, fazê-lo pode diminuir a confiança depositada no pesquisador. Estudos indicam que apenas 5,7% dos autores divulgam voluntariamente o uso de IA, taxa significativamente inferior à observada em pesquisas anônimas sobre práticas reais. O requisito de transparência, paradoxalmente, cria desincentivos à própria transparência.

Esse paradoxo evidencia que o problema não pode ser resolvido apenas por meio de normas externas. Quando a detecção é falha, as diretrizes são inconsistentes e a transparência é desincentivada, o que resta?

Da vigilância à formação: uma resposta socrática

A resposta de Sócrates à provocação de Glauco foi argumentar que a justiça tem valor intrínseco, que ser justo vale a pena por si mesmo, independentemente de recompensas ou punições externas. Uma pessoa verdadeiramente justa continuaria agindo corretamente mesmo com o anel de Giges, pois a integridade é constitutiva de uma vida bem vivida.

Transposta para o contexto científico, essa perspectiva sugere que a integridade na pesquisa não pode depender primariamente de mecanismos de vigilância e de punição. Precisa ser cultivada como valor em si, parte constitutiva do que significa ser pesquisador.

A literatura recente aponta nessa direção. Das Deep et al. (2025), em Evaluating the Effectiveness and Ethical Implications of AI Detection Tools in Higher Education 8,

em síntese qualitativa publicada no periódico Information, documentam que a dependência excessiva de detecção cria “uma cultura de vigilância que prioriza policiamento sobre ensino”. O framework de Letramento em IA da EDUCAUSE (2024) propõe competências organizadas em quatro áreas: Compreensão Técnica, Habilidades Avaliativas, Aplicação Prática e Considerações Éticas. O argumento central é que a resposta sustentável envolve a formação e o redesenho de práticas avaliativas, e não a intensificação da vigilância tecnológica.

As diretrizes brasileiras independentes de Sampaio, Sabbatini e Limongi (2024) ecoam essa perspectiva ao propor competências essenciais para pesquisadores: compreensão das ferramentas de IAG e suas limitações, manutenção da autoria humana como elemento central, transparência nas declarações de uso, avaliação crítica de outputs, reconhecimento de vieses e erros e preservação da agência humana na análise.

Considerações finais

A alegoria do Anel de Giges nos lembra que a questão fundamental não é tecnológica, e sim ética. Ferramentas de detecção continuarão sendo desenvolvidas e burladas. Diretrizes continuarão sendo publicadas e inconsistentes entre instituições. O que permanece é a pergunta: que tipo de pesquisador queremos formar?

A resposta passa por três caminhos complementares. Primeiro, transparência como valor, não como obrigação burocrática, o que exige enfrentar o paradoxo da transparência com políticas que não penalizem a honestidade. Segundo, formação ética robusta que cultive a integridade como constitutiva da identidade do pesquisador, não como resposta ao medo de ser descoberto. Terceiro, revisão das métricas de avaliação que pressionam pela quantidade em detrimento de qualidade e impacto, criando incentivos perversos ao uso irresponsável de IA.

Platão argumentava que Giges, ao usar o anel para fins corruptos, não se tornou mais livre; tornou-se escravo de seus apetites, alienado de sua própria humanidade. Analogamente, o pesquisador que utiliza IA para simular produção científica não está otimizando sua carreira; está esvaziando o próprio sentido de sua atividade.

A invisibilidade conferida pela IA generativa é, ao fim, uma oportunidade de interrogação: fazemos ciência porque tememos ser descobertos, ou porque a busca pelo conhecimento é constitutiva de quem somos? A resposta a essa pergunta determinará não apenas políticas institucionais, mas também o futuro da própria comunicação científica.

Posts da série:

Notas

1. LIANG, W., et al. GPT detectors are biased against non-native English writers. Patterns [online]. 2023, vol. 4, no. 7, art. 100779, ISSN: 2666-3899 [viewed 04 February 2026]. https://doi.org/10.1016/j.patter.2023.100779. Available from: https://www.cell.com/patterns/fulltext/S2666-3899(23)00130-7?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS2666389923001307%3Fshowall%3Dtrue

2.WEBER-WULFF, D., et al. Testing of detection tools for AI-generated text. International Journal for Educational Integrity [online]. 2023, vol. 19, art. 26, ISSN: 1833-2595. https://doi.org/10.1007/s40979-023-00146-z. Available from: https://link.springer.com/article/10.1007/s40979-023-00146-z

3.Authorship and AI tools [online]. Committee on Publication Ethics (COPE). 2024 [viewed 04 February 2026]. Available from: https://doi.org/10.24318/cCVRZBms

4. Artificial Intelligence (AI) – Editorial Policies [online]. Nature Portfolio. 2023 [viewed 04 February 2026]. Available from: https://www.nature.com/nature-portfolio/editorial-policies/ai

5.Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO [online]. SciELO – Scientific Electronic Library Online, 2023 [viewed 04 February 2026]. Available from: https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-ferramentas-e-recursos-de-IA-20230914.pdf

6. SAMPAIO, R.C., SABBATINI, M. e LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Disponível em: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203

7. SAMPAIO, R. O paradoxo da transparência no uso de IA generativa na pesquisa acadêmica [online]. SciELO em Perspectiva, 2026 [viewed 04 February 2025]. Available from: https://blog.scielo.org/blog/2025/10/10/o-paradoxo-da-transparencia-no-uso-de-ia-generativa-na-pesquisa-academica/

8. DAS DEEP, S., et al. Evaluating the Effectiveness and Ethical Implications of AI Detection Tools in Higher Education. Information [online]. 2025, vol. 16, no. 10, art. 905, ISSN: 2078-2489 [viewed 04 February 2026]. https://doi.org/10.3390/info16100905. Available from: https://www.mdpi.com/2078-2489/16/10/905

Referências

Artificial Intelligence (AI) – Editorial Policies [online]. Nature Portfolio. 2023 [viewed 04 February 2026]. Available from: https://www.nature.com/nature-portfolio/editorial-policies/ai

Authorship and AI tools [online]. Committee on Publication Ethics (COPE). 2024 [viewed 04 February 2026] https://doi.org/10.24318/cCVRZBms . Available from: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools 

DAS DEEP, S., et al. Evaluating the Effectiveness and Ethical Implications of AI Detection Tools in Higher Education. Information [online]. 2025, vol. 16, no. 10, art. 905, ISSN: 2078-2489 [viewed 04 February 2026]. https://doi.org/10.3390/info16100905. Available from: https://www.mdpi.com/2078-2489/16/10/905

Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO [online]. SciELO – Scientific Electronic Library Online, 2023 [viewed 04 February 2026]. Available from: https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-ferramentas-e-recursos-de-IA-20230914.pdf

LIANG, W., et al. GPT detectors are biased against non-native English writers. Patterns [online]. 2023, vol. 4, no. 7, art. 100779, ISSN: 2666-3899 [viewed 04 February 2026]. https://doi.org/10.1016/j.patter.2023.100779. Available from: https://www.cell.com/patterns/fulltext/S2666-3899(23)00130-7?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS2666389923001307%3Fshowall%3Dtrue

SAMPAIO, R.C., SABBATINI, M. e LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024. Disponível em: https://www.portcom.intercom.org.br/ebooks/detalheEbook.php?id=57203

SAMPAIO, R.; SABBATINI, M.; LIMONGI, R. Pesquisadores lançam diretrizes IAG [online]. SciELO em Perspectiva, 2025 [viewed 04 February 2026]. Available from: https://blog.scielo.org/blog/2025/02/05/pesquisadores-lancam-diretrizes-iag/

SAMPAIO, R. O paradoxo da transparência no uso de IA generativa na pesquisa acadêmica [online]. SciELO em Perspectiva, 2026 [viewed 04 February 2025]. Available from: https://blog.scielo.org/blog/2025/10/10/o-paradoxo-da-transparencia-no-uso-de-ia-generativa-na-pesquisa-academica/

THORP, H. H. ChatGPT is fun, but not an author. Science [online]. 2023, vol. 379, no. 6630, pp. 313-313, ISSN: 0036-8075 [viewed 04 February 2026]. https://doi.org/10.1126/science.adg7879. Available from: https://www.science.org/doi/10.1126/science.adg7879

WEBER-WULFF, D.; ANOHINA-NAUMECA, A.; BJELObaba, S.; FOLTÝNEK, T.; GUERRERO-DIB, J.; POPOOLA, O.; ŠIGUT, P.; WADDINGTON, L. Testing of detection tools for AI-generated text. International Journal for Educational Integrity [online]. 2023, vol. 19, no. 26, pp. 1-39, ISSN: 1833-2595 [viewed 04 February 2026]. https://doi.org/10.1007/s40979-023-00146-z. Available from: https://link.springer.com/article/10.1007/s40979-023-00146-z

 

Sobre Ricardo Limongi França Coelho

Fotografia de Ricardo Limongi França Coelho

Professor de Marketing e Inteligência Artificial, Universidade Federal de Goiás (UFG), Goiânia–GO, e Editor-Chefe do periódico Brazilian Administration Review (BAR) da ANPAD, Bolsista DT-CNPq.

 

COELHO, R.L.F. O Anel de Giges e a IA na ciência: Quando a invisibilidade desafia a integridade [online]. SciELO em Perspectiva, 2026 [viewed ]. Available from: https://blog.scielo.org/blog/2026/02/06/o-anel-de-giges-e-a-ia-na-ciencia-quando-a-invisibilidade-desafia-a-integridade/

Fonte: O Anel de Giges e a IA na ciência: Quando a invisibilidade desafia a integridade
Feed: SciELO em Perspectiva
Url (Fonte): blog.scielo.org
Back To Top