Inteligência Artificial e a comunicação da pesquisa
Publicado em: Inteligência Artificial e a comunicação da pesquisa
Por Ernesto Spinak
Introdução
A introdução de Inteligência Artificial (IA), Large Language Models (LLM), ChatGPT, Bard e Bing, em particular, mudaram o cenário da redação, criação e produção de trabalhos de pesquisa, gerando uma revolução irreversível no mundo editorial acadêmico. Não há retorno. Devemos aprender a conviver com um novo ambiente que irá gerar rupturas em nossos velhos paradigmas em muitos aspectos.
Apenas para mencionar alguns temas críticos:
- Quem deve ser considerado autor.
- Quais são as ferramentas válidas de IA na publicação científica original, quais não seriam aceitáveis, e quais deverão ser avaliadas progressivamente.
- Que papel deverão ter os editores científicos e os árbitros.
- O que significará plágio e o que acontecerá com os “papermills”
- O que dizem as sociedades científicas, as universidades, e o mundo acadêmico em geral.
- Se dispomos de procedimentos de software para detectar o uso de IA nos textos produzidos.
- Como deveriam ser modificadas as instruções dos periódicos para autores, editores etc.
- Como mudarão as regulações dos países… etc.
Começaremos hoje com o tema sobre quem pode ser “autor/coautor” propriamente dito, segundo indicado pelas associações científicas e editores de periódicos que consultamos. A lista de editores e associações científicas consultadas estão relacionadas ao final deste post (em Notas). Nas Referências encontram-se os documentos consultados.
Considerações prévias
A adoção de IA apresenta questões éticas chave em torno da responsabilidade (accountability), das obrigações e da transparência dos autores.
As ferramentas de IA já estão sendo utilizadas em publicações acadêmicas, por exemplo, em verificações prévias à avaliação por pares (qualidade do idioma, confirmação de que uma submissão está dentro do escopo do periódico etc.). O uso de IA não é intrinsicamente pouco ético e pode ser útil, por exemplo, para autores que não escrevem em inglês como seu primeiro idioma. Mesmo que o uso de ferramentas de IA para as traduções possa trazer problemas separados do direitos de autor, dependerá do ser humano assumir a responsabilidade de garantir o cumprimento das regulações. Porque, em última análise, a aplicação responsável da tecnologia requer supervisão, controles e monitoramento humanos.
IA e a comunicação de pesquisa
Os problemas e as objeções
O uso de IA como o ChatGPT, Bard ou outros que certamente virão, para escrever, traduzir, revisar e editar manuscritos acadêmicos apresenta desafios éticos para pesquisadores e periódicos. Por esta razão, alguns periódicos, como Science, Nature e muitos outras, proibiram o uso de aplicações de LLM nos artigos recebidos.
Por exemplo, as ferramentas de IA não podem cumprir com os requisitos de autoria, uma vez que não podem assumir a responsabilidade pelo trabalho enviado, pelo fato de que não são “pessoas”, nem têm personalidade jurídica (o estado legal de um autor difere de um país para outro, porém, na maioria das jurisdições, um autor deve ser uma pessoa jurídica). Tampouco podem afirmar a presença ou ausência de conflitos de interesse, nem gerir acordos de licença e direitos de autor. Devido a esta e outras razões, o mundo da ética está se voltando decisivamente contra esta ideia, e é fácil compreender por quê.
Os autores que utilizam ferramentas de IA na redação de um manuscrito, na produção de imagens ou elementos gráficos de um artigo, ou na compilação e na análise de dados, devem ser transparentes ao revelar nas seções Materiais e Métodos do artigo (ou uma seção similar) detalhes de como foi utilizada a ferramenta de IA e qual ferramenta foi utilizada.
As instruções de todas as sociedades científicas e editores de periódicos acadêmicos consultados incluem a proibição de que a IA seja tratada como autora dos artigos acadêmicos e livros que são publicados.
Servidores de preprints como medRxiv, seu colega bioRxiv, assim como o publisher Taylor & Francis, a Universidade de Cambridge, e o Office of Research Integrity do Reino Unido destacam que as diretrizes de autoria vigentes indicam que o ChatGPT não deve ser acreditado como autor nem como coautor.
O que importa é quem (o que) é um autor, e se este pode responder pela ética e confiabilidade de seu trabalho. No caso de que se obtenha informação proveniente de ferramentas de IA, os vieses nas fontes de dados e os possíveis vieses na concepção dos instrumentos devem ser identificados e corrigidos, pois, em última análise, é o ser humano que continua a ser moral e legalmente responsável por quaisquer erros de publicação ou de violação dos direitos de autor.
Além disso, qualquer uso da IA não deve infringir a política de plágio. Os trabalhos acadêmicos devem ser originais do autor e não apresentar ideias, dados, palavras ou material de outros autores sem uma citação adequada e referenciação transparente. Muitas das perguntas mais inadiáveis sobre IA e plágio estão relacionadas com conteúdo não textual: imagens, audiovisuais, tabelas, ideias etc. Novamente, a atribuição é chave: os editores assumem que todo o conteúdo seja gerado por autores humanos, a menos que haja uma declaração em contrário.
As Recomendações das sociedades científicas e editores de periódicos
- Apenas humanos podem ser autores;
- Os autores devem reconhecer as fontes de seus materiais;
- Os autores devem assumir a responsabilidade pública de seu trabalho;
- Os autores devem se assegurar de que todo o material citado seja atribuído corretamente, incluídas as citações completas, e que as fontes citadas respaldem as declarações do chatbot, pois não é inusual que os chatbots gerem referências a obras que não existem.
- Qualquer uso de chatbots na avaliação do manuscrito e na geração de revisões e correspondência deve ser expressamente indicada.
- Os editores necessitam de ferramentas digitais apropriadas para lidar com os efeitos dos chatbots na publicação. Quando se usa uma ferramenta de IA para realizar ou gerar trabalho analítico, ajudar a informar os resultados (por exemplo, gerar tabelas ou figuras) ou escrever códigos de computador, isso deve ser indicado no corpo do artigo, tanto na seção Resumo como na de Métodos, para permitir o escrutínio científico, incluída a replicação e a identificação.
- Os editores necessitam de ferramentas apropriadas que os ajudem a detectar conteúdo gerado ou alterado por IA. Tais ferramentas devem estar disponíveis para os editores independentemente da capacidade de pagamento por elas. Isso é de particular importância para os editores de periódicos da área médica onde as consequências adversas da desinformação incluem potenciais danos às
O modelo de IA não está desenhado para tomar decisões críticas nem para usos que tenham consequências materiais sobre o sustento ou bem-estar de uma pessoa. Isso inclui situações nas quais se trata de atenção médica, sentenças judiciais, ou finanças: áreas que estão representadas por muitos periódicos e publishers acadêmicos.
Os chatbots são ativados mediante uma instrução em linguagem simples, ou “prompts”, proporcionada pelo usuário. Geram respostas utilizando modelos de linguagem estatísticos e baseados em probabilidades que lhes dão coerência e, em geral, são linguisticamente precisos e fluidos. No entanto, até o momento, com frequência se encontram comprometidos de várias maneiras. Por exemplo, as respostas de chatbots atualmente comportam o risco de incluir vieses, distorções, irrelevâncias, deturpações e plágio, muitos dos quais são causados pelos algoritmos que regem a sua geração e dependem, em grande medida, do conteúdo dos materiais utilizados na sua formação. O problema poderia ter consequências sérias em algumas situações, o que levou a FTC dos EUA a abrir recentemente uma investigação contra a OpenAI por possível danos causados aos clientes do ChatGPT.
A utilização de AI na escrita científica deveria ser proibida?
Há três razões para se opor às políticas dos periódicos que proíbem o uso de LLM ao escrever ou editar manuscritos acadêmicos.
- Primeiro, as proibições não se aplicam. Os textos seguramente serão gerados à medida que os informáticos e os pesquisadores encontrem formas de trabalhar com eles.
- Em segundo lugar, as proibições podem estimular o uso não divulgado dos LLM, o que prejudicaria a transparência e a integridade da pesquisa.
- Em terceiro lugar, os LLM podem desempenhar um papel importante para ajudar os pesquisadores que não dominam bem o inglês a escrever e editar seus trabalhos, e ademais, uma quantidade de tarefas acessórias de pesquisa.
A resposta mais razoável aos dilemas suscitados pelos LLM reside no desenvolvimento de políticas que promovam a transparência, a responsabilidade (accountability), a atribuição justa do crédito e a integridade.
Que aplicações de IA são aceitáveis na redação científica
As ferramentas de IA podem ser de grande ajuda para editores, periódicos e autores acadêmicos (de fato, muitas já estão sendo utilizadas). Permitem identificar pareceristas adequados, resumir conteúdo, podem etiquetar metadados, identificar imagens duplicadas etc.
De acordo com a Association for Computational Linguistics (ACL), seriam atividades válidas para usar a IA na preparação de um artigo acadêmico:
- Assistência puramente com o idioma do artigo. Quando os modelos generativos são utilizados para parafrasear ou aperfeiçoar o conteúdo original do autor, ao invés de sugerir conteúdo novo, se tornam similares a ferramentas como Grammarly, corretores ortográficos, dicionários e dicionários de sinônimos, que tem sido perfeitamente aceitáveis durante anos.
- Busca de literatura. Os modelos de texto generativo podem ser utilizados como assistentes de busca e para identificar literatura relevante. Os requisitos habituais se aplicam para a precisão das citações e a minúcia das revisões bibliográficas; é preciso ter cuidado com os possíveis vieses nas citações sugeridas.
- Textos pouco inovadores. Alguns autores podem considerar que descrever conceitos amplamente conhecidos é perda de tempo e uma tarefa que pode ser automatizada. O manuscrito deveria especificar onde se utilizou um texto desta natureza e convencer os pareceristas de que se verificou que a geração seja precisa e que esteja acompanhada de citações relevantes e apropriadas (por exemplo, usar aspas em bloco para copiar palavra por palavra).
Se bem os LLM podem cometer alguns erros evidentes, são susceptíveis a vieses e inclusive podem fabricar fatos ou citações; no entanto, estes defeitos não devem ser recriminados, pois pesquisadores humanos também podem cometer erros similares.
Reflexões e consequências
Do ponto de vista do Modelo SciELO de Publicação, pode parecer que é importante que os mais de 1.300 periódicos ativos atualmente publicados de modo descentralizado nas coleções da Rede SciELO operem com critérios comuns nas instruções aos autores sob este novo cenário que incorpora IA, ChatGPT e similares.
Seja que os periódicos já sejam publicados na forma convencional do SciELO, ou já estejam usando os serviços de preprints, é necessário informar aos autores, dar instruções para incorporar os conceitos a as rotinas editoriais, e que os pareceristas estejam conscientes a respeito do tema.
Aqui não haverá retrocesso.
Sociedades científicas e publishers consultados
Posts da série sobre Inteligência Artificial (IA)
Referências
Artificial intelligence (AI) and fake papers [online]. COPE: Committee on Publication Ethics. 2023 [viewed 30 August 2023]. Available from: https://publicationethics.org/resources/forum-discussions/artificial-intelligence-fake-paper
Artificial intelligence (AI) in decision making [online]. COPE: Committee on Publication Ethics. 2023 [viewed 30 August 2023]. https://doi.org/10.24318/9kvAgrnJ. Available from: https://publicationethics.org/node/50766
Artificial intelligence and authorship [online]. COPE: Committee on Publication Ethics. 2023 [viewed 30 August 2023]. Available from: https://publicationethics.org/news/artificial-intelligence-and-authorship
Authorship and AI tools – COPE position statement [online]. COPE: Committee on Publication Ethics. 2023 [viewed 30 August 2023]. Available from: https://publicationethics.org/cope-position-statements/ai-author
Authorship and contributorship [online]. Cambridge University Press. 2023 [viewed 30 August 2023]. Available from: https://www.cambridge.org/core/services/authors/publishing-ethics/research-publishing-ethics-guidelines-for-journals/authorship-and-contributorship#ai-contributions-to-research-content
BOYD-GRABER, J., OKAZAKI, N. and ROGERS, A. 2023. ACL 2023 policy on AI Writing Assistance [online]. The ACL 2023 Blog, 2023 [viewed 30 August 2023]. Available from: https://2023.aclweb.org/blog/ACL-2023-policy/
Chatbots, Generative AI, and Scholarly Manuscripts – WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications [online]. World Association of Medical Editors. 2023 [viewed 30 August 2023]. Available from: https://wame.org/page3.php?id=110
HOSSEINI, M., RESNIK, D. B. AND HOLMES, K. The ethics of disclosing the use of artificial intelligence tools in writing scholarly manuscripts. Research Ethics [online]. 2023, vol. 0, no. 0 [viewed 30 August 2023]. https://doi.org/10.1177/17470161231180449. Available from: https://journals.sagepub.com/doi/10.1177/17470161231180449
STOKEL-WALKER, C. ChatGPT Listed as Author on Research Papers: Many Scientists Disapprove. Nature [online]. 2023, vol. 613, no. 7945, pp. 620-621 [viewed 30 August 2023]. https://doi.org/10.1038/d41586-023-00107-z. Available from: https://www.nature.com/articles/d41586-023-00107-z
ZAKRZEWSKI, C. FTC investigates OpenAI over data leak and ChatGPT’s inaccuracy [online]. The Washington Post. 2023 [viewed 30 August 2023]. Available from: https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/
Links externos
Association for Computational Linguistics (ACL): https://www.aclweb.org/portal/
bioRxiv: https://www.biorxiv.org/
Cambridge University Press: https://www.cambridge.org/
Committee on Publication Ethics (COPE): https://publicationethics.org/
International Committee of Medical Journal Editors (ICMJE): https://www.icmje.org/
Journal of American Medical Association (JAMA Network): https://jamanetwork.com/
medRxiv: https://www.medrxiv.org/
Office of Research Integrity (ORI): https://www.research.uky.edu/office-research-integrity
Taylor & Francis: https://www.tandfonline.com/
World Association of Medical Editors (WAME): https://www.wame.org/
Sobre Ernesto Spinak
Colaborador do SciELO, engenheiro de Sistemas e licenciado em Biblioteconomia, com diploma de Estudos Avançados pela Universitat Oberta de Catalunya e Mestre em “Sociedad de la Información” pela Universidad Oberta de Catalunya, Barcelona – Espanha. Atualmente tem uma empresa de consultoria que atende a 14 instituições do governo e universidades do Uruguai com projetos de informação.
Traduzido do original em espanhol por Lilian Nassi-Calò.
Como citar este post [ISO 690/2010]:
SPINAK, E. Inteligência Artificial e a comunicação da pesquisa [online]. SciELO em Perspectiva, 2023 [viewed ]. Available from: https://blog.scielo.org/blog/2023/08/30/inteligencia-artificial-e-a-comunicacao-da-pesquisa/
Feed: SciELO em Perspectiva
Url (Fonte): blog.scielo.org