Ciência e Tecnologia

O uso de IA está se infiltrando em periódicos acadêmicos – e está se mostrando difícil de detectar

.

Especialistas dizem que há um equilíbrio a ser alcançado no mundo acadêmico ao usar IA generativa – isso pode tornar o processo de escrita mais eficiente e ajudar os pesquisadores a transmitir suas descobertas com mais clareza. Mas a tecnologia – quando usada em muitos tipos de escrita – também colocou referências falsas em suas respostas, inventou coisas e reiterou conteúdo sexista e racista da internet, o que seria problemático se incluído na escrita científica publicada.

Se os pesquisadores usarem essas respostas geradas em seu trabalho sem verificação ou divulgação rigorosas, eles levantarão grandes questões de credibilidade. Não divulgar o uso de IA significaria que os autores estão passando o conteúdo generativo de IA como seu, o que pode ser considerado plágio. Eles também podem estar espalhando as alucinações da IA, ou sua incrível capacidade de inventar coisas e declará-las como fatos.

É um grande problema, diz David Resnik, bioeticista do Instituto Nacional de Ciências da Saúde Ambiental, sobre o uso de IA em trabalhos científicos e acadêmicos. Ainda assim, diz ele, a IA generativa não é de todo ruim – ela pode ajudar pesquisadores cujo idioma nativo não é o inglês a escrever artigos melhores. “A IA pode ajudar esses autores a melhorar a qualidade de sua redação e suas chances de ter seus trabalhos aceitos”, diz Resnik. Mas quem usa IA deve divulgá-la, acrescenta.

Por enquanto, é impossível saber o quão extensivamente a IA está sendo usada na publicação acadêmica, porque não há uma maneira infalível de verificar o uso da IA, como existe para o plágio. O Política de Recursos O artigo chamou a atenção de um pesquisador porque os autores parecem ter deixado acidentalmente uma pista para o possível envolvimento de um grande modelo de linguagem. “Essas são realmente as pontas do iceberg saindo”, diz Elisabeth Bik, consultora de integridade científica que administra o blog Síntese de Integridade Científica. “Acho que isso é um sinal de que está acontecendo em uma escala muito grande.”

Em 2021, Guillaume Cabanac, professor de ciência da computação na Universidade de Toulouse, na França, encontrou frases estranhas em artigos acadêmicos, como “consciência falsificada” em vez de “inteligência artificial”. Ele e uma equipe criaram a ideia de procurar “frases torturadas” ou sopa de palavras no lugar de termos diretos, como indicadores de que um documento provavelmente vem de geradores de texto. Ele também está à procura de IA generativa em periódicos e foi quem sinalizou o Política de Recursos estudo sobre X.

Cabanac investiga estudos que podem ser problemáticos e tem sinalizado o uso de IA potencialmente não divulgado. Para proteger a integridade científica à medida que a tecnologia se desenvolve, os cientistas devem se educar, diz ele. “Nós, como cientistas, devemos agir nos capacitando, sabendo das fraudes”, diz Cabanac. “É um jogo de bater uma toupeira. Existem novas maneiras de enganar.”

Desde então, os avanços tecnológicos tornaram esses modelos de linguagem ainda mais convincentes – e mais atraentes como parceiros de redação. Em julho, dois pesquisadores usaram o ChatGPT para escrever um trabalho de pesquisa inteiro em uma hora para testar as habilidades do chatbot para competir no mundo da publicação científica. Não foi perfeito, mas a solicitação do chatbot reuniu um documento com uma análise sólida.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo