.
Cingapura apóia o uso de ferramentas de inteligência artificial (IA), como o ChatGPT nas escolas, mas quer garantir que os alunos não se tornem excessivamente dependentes delas e entendam os limites dessas tecnologias.
À medida que essas ferramentas surgem e se tornam mais difundidas ao longo do tempo, as escolas e institutos de ensino superior (IHLs) devem ser capazes de aproveitá-las efetivamente para aprimorar o aprendizado, disse o ministro da Educação, Chan Chun Sing. Ele disse que o ministério já estava fornecendo aos educadores a “orientação e recursos” para fazê-lo.
“Como acontece com qualquer tecnologia, o ChatGPT e ferramentas semelhantes de IA generativa apresentam oportunidades e desafios para os usuários”, disse Chan no parlamento na segunda-feira, em resposta a perguntas dos membros do Parlamento (MPs). “Existem grupos de discussão profissional entre nossos educadores para explorar seu uso no ambiente educacional. Ao mesmo tempo, nossos educadores ainda ensinarão os alunos a entender conceitos fundamentais e orientarão os alunos contra o desenvolvimento de uma dependência excessiva de ferramentas tecnológicas.”
Ele comparou isso a como as calculadoras apoiavam a capacidade dos alunos de aprender matemática, mas não substituíam a necessidade de os alunos dominarem primeiro as operações matemáticas básicas.
“ChatGPT pode ser uma ferramenta útil para aprender apenas quando os alunos dominam conceitos básicos e habilidades de pensamento”, disse o ministro. “Em um mundo mais incerto, também devemos ensinar nossos alunos a abraçar e aprender a trabalhar com ferramentas no novo normal que têm uma gama de resultados além de um resultado determinístico, como [one produced by] uma calculadora.”
Expressando preocupações de que o ChatGPT possa ser explorado e usado para ajudar os alunos a trapacear, os parlamentares perguntaram se havia salvaguardas para mitigar riscos como plágio.
Em resposta, Chan disse que os alunos foram informados sobre a necessidade de integridade e as consequências do plágio. As escolas também adotaram vários processos para detectar o uso indevido da tecnologia, como avaliar a proficiência dos alunos e identificar respostas incomuns que poderiam ter sido geradas pela IA, observou ele.
Os IHLs usaram diferentes maneiras de avaliar a competência de seus alunos, incluindo apresentações e exames, tornando mais difícil o uso de IA para gerar respostas.
As próprias ferramentas com IA também foram usadas para ajudar a detectar plágio no trabalho dos alunos.
Chan acrescentou que, à medida que as tecnologias evoluíram com o tempo, as escolas precisavam garantir que os alunos entendessem como as ferramentas de IA, como o ChatGPT, funcionavam. Por exemplo, o aplicativo de IA pode gerar relatórios imprecisos ou tendenciosos, dependendo dos dados analisados. Os alunos, portanto, devem ser criteriosos ao analisar os resultados gerados pelo ChatGPT, disse o ministro.
O governo de Cingapura sempre enfatizou a importância de construir confiança com o uso “responsável” da IA, a fim de sustentar sua adoção e extrair o máximo de benefícios da tecnologia. Em 2020, o AI Ethics & Governance Body of Knowledge foi lançado para fornecer um guia de referência para empresas locais e profissionais de TI sobre os aspectos éticos do desenvolvimento e implantação de tecnologias de IA. O guia foi desenvolvido com base no Model AI Governance Framework de Cingapura.
Uma estrutura e um kit de ferramentas de teste de governança, chamado AI Verify, também foram lançados em maio passado para ajudar as organizações a demonstrar seu uso “objetivo e verificável” da IA.
COBERTURA RELACIONADA
.