.
Com a cimeira da IA já bem encaminhada, os investigadores estão ansiosos por levantar o problema real associado à tecnologia: ensiná-la a esquecer.
A sociedade está agora em alvoroço com a IA moderna e as suas capacidades excepcionais; somos constantemente lembrados dos seus potenciais benefícios, em tantas áreas, permeando praticamente todas as facetas das nossas vidas – mas também dos seus perigos.
Num campo emergente de investigação, os cientistas estão a destacar uma arma importante no nosso arsenal para mitigar os riscos da IA – a “desaprendizagem da máquina”. Eles estão ajudando a descobrir novas maneiras de fazer com que os modelos de IA conhecidos como Redes Neurais Profundas (DNNs) esqueçam dados que representam um risco para a sociedade.
O problema é que retreinar programas de IA para “esquecer” dados é uma tarefa muito cara e árdua. DNNs modernas, como aquelas baseadas em ‘Grandes Modelos de Linguagem’ (como ChatGPT, Bard, etc.) exigem enormes recursos para serem treinadas – e levam semanas ou meses para fazê-lo. Eles também exigem dezenas de gigawatts-hora de energia para cada programa de treinamento, e algumas pesquisas estimam uma quantidade de energia suficiente para abastecer milhares de residências durante um ano.
O desaprendizagem de máquina é um campo de pesquisa em expansão que pode remover dados problemáticos de DNNs de forma rápida, barata e usando menos recursos. O objetivo é fazer isso continuando a garantir alta precisão. Especialistas em Ciência da Computação da Universidade de Warwick, em colaboração com o Google DeepMind, estão na vanguarda desta pesquisa.
O professor Peter Triantafillou, do Departamento de Ciência da Computação da Universidade de Warwick, foi recentemente coautor da publicação ‘Towards Unbounded Machine Unlearning’. Ele disse: “DNNs são estruturas extremamente complexas, compostas por até trilhões de parâmetros. Muitas vezes, não temos uma compreensão sólida de exatamente como e por que elas atingem seus objetivos. Dada a sua complexidade e a complexidade e o tamanho dos conjuntos de dados que são treinados em diante, DNNs podem ser prejudiciais à sociedade.
“As DNNs podem ser prejudiciais, por exemplo, por serem treinadas em dados com preconceitos – propagando assim estereótipos negativos. Os dados podem refletir preconceitos, estereótipos e suposições sociais erradas – como o preconceito de que os médicos são homens e as enfermeiras são mulheres – ou mesmo preconceitos raciais.
“DNNs também podem conter dados com ‘anotações erradas’ – por exemplo, a rotulagem incorreta de itens, como rotular uma imagem como sendo profundamente falsa ou não.
“De forma alarmante, as DNNs podem ser treinadas em dados que violam a privacidade dos indivíduos. Isto representa um enorme desafio para as megaempresas de tecnologia, com legislação significativa em vigor (por exemplo, GDPR) que visa salvaguardar o direito ao esquecimento – isto é o direito de qualquer indivíduo solicitar que os seus dados sejam eliminados de qualquer conjunto de dados e programa de IA.
“Nossa pesquisa recente derivou um novo algoritmo de ‘desaprendizado de máquina’ que garante que as DNNs possam esquecer dados duvidosos, sem comprometer o desempenho geral da IA. O algoritmo pode ser introduzido na DNN, fazendo com que ela esqueça especificamente os dados de que precisamos, sem ter para treiná-lo inteiramente do zero novamente. É o único trabalho que diferenciou as necessidades, requisitos e métricas para o sucesso entre os três diferentes tipos de dados que precisavam ser esquecidos: preconceitos, anotações erradas e questões de privacidade.
“A desaprendizagem de máquinas é um campo de pesquisa interessante que pode ser uma ferramenta importante para mitigar os riscos da IA.”
.