Estudos/Pesquisa

Aprendendo a esquecer – uma arma no arsenal contra a IA prejudicial

.

Com a cimeira da IA ​​já bem encaminhada, os investigadores estão ansiosos por levantar o problema real associado à tecnologia: ensiná-la a esquecer.

A sociedade está agora em alvoroço com a IA moderna e as suas capacidades excepcionais; somos constantemente lembrados dos seus potenciais benefícios, em tantas áreas, permeando praticamente todas as facetas das nossas vidas – mas também dos seus perigos.

Num campo emergente de investigação, os cientistas estão a destacar uma arma importante no nosso arsenal para mitigar os riscos da IA ​​– a “desaprendizagem da máquina”. Eles estão ajudando a descobrir novas maneiras de fazer com que os modelos de IA conhecidos como Redes Neurais Profundas (DNNs) esqueçam dados que representam um risco para a sociedade.

O problema é que retreinar programas de IA para “esquecer” dados é uma tarefa muito cara e árdua. DNNs modernas, como aquelas baseadas em ‘Grandes Modelos de Linguagem’ (como ChatGPT, Bard, etc.) exigem enormes recursos para serem treinadas – e levam semanas ou meses para fazê-lo. Eles também exigem dezenas de gigawatts-hora de energia para cada programa de treinamento, e algumas pesquisas estimam uma quantidade de energia suficiente para abastecer milhares de residências durante um ano.

O desaprendizagem de máquina é um campo de pesquisa em expansão que pode remover dados problemáticos de DNNs de forma rápida, barata e usando menos recursos. O objetivo é fazer isso continuando a garantir alta precisão. Especialistas em Ciência da Computação da Universidade de Warwick, em colaboração com o Google DeepMind, estão na vanguarda desta pesquisa.

O professor Peter Triantafillou, do Departamento de Ciência da Computação da Universidade de Warwick, foi recentemente coautor da publicação ‘Towards Unbounded Machine Unlearning’. Ele disse: “DNNs são estruturas extremamente complexas, compostas por até trilhões de parâmetros. Muitas vezes, não temos uma compreensão sólida de exatamente como e por que elas atingem seus objetivos. Dada a sua complexidade e a complexidade e o tamanho dos conjuntos de dados que são treinados em diante, DNNs podem ser prejudiciais à sociedade.

“As DNNs podem ser prejudiciais, por exemplo, por serem treinadas em dados com preconceitos – propagando assim estereótipos negativos. Os dados podem refletir preconceitos, estereótipos e suposições sociais erradas – como o preconceito de que os médicos são homens e as enfermeiras são mulheres – ou mesmo preconceitos raciais.

“DNNs também podem conter dados com ‘anotações erradas’ – por exemplo, a rotulagem incorreta de itens, como rotular uma imagem como sendo profundamente falsa ou não.

“De forma alarmante, as DNNs podem ser treinadas em dados que violam a privacidade dos indivíduos. Isto representa um enorme desafio para as megaempresas de tecnologia, com legislação significativa em vigor (por exemplo, GDPR) que visa salvaguardar o direito ao esquecimento – isto é o direito de qualquer indivíduo solicitar que os seus dados sejam eliminados de qualquer conjunto de dados e programa de IA.

“Nossa pesquisa recente derivou um novo algoritmo de ‘desaprendizado de máquina’ que garante que as DNNs possam esquecer dados duvidosos, sem comprometer o desempenho geral da IA. O algoritmo pode ser introduzido na DNN, fazendo com que ela esqueça especificamente os dados de que precisamos, sem ter para treiná-lo inteiramente do zero novamente. É o único trabalho que diferenciou as necessidades, requisitos e métricas para o sucesso entre os três diferentes tipos de dados que precisavam ser esquecidos: preconceitos, anotações erradas e questões de privacidade.

“A desaprendizagem de máquinas é um campo de pesquisa interessante que pode ser uma ferramenta importante para mitigar os riscos da IA.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo