.
OpenAI, a startup por trás do popular chatbot de inteligência artificial ChatGPT, disse na quinta-feira que concederá 10 doações iguais de um fundo de US$ 1 milhão (aproximadamente Rs. 8.300 crore) para experimentos em processos democráticos para determinar como o software de IA deve ser governado para lidar com preconceitos e outros fatores.
Os subsídios de $ 100.000 (aproximadamente Rs. 82 lakh) irão para destinatários que apresentarem estruturas convincentes para responder a questões como se a IA deve criticar figuras públicas e o que deve considerar o “indivíduo mediano” no mundo, de acordo com um post de blog anunciando o fundo.
Os críticos dizem que os sistemas de IA como o ChatGPT têm um viés inerente devido às entradas usadas para moldar suas visualizações. Os usuários encontraram exemplos de saídas racistas ou sexistas de software de IA. Crescem as preocupações de que a IA trabalhando ao lado de mecanismos de busca como o Google, da Alphabet, e o Bing, da Microsoft, possam produzir informações incorretas de maneira convincente.
A OpenAI, apoiada por US$ 10 bilhões (quase Rs. 81.950 crore) da Microsoft, tem liderado o apelo pela regulamentação da IA. No entanto, recentemente ameaçou sair da União Europeia devido às regras propostas.
“O rascunho atual da Lei de IA da UE seria regulamentar demais, mas ouvimos dizer que será retirado”, disse o executivo-chefe da OpenAI, Sam Altman, à Reuters. “Eles ainda estão falando sobre isso.”
As doações da startup não financiariam tanta pesquisa de IA. Os salários para engenheiros de IA e outros no setor em brasa chegam facilmente a $ 100.000 (aproximadamente Rs. 82 lakh) e podem exceder $ 300.000 (aproximadamente Rs. 2,4 crore).
Os sistemas de IA “devem beneficiar toda a humanidade e ser moldados para serem o mais inclusivos possível”, disse a OpenAI na postagem do blog. “Estamos lançando este programa de subsídios para dar um primeiro passo nessa direção”.
A startup de São Francisco disse que os resultados do financiamento podem moldar suas próprias opiniões sobre a governança da IA, embora tenha dito que nenhuma recomendação seria “obrigatória”.
Altman tem sido uma figura importante na defesa da regulamentação da IA, ao mesmo tempo em que lança novas atualizações para o ChatGPT e o gerador de imagens DALL-E. Este mês, ele compareceu perante um subcomitê do Senado dos EUA, dizendo que “se essa tecnologia der errado, pode dar muito errado”.
A Microsoft também endossou recentemente uma regulamentação abrangente da IA, ao mesmo tempo em que prometeu inserir a tecnologia em seus produtos, competindo com OpenAI, Google e startups para oferecer IA a consumidores e empresas.
Quase todos os setores têm interesse no potencial da IA para melhorar a eficiência e reduzir os custos de mão de obra, juntamente com as preocupações de que a IA possa espalhar desinformação ou imprecisões factuais, o que os especialistas do setor chamam de “alucinações”.
A IA já está por trás de várias falsificações amplamente aceitas. Uma recente imagem viral falsa de uma explosão perto do Pentágono afetou brevemente o mercado de ações.
Apesar dos apelos por maior regulamentação, o Congresso não conseguiu aprovar uma nova legislação para restringir significativamente a Big Tech.
© Thomson Reuters 2023
.