News

ChatGPT enfrenta outro problema quando chefe da UE sugere novas regras de IA para enfrentar riscos

.

O chefe da indústria da UE, Thierry Breton, disse que as novas regras de inteligência artificial propostas terão como objetivo lidar com as preocupações sobre os riscos em torno do ChatGPT chatbot e da tecnologia AI, nos primeiros comentários sobre o aplicativo por um alto funcionário de Bruxelas.

Apenas dois meses após seu lançamento, o ChatGPT – que pode gerar artigos, ensaios, piadas e até poesia em resposta a solicitações – foi classificado como o aplicativo de consumidor que mais cresce na história.

Alguns especialistas levantaram temores de que os sistemas usados ​​por tais aplicativos possam ser mal utilizados para plágio, fraude e disseminação de desinformação, mesmo que os defensores da inteligência artificial o considerem um salto tecnológico.

Breton disse que os riscos representados pelo ChatGPT – uma ideia da OpenAI, uma empresa privada apoiada pela Microsoft – e os sistemas de IA enfatizam a necessidade urgente de regras que ele propôs no ano passado em uma tentativa de definir o padrão global para a tecnologia. As regras estão atualmente em discussão em Bruxelas.

“Conforme demonstrado pelo ChatGPT, as soluções de IA podem oferecer grandes oportunidades para empresas e cidadãos, mas também podem representar riscos. É por isso que precisamos de uma estrutura regulatória sólida para garantir IA confiável com base em dados de alta qualidade”, disse ele à Reuters em comentários por escrito. .

A Microsoft se recusou a comentar a declaração de Breton. A OpenAI – cujo aplicativo usa uma tecnologia chamada IA ​​generativa – não respondeu imediatamente a um pedido de comentário.

A OpenAI disse em seu site que pretende produzir inteligência artificial que “beneficie toda a humanidade”, enquanto tenta construir uma IA segura e benéfica.

De acordo com o projeto de regras da UE, o ChatGPT é considerado um sistema de IA de uso geral que pode ser usado para várias finalidades, incluindo as de alto risco, como a seleção de candidatos a empregos e pontuação de crédito.

Breton quer que a OpenAI coopere estreitamente com desenvolvedores downstream de sistemas de IA de alto risco para permitir sua conformidade com a Lei de IA proposta.

“Só o fato de a IA generativa ter sido incluída recentemente na definição mostra a velocidade com que a tecnologia se desenvolve e que os reguladores estão lutando para acompanhar esse ritmo”, disse um sócio de um escritório de advocacia dos EUA.

PREOCUPAÇÕES DE ‘ALTO RISCO’

As empresas estão preocupadas em classificar sua tecnologia na categoria de IA de “alto risco”, o que levaria a requisitos de conformidade mais rígidos e custos mais altos, de acordo com executivos de várias empresas envolvidas no desenvolvimento de inteligência artificial.

Uma pesquisa do órgão da indústria aplicadaAI mostrou que 51% dos entrevistados esperam uma desaceleração de suas atividades de desenvolvimento de IA como resultado da Lei de IA.

Regulamentações eficazes de IA devem se concentrar nos aplicativos de maior risco, escreveu o presidente da Microsoft, Brad Smith, em um post de blog na quarta-feira.

“Há dias em que estou otimista e momentos em que estou pessimista sobre como a humanidade usará a IA”, disse ele.

Breton disse que a Comissão Europeia está trabalhando em estreita colaboração com o Conselho da UE e o Parlamento Europeu para esclarecer ainda mais as regras da Lei de IA para sistemas de IA de uso geral.

“As pessoas precisariam ser informadas de que estão lidando com um chatbot e não com um ser humano. A transparência também é importante no que diz respeito ao risco de viés e informações falsas”, afirmou.

Os modelos generativos de IA precisam ser treinados em uma grande quantidade de texto ou imagens para criar uma resposta adequada que leve a alegações de violação de direitos autorais.

Breton disse que as próximas discussões com os legisladores sobre as regras da IA ​​cobririam esses aspectos.

Preocupações com o plágio de estudantes levaram algumas escolas públicas dos EUA e a universidade francesa Sciences Po a proibir o uso do ChatGPT.

© Thomson Reuters 2023


Os links de afiliados podem ser gerados automaticamente – consulte nossa declaração de ética para obter detalhes.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo