Ciência e Tecnologia

Legisladores da Califórnia aprovam ampla legislação de segurança de IA

.

Enquanto a conversa em torno da ética da IA ​​generativa continua, a Assembleia e o Senado do Estado da Califórnia deram um passo significativo ao aprovar o Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047). Esta legislação marca um dos primeiros grandes esforços regulatórios para IA nos EUA.

Os desenvolvedores precisam desabilitar rápida e completamente qualquer modelo de IA considerado inseguro

O projeto de lei, que tem sido um tópico quente de discussão do Vale do Silício a Washington, está definido para impor algumas regras importantes às empresas de IA na Califórnia. Para começar, antes de mergulhar no treinamento de seus modelos avançados de IA, as empresas precisarão garantir que podem desligar o sistema de forma rápida e completa se as coisas derem errado. Elas também terão que proteger seus modelos de mudanças inseguras após o treinamento e ficar de olho nos testes para descobrir se o modelo pode representar riscos sérios ou causar danos significativos.

Críticos do SB 1047, incluindo a OpenAI, a empresa por trás do ChatGPT, levantaram preocupações de que a lei é muito fixada em riscos catastróficos e pode prejudicar involuntariamente pequenos desenvolvedores de IA de código aberto. Em resposta a essa resistência, o projeto de lei foi revisado para trocar potenciais penalidades criminais por civis. Ele também reforçou os poderes de execução do procurador-geral da Califórnia e modificou os critérios para ingressar em um novo “Board of Frontier Models” estabelecido pela legislação.

O governador Gavin Newsom tem até o final de setembro para decidir se aprova ou veta o projeto de lei.

À medida que a tecnologia de IA continua a evoluir na velocidade da luz, acredito que as regulamentações são a chave para manter os usuários e nossos dados seguros. Recentemente, grandes empresas de tecnologia como Apple, Amazon, Google, Meta e OpenAI se uniram para adotar um conjunto de diretrizes de segurança de IA estabelecidas pela administração Biden. Essas diretrizes se concentram em compromissos para testar os comportamentos dos sistemas de IA, garantindo que eles não mostrem preconceito ou representem riscos de segurança.

A União Europeia também está trabalhando para criar regras e diretrizes mais claras em torno da IA. Seu principal objetivo é proteger os dados do usuário e analisar como as empresas de tecnologia usam esses dados para treinar seus modelos de IA. No entanto, os CEOs da Meta e do Spotify expressaram recentemente preocupações sobre a abordagem regulatória da UE, sugerindo que a Europa pode correr o risco de ficar para trás por causa de suas regulamentações complicadas.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo