Ciência e Tecnologia

O grupo co-liderado por Fei-FEI LI sugere que as leis de segurança da IA ​​devem antecipar riscos futuros

.

Em um novo relatório, um grupo de políticas da Califórnia, co-liderado por Fei-FEI LI, um pioneiro da IA, sugere que os legisladores devem considerar o risco de IA que “ainda não tenham sido observados no mundo” ao criar políticas regulatórias de IA.

O Relatório provisório de 41 páginas Lançado na terça -feira vem do grupo de trabalho de política da Califórnia nos modelos de Frontier AI, um esforço organizado pelo governador Gavin Newsom após seu veto da controversa Lei de Segurança da IA ​​da Califórnia, SB 1047. Enquanto o Newsom descobriu que o SB 1047 perdeu o alvo, ele reconheceu no ano passado a necessidade de uma avaliação mais extensa dos riscos de IA para os legisladores.

No relatório, Li, juntamente com os co-autores da Faculdade de Computação da UC Berkeley, Dean Jennifer Chayes e Carnegie Endowment for International Peace, o presidente da Paz Mariano-Florentino Cuellar, argumentam a favor das leis que aumentariam a transparência para o que os laboratórios de IA da fronteira como o Openai estão construindo. As partes interessadas do setor de todo o espectro ideológico revisaram o relatório antes de sua publicação, incluindo defensores de segurança da IA, como o vencedor do prêmio Turing, Yoshua Benjio, bem como aqueles que argumentaram contra o SB 1047, como o co-fundador da Iion Stoica, co-fundador dos bancos de dados.

Segundo o relatório, os riscos de novos riscos representados pelos sistemas de IA podem exigir leis que forçariam os desenvolvedores de modelos de IA a relatar publicamente seus testes de segurança, práticas de aquisição de dados e medidas de segurança. O relatório também defende o aumento dos padrões em torno de avaliações de terceiros dessas métricas e políticas corporativas, além de proteções expandidas de denunciantes para funcionários e contratados da empresa de IA.

Li et al. Escreva que existe um “nível inconclusivo de evidência” para o potencial da IA ​​para ajudar a realizar ataques cibernéticos, criar armas biológicas ou trazer outras ameaças “extremas”. Eles também argumentam, no entanto, que a política de IA não apenas aborda os riscos atuais, mas antecipam consequências futuras que podem ocorrer sem salvaguardas suficientes.

“Por exemplo, não precisamos observar uma arma nuclear [exploding] Para prever de maneira confiável que isso poderia e causaria danos extensos “, afirma o relatório.

O relatório recomenda uma estratégia dupla para aumentar a transparência do desenvolvimento do modelo de IA: confiar, mas verifique. Os desenvolvedores de modelos de IA e seus funcionários devem receber avenidas para relatar áreas de preocupação pública, diz o relatório, como testes de segurança interna, além de serem obrigados a enviar reivindicações de teste para verificação de terceiros.

Embora o relatório, cuja versão final seja lançada em junho de 2025, não endossa legislação específica, ela foi bem recebida por especialistas de ambos os lados do debate de formulação de políticas de IA.

Dean Ball, um pesquisador focado na IA na Universidade George Mason que criticou o SB 1047, disse em um post sobre x que o relatório era uma etapa promissora para a regulamentação de segurança da AI da Califórnia. É também uma vitória para os defensores da segurança da IA, de acordo com o senador estadual da Califórnia, Scott Wiener, que apresentou o SB 1047 no ano passado. Wiener disse em um comunicado à imprensa que o relatório se baseia em “Conversas urgentes em torno da governança de IA que começamos no Legislativo [in 2024]. ”

O relatório parece estar alinhado com vários componentes do SB 1047 e da conta de acompanhamento de Wiener, SB 53, como exigir que os desenvolvedores de modelos de IA relatem os resultados dos testes de segurança. Tendo uma visão mais ampla, parece ser uma vitória muito necessária para o pessoal da IA ​​Safety, cuja agenda perdeu terreno no ano passado.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo