.
O SB 1047 da Califórnia é um projeto de lei que coloca responsabilidade sobre os desenvolvedores de IA e ele acabou de passar pela votação na assembleia estadual. O próximo passo seria ir para a mesa do governador para ser sancionado como lei ou rejeitado e enviado de volta para mais votação. Todos nós deveríamos esperar que o último aconteça porque assinar este projeto de lei não resolve nenhum dos problemas da IA e na verdade pioraria os problemas que ela pretende consertar por meio da regulamentação.
Android e Relaxar
Uma das colunas de tecnologia mais antigas da web, Android & Chill é sua discussão de sábado sobre Android, Google e tudo relacionado à tecnologia.
O SB 1047 não é completamente ruim. Coisas como forçar empresas a implementar proteções de segurança razoáveis ou uma maneira de desligar qualquer capacidade remota quando um problema surge são ótimas ideias. No entanto, as disposições de responsabilidade corporativa e as vagas definições de dano devem parar o projeto de lei até que algumas mudanças sejam feitas.
Você pode fazer coisas terríveis usando IA. Não estou negando isso, e acho que precisa haver algum tipo de supervisão regulatória para monitorar suas capacidades e as proteções de segurança de seu uso. As empresas que desenvolvem IA devem fazer o melhor para impedir que os usuários façam algo ilegal com ela, mas com a IA na ponta dos dedos em seu telefone, as pessoas encontrarão maneiras de fazer isso de qualquer maneira.
Quando as pessoas inevitavelmente encontram maneiras de contornar essas diretrizes, essas pessoas precisam ser responsabilizadas, não as mentes que desenvolveram o software. Não há razão para que leis não possam ser criadas para responsabilizar as pessoas pelas coisas que elas fazem, e essas leis devem ser aplicadas com o mesmo entusiasmo que as leis existentes.
O que estou tentando dizer educadamente é que leis como essa são idiotas. Todas as leis — mesmo aquelas que você pode gostar — que responsabilizam empresas que criam bens legais e benéficos, físicos ou digitais, pelas ações de pessoas que usam seus serviços são idiotas. Isso significa que responsabilizar o Google ou o Meta pelo uso indevido de IA é tão denso quanto responsabilizar a Smith & Wesson por coisas que as pessoas fazem. Leis e regulamentações nunca devem ser sobre o que nos deixa confortáveis. Em vez disso, elas devem existir para colocar a responsabilidade onde ela pertence e tornar os criminosos responsáveis por suas ações.
A IA pode ser usada para fazer coisas desprezíveis como fraudes e outros crimes financeiros, bem como crimes sociais como criar imagens falsas de pessoas fazendo algo que nunca fizeram. Ela também pode fazer coisas excelentes como detectar câncer, ajudar a criar medicamentos que salvam vidas e tornar nossas estradas mais seguras.
Criar uma lei que torne os desenvolvedores de IA responsáveis sufocará essas inovações, especialmente o desenvolvimento de IA de código aberto, onde não há bilhões de capital de investimento fluindo como vinho. Cada nova ideia ou mudança de métodos existentes significa que uma equipe de profissionais jurídicos precisará vasculhar, certificando-se de que as empresas por trás desses projetos não serão processadas quando alguém fizer algo ruim com eles — não se alguém faz algo ruim, mas quando.
Nenhuma empresa vai mudar sua sede para fora da Califórnia ou bloquear seus produtos para uso na Califórnia. Elas terão apenas que gastar dinheiro que poderia ser usado para promover pesquisa e desenvolvimento em outras áreas, levando a custos mais altos para o consumidor ou menos pesquisa e desenvolvimento de produtos. Dinheiro não cresce em árvores, mesmo para empresas com capitalizações de mercado de trilhões de dólares.
É por isso que quase todas as empresas na vanguarda do desenvolvimento de IA são contra esse projeto de lei e estão pedindo ao governador Newsom para vetá-lo do jeito que está agora. Você naturalmente esperaria ver algumas organizações com fins lucrativos como Google ou Meta se manifestando contra esse projeto de lei, mas os “caras bons” da tecnologia, como a Mozilla, também são contra ele como está escrito.
A IA precisa de regulamentação. Odeio ver um governo intervir em qualquer indústria e criar quilômetros de burocracia na tentativa de resolver problemas, mas algumas situações exigem isso. Alguém tem que tentar cuidar dos cidadãos, mesmo que tenha que ser um governo cheio de partidários e funcionários tecnofóbicos. No caso dele, simplesmente não há uma solução melhor.
No entanto, é necessário que haja uma nacional maneira de supervisionar a indústria, construída com feedback de pessoas que entendem a tecnologia e não tem interesse financeiro. Califórnia, Maryland ou Massachusetts fazendo regulamentações fragmentadas só pioram o problema, não melhoram. A IA não vai desaparecer, e qualquer coisa regulamentada nos EUA existirá em outros lugares e ainda estará amplamente disponível para pessoas que queiram fazer mau uso dela.
A Apple não é responsável por atividades criminosas cometidas usando um MacBook. Stanley não é responsável por agressões cometidas com um martelo. Google, Meta ou OpenAI não são responsáveis por como as pessoas usam mal seus produtos de IA.
.