.
A Anthropic removeu -se silenciosamente de seu site, vários compromissos voluntários que a empresa assumiu em conjunto com o governo Biden em 2023 para promover a IA segura e “confiável”.
Os compromissos, que incluíram promessas de compartilhar informações sobre o gerenciamento de riscos de IA na indústria e o governo e a pesquisa sobre viés e discriminação de IA, foram excluídos do hub de transparência da Anthropic na semana passada, de acordo com Para o grupo de vigilância da AI, o projeto Midas. Outros compromissos da era Biden relacionados à redução de abuso sexual baseados em imagem gerados pela IA permanecem.
Antrópico parece não ter notificado a mudança. A empresa não respondeu imediatamente a um pedido de comentário.
A Anthropic, juntamente com empresas como OpenAI, Google, Microsoft, Meta e Inflection, anunciou em julho de 2023 que havia concordado em aderir a certos compromissos voluntários de segurança de IA propostos pelo governo Biden. Os compromissos incluíram testes de segurança internos e externos dos sistemas de IA antes da liberação, investindo em segurança cibernética para proteger dados sensíveis de IA e desenvolver métodos de conteúdo gerado por IA da marca d’água.
Para ficar claro, o antropic já havia adotado várias práticas descritas nos compromissos, e o acordo não era legalmente vinculativo. Mas a intenção do governo Biden era sinalizar suas prioridades de política de IA antes da ordem executiva mais exaustiva da IA, que entrou em vigor vários meses depois.
O governo Trump indicou que sua abordagem à governança da IA será bem diferente.
Em janeiro, o presidente Trump revogou a ordem executiva da IA mencionada, que havia instruído o Instituto Nacional de Padrões e Tecnologia a orientação de autor que ajuda as empresas a identificar – e correr – falhas nos modelos, incluindo vieses. Os críticos aliados a Trump argumentaram que os requisitos de relatórios da Ordem eram onerosos e efetivamente forçados a divulgar seus segredos comerciais.
Logo após a revogação da Ordem Executiva da IA, Trump assinou uma ordem instruindo as agências federais a promover o desenvolvimento da IA ”livre de preconceitos ideológicos” que promove “florescimento humano, competitividade econômica e segurança nacional”. É importante ressaltar que a ordem de Trump não mencionou a discriminação de IA, que foi um princípio essencial da iniciativa de Biden.
Como o projeto Midas observado Em uma série de postagens sobre X, nada nos compromissos da era Biden sugeriu que a promessa era de tempo ou dependente da afiliação do partido do presidente em exercício. Em novembro, após a eleição, várias empresas de IA confirmado que seus compromissos não haviam mudado.
Antrópica não é a única empresa a ajustar suas políticas públicas nos meses desde que Trump assumiu o cargo. A OpenAI anunciou recentemente que adotaria “liberdade intelectual … não importa o quão desafiador ou controverso seja um tópico” e trabalhar para garantir que sua IA não censure certos pontos de vista.
O OpenAI também limpou uma página em seu site que costumava expressar o compromisso da startup com a diversidade, equidade e inclusão ou DEI. Esses programas foram criticados pelo governo Trump, levando várias empresas a eliminar ou reformular substancialmente suas iniciativas DEI.
Muitos dos conselheiros do Vale do Silício de Trump na IA, incluindo Marc Andreessen, David Sacks e Elon Musk, alegaram que empresas, incluindo Google e Openai, se envolveram na censura da IA, limitando as respostas de seus chatbots da AI. Os laboratórios, incluindo o Openai, negaram que suas mudanças políticas sejam em resposta à pressão política.
Tanto o OpenAI quanto o Antrópico têm ou estão buscando ativamente contratos governamentais.
.