.
O CEO da Meta, Mark Zuckerberg, prometeu fazer inteligência geral artificial (AGI) – que é definida como IA que pode realizar qualquer tarefa que um humano possa – disponível abertamente um dia. Mas em um Novo documento de políticaA Meta sugere que existem certos cenários nos quais pode não lançar um sistema de IA altamente capaz que desenvolveu internamente.
O documento, que a Meta está chamando sua estrutura de AI de fronteira, identifica dois tipos de sistemas de IA que a empresa considera muito arriscada para lançar: “alto risco” e sistemas de “risco crítico”.
Como a Meta os define, os sistemas de “alto risco” e “risco crítico” são capazes de ajudar os ataques de segurança cibernética, química e biológica, a diferença é que os sistemas de “risco crítico” podem resultar em um “resultado catastrófico [that] não pode ser mitigado em [a] Contexto de implantação proposto. ” Sistemas de alto risco, por outro lado, podem facilitar a realização de um ataque, mas não de maneira confiável ou confiável como um sistema de risco crítico.
De que tipo de ataques estamos falando aqui? A Meta dá alguns exemplos, como o “compromisso automatizado de ponta a ponta de um ambiente de escala corporativa protegida pela melhor prática” e “proliferação de armas biológicas de alto impacto”. A lista de possíveis catástrofes no documento da Meta está longe de ser exaustiva, a empresa reconhece, mas inclui aqueles que a Meta acredita ser “a mais urgente” e plausível para surgir como resultado direto da liberação de um poderoso sistema de IA.
Um tanto surpreendente é que, de acordo com o documento, a meta classifica o risco do sistema não baseado em nenhum teste empírico, mas informado pela entrada de pesquisadores internos e externos que estão sujeitos a revisão por “tomadores de decisão de nível sênior”. Por que? A Meta diz que não acredita que a ciência da avaliação seja “suficientemente robusta para fornecer métricas quantitativas definitivas” para decidir o risco de um sistema.
Se a Meta determinar um sistema for de alto risco, a empresa diz que limitará o acesso ao sistema internamente e não o liberará até implementar as atenuações para “reduzir o risco a níveis moderados”. Se, por outro lado, um sistema for considerado de risco crítico, a Meta disser que implementará proteções de segurança não especificadas para impedir que o sistema seja exfiltrado e interrompa o desenvolvimento até que o sistema possa ser menos perigoso.
Frontier AI Frooldwork da Meta, que a empresa diz que evoluirá com a mudança da paisagem de IA e que meta anteriormente comprometido com a publicação Antes da cúpula de ação da França AI este mês, parece ser uma resposta às críticas à abordagem “aberta” da empresa ao desenvolvimento do sistema. A Meta adotou uma estratégia de disponibilizar abertamente sua tecnologia de IA – embora não seja de código aberto pela definição comumente compreendida – em contraste com empresas como o OpenAI que optam por integrar seus sistemas por trás de uma API.
Para a Meta, a abordagem de liberação aberta provou ser uma bênção e uma maldição. A família de modelos de IA da empresa, chamada LLAMA, acumulou centenas de milhões de downloads. Mas a LLAMA também foi usada por pelo menos um adversário dos EUA para desenvolver um chatbot de defesa.
Ao publicar sua estrutura de AI de fronteira, a Meta também pode ter como objetivo contrastar sua estratégia aberta de IA com a empresa de IA chinesa Deepseek. A Deepseek também disponibiliza seus sistemas abertamente. Mas a IA da empresa tem poucas salvaguardas e pode ser facilmente dirigida a gerar resultados tóxicos e prejudiciais.
““[W]E acredita que, considerando os benefícios e os riscos na tomada de decisões sobre como desenvolver e implantar IA avançada “, escreve Meta no documento,” é possível oferecer essa tecnologia à sociedade de uma maneira que preserve os benefícios dessa tecnologia para a sociedade ao mesmo tempo em que mantém um nível de risco apropriado. ”
O Strong The One tem um boletim informativo focado na IA! Inscreva -se aqui para obtê -lo em sua caixa de entrada toda quarta -feira.
.