Ciência e Tecnologia

OpenAI pode ‘ajustar’ suas salvaguardas se a liberação de rivais ‘de alto risco’ ai

.

Em um Atualizar para sua estrutura de preparaçãoa estrutura interna OpenAI usa para decidir se os modelos de IA são seguros e quais salvaguardas, se houver, são necessárias durante o desenvolvimento e o lançamento, o OpenAI disse que pode “ajustar” seus requisitos se um Rival AI Lab for lançado um sistema de “alto risco” sem salvaguardas comparáveis.

A mudança reflete as crescentes pressões competitivas nos desenvolvedores comerciais de IA para implantar modelos rapidamente. Openai tem sido acusado de reduzir os padrões de segurança a favor de lançamentos mais rápidos e de não fornecer relatórios oportunos detalhando seus testes de segurança.

Talvez antecipando críticas, o OpenAI afirma que não tornaria esses ajustes de política de ânimo leve e que manteria suas salvaguardas em “um nível mais protetor”.

“Se outro desenvolvedor de IA da Frontier lançar um sistema de alto risco sem salvaguardas comparáveis, podemos ajustar nossos requisitos”, escreveu o OpenAi em um Postagem do blog publicado terça -feira à tarde. “No entanto, primeiro confirmaríamos rigorosamente que o cenário de risco realmente mudou, reconhecemos publicamente que estamos fazendo um ajuste, avaliar que o ajuste não aumenta de maneira significativa o risco geral de danos graves e ainda mantemos salvaguardas em um nível mais protetor”.

A estrutura de preparação renovada também deixa claro que o OpenAI está dependendo mais de avaliações automatizadas para acelerar o desenvolvimento do produto. A empresa diz que, embora não tenha abandonado completamente os testes liderados pelo ser humano, construiu “um conjunto crescente de avaliações automatizadas” que podem supostamente “acompanhar [a] mais rápido [release] cadência.”

Alguns relatórios contradizem isso. De acordo com o Financial TimesO OpenAI deu aos testadores menos de uma semana para verificações de segurança para um próximo modelo – uma linha do tempo comprimida em comparação com os lançamentos anteriores. As fontes da publicação também alegaram que muitos dos testes de segurança do OpenAI agora são realizados em versões anteriores dos modelos do que as versões lançadas ao público.

Em declarações, o OpenAI contestou a noção de que se comprometeu com a segurança.

Outras alterações na estrutura do OpenAI dizem respeito à forma como a empresa categoriza os modelos de acordo com o risco, incluindo modelos que podem ocultar suas capacidades, evitar salvaguardas, impedir seu desligamento e até auto-replicar. O Openai diz que agora se concentrará se os modelos atingem um dos dois limites: capacidade “alta” ou capacidade “crítica”.

A definição de Openai do primeiro é um modelo que pode “ampliar os caminhos existentes para danos graves”. Estes últimos são modelos que “introduzem novos caminhos sem precedentes para danos graves”, de acordo com a empresa.

“Os sistemas cobertos que atingem alta capacidade devem ter salvaguardas que minimizem suficientemente o risco associado de danos graves antes de serem implantados”, escreveu o OpenAI em sua postagem no blog. “Os sistemas que atingem a capacidade crítica também exigem salvaguardas que minimizem suficientemente os riscos associados durante o desenvolvimento”.

As atualizações são o primeiro OpenAI que foi feito para a estrutura de preparação desde 2023. Naquele ano, o OpenAi reformulou a estrutura para mostrar um caminho claro para identificar, analisar e decidir como abordar o risco de modelo “catastrófico”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo