.
Um especialista em IA acusou o OpenAi de reescrever sua história e ser excessivamente desprezível de preocupações de segurança.
O ex -pesquisador de políticas do OpenAI Miles Brundage criticou o recente documento de segurança e alinhamento da empresa publicado nesta semana. O documento descreve o OpenAI como buscando a Inteligência Geral Artificial (AGI) em muitos pequenos passos, em vez de dar “um salto gigante”, dizendo que o processo de implantação iterativa permitirá que ele capture problemas de segurança e examine o potencial de uso indevido de IA em cada estágio.
Entre as muitas críticas à tecnologia de IA, como o ChatGPT, os especialistas estão preocupados com o fato de os chatbots fornecerem informações imprecisas sobre saúde e segurança (como o problema infame com o recurso de pesquisa de IA do Google, que instruiu as pessoas a comer rochas) e que elas poderiam ser usadas para manipulação política, desinformação e golpes. O OpenAI, em particular, atraiu críticas por falta de transparência na maneira como desenvolve seus modelos de IA, que podem conter dados pessoais sensíveis.
O lançamento do documento OpenAI nesta semana parece ser uma resposta a essas preocupações, e o documento implica que o desenvolvimento do modelo GPT-2 anterior foi “descontínuo” e que não foi lançado inicialmente devido a “preocupações sobre aplicações maliciosas”, mas agora a empresa estará se movendo para um princípio de desenvolvimento iterativo. Mas Brundage afirma que o documento está alterando a narrativa e não é uma representação precisa da história do desenvolvimento da IA no OpenAI.
“O lançamento do GPT-2 pelo Openai, em que eu estava envolvido, foi 100% consistente + prenúncia a filosofia atual da implantação iterativa do OpenAI”, escreveu Brundage sobre X. “O modelo foi lançado incrementalmente, com lições compartilhadas em cada etapa. Muitos especialistas em segurança na época nos agradeceram por essa cautela. ”
Brundage também criticou a aparente abordagem da empresa de risco com base neste documento, escrevendo que: “Parece que há um ônus da prova que está sendo configurado nesta seção, onde as preocupações são alarmistas + você precisa de evidências esmagadoras de perigos iminentes para agir sobre eles – caso contrário, continue sendo o envio. Essa é uma mentalidade muito perigosa para sistemas avançados de IA. ”
Isso ocorre em um momento em que o OpenAI está sob crescente escrutínio com acusações de que prioriza os “produtos brilhantes” sobre a segurança.
.






