.

Difusão estável
Na terça-feira, o Center for AI Safety (CAIS) divulgou uma declaração de uma única frase assinada por executivos da OpenAI e DeepMind, vencedores do Prêmio Turing e outros pesquisadores de IA, alertando que o trabalho de suas vidas poderia extinguir toda a humanidade.
A breve declaração, que o CAIS diz ter como objetivo abrir a discussão sobre o tema “um amplo espectro de riscos importantes e urgentes da IA”, diz o seguinte: “Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outras riscos de escala, como pandemias e guerra nuclear.”
Os signatários de alto nível da declaração incluem os vencedores do Turing Award Geoffery Hinton e Yoshua Bengio, CEO da OpenAI Sam Altman, cientista-chefe da OpenAI Ilya Sutskever, CTO da OpenAI Mira Murati, CEO da DeepMind Demis Hassabis, CEO da Anthropic Dario Amodei e professores da UC Berkeley, Stanford , e MIT.
Esta declaração vem enquanto Altman viaja pelo mundo, tendo reuniões com chefes de estado sobre IA e seus perigos potenciais. No início de maio, Altman defendeu a regulamentação de seu setor no Senado dos Estados Unidos.
Pela sua curta extensão, a carta aberta do CAIS destaca-se pelo que não contém. Por exemplo, não especifica exatamente o que significa “IA”, considerando que o termo pode se aplicar a qualquer coisa, desde movimentos fantasmas em Pac-Man a modelos de linguagem que podem escrever sonetos no estilo de um gângster esperto dos anos 1940. A carta também não sugere como os riscos de extinção podem ser mitigados, apenas que deve ser uma “prioridade global”.
No entanto, em um comunicado de imprensa relacionado, o CAIS diz que deseja “colocar grades de proteção e estabelecer instituições para que os riscos da IA não nos peguem desprevenidos” e compara o alerta sobre a IA ao alerta de J. Robert Oppenheimer sobre os efeitos potenciais da bomba atômica.
Especialistas em ética de IA não acham graça

Difusão estável
Esta não é a primeira carta aberta sobre perigos hipotéticos de IA de fim mundial que vimos este ano. Em março, o Future of Life Institute divulgou uma declaração mais detalhada assinada por Elon Musk que defendia uma pausa de seis meses nos modelos de IA “mais poderosos que o GPT-4”, que recebeu ampla cobertura da imprensa, mas também recebeu uma resposta cética. de alguns membros da comunidade de aprendizado de máquina.
Os especialistas que frequentemente se concentram na ética da IA não se divertem com essa tendência emergente de cartas abertas.
A Dra. Sasha Luccioni, pesquisadora de aprendizado de máquina da Hugging Face, compara a nova carta do CAIS a um truque de mágica: “Antes de tudo, mencionar o risco existencial hipotético da IA ao mesmo tempo que riscos muito tangíveis, como pandemias e mudanças climáticas , que são muito frescos e viscerais para o público, dão mais credibilidade”, diz ela. “Também é uma má orientação, atraindo a atenção do público para uma coisa (riscos futuros) para que eles não pensem em outra (riscos atuais tangíveis, como preconceito, questões legais e consentimento)”.
.








