News

6 conclusões da audiência do Senado da OpenAI

.

Aparentemente, uma das capacidades extraordinárias da IA ​​generativa é unificar os políticos, o público e o setor privado para regulá-la.

Vimos isso hoje em uma Comissão de Justiça do Senado audição(abre em uma nova aba) sobre como governar a IA. O CEO da OpenAI, Sam Altman, a diretora de privacidade e confiança da IBM, Christina Montgomery, e o professor emérito da NYU, Gary Marcus, testemunharam perante o subcomitê de privacidade, tecnologia e direito sobre o que fazer agora que a IA generativa foi libertada da Caixa de Pandora. Altman foi aberto e cooperativo, até defendendo a regulamentação do ChatGPT e da IA ​​generativa. Mas isso pareceu ter um efeito desarmante sobre o subcomitê, que fazia principalmente perguntas de softball.

A audiência de três horas abordou os muitos riscos que a IA generativa representa para a sociedade e como nosso país pode navegar com sucesso na próxima revolução industrial. Infelizmente, lidar com tantos problemas em um ambiente significava que mal havia tempo para aprofundar as preocupações predominantes, como substituição de empregos, lei de direitos autorais e, sim, segurança nacional. Aqui estão os destaques:

1. Os comentários iniciais do senador Blumenthal incluíram um deepfake

O senador Richard Blumenthal deu início à audiência com talento dramático, reproduzindo uma gravação deepfake de sua voz falando sobre o ChatGPT. A gravação foi feita com o áudio de suas falas e as falas foram geradas pelo ChatGPT que foi questionado sobre como Blumenthal abriria a audiência. Liderar com deepfake deu o tom para o restante da audiência, destacando as capacidades impressionantes da IA ​​generativa e como ela pode ser perigosa se não for controlada.

2. Toda a questão da substituição do emprego permanece sem solução

Uma das principais preocupações sobre o ChatGPT e a IA generativa são os trabalhos que substituirá ao automatizar tarefas. Quando perguntado se isso era uma preocupação, a visão de Altman era que a IA poderia substituir empregos, mas criar novos: “Acredito que haverá empregos muito maiores do outro lado disso e que os empregos de hoje ficarão melhores”. Montgomery acrescentou que a coisa mais importante que devemos fazer é preparar a força de trabalho para habilidades relacionadas à IA por meio de treinamento e educação.

Mas a quem cabe essa responsabilidade não foi dito. “Acho que vai exigir parceria entre a indústria e o governo, mas principalmente ação do governo para descobrir como queremos mitigar isso”, disse Altman. Em outras palavras, isso não é problema da OpenAI.

3. Todos concordam que a IA precisa ser regulamentada

O senador Dick Durbin abriu seus comentários observando a conversa cooperativa incomum entre os setores público e privado. “Não me lembro de quando tivemos pessoas representando grandes corporações ou entidades do setor privado diante de nós e nos implorando para regulá-las.” Apelar para a regulamentação pode ter sido um exagero, mas Altman e Montgomery mostraram que estavam de bom grado e às vezes entusiasticamente abertos à supervisão do governo.

Isso foi além de banalidades gerais. Altman disse acreditar que a Seção 230 não se aplica à IA generativa, o que significa que as empresas que oferecem essa tecnologia devem ser responsabilizadas e que deve haver uma estrutura totalmente nova para o conteúdo criado pela IA generativa.

Isso pode ser interpretado como um exemplo bem-sucedido de freios e contrapesos democráticos no trabalho, mas também enfatiza o quão séria é a ameaça da IA ​​– e o quanto empresas como a OpenAI sentem a necessidade de se proteger de responsabilidades.

Uma regulamentação dessa magnitude pode até levar à criação de uma nova agência federal como a Food and Drug Administration, proposta de Marcus. “Minha opinião é que provavelmente precisamos de uma organização em nível de gabinete nos Estados Unidos para lidar com isso. E meu raciocínio é que o número de riscos é grande, a quantidade de informações a serem mantidas é tanta que acho que precisamos de muita experiência técnica, acho que precisamos de muita coordenação desses esforços.”

Outra ideia que surgiu foi o licenciamento para IA generativa, semelhante ao licenciamento para operações de energia nuclear.

4. A desinformação é uma grande preocupação, especialmente com as eleições se aproximando

Um dos temas subjacentes da audiência foi como aprender com os erros que o Congresso cometeu ao não responsabilizar as empresas de mídia social pela moderação de conteúdo, o que levou à desinformação desenfreada durante as eleições de 2016 e 2020. O potencial da IA ​​generativa para criar e espalhar informações imprecisas ou tendenciosas em grande escala é real e iminente, a menos que seja abordado agora.

“Dado que vamos enfrentar uma eleição no ano que vem e esses modelos estão melhorando. Acho que essa é uma área significativa de preocupação”, disse Altman. Ele está aberto a “rótulos nutricionais” sobre a natureza e a fonte do conteúdo generativo de IA de terceiros, mas Marcus acredita que a raiz do problema é a transparência e o acesso ao funcionamento do algoritmo. “Uma das coisas que mais me preocupam com o GPT. Quatro é que não sabemos em que ele é treinado, acho que Sam sabe, mas o resto de nós não. E o que é treinado tem consequências para essencialmente os vieses do sistema.”

5. A senadora Marsha Blackburn ama Garth Brooks e a senadora Mazie Hinono ama BTS

Os membros do comitê não resistiram à chance de acrescentar um pouco de leviandade à seriedade da audiência. Os senadores Cory Booker e Jon Ossoff lançaram suavemente seu bromance chamando um ao outro de bonito e brilhante. O senador Peter Welch fez um comentário autodepreciativo sobre seu interesse na audiência, dizendo: “Os senadores são conhecidos por sua falta de atenção, mas eu assisti a audiência inteira e aproveitei cada minuto dela.”

Ao perguntar a Altman sobre a ferramenta de música automatizada Jukebox da OpenAI e a lei de direitos autorais, Blackburn expressou preocupação sobre a propriedade de uma música criada com o estilo e a voz de seu artista favorito Garth Brooks. Hinono estava igualmente preocupada com músicas deepfake criadas para soar como sua banda favorita BTS. Apesar de ser estranho ouvir o famoso cantor de música country e sensação do K-Pop mencionado neste contexto, Blackburn e Hinono levantaram pontos válidos sobre propriedade intelectual.

6. A segurança nacional é muito grande para cobrir hoje

A audiência de três horas cobriu tantos riscos de IA generativa que Blumenthal apenas mencionou sua ameaça à segurança nacional em seus comentários finais, dizendo: “as fontes de ameaças a esta nação neste espaço são muito reais e urgentes. Não vamos lidar com eles hoje, mas nós precisamos lidar com eles.”

A audiência abordou uma vasta gama de questões que a IA generativa poderia impactar: ​​emprego, desinformação, propriedade intelectual, privacidade, segurança, preconceito e discriminação, mas a sessão de três horas não foi tempo suficiente para abordar como isso poderia afetar a economia ou ameaças. de adversários globais.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo