technology

Meredith Whittaker, da Signal: ‘Essas são as pessoas que realmente poderiam pausar a IA se quisessem’ | Inteligência Artificial (IA)

.

Meredith Whittaker é o presidente da Signal – o aplicativo de mensagens seguras sem fins lucrativos. O serviço, juntamente com o WhatsApp e plataformas de mensagens semelhantes, se opõe ao projeto de lei de segurança online do governo do Reino Unido que, entre outras coisas, procura escanear as mensagens dos usuários em busca de conteúdo nocivo. Antes da Signal, Whittaker trabalhou no Google, cofundou o AI Now Institute da NYU e foi consultor da Federal Trade Commission.

Após 10 anos no Google, você organizou a paralisação da empresa atitude em relação às acusações de assédio sexual, após as quais em 2019 você foi forçado a sair. Como você se sentiu sobre isso?
Deixe-me voltar a alguns detalhes, porque há uma espécie de história ampla e é importante neste momento. Eu dirigia um grupo de pesquisa que analisava as implicações sociais da IA. Eu era bastante conhecido dentro e fora da empresa como alguém que discutia essas questões de maneiras contrárias às mensagens públicas do Google. Eu era um dissidente interno, um acadêmico.

No final de 2017, um colega me avisou que havia um contrato secreto [known as Maven] entre o Google e o Departamento de Defesa [DOD] para construir sistemas de IA para direcionamento de drones. Isso para mim foi quando minha organização começou, porque percebi que estava apresentando argumentos muito claros com os quais as pessoas concordavam… mas isso realmente não importava. Esta não era uma questão de força de argumento. Esta foi uma questão dos objetivos finais desta empresa: lucro e crescimento, e os contratos do DOD sempre iriam superar essas considerações intelectuais e morais.

Então foi quando você começou a organizar uma paralisação?
O que você faz se não tem o poder de mudá-lo, mesmo que vença o debate? Foi aí que a organização começou para mim. Eu escrevi a carta Maven [which gathered 3,000 employee signatures] e cancelamos o contrato do Maven.

A paralisação foi um grande espetáculo. Houve uma notícia sobre Andy Rubin recebendo um pagamento de $ 90 milhões (£ 72 milhões) após uma acusação de má conduta sexual [which he denies]. O que veio à tona foram profundas preocupações sobre a direção moral e ética das práticas de negócios do Google e um entendimento de que esses lapsos morais e éticos também se refletiam na cultura do local de trabalho.

Como eu me senti sobre isso? Estou muito feliz. Não fiquei parado e deixei minha integridade ser corroída dando desculpas por ser cúmplice.

Você diria que o Google é bastante típico de grandes empresas de tecnologia, que eles só estão realmente preocupados com questões morais e éticas se afetarem seus resultados financeiros?
Em última análise, a cada trimestre, os executivos do Google se reúnem com o conselho e precisam apresentar as projeções corretas de crescimento e receita. Esses são os principais objetivos do capitalismo de acionistas. Se Sundar [Pichai, Google CEO] foi ao conselho e disse: “Moralmente, precisamos deixar US$ 10 bilhões na mesa. Deixe a Microsoft ficar com este contrato”, ele seria demitido em um instante. Não é uma forma ou um conjunto de objetivos que será passível de colocar o bem social em primeiro lugar.

Não há um caso de negócios para erradicar o assédio sexual, ter uma força de trabalho diversificada, corrigir preconceitos em algoritmos e assim por diante?
Não existe uma janela cartesiana de neutralidade na qual você possa colocar um algoritmo atrás e dizer: “Isso está fora do nosso presente e história”. Esses algoritmos são treinados em dados que refletem não o mundo, mas a internet – o que é pior, sem dúvida. Isso vai codificar as histórias históricas e atuais de marginalização, desigualdade, etc. Não há como sair disso e depois dizer: “Este é um algoritmo puro e imparcial”, porque os dados são de autoria de pessoas . Sempre será uma reciclagem do passado e depois cuspi-lo, projetando-o no presente.

Podemos dizer que há um caso de negócios, mas sejamos realistas. Se você vai ver uma força de trabalho transformada em nome da igualdade, há muitos poderosos que terão que perder seu cargo, ou seu status, ou seu salário. Vivemos em um mundo onde as pessoas são misóginas e racistas. Onde há comportamento de alguns que assumem que mulheres ou homens não brancos não deveriam estar na sala. Eles estão ganhando bilhões de dólares agora. Não podemos deixar isso para um caso de negócios, eu acho, é o argumento que estou fazendo.

Então, em 2020-21, quando Timnit Gebru e Margaret Mitchell da unidade de ética de IA do Google foram expulsos após alertar sobre as desigualdades perpetuadas pela IA, você sentiu: “Ah, lá vamos nós de novo”?
Timnit e sua equipe estavam fazendo um trabalho que mostrava o potencial de dano ambiental e social desses grandes modelos de linguagem – que são o combustível do hype da IA ​​neste momento. O que você viu lá foi um caso muito claro de quanto o Google toleraria em termos de pessoas criticando esses sistemas. Não importava que as questões apontadas por ela e seus coautores fossem extraordinariamente válidas e reais. É que o Google disse: “Ei, não queremos metabolizar isso agora.”

É interessante para você como seus avisos foram recebidos em comparação com os temores de risco existencial expressos pelo ex-Google “padrinho da IA” Geoffrei Hinton recentemente?
Se você atendesse aos avisos da Timnit, teria que mudar significativamente os negócios e a estrutura dessas empresas. Se você prestar atenção aos avisos de Geoff, você se senta em torno de uma mesa em Davos e sente medo.

Os avisos de Geoff são muito mais convenientes, porque projetam tudo em um futuro distante, deixando o status quo intacto. E se o status quo permanecer intocado, você verá essas empresas e seus sistemas fortalecerem ainda mais seu domínio de tal forma que se torne impossível regulá-lo. Esta não é uma narrativa inconveniente.

Depois do Google, você foi nomeado consultor sêniorer em AI na Federal Trade Commission (FTC). Você achou o processo de tentar regular a desilusão?
Eu não vim com óculos cor de rosa. Eu tenho falado com pessoas no Congresso, na FTC e em várias agências federais por anos e, a certa altura, testemunhei perante o Congresso. Eu não era novo, não estava vindo para DC com uma mala e um sonho, mas isso me deu uma noção de como a oposição era feroz. Eu direi que no minuto em que foi anunciado que eu estava recebendo o cargo da FTC, os artigos de notícias de extrema-direita caíram. O bat-sinal disparou.

Claro, não sou o único. escritório da Lina [Khan, FTC chair] foi inundado com isso. Mas dentro de uma agência onde há uma visão, onde há uma análise que não é baseada em ficção científica, mas na compreensão desses sistemas e dessa indústria, houve uma enorme oposição. Isso veio de lobistas de tecnologia, da Câmara de Comércio, de algumas pessoas da FTC que gostariam de conseguir um bom emprego de conselheiro geral em uma empresa e não querem seu nome em algo que pode ser visto como anti-negócios. Havia uma grande visão lá, mas o maquinário é difícil de operar nessas condições.

Ao contrário de muitos outros empresários e acadêmicos de tecnologia, você não assinou nenhuma das duas petições recentes, o Carta de “pausa AI” do instituto Future of Life ou mês passadode Centro de Segurança de IA carta de “ameaça existencial”.
Não. Eu não acho que eles são de boa fé. Essas são as pessoas que poderiam realmente pausar se quisessem. Eles poderiam desconectar os centros de dados. Eles poderiam denunciar. Estas são algumas das pessoas mais poderosas quando se trata de ter as alavancas para realmente mudar isso, então é um pouco como o presidente emitir uma declaração dizendo que alguém precisa emitir uma ordem executiva. É falso.

O que o atraiu ao assumir o cargo na Signal?
Estou no conselho deles há vários anos. O Signal desempenha um papel importante na redução de danos ao fornecer um mecanismo para comunicações verdadeiramente privadas em um mundo onde, nos últimos 30 anos, grandes corporações tomaram as decisões por nós de que todas as nossas comunicações, nossas atividades etc. devem ser vigiadas.

Você ameaçou retirar o Signal do Reino Unido se o on-line segurança projeto de lei que atualmente está em tramitação no parlamento é aprovado.
Vou repetir o que disse, que não era bem a manchete. Nunca iremos minar nossas promessas de privacidade. Nunca adulteraremos nossa criptografia, nunca participaremos de nenhum regime que obrigaria a quebrar essas promessas.

O projeto de lei propõe que as mensagens dos usuários sejam verificadas “do lado do cliente” – ou seja, no telefone – e as mensagens seriam criptografadas quando enviadas…
As alegações feitas sobre a varredura do lado do cliente, de que ela pode proteger a privacidade e, ao mesmo tempo, conduzir vigilância em massa, é um pensamento mágico. É cinicamente armar uma distinção semântica sem sentido entre vigilância em massa que acontece antes que a criptografia entre em vigor e quebrar a criptografia. Você tem políticos por aí dizendo: “Isso não quebra a criptografia, não se preocupe”. Isso é extraordinariamente desonesto.

E a moderação em outras esferas não funciona particularmente bem – mensagens de varredura de software AI e, em seguida, casos difíceis sendo encaminhados para humanos…
Este sistema nunca poderia funcionar sem grandes quantidades de intervenção humana. O que você está vendo é um sistema impensavelmente caro que precisaria de trabalho humano constante, atualização constante. Você está vendo centenas de milhares de pessoas sendo bloqueadas em suas contas sem recurso, prejudicando a vida diária, o emprego e a economia das pessoas. Isso é uma fantasia inventada por pessoas que não entendem como esses sistemas realmente funcionam, como são caros e como são falíveis.

O que está ajudando a impulsionar isso, ajudando isso a parecer plausível, é o hype da IA. Isso é pintar esses sistemas como sobre-humanos, super-capazes, o que leva a uma sensação no público, e até mesmo entre alguns políticos, de que a tecnologia pode fazer qualquer coisa.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo