technology

Aquisição de robôs? Não exatamente. Veja como seria o dia do juízo final da IA ​​| Tecnologia

.

AO alarme sobre a inteligência artificial atingiu um pico febril nos últimos meses. Apenas nesta semana, mais de 300 líderes da indústria publicaram uma carta alertando que a IA pode levar à extinção humana e deve ser considerada com a seriedade de “pandemias e guerra nuclear”.

Termos como “AI doomsday” evocam imagens de ficção científica de uma aquisição de robôs, mas como é esse cenário? A realidade, dizem os especialistas, poderia ser mais prolongada e menos cinematográfica – não uma bomba nuclear, mas uma deterioração progressiva das áreas fundamentais da sociedade.

“Não acho que a preocupação seja a IA se tornar maligna ou a IA ter algum tipo de desejo malévolo”, disse Jessica Newman, diretora da Iniciativa de Segurança de Inteligência Artificial da Universidade da Califórnia em Berkeley.

“O perigo vem de algo muito mais simples, que é que as pessoas podem programar a IA para fazer coisas prejudiciais, ou acabamos causando danos ao integrar sistemas de IA inerentemente imprecisos em mais e mais domínios da sociedade”.

Isso não quer dizer que não devamos nos preocupar. Mesmo que cenários de aniquilação da humanidade sejam improváveis, a IA poderosa tem a capacidade de desestabilizar civilizações na forma de desinformação crescente, manipulação de usuários humanos e uma enorme transformação do mercado de trabalho à medida que a IA assume os empregos.

As tecnologias de inteligência artificial existem há décadas, mas a velocidade com que os modelos de aprendizado de idiomas como o ChatGPT entraram no mainstream intensificou as preocupações de longa data. Enquanto isso, as empresas de tecnologia entraram em uma espécie de corrida armamentista, correndo para implementar inteligência artificial em seus produtos para competir umas com as outras, criando uma tempestade perfeita, disse Newman.

“Estou extremamente preocupada com o caminho em que estamos”, disse ela. “Estamos em um momento especialmente perigoso para a IA porque os sistemas estão em um lugar onde parecem impressionantes, mas ainda são surpreendentemente imprecisos e têm vulnerabilidades inerentes.”

Especialistas entrevistados pelo Guardian dizem que essas são as áreas que mais os preocupam.

A desinformação acelera a erosão da verdade

De muitas maneiras, a chamada revolução da IA ​​já está em andamento há algum tempo. O aprendizado de máquina sustenta os algoritmos que moldam nossos feeds de notícias de mídia social – tecnologia que foi responsabilizada por perpetuar o viés de gênero, alimentar a divisão e fomentar a agitação política.

Especialistas alertam que esses problemas não resolvidos só se intensificarão à medida que os modelos de inteligência artificial decolarem. Os piores cenários podem incluir uma erosão de nossa compreensão compartilhada da verdade e informações válidas, levando a mais levantes baseados em falsidades – como ocorreu no ataque de 6 de janeiro ao Capitólio dos EUA. Especialistas alertam que mais turbulências e até mesmo guerras podem ser desencadeadas pelo aumento da desinformação.

“Pode-se argumentar que o colapso da mídia social é nosso primeiro encontro com IA realmente burra – porque os sistemas de recomendação são apenas modelos simples de aprendizado de máquina”, disse Peter Wang, CEO e cofundador da plataforma de ciência de dados Anaconda. “E nós realmente falhamos totalmente naquele encontro.”

mãos seguram telas que dizem 'chatgpt' e 'bard'
Grandes modelos de linguagem como o ChatGPT são propensos a um fenômeno chamado ‘alucinações’, no qual informações falsas ou fabricadas são repetidas. Fotografia: Greg Guy/Alamy

Wang acrescentou que esses erros podem se autoperpetuar, pois os modelos de aprendizado de idiomas são treinados com informações incorretas que criam conjuntos de dados falhos para modelos futuros. Isso pode levar a um efeito de “canibalismo de modelo”, em que os modelos futuros se amplificam e são sempre influenciados pela saída dos modelos anteriores.

A desinformação – simples imprecisões – e a desinformação – informações falsas espalhadas de forma maliciosa com a intenção de enganar – foram amplificadas pela inteligência artificial, dizem os especialistas. Grandes modelos de linguagem como o ChatGPT são propensos a um fenômeno chamado “alucinações”, no qual informações falsas ou fabricadas são repetidas. Um estudo do cão de guarda de credibilidade jornalística NewsGuard identificou dezenas de sites de “notícias” online escritos inteiramente por IA, muitos dos quais continham tais imprecisões.

Esses sistemas podem ser armados por pessoas mal-intencionadas para espalhar desinformação propositalmente em grande escala, disseram Gordon Crovitz e Steven Brill, co-CEOs da NewsGuard. Isso é particularmente preocupante em eventos de notícias de alto risco, como já vimos com a manipulação intencional de informações na guerra Rússia-Ucrânia.

“Você tem atores malignos que podem gerar narrativas falsas e usar o sistema como um multiplicador de força para disseminá-lo em escala”, disse Crovitz. “Existem pessoas que dizem que os perigos da IA ​​estão sendo superestimados, mas no mundo das notícias isso está tendo um impacto impressionante.”

Exemplos recentes variam desde os mais benignos, como a imagem viral gerada por IA do Papa usando uma “jaqueta surrada”, até falsificações com consequências potencialmente mais terríveis, como um vídeo gerado por IA do presidente ucraniano, Volodymyr Zelenskiy, anunciando uma rendição em abril de 2022.

“Desinformação é o indivíduo [AI] dano que tem o maior potencial e maior risco em termos de danos potenciais em larga escala”, disse Rebecca Finlay, da Partnership on AI. “A questão que surge é: como criamos um ecossistema onde somos capazes de entender o que é verdadeiro? Como autenticamos o que vemos online?”

Embora a maioria dos especialistas diga que a desinformação tem sido a preocupação mais imediata e generalizada, há um debate sobre até que ponto a tecnologia pode influenciar negativamente os pensamentos ou o comportamento de seus usuários.

Essas preocupações já estão acontecendo de maneira trágica, depois que um homem na Bélgica se suicidou depois que um chatbot supostamente o encorajou a se matar. Outros incidentes alarmantes foram relatados – incluindo um chatbot dizendo a um usuário para deixar seu parceiro e outro supostamente dizendo a usuários com distúrbios alimentares para perder peso.

Os chatbots são, por design, propensos a gerar mais confiança porque falam com seus usuários de maneira conversacional, disse Newman.

“Os grandes modelos de linguagem são particularmente capazes de persuadir ou manipular as pessoas a mudar ligeiramente suas crenças ou comportamentos”, disse ela. “Precisamos olhar para o impacto cognitivo que isso tem em um mundo que já está tão polarizado e isolado, onde a solidão e a saúde mental são questões enormes.”

O medo, então, não é que os chatbots de IA ganhem consciência e ultrapassem seus usuários, mas que sua linguagem programada possa manipular as pessoas para causar danos que, de outra forma, não causariam. Isso é particularmente preocupante com os sistemas de linguagem que funcionam em um modelo de lucro de publicidade, disse Newman, pois procuram manipular o comportamento do usuário e mantê-lo usando a plataforma o maior tempo possível.

“Existem muitos casos em que um usuário causou danos não porque quis, mas porque foi uma consequência não intencional do sistema que não seguiu os protocolos de segurança”, disse ela.

Newman acrescentou que a natureza humana dos chatbots torna os usuários particularmente suscetíveis à manipulação.

“Se você está falando com algo que está usando pronomes de primeira pessoa e falando sobre seus próprios sentimentos e antecedentes, mesmo que não seja real, é mais provável que provoque um tipo de resposta humana que torna as pessoas mais suscetíveis a querer acreditar”, disse ela. “Isso faz com que as pessoas queiram confiar nele e tratá-lo mais como um amigo do que como uma ferramenta.”

A iminente crise trabalhista: ‘Não há estrutura para sobreviver’

Uma preocupação de longa data é que a automação digital levará um grande número de empregos humanos. A pesquisa varia, com alguns estudos concluindo que a IA poderia substituir o equivalente a 85 milhões de empregos em todo o mundo até 2025 e mais de 300 milhões no longo prazo.

manifestante segura placa que diz “sem IA”
Alguns estudos sugerem que a IA poderia substituir o equivalente a 85 milhões de empregos em todo o mundo até 2025. Fotografia: Wachiwit/Alamy

As indústrias afetadas pela IA são amplas, de roteiristas a cientistas de dados. A IA foi capaz de passar no exame da ordem com pontuações semelhantes aos advogados reais e responder a questões de saúde melhor do que os médicos reais.

Especialistas estão soando o alarme sobre a perda de empregos em massa e a instabilidade política que pode ocorrer com o aumento inabalável da inteligência artificial.

Wang adverte que as demissões em massa ocorrerão em um futuro muito próximo, com um “número de empregos em risco” e pouco plano de como lidar com as consequências.

“Não há nenhuma estrutura na América sobre como sobreviver quando você não tem um emprego”, disse ele. “Isso levará a muita perturbação e muita agitação política. Para mim, essa é a consequência não intencional mais concreta e realista que surge disso”.

Qual o proximo?

Apesar das crescentes preocupações sobre o impacto negativo da tecnologia e da mídia social, muito pouco foi feito nos EUA para regulá-la. Especialistas temem que a inteligência artificial não seja diferente.

“Uma das razões pelas quais muitos de nós nos preocupamos com o lançamento da IA ​​é porque, nos últimos 40 anos, como sociedade, basicamente desistimos de realmente regulamentar a tecnologia”, disse Wang.

Ainda assim, esforços positivos foram feitos pelos legisladores nos últimos meses, com o Congresso chamando o CEO da Open AI, Sam Altman, para testemunhar sobre as salvaguardas que devem ser implementadas. Finlay disse que estava “animada” com tais movimentos, mas disse que mais precisava ser feito para criar protocolos compartilhados sobre a tecnologia de IA e seu lançamento.

“Tão difícil quanto prever cenários apocalípticos, é difícil prever a capacidade de respostas legislativas e regulatórias”, disse ela. “Precisamos de um escrutínio real para esse nível de tecnologia.”

Embora os danos da IA ​​estejam no topo da mente da maioria das pessoas na indústria de inteligência artificial, nem todos os especialistas na área são “apocalípticos”. Muitos estão entusiasmados com as possíveis aplicações da tecnologia.

“Na verdade, acho que esta geração de tecnologia de IA com a qual acabamos de nos deparar pode realmente liberar um grande potencial para a humanidade prosperar em uma escala muito melhor do que vimos nos últimos 100 ou 200 anos”, disse Wang. . “Na verdade, estou muito, muito otimista sobre seu impacto positivo. Mas, ao mesmo tempo, estou olhando para o que a mídia social fez com a sociedade e a cultura e estou extremamente ciente do fato de que existem muitas desvantagens em potencial”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo