Ciência e Tecnologia

Os políticos precisam aprender como a IA funciona – rápido

.

Esta semana, EUA os senadores ouviram testemunhos alarmantes sugerindo que a IA não controlada poderia roubar empregos, espalhar informações erradas e geralmente “dar muito errado”, nas palavras do CEO da OpenAI, Sam Altman (o que quer que isso signifique). Ele e vários legisladores concordaram que os EUA podem agora precisar de uma nova agência federal para supervisionar o desenvolvimento da tecnologia. Mas a audiência também viu um acordo de que ninguém quer ajoelhar uma tecnologia que poderia potencialmente aumentar a produtividade e dar aos EUA a liderança em uma nova revolução tecnológica.

Senadores preocupados podem considerar falar com Missy Cummings, uma ex-piloto de caça e professora de engenharia e robótica na George Mason University. Ela estuda o uso de IA e automação em sistemas críticos de segurança, incluindo carros e aeronaves, e no início deste ano voltou à academia após um período na National Highway Traffic Safety Administration, que supervisiona a tecnologia automotiva, incluindo o piloto automático da Tesla e carros autônomos. A perspectiva de Cummings pode ajudar políticos e formuladores de políticas que tentam pesar a promessa de novos algoritmos muito alardeados com os riscos que estão por vir.

Cummings me disse esta semana que deixou a NHTSA com um sentimento de profunda preocupação com os sistemas autônomos que estão sendo implantados por muitos fabricantes de automóveis. “Estamos com sérios problemas em termos de capacidade desses carros”, diz Cummings. “Eles não estão nem perto de serem tão capazes quanto as pessoas pensam que são.”

Fiquei impressionado com os paralelos com o ChatGPT e chatbots semelhantes, alimentando entusiasmo e preocupação com o poder da IA. Os recursos de direção automatizada existem há mais tempo, mas, como grandes modelos de linguagem, eles dependem de algoritmos de aprendizado de máquina que são inerentemente imprevisíveis, difíceis de inspecionar e exigem um tipo diferente de pensamento de engenharia do passado.

Também como o ChatGPT, o piloto automático da Tesla e outros projetos de direção autônoma foram elevados por uma quantidade absurda de hype. Sonhos inebriantes de uma revolução no transporte levaram montadoras, startups e investidores a investir grandes somas no desenvolvimento e implantação de uma tecnologia que ainda tem muitos problemas não resolvidos. Havia um ambiente regulatório permissivo em torno de carros autônomos em meados da década de 2010, com funcionários do governo relutantes em frear uma tecnologia que prometia valer bilhões para as empresas americanas.

Depois de bilhões gastos em tecnologia, os carros autônomos ainda enfrentam problemas, e algumas montadoras cancelaram grandes projetos de autonomia. Enquanto isso, como diz Cummings, o público geralmente não tem clareza sobre o quão capaz a tecnologia semiautônoma realmente é.

Em certo sentido, é bom ver governos e legisladores sendo rápidos em sugerir a regulamentação de ferramentas generativas de IA e grandes modelos de linguagem. O pânico atual está centrado em grandes modelos de linguagem e ferramentas como o ChatGPT, que são notavelmente bons em responder perguntas e resolver problemas, mesmo que ainda tenham deficiências significativas, incluindo a fabricação de fatos com confiança.

Na audiência desta semana no Senado, Altman, da OpenAI, que nos deu o ChatGPT, chegou ao ponto de pedir um sistema de licenciamento para controlar se empresas como a dele podem trabalhar com IA avançada. “Meu maior medo é que nós – o campo, a tecnologia, a indústria – causemos danos significativos ao mundo”, disse Altman durante a audiência.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo