technology

TechScape: Teme-se que a IA seja apocalíptica ou anunciada como capaz de mudar o mundo – talvez não seja nenhuma das duas | Inteligência Artificial (IA)

.

E se IA não remodelar fundamentalmente a civilização?

Esta semana, conversei com Geoffrey Hinton, o psicólogo inglês que se tornou cientista da computação cujo trabalho em redes neurais na década de 1980 preparou o terreno para a explosão das capacidades de IA na última década. Hinton queria falar para passar uma mensagem ao mundo: ele tem medo da tecnologia que ajudou a criar.

Você precisa imaginar algo mais inteligente que nós pela mesma diferença que somos mais inteligentes que um sapo. E vai aprender com a web, vai ter lido todos os livros que já foram escritos sobre como manipular as pessoas, e também viu isso na prática.”

Ele agora acha que o momento crítico chegará nos próximos cinco a 20 anos, diz ele. “Mas eu não descartaria um ou dois anos. E eu ainda não descartaria 100 anos – é só que minha confiança de que isso não aconteceria por um bom tempo foi abalada pela percepção de que a inteligência biológica e a inteligência digital são muito diferentes, e a inteligência digital é provavelmente muito melhor. ”

Hinton não é a primeira grande figura no desenvolvimento de IA a soar o alarme e não será a última. A melhoria inegável – e acelerada – na tecnologia subjacente se presta facilmente a visões de progresso sem fim. A clara possibilidade de um efeito volante, em que o próprio progresso gera mais progresso, aumenta o potencial. Os pesquisadores já estão vendo bons resultados, por exemplo, no uso de dados gerados por IA para treinar novos modelos de IA, enquanto outros estão incorporando sistemas de IA em tudo, desde o design de chips até as operações do data center.

Outro grupo de trabalhadores de IA concorda com a premissa, mas nega a conclusão. Sim, a IA mudará o mundo, mas não há nada a temer quanto a isso. Essa visão – amplamente agrupada sob o rótulo de “singularitarista” – é que o desenvolvimento da IA ​​representa um grande salto na capacidade humana, mas não necessariamente assustador. Um mundo em que IAs poderosas acabem com o sofrimento humano está ao nosso alcance, dizem eles, seja porque nos carregamos para um paraíso digital ou simplesmente permitimos que as máquinas lidem com todo o trabalho árduo da existência humana e vivam em uma utopia de sua criação.

(Uma visão minoritária é que a IA realmente acabará com a humanidade e isso também é bom. Assim como um pai não teme que seu filho herde o mundo, devemos ficar felizes, em vez de temer, que uma inteligência criada por humanos supere nós e sobrevivemos a nós. “Aceleracionistas eficazes” veem seu papel como parteiras de um deus. Nem sempre está claro o quão sincero eles estão sendo.)

Uma resposta é simplesmente negar tudo. Se o progresso da IA ​​for superestimado ou se os ganhos tecnológicos provavelmente estagnarem, não precisamos nos preocupar. A história está repleta de exemplos de progresso que pareciam intermináveis, mas em vez disso atingiram limites rígidos que ninguém havia previsto. Você não pode levar uma máquina a vapor para a lua, você não tem um carro voador e uma máquina de lavar movida a energia nuclear é uma má ideia por vários motivos. Já podemos ver potenciais obstáculos no horizonte: se o GPT-4 é treinado em uma parte apreciável de todo o texto digitalizado existente, o que resta para o GPT-5?

Mas estou mais interessado no meio termo. A maioria das tecnologias não acaba com o mundo. (Na verdade, até agora, a humanidade tem uma taxa de acerto de 100% por não se destruir, mas resultados passados ​​podem não ser indicativos de desempenho futuro.) Muitas tecnologias realmente mudam o mundo. Como esse meio-termo pode mudar para a IA?

IA ‘pequena’ v ‘gigantes’

Para mim, a resposta deu certo quando li um documento vazado supostamente de um engenheiro do Google avaliando as esperanças da empresa de vencer a corrida da IA. Do nosso artigo:

Um documento de um engenheiro do Google que vazou online disse que a empresa havia “olhado muito por cima dos ombros na OpenAI”, referindo-se ao desenvolvedor do chatbot ChatGPT.

“A verdade desconfortável é que não estamos posicionados para vencer esta corrida armamentista e nem a OpenAI. Enquanto brigávamos, uma terceira facção estava silenciosamente comendo nosso almoço”, escreveu o engenheiro.

O engenheiro continuou afirmando que a “terceira facção” que representava uma ameaça competitiva ao Google e à OpenAI era a comunidade de código aberto.

O documento está online e eu o encorajo a dar uma lida se estiver interessado nos detalhes práticos da competição de IA. Há muitos detalhes granulares sobre por que o autor anônimo acha que o Google e a OpenAI podem estar em um caminho perdido, desde avanços em “ajuste fino” e distribuição até a facilidade com que se pode adaptar um modelo de código aberto a um modelo hiperespecífico. caso de uso.

Uma passagem em particular chamou minha atenção:

Modelos gigantes estão nos atrasando. A longo prazo, os melhores modelos são aqueles que podem ser iterados rapidamente. Devemos fazer pequenas variantes mais do que uma reflexão tardia, agora que sabemos o que é possível no regime de parâmetro <20B.

O autor do memorando está focado em uma possibilidade – que modelos “pequenos” de IA irão, em virtude de serem distribuídos entre muitos usuários e mais facilmente retreinados para nichos específicos, eventualmente alcançar e ultrapassar os modelos “gigantes” como GPT-4 ou o próprio LaMDA do Google, que representam o que há de mais moderno na área.

Mas há outra possibilidade que vale a pena explorar: eles não vão, e vão “ganhar” de qualquer maneira.

Um modelo de linguagem grande como o GPT-4 é incrivelmente poderoso, mas ridiculamente falho. Apesar dos bilhões literais jogados no sistema, ele ainda é propenso a erros básicos como alucinações, ainda não entenderá instruções simples e continuará tropeçando em conceitos básicos. A história da próxima década de investimento em grandes modelos de linguagem será jogar dinheiro em um poço para eliminar cada vez mais desses modos de falha. Gastar um bilhão de dólares o levará de 99% a 99,9% de precisão. Gastar outros 10 bilhões pode levar você a 99,99%. Gastar mais 100 bilhões pode levar você a 99,999%.

pule a promoção do boletim informativo

Enquanto isso, a versão 99% OK do sistema de IA, que já foi bloqueada atrás de um acesso pago no site da OpenAI, filtra a comunidade de código aberto até que esteja no seu iPhone, rodando localmente e sendo retreinado em suas comunicações pessoais todas as manhãs, aprendendo como você fala e pensa sem que nenhum dado seja compartilhado com OpenAI ou Google.

AI A-OK?

Essa visão de futuro coloca a “IA superinteligente” como uma classe de problema semelhante ao “carro autônomo”, mas com um cenário muito diferente. O problema que assola a indústria de tecnologia é que um carro autônomo que é 99% seguro é inútil. Você não tem escolha a não ser continuar o desenvolvimento, investindo cada vez mais dinheiro no problema, até que finalmente desenvolva um sistema que não seja apenas mais seguro do que um motorista humano, mas tão seguro que ninguém vivo verá os momentos inexplicáveis ​​em que ele falha horrivelmente. e dirige a toda velocidade contra uma parede sem motivo aparente.

Uma IA generativa não é assim. Ninguém morre se o seu mecanismo de busca de música com inteligência artificial rotular Taylor Swift como “electroclash”. Nenhum património é destruído se o poema que pedes ao GPT para o cartão de despedida de um colega tiver um contador de lixo. Ninguém vai processar se o personagem de desenho animado no pôster gerado por IA para a festa de aniversário do seu filho tiver dois polegares.

Ainda haverá motivação para jogar maços de dinheiro nos problemas difíceis. Mas para o uso do dia-a-dia, pequeno, barato e ágil poderia bater grande, caro e impecável. E na escala da indústria de tecnologia de consumo, isso pode ser suficiente para dobrar o arco do futuro de uma maneira muito diferente.

Pense, talvez, em vôo supersônico. Não há razão puramente tecnológica para que a travessia transatlântica mais rápida seja várias horas mais lenta agora do que quando nasci. Mas uma combinação de comportamento do consumidor, a economia da indústria, o estado regulatório e a simples dificuldade de aumentar constantemente a velocidade de voo significa que sim. Em vez disso, o mundo otimizou outras coisas: conforto, economia de combustível, segurança e flexibilidade assumiram a liderança.

Ainda existe o potencial para o desastre nessa visão do mundo. Talvez o acúmulo de melhorias pequenas e baratas nos modelos leves e ágeis de IA ainda nos leve inexoravelmente à superinteligência. Ou talvez ainda haja clientes suficientes dispostos a gastar um trilhão de dólares para adicionar outra fração de um por cento de confiabilidade a um sistema de IA para que o mundo enfrente um risco existencial de qualquer maneira.

Mas o cenário central para qualquer nova tecnologia, penso eu, deve começar com a suposição de que o mundo do ano que vem ainda se parecerá muito com o mundo deste ano. Afinal, ainda não acordei morto.

Se você quiser ler a versão completa do boletim informativo, inscreva-se para receber o TechScape em sua caixa de entrada todas as terças-feiras

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo