.
Durante um jantar recente com líderes empresariais em São Francisco, um comentário que fiz um calafrio sobre a sala. Eu não tinha perguntado aos meus companheiros de jantar nada que eu considerava extremamente falsos: simplesmente se eles achavam que a IA de hoje poderia algum dia alcançar a inteligência humana (ou seja, AGI) ou além.
É um tópico mais controverso do que você imagina.
Em 2025, não há escassez de CEOs de tecnologia que oferecem o estojo de touros para os grandes modelos de idiomas (LLMS), que os chatbots de potência como ChatGPT e Gêmeos poderiam atingir a inteligência de nível humano ou mesmo super-humano sobre o curto prazo. Esses executivos argumentam que a IA altamente capaz trará benefícios sociais generalizados – e amplamente distribuídos.
Por exemplo, Dario Amodei, CEO da Anthropic, escreveu em um ensaio que a IA excepcionalmente poderosa poderia chegar assim que 2026 e ser “mais inteligente do que um vencedor do Prêmio Nobel nos campos mais relevantes”. Enquanto isso, o CEO da Openai, Sam Altman, recentemente reivindicou sua empresa sabe como construir ai “superinteligente” aie previu que pode “acelerar massivamente a descoberta científica.““
No entanto, nem todos acham essas reivindicações otimistas convincentes.
Uma coorte separada de líderes de IA é cética de que os LLMs de hoje possam alcançar a AGI – muito menos superinteligência – exceto algumas inovações novas. Esses líderes historicamente mantiveram um perfil discreto, mas mais começaram a falar recentemente.
Em uma peça deste mês, Thomas Wolf, co-fundador e diretor de ciências do rosto abraçando o rosto, chamou algumas partes da visão de Amodei de “pensamento desejado na melhor das hipóteses”. Informado por sua pesquisa de doutorado em física estatística e quântica, Wolf acha que os avanços no nível do Prêmio Nobel não vêm de responder a perguntas conhecidas-algo em que a IA se destaca-, mas em fazer perguntas que ninguém pensou em fazer.
Na opinião de Wolf, os LLMs de hoje não estão à altura da tarefa.
“Eu adoraria ver esse ‘modelo Einstein’ por aí, mas precisamos mergulhar nos detalhes de como chegar lá”, disse Wolf ao Strong The One em uma entrevista. “É aí que começa a ser interessante.”
Wolf disse que escreveu a peça porque sentiu que havia muito hype sobre a AGI, e não há uma avaliação séria o suficiente de como realmente chegar lá. Ele acha que, como estão as coisas, há uma possibilidade real de IA transforma o mundo em um futuro próximo, mas não consegue inteligência ou superinteligência em nível humano.
Grande parte do mundo da IA ficou encantada com a promessa da AGI. Aqueles que não acreditam que são possíveis são frequentemente rotulados como “anti-tecnologia”, ou de outra forma amargo e mal informados.
Alguns podem atingir Wolf como um pessimista para essa visão, mas Wolf pensa em si mesmo como um “otimista informado” – alguém que quer levar a IA para a frente sem perder a compreensão da realidade. Certamente, ele não é o único líder de IA com previsões conservadoras sobre a tecnologia.
O CEO do Google Deepmind Demis Hassabis tem teria dito à equipe Isso, na sua opinião, o setor pode estar até uma década de desenvolver a AGI – observando que há muitas tarefas que a IA simplesmente não pode fazer hoje. O cientista da meta -chefe da AI, Yann Lecun, também expressou dúvidas sobre o potencial do LLMS. Falando na NVIDIA GTC na terça -feira, Lecun disse que a idéia de que o LLMS poderia alcançar a AGI era “absurdo” e pedia que as arquiteturas inteiramente novas serviram de base para a superinteligência.
Kenneth Stanley, ex -pesquisador principal do Openai, é uma das pessoas que investigam os detalhes de como criar IA avançada com os modelos de hoje. Ele agora é executivo da Lila Sciences, uma nova startup que levantou US $ 200 milhões em capital de risco Para desbloquear a inovação científica por meio de laboratórios automatizados.
Stanley passa seus dias tentando extrair idéias criativas originais dos modelos de IA, um subcampo de pesquisa de IA chamada abertura. A Lila Sciences visa criar modelos de IA que podem automatizar todo o processo científico, incluindo o primeiro passo – chegando a boas perguntas e hipóteses que acabariam por levar a avanços.
“Eu meio que gostaria de ter escrito [Wolf’s] Ensaio, porque realmente reflete meus sentimentos ”, disse Stanley em entrevista ao Strong The One.“ O que [he] Percebi que ser extremamente experiente e qualificado não levou necessariamente a ter idéias realmente originais. ”
Stanley acredita que a criatividade é um passo fundamental ao longo do caminho para a AGI, mas observa que a construção de um modelo de IA “criativo” é mais fácil dizer do que fazer.
Otimistas como o Amodei apontam para métodos como modelos de “raciocínio” da IA, que usam mais poder de computação para verificar seu trabalho e responder corretamente a certas perguntas de maneira mais consistente, como evidência de que a AGI não está muito longe. No entanto, criar idéias e perguntas originais pode exigir um tipo diferente de inteligência, diz Stanley.
“Se você pensar bem, o raciocínio é quase antitético para [creativity]”Ele acrescentou.“ Os modelos de raciocínio dizem: ‘Aqui está o objetivo do problema, vamos diretamente em direção a esse objetivo’, o que basicamente o impede de ser oportunista e ver coisas fora desse objetivo, para que você possa divergir e ter muitas idéias criativas “.
Para projetar modelos de IA verdadeiramente inteligentes, Stanley sugere que precisamos replicar algoritmicamente o gosto subjetivo de um humano por novas idéias promissoras. Os modelos de IA de hoje têm um bom desempenho em domínios acadêmicos com respostas claras, como matemática e programação. No entanto, Stanley ressalta que é muito mais difícil projetar um modelo de IA para tarefas mais subjetivas que exigem criatividade, que não têm necessariamente uma resposta “correta”.
“As pessoas evitam [subjectivity] Na ciência – a palavra é quase tóxica “, disse Stanley.” Mas não há nada para nos impedir de lidar com a subjetividade [algorithmically]. É apenas parte do fluxo de dados. ”
Stanley diz que está feliz que o campo da abertura está recebendo mais atenção agora, com laboratórios de pesquisa dedicados em Lila Sciences, Google DeepMind e a startup da AI Sakana agora trabalhando no problema. Ele está começando a ver mais pessoas conversando sobre criatividade na IA, ele diz – mas ele acha que há muito mais trabalho a ser feito.
Wolf e Lecun provavelmente concordariam. Chame -os de realistas da IA, se quiser: os líderes da IA se aproximando da AGI e da Superintelligência com perguntas sérias e fundamentadas sobre sua viabilidade. O objetivo deles não é fazer avanços no campo da IA. Em vez disso, é para iniciar uma conversa de grande porte sobre o que está entre os modelos de IA hoje e a AGI-e a super inteligência-e ir atrás desses bloqueadores.
.