.
Um novo estudo AAAI (Associação para o Avanço da Inteligência Artificial) com centenas de pesquisadores contribuintes de IA foi publicado este mês, e o principal argumento é o seguinte: é improvável que nossa abordagem atual da IA nos leve à inteligência geral artificial.
A IA é uma palavra da moda há alguns anos, mas a inteligência artificial como um campo de pesquisa existe há muitas décadas. O famoso artigo de “Máquinas e Inteligência de Computação” de Alan Turing e o teste de Turing sobre o qual ainda falamos hoje, por exemplo, foram publicados em 1950.
A IA que todo mundo fala sobre hoje nasceu dessas décadas de pesquisa, mas também está divergindo deles. Em vez de ser uma busca científica, agora também temos um ramo desviador da inteligência artificial que você poderia chamar de “IA comercial”.

Os esforços na IA comercial são liderados por grandes monopólios de tecnologia como Microsoft, Google, Meta, Apple e Amazon – e seu objetivo principal é criar produtos de IA. Isso não deveria ter que ser um problema, mas no momento, parece que pode ser.
Em primeiro lugar, como a maioria das pessoas nunca seguiu a pesquisa de IA até alguns anos atrás, tudo o que a pessoa comum sabe sobre a IA vem dessas empresas, e não da comunidade científica. O estudo abrange esse tópico no capítulo “Percepção de IA vs. realidade”, com 79% dos cientistas envolvendo acreditar que a percepção atual das capacidades de IA não corresponde à realidade da pesquisa e desenvolvimento da IA.
Em outras palavras, o que o público em geral acha que a IA pode fazer não corresponde ao que os cientistas acham que a IA pode fazer. A razão para isso é tão simples quanto lamentável: quando um grande representante de tecnologia faz uma declaração sobre a IA, não é uma opinião científica – é o marketing de produtos. Eles querem exagerar a tecnologia por trás de seus novos produtos e garantir que todos sintam a necessidade de pular nessa onda.
Quando Sam Altman ou Mark Zuckerberg dizem que os empregos em engenharia de software serão substituídos pela IA, por exemplo, é porque eles querem influenciar os engenheiros a aprender habilidades de IA e influenciar as empresas de tecnologia a investir em caros planos corporativos. Até que eles comecem a substituir seus próprios engenheiros (e se beneficiem), no entanto, eu pessoalmente não ouviria uma palavra que eles dizem sobre o assunto.
Não é apenas a percepção pública que a IA comercial está influenciando, no entanto. Os participantes do estudo acreditam que o “hype da IA” sendo fabricado pela Big Tech está prejudicando os esforços de pesquisa. Por exemplo, 74% concordam que a direção da pesquisa de IA está sendo impulsionada pelo hype – isso é provável porque a pesquisa que se alinha aos objetivos comerciais de IA é mais fácil de financiar. 12% também acreditam que a pesquisa teórica da IA está sofrendo como resultado.
Então, quanto de um problema é esse? Mesmo que grandes empresas de tecnologia estejam influenciando o tipo de pesquisa que fazemos, você acha que as somas extremamente grandes de dinheiro que estão bombando para o campo devem ter um impacto positivo em geral. No entanto, a diversidade é fundamental quando se trata de pesquisa – precisamos seguir todos os tipos de caminhos diferentes para ter uma chance de encontrar o melhor.
Mas a Big Tech está realmente focada em uma coisa no momento – grandes modelos de idiomas. Esse tipo extremamente específico de modelo de IA é o que os poderes quase todos os produtos de IA mais recentes, e figuras como Sam Altman acreditam que escalar esses modelos cada vez mais (ou seja, dando a eles mais dados, mais tempo de treinamento e mais poder de computação) acabará por nos dar inteligência geral artificial.
Essa crença, apelidada de hipótese de escala, diz que quanto mais poder alimentamos uma IA, mais suas habilidades cognitivas aumentarão e mais as taxas de erro diminuirão. Algumas interpretações também dizem que novas habilidades cognitivas surgirão inesperadamente. Portanto, embora os LLMs não sejam ótimos em planejar e pensar em problemas agora, essas habilidades devem emergir em algum momento.
Não há parede
– Sam Altman (@sama) 14 de novembro de 2024
Nos últimos meses, no entanto, a hipótese de escala foi sob incêndio significativo. Alguns cientistas acreditam que o Scaling LLMS nunca levará à AGI e acreditam que todo o poder extra que estamos alimentando novos modelos não está mais produzindo resultados. Em vez disso, atingimos uma “parede de escala” ou “limite de escala”, onde grandes quantidades de potência e dados de computação extras estão produzindo apenas pequenas melhorias em novos modelos. A maioria dos cientistas que participaram do estudo da AAAI está deste lado do argumento:
A maioria dos entrevistados (76%) afirma que “ampliar a IA atuais se aproxima” para produzir AGI é “improvável” ou “muito improvável” para ter sucesso, sugerindo dúvidas sobre se os paradigmas atuais de aprendizado de máquina são suficientes para alcançar a inteligência geral.
Os grandes modelos de idiomas atuais podem produzir respostas muito relevantes e úteis quando as coisas correm bem, mas eles dependem de princípios matemáticos para fazê -lo. Muitos cientistas acreditam que precisaremos de novos algoritmos que usam o raciocínio, a lógica e o conhecimento do mundo real para alcançar uma solução se quisermos progredir mais perto do objetivo da AGI. Aqui está uma citação picante no LLMS e AGI de um artigo de 2022 de Jacob Browning e Yann Lecun.
Um sistema treinado apenas na linguagem nunca se aproximará da inteligência humana, mesmo que seja treinada a partir de agora até a morte por calor do universo.
No entanto, não há uma maneira real de saber quem está aqui – ainda não. Por um lado, a definição de AGI não está em pedra e nem todo mundo está buscando a mesma coisa. Algumas pessoas acreditam que a AGI deve produzir respostas humanas através de métodos semelhantes a humanos-para que observem o mundo ao seu redor e descobrirem problemas de maneira semelhante a nós. Outros acreditam que a AGI deve se concentrar mais nas respostas corretas do que nas respostas humanas e que os métodos que eles usam não devem importar.
De várias maneiras, no entanto, não importa em qual versão da AGI você está interessado ou se você é a favor ou contra a hipótese de escala – ainda precisamos diversificar nossos esforços de pesquisa. Se nos concentrarmos apenas no Scaling LLMS, teremos que começar de novo de zero se não der certo, e poderíamos deixar de descobrir novos métodos mais eficazes ou eficientes. Muitos dos cientistas deste estudo temem que a IA comercial e o hype em torno dele diminuam o progresso real – mas tudo o que podemos fazer é esperar que suas preocupações sejam tratadas e ambos os ramos da pesquisa de IA possam aprender a coexistir e progredir juntos. Bem, você também pode esperar que a bolha da IA explode e todos os produtos tecnológicos movidos a IA desapareçam em irrelevância, se preferir.
.