Ciência e Tecnologia

Ai pode fazer muitas coisas, mas não pode fazer jogos – ou mesmo jogá -las ainda

.

À medida que as ferramentas de IA melhoram, continuamos sendo incentivados a descarregar tarefas cada vez mais complexas para elas. Os LLMs podem escrever nossos e -mails para nós, criar apresentações, designar aplicativos, gerar vídeos, pesquisar na Internet e resumir os resultados e muito mais. Uma coisa que eles ainda estão realmente lutando, no entanto, são os videogames.

Até agora, este ano, dois dos maiores nomes da IA ​​(Microsoft e Antrópica) tentaram fazer com que seus modelos gerassem ou joguem jogos, e os resultados provavelmente são muito mais limitados do que muitas pessoas esperam.

Isso os torna exibidos perfeitos de onde a IA generativa está realmente agora – em suma: pode fazer muito mais do que antes, mas não pode fazer tudo.

Microsoft gera Quake II

A geração de videogames tem problemas semelhantes à geração de vídeos-o movimento é estranho e morph-y, e a IA começa a perder contato com a “realidade” após um período de tempo definido. A última tentativa da Microsoft, que Qualquer pessoa pode experimentar, é uma versão gerada pela IA do Quake II.

Joguei algumas vezes e é uma experiência verdadeiramente trippy, com inimigos estranhos e borrados aparecendo do nada e o meio ambiente mudando ao seu redor à medida que você se move. Várias vezes, quando entrei em uma nova sala, a entrada desapareceria quando voltei para encará -la – e quando olhava para a frente, as paredes teriam se movido.

A experiência dura apenas alguns minutos antes de cortar e solicita que você inicie um novo jogo – mas se você for azar, pode parar de responder corretamente às suas entradas antes mesmo disso.

É um ótimo experimento, no entanto, e acho que seria útil para mais pessoas verem. Ele permite que você experimente para si mesmo em que o Gen AI é bom e quais são suas limitações atuais. Por mais impressionante que seja que possamos gerar uma experiência interativa de videogame, é difícil imaginar que alguém possa jogar essa demonstração de tecnologia e pensar que o Creed do Next Assassin será feito pela IA.

Esses tipos de pensamentos e suposições existem, no entanto, e é principalmente porque as pessoas não podem escapar de ouvir sobre a IA agora. Mesmo que você não pudesse se importar menos com inteligência artificial, ela ainda será empurrada em seu rosto em todos os lugares que você vai. O problema é que as informações que a pessoa média recebe é quase inteiramente composta por grandes comentários de marketing de tecnologia e CEO que são escolhidos pelas publicações de notícias.

Isso significa que eles ouvem reivindicações exageradas e conflitantes como estas:

Ele tem o potencial de resolver alguns dos maiores problemas do mundo, como mudanças climáticas, pobreza e doença. (Bill Gates)

Provavelmente, em 2025, na Meta, assim como as outras empresas que estão basicamente trabalhando nisso, teremos uma IA que pode efetivamente ser uma espécie de engenheiro de nível médio que você possui em sua empresa que pode escrever código. (Mark Zuckerberg)

Usar a IA efetivamente é agora uma expectativa fundamental de todos no Shopify. É uma ferramenta de todas as negociações hoje e só crescerá em importância. Francamente, não acho que seja viável optar por aprender a habilidade de aplicar a IA em seu ofício. (Tobi Lutke, CEO da Shopify)

Agora estamos confiantes de que sabemos como construir a AGI, como tradicionalmente o entendemos. Acreditamos que, em 2025, podemos ver os primeiros agentes da IA ​​“ingressar na força de trabalho” e alterar materialmente a produção das empresas. (Sam Altman, CEO da Openai)

A IA é mais perigosa do que, digamos, design de aeronave mal administrada ou manutenção da produção ou produção de carros ruins, no sentido de que é, ela tem o potencial-por menor que seja, possa considerar essa probabilidade, mas não é trivial-tem o potencial de destruição da civilização. (Elon Musk)

Tudo isso é muito extremo, certo? Isso nos salvará e nos destruirá, é uma ferramenta de todos os negócios para profissionais e uma ferramenta que substituirá os profissionais-e, aparentemente, poderíamos obter a AGI de nível científica assim que este ano. Quando tudo isso é ouvido, eles começam a esperar coisas incríveis dessas ferramentas e acreditando que todos os funcionários do escritório passam seus dias conversando com seus computadores como os personagens de Star Trek.

No entanto, não é assim que a realidade se parece. A realidade parece um Quake II de Trippy e Borda, com formas incompreensíveis para os inimigos. Os LLMs de nível ChatGPT foram realmente um avanço emocionante em 2022, e uma tonelada de diversão para todos brincarem-mas, para a maioria dos usos, a Big Tech está nos pressionando agora, a IA simplesmente não é capaz o suficiente. Os níveis de precisão são muito baixos, as habilidades que seguem as instruções são muito baixas, as janelas de contexto são muito pequenas e são treinadas apenas com bobagens na Internet em vez de conhecimento do mundo real.

Mas gerar um videogame é um objetivo bastante complexo – são necessárias equipes inteiras de seres humanos para fazer essas coisas, afinal. Que tal jogar videogame?

Claude “toca” Pokémon Red

Bem, acontece que as pessoas também estão experimentando isso. O mais novo modelo do Anthropic, Claude 3,7 soneto, joga Pokémon Red no Twitch há cerca de dois meses, e ele está fazendo o melhor trabalho que um LLM já fez em jogar Pokémon. Uma pequena ressalva, no entanto, é que ele ainda está a quilômetros atrás do humano médio de 10 anos.

Um dos problemas é a velocidade – leva Claude a milhares de ações que abrangem vários dias para fazer coisas como passar pela floresta viridiana.

Por que leva tanto tempo? Não é porque ele não consegue descobrir como ganhar estrategicamente batalhas de Pokémon – essa é realmente a parte em que ele é melhor. Navegando pelo meio ambiente e evitando árvores e edifícios, por outro lado – não tão bom. Claude nunca foi treinado para interpretar Pokémon, e não é fácil para ele entender a arte do pixel e o que ela representa.

Deixar-se através de áreas do tipo labirinto, como o Monte, Moon é particularmente difícil para ele, pois ele luta para formar um mapa da área e evitar refazer seus passos. Uma vez, ele ficou tão preso em um canto que concluiu que o jogo foi quebrado e gerou um pedido formal para redefinir o jogo.

Ele também não é ótimo em lembrar quais são seus objetivos, quais coisas ele já tentou ou quais lugares ele já esteve.

Há uma razão bastante direta para esse – os LLMs têm uma “janela de contexto” finita que atua como sua memória. Ele só pode manter tanta informação e, uma vez que Claude atinge o limite, ele condensa o que tem para abrir espaço para mais. Portanto, uma informação como “Visited Viridian City, entrou em todos os prédios e falou com todos os NPC” poderia ser condensado para apenas “visitar a cidade de Viridian” – levando Claude a voltar e verificar se havia mais a fazer na cidade.

Para resumir: Claude não consegue descobrir para onde está indo, ele entra nas paredes, confunde objetos aleatórios para os NPCs, esquece onde ele esteve e o que está tentando tomar, e todas as decisões que ele tomam requer parágrafos e parágrafos de raciocínio. Isso não é uma crítica – esses dois são experimentos emocionantes que estão empurrando o LLMS o mais longe possível.

Mas com todo o hype em torno da IA, é importante que as pessoas vejam demos como essas e se preparem sobre a IA. Certos números estão tentando empurrar a narrativa de que estamos prestes a atingir o pico – que, dentro de anos, a IA estará além dos humanos mais inteligentes – mas não acho que eles sejam sinceros, eles estão apenas sendo vendedores. Não estamos nem perto do pico, tudo isso está apenas começando.






.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo