.
Coluna A inovação dos smartphones estagnou. O iPhone 15, lançado durante a noite, tem algumas novidades interessantes. Mas meu iPhone 13 atenderá às minhas necessidades por um tempo e não terei pressa em substituí-lo. Meu iPhone anterior durou quatro anos.
Antes desse telefone, eu poderia justificar a compra da atualização anual de Cupertino. Hoje em dia, o que ganhamos? O iPhone 15 entregue USB-C, uma câmera melhor e carregamento sem fio mais rápido. É tudo legal, mas não é realmente necessário para a maioria dos usuários.
No entanto, os smartphones são prestes a mudar para melhor – graças à atual onda de inovação em torno da IA.
Quase todo mundo com um smartphone já pode acessar os “Três Grandes” chatbots de IA – ChatGPT da OpenAI, Bing Chat da Microsoft e Bard do Google – por meio de um aplicativo ou navegador.
Isso funciona bem o suficiente. No entanto, juntamente com estes chatbots de IA de “uso geral”, um esforço subterrâneo – liderado por outro dos gigantes da grande tecnologia – parece estar a ganhar terreno.
Em fevereiro, Meta AI Labs lançou LLaMA – um grande modelo de linguagem reduzido tanto em seu conjunto de dados de treinamento quanto em seu número de parâmetros. Nossa compreensão ainda pouco intuitiva de como funcionam os grandes modelos de linguagem equivale a um número maior de parâmetros com maior capacidade – acredita-se que o GPT-4, por exemplo, tenha um trilhão ou mais de parâmetros, embora a OpenAI seja de boca fechada sobre esses números.
O LLaMA da Meta sai com insignificantes 70 bilhões e, em uma versão, apenas sete bilhões.
Então o LLaMA é apenas um dois milésimo tão bom quanto o GPT-4? É aqui que fica muito interessante. Embora o LLaMA nunca tenha vencido o GPT-4 em qualquer benchmarking, não é ruim – e em muitas circunstâncias, é mais do que bom o suficiente.
LLaMA é de código aberto de uma forma meio Meta-ish, permitindo um exército de campo de pesquisadores pegar as ferramentas, as técnicas e o treinamento e melhorá-los todos, rápida e dramaticamente. Em semanas, vimos AlpacaVicuna e uma variedade de outros grandes modelos de linguagem, cada um ajustado para ser melhor que o LLaMA – ao mesmo tempo que se aproxima do GPT-4 no benchmarking.
Quando Meta AI Labs lançou LLaMA2 em julho – sob uma licença menos centrada no Meta – milhares de codificadores de IA começaram a trabalhar ajustando-o para uma variedade de casos de uso.
Para não ficar para trás, há três semanas o Meta AI Labs também fez seus próprios ajustes, lançando o Código LLaMA – ajustado para fornecer completações de código em linha com um IDE ou simplesmente para ser alimentado com código para análise e reparo. Em dois dias, uma startup chamada Encontrar ajustou o Code LLaMA em um grande modelo de linguagem que superou o GPT-4 – embora em um único benchmark.
Essa é a primeira vez – e um tiro de advertência na proa da OpenAI, Microsoft e Google. Parece que esses “minúsculos” modelos de linguagem grandes podem ser bons o suficiente, ao mesmo tempo em que são pequenos o suficiente para não precisarem ser executados em uma instalação de computação em nuvem do tamanho de um hangar de avião, onde consomem vastos recursos de energia e água. Em vez disso, eles podem ser executados em um laptop – até mesmo em um smartphone.
Isso não é apenas teoria. Durante meses tive a Aplicativo de bate-papo MLC rodando no meu iPhone 13. Ele roda o modelo de sete bilhões de parâmetros do LLaMA2 sem muitos problemas. Esse minimodelo é visivelmente menos brilhante do que o modelo LLaMA2 que emprega 13 bilhões de parâmetros (que fica em um ponto ideal entre tamanho e capacidade) – mas meu smartphone não tem RAM suficiente para mantê-lo.
Nem o iPhone 15 – embora as folhas de especificações da Apple.
Esses grandes modelos pessoais de linguagem – executados de forma privada, no dispositivo, o tempo todo – em breve serão recursos essenciais dos sistemas operacionais de smartphones. Eles sugarão todos os seus dados de navegação, atividades e dados médicos, até mesmo dados financeiros – todos os dados que hoje transferimos para a nuvem para serem usados contra nós – e irão melhorar continuamente para representar com mais precisão nossos estados de espírito. , corpo e finanças.
Eles consultarão, encorajarão – e alertarão. Eles não substituirão os enormes modelos de uso geral – mas também não vazarão todos os nossos dados mais pessoais para a nuvem. A maioria dos smartphones já possui CPU e GPU suficientes para executar esses modelos pessoais de linguagem grande, mas eles precisam de mais RAM – para pensar melhor. Com um pouco mais de memória, nossos smartphones podem ficar muito mais inteligentes. ®
.








