.
A inteligência artificial tem prometeu muito, mas algo impediu que fosse usado com sucesso por bilhões de pessoas: uma luta frustrante para humanos e máquinas se entenderem em linguagem natural.
Isso agora está mudando, graças à chegada de grandes modelos de linguagem alimentados por arquiteturas de transformadores, um dos avanços mais importantes da IA nos últimos 20 anos.
Transformadores são redes neurais projetadas para modelar dados sequenciais e gerar uma previsão do que deve vir a seguir em uma série. O núcleo de seu sucesso é a ideia de “atenção”, que permite ao transformador “atender” aos recursos mais salientes de uma entrada, em vez de tentar processar tudo.
Esses novos modelos forneceram melhorias significativas para aplicativos que usam linguagem natural, como tradução de idiomas, resumo, recuperação de informações e, mais importante, geração de texto. No passado, cada um exigia arquiteturas sob medida. Agora, os transformadores estão fornecendo resultados de última geração em todos os setores.
Embora o Google tenha sido pioneiro na arquitetura de transformadores, o OpenAI se tornou o primeiro a demonstrar seu poder em escala, em 2020, com o lançamento do GPT-3 (Generative Pre-Trained Transformer 3). Na época, era o maior modelo de linguagem já criado.
A capacidade do GPT-3 de produzir texto semelhante ao humano gerou uma onda de entusiasmo. Foi apenas o começo. Modelos de linguagem grandes agora estão melhorando a uma taxa verdadeiramente impressionante.
A “contagem de parâmetros” é geralmente aceita como um proxy aproximado das capacidades de um modelo. Até agora, vimos modelos com melhor desempenho em uma ampla variedade de tarefas à medida que a contagem de parâmetros aumenta. Os modelos têm crescido quase uma ordem de magnitude todos os anos nos últimos cinco anos, então não é surpresa que os resultados tenham sido impressionantes. No entanto, esses modelos muito grandes são caros para servir na produção.
O que é realmente notável é que, no ano passado, eles ficaram menores e dramaticamente mais eficientes. Agora estamos vendo um desempenho impressionante de modelos pequenos que são muito mais baratos de operar. Muitos estão sendo de código aberto, reduzindo ainda mais as barreiras para experimentar e implantar esses novos modelos de IA. Isso, é claro, significa que eles se tornarão mais amplamente integrados aos aplicativos e serviços que você usará todos os dias.
Eles serão cada vez mais capazes de gerar conteúdo de texto, imagens, áudio e vídeo de alta qualidade. Essa nova onda de IA redefinirá o que os computadores podem fazer por seus usuários, liberando uma torrente de recursos avançados em produtos existentes e radicalmente novos.
A área que mais me entusiasma é a linguagem. Ao longo da história da computação, os humanos tiveram que inserir meticulosamente seus pensamentos usando interfaces projetadas para tecnologia, não para humanos. Com essa onda de avanços, em 2023 começaremos a conversar com máquinas em nosso linguagem – de forma instantânea e abrangente. Eventualmente, teremos interações de conversação verdadeiramente fluentes com todos os nossos dispositivos. Isso promete redefinir fundamentalmente a interação homem-máquina.
Nas últimas décadas, nos concentramos corretamente em ensinar as pessoas a codificar – na verdade, ensinando a linguagem dos computadores. Isso continuará sendo importante. Mas em 2023, começaremos a inverter esse roteiro e os computadores falarão a nossa língua. Isso ampliará enormemente o acesso a ferramentas para criatividade, aprendizado e diversão.
À medida que a IA finalmente emerge em uma era de utilidade, as oportunidades para novos produtos que priorizam a IA são imensas. Em breve, viveremos em um mundo onde, independentemente de suas habilidades de programação, as principais limitações são simplesmente a curiosidade e a imaginação.
.