.
O laboratório de pesquisa de inteligência artificial OpenAI lançou o GPT-4, a versão mais recente do inovador sistema de IA que alimenta o ChatGPT, que diz ser mais criativo, menos propenso a inventar fatos e menos tendencioso do que seu antecessor.
Chamando-o de “nosso modelo mais capaz e alinhado até agora”, o cofundador da OpenAI, Sam Altman, disse que o novo sistema é um modelo “multimodal”, o que significa que pode aceitar imagens e texto como entradas, permitindo que os usuários façam perguntas sobre imagens. A nova versão pode lidar com entradas de texto massivas e pode lembrar e agir em mais de 20.000 palavras de uma só vez, permitindo que leve uma novela inteira como um prompt.
O novo modelo já está disponível para usuários do ChatGPT Plus, a versão paga do chatbot ChatGPT, que forneceu alguns dos dados de treinamento para o último lançamento.
A OpenAI também trabalhou com parceiros comerciais para oferecer serviços baseados em GPT-4. Um novo nível de assinatura do aplicativo de aprendizado de idiomas Duolingo, Duolingo Max, agora oferecerá aos usuários que falam inglês conversas com IA em francês ou espanhol e pode usar o GPT-4 para explicar os erros que os alunos de idiomas cometeram. No outro extremo do espectro, a empresa de processamento de pagamentos Stripe está usando o GPT-4 para responder a perguntas de suporte de usuários corporativos e para ajudar a sinalizar possíveis golpistas nos fóruns de suporte da empresa.
“A inteligência artificial sempre foi uma grande parte da nossa estratégia”, disse o principal gerente de produto do Duolingo, Edwin Bodge. “Nós o usamos para personalizar aulas e executar testes de inglês do Duolingo. Mas havia lacunas na jornada do aluno que queríamos preencher: prática de conversação e feedback contextual sobre erros.” Os experimentos da empresa com o GPT-4 a convenceram de que a tecnologia era capaz de fornecer esses recursos, com “95%” do protótipo criado em um dia.
Durante uma demonstração do GPT-4 na terça-feira, o presidente e cofundador da Open AI, Greg Brockman, também deu aos usuários uma prévia dos recursos de reconhecimento de imagem da versão mais recente do sistema, que ainda não está disponível ao público e está sendo testada apenas por uma empresa chamada Be My Eyes. A função permitirá que o GPT-4 analise e responda às imagens enviadas juntamente com as solicitações e responda a perguntas ou execute tarefas com base nessas imagens. “O GPT-4 não é apenas um modelo de linguagem, é também um modelo de visão”, disse Brockman, “ele pode aceitar com flexibilidade entradas que intercalam imagens e texto arbitrariamente, como um documento”.
Em um ponto da demonstração, GPT-4 foi solicitado a descrever por que a imagem de um esquilo com uma câmera era engraçada. (Porque “não esperamos que eles usem uma câmera ou ajam como humanos”.) Em outro momento, Brockman enviou uma foto de um esboço rudimentar e desenhado à mão de um site para GPT-4 e o sistema criou um site baseado no desenho.
A OpenAI afirma que o GPT-4 corrige ou melhora muitas das críticas que os usuários tiveram com a versão anterior de seu sistema. Como um “grande modelo de linguagem”, o GPT-4 é treinado em grandes quantidades de dados extraídos da Internet e tenta fornecer respostas a frases e perguntas estatisticamente semelhantes às que já existem no mundo real. Mas isso pode significar que ele inventa informações quando não sabe a resposta exata – um problema conhecido como “alucinação” – ou que fornece respostas perturbadoras ou abusivas quando recebe instruções erradas.
Com base nas conversas que os usuários tiveram com o ChatGPT, a OpenAI diz que conseguiu melhorar – mas não eliminar – esses pontos fracos do GPT-4, respondendo com sensibilidade a solicitações de conteúdo como conselhos médicos ou de automutilação “29% mais frequentemente” e respondendo erroneamente às solicitações de conteúdo não permitido com 82% menos frequência.
No entanto, o GPT-4 ainda “alucinará” os fatos e o OpenAI adverte os usuários: “Deve-se tomar muito cuidado ao usar saídas de modelo de linguagem, particularmente em contextos de alto risco, com o protocolo exato (como revisão humana, fundamentação com contexto adicional , ou evitando completamente usos de alto risco) correspondendo às necessidades de um caso de uso específico.” Mas pontua “40% mais alto” em testes destinados a medir a alucinação, diz OpenAI.
O sistema é particularmente bom em não cair no clichê: as versões mais antigas do GPT insistirão alegremente que a afirmação “você não pode ensinar novos truques a um cachorro velho” é factualmente precisa, mas o GPT-4 mais recente dirá corretamente a um usuário que perguntar se você pode ensinar novos truques a um cachorro velho que “sim, você pode”.
.