.
A OpenAI fez algo que ninguém esperaria: desacelerou o processo de fornecer uma resposta na esperança de acertar.
Os novos modelos OpenAI o1-preview são projetados para o que a OpenAI chama de problemas difíceis — tarefas complexas em assuntos como ciência, codificação e matemática. Esses novos modelos são lançados por meio do serviço ChatGPT junto com o acesso por meio da API da OpenAI e ainda estão em desenvolvimento, mas essa é uma ideia promissora.
Adoro a ideia de que uma das empresas que tornou a IA tão ruim esteja, na verdade, fazendo algo para melhorá-la. As pessoas pensam na IA como algum tipo de mistério científico, mas, em sua essência, é igual a qualquer outro software de computador complexo. Não há mágica; um programa de computador aceita entrada e envia saída com base na maneira como o software é escrito.
Isto parece como mágica para nós porque estamos acostumados a ver a saída do software de uma forma diferente. Quando ele age como humano, parece estranho e futurístico, e isso é muito legal. Todo mundo quer ser Tony Stark e ter conversas com seu computador.
Infelizmente, a pressa em lançar o tipo legal de IA que parece conversacional destacou o quão ruim ela pode ser. Algumas empresas chamam isso de alucinação (não do tipo divertido, infelizmente), mas não importa qual rótulo é colocado nela, as respostas que obtemos da IA são frequentemente hilariamente erradas ou até mesmo erradas de uma forma mais preocupante.
A OpenAI diz que seu modelo GPT-4 só conseguiu acertar 13% das questões do exame da Olimpíada Internacional de Matemática. Isso é provavelmente melhor do que a maioria das pessoas pontuaria, mas um computador deve ser capaz de pontuar com mais precisão quando se trata de matemática. O novo OpenAI o1-preview conseguiu acertar 83% das questões. Esse é um salto dramático e destaca a eficácia dos novos modelos.
Felizmente, o OpenAI é fiel ao seu nome e compartilhou como esses modelos “pensam”. Em um artigo sobre as capacidades de raciocínio do novo modelo, você pode rolar até a seção “Chain-of-Thought” para ver um vislumbre do processo. Achei a seção Safety particularmente interessante, pois o modelo usou algumas barreiras de segurança para garantir que não esteja dizendo a você como fazer arsênico caseiro como o modelo GPT-4 fará (não tente fazer arsênico caseiro). Isso levará à derrota dos truques atuais usados para fazer com que os modelos de IA conversacional quebrem suas próprias regras quando estiverem completos.
No geral, a indústria precisava disso. Meu colega e editor-chefe do Android Central, Derrek Lee, destacou que é interessante que, quando queremos informações instantaneamente, a OpenAI está disposta a desacelerar um pouco as coisas, deixando a IA “pensar” para nos fornecer respostas melhores. Ele está absolutamente certo. Isso parece um caso de uma empresa de tecnologia fazendo a coisa certa, mesmo que os resultados não sejam os ideais.
Não acho que isso terá algum efeito da noite para o dia, e não estou convencido de que haja um objetivo puramente altruísta em ação. A OpenAI quer que seu novo LLM seja melhor nas tarefas que o modelo atual faz mal. Um efeito colateral é uma IA de conversação mais segura e melhor, que acerta com mais frequência. Aceito essa troca e espero que o Google faça algo semelhante para mostrar que também entende que a IA precisa melhorar.
A IA não vai embora até que alguém sonhe com algo mais novo e mais lucrativo. As empresas podem muito bem trabalhar para torná-la tão boa quanto possível.
.