.
A OpenAI revelou recentemente seus mais recentes modelos de inteligência artificial (IA), o1-preview e o1-mini (também conhecido como “Strawberry”), alegando um salto significativo nas capacidades de raciocínio de grandes modelos de linguagem (a tecnologia por trás do Strawberry e do ChatGPT da OpenAI). . Embora o lançamento do Strawberry tenha gerado entusiasmo, também levantou questões críticas sobre a sua novidade, eficácia e riscos potenciais.
Central para isso é a capacidade do modelo de empregar “raciocínio em cadeia de pensamento” – um método semelhante a um ser humano usando um bloco de notas, ou bloco de notas, para anotar etapas intermediárias ao resolver um problema.
O raciocínio em cadeia de pensamento reflete a resolução humana de problemas, dividindo tarefas complexas em subtarefas mais simples e gerenciáveis. O uso de raciocínio semelhante ao do scratchpad em grandes modelos de linguagem não é uma ideia nova.
A capacidade de realizar raciocínio em cadeia de pensamento por sistemas de IA não especificamente treinados para o fazer foi observada pela primeira vez em 2022 por vários grupos de investigação. Estes incluíram Jason Wei e colegas do Google Research e Takeshi Kojima e colegas da Universidade de Tóquio e do Google.
Antes desses trabalhos, outros pesquisadores como Oana Camburu, da Universidade de Oxford, e seus colegas investigaram a ideia de modelos de ensino para gerar explicações baseadas em texto para seus resultados. É aqui que o modelo descreve as etapas de raciocínio pelas quais passou para produzir uma previsão específica.
Ainda antes disso, pesquisadores como Jacob Andreas, do Instituto de Tecnologia de Massachusetts, exploraram a ideia da linguagem como uma ferramenta para desconstruir problemas complexos. Isso permitiu que os modelos dividissem tarefas complexas em etapas sequenciais e interpretáveis. Essa abordagem se alinha com os princípios do raciocínio em cadeia de pensamento.
A contribuição potencial da Strawberry para o campo da IA poderia residir na ampliação desses conceitos.
Um olhar mais atento
Embora o método exato usado pela OpenAI para Strawberry esteja envolto em mistério, muitos especialistas pensam que ele usa um procedimento conhecido como “autoverificação”.
Este procedimento melhora a capacidade do próprio sistema de IA de realizar o raciocínio em cadeia de pensamento. A autoverificação é inspirada na forma como os humanos refletem e representam cenários em suas mentes para tornar seus raciocínios e crenças consistentes.
Os sistemas de IA mais recentes baseados em grandes modelos de linguagem, como o Strawberry, são construídos em dois estágios. Eles primeiro passam por um processo denominado “pré-treinamento”, onde o sistema adquire seus conhecimentos básicos ao percorrer um grande conjunto de dados gerais de informações.

Terra Phakphum/Shutterstock
Eles podem então passar por um ajuste fino, onde são ensinados a executar melhor tarefas específicas, normalmente recebendo dados adicionais e mais especializados.
Esses dados adicionais são frequentemente selecionados e “anotados” por humanos. É aqui que uma pessoa fornece ao sistema de IA um contexto adicional para ajudar na compreensão dos dados de treinamento. No entanto, alguns consideram que a abordagem de autoverificação da Strawberry exige menos dados. No entanto, há indicações de que alguns dos modelos de IA o1 foram treinados em extensos exemplos de raciocínio em cadeia de pensamento que foram anotados por especialistas.
Isto levanta questões sobre até que ponto o auto-aperfeiçoamento, em vez da formação orientada por especialistas, contribui para as suas capacidades. Além disso, embora o modelo possa ser excelente em determinadas áreas, a sua proficiência de raciocínio não ultrapassa a competência humana básica noutras. Por exemplo, versões do Strawberry ainda lutam com alguns problemas de raciocínio matemático que uma criança de 12 anos capaz pode resolver.
Riscos e opacidade
Uma das principais preocupações da Strawberry é a falta de transparência em torno do processo de autoverificação e de como ele funciona. A reflexão que o modelo realiza sobre o seu raciocínio não está disponível para ser examinada, privando os usuários de insights sobre o funcionamento do sistema.
O “conhecimento” em que o sistema de IA se baseia para responder a uma determinada consulta também não está disponível para inspeção. Isso significa que não há como editar ou especificar o conjunto de fatos, suposições e técnicas de dedução a serem utilizadas.
Consequentemente, o sistema pode produzir respostas que parecem corretas e raciocínios que parecem sólidos, quando na verdade são fundamentalmente falhos, levando potencialmente à desinformação.
Finalmente, a OpenAI incorporou proteções para evitar usos indesejáveis de o1. Mas um relatório recente da OpenAI, que avalia o desempenho do sistema, revelou alguns riscos. Alguns investigadores com quem falámos partilharam as suas preocupações, particularmente no que diz respeito ao potencial de utilização indevida por parte dos cibercriminosos.
A capacidade do modelo de enganar intencionalmente ou produzir resultados enganosos – descrita no relatório – acrescenta outra camada de risco, enfatizando a necessidade de salvaguardas rigorosas.
.