.
EUEm todo o discurso frenético sobre grandes modelos de linguagem (LLMs), como o GPT-4, há um ponto com o qual todos parecem concordar: esses modelos são essencialmente papagaios estocásticos – ou seja, máquinas que são boas em gerar sentenças convincentes, mas na verdade não o fazem. compreender o significado da linguagem que estão processando. Eles de alguma forma “leram” (ou seja, ingeriram) tudo o que já foi publicado em formato legível por máquina e criaram frases palavra por palavra, em cada ponto fazendo uma estimativa estatística de “o que se poderia esperar que alguém escrevesse depois de ver o que as pessoas escreveram”. bilhões de páginas da web, etc”. É isso!
Desde que o ChatGPT chegou em novembro passado, as pessoas ficaram surpresas com as capacidades desses papagaios – como eles parecem ser humanos e assim por diante. Mas o consolo veio inicialmente do pensamento de que, uma vez que os modelos se baseavam apenas no que já residia nas suas amplas memórias, não poderiam ser genuinamente originais: apenas regurgitariam a sabedoria convencional incorporada nos seus dados de treino. Esse pensamento reconfortante não durou muito, pois os experimentadores continuaram encontrando comportamentos surpreendentes e imprevisíveis dos LLMs – facetas agora rotuladas como “habilidades emergentes”.
Desde o início, muitas pessoas usaram LLMs como auxílio para brainstorming. Pergunte a um deles cinco maneiras de reduzir a pegada de carbono da sua família e ele apresentará uma lista de sugestões razoáveis e viáveis. Portanto, está claro que a combinação do LLM humano com o LLM pode ser uma parceria criativa. Mas é claro que o que realmente gostaríamos de saber é se as máquinas por si só são capazes de criatividade.
Ah, mas a criatividade não é um conceito escorregadio – algo difícil de definir, mas que reconhecemos quando o vemos? Isso não impediu os psicólogos de tentar medi-lo, através de ferramentas como o teste de usos alternativos e o teste semelhante de Torrance. E acontece que um LLM – GPT-4 – supera 91% dos humanos no primeiro e 99% deles no último. Assim, como diz o inveterado usuário de inteligência artificial Ethan Mollick: “Estamos ficando sem testes de criatividade que as IAs não conseguem superar”.
Mollick trabalha em uma escola de negócios (Wharton, com sede na Universidade da Pensilvânia) e tem sido líder de torcida de LLMs desde o início. Alguns de seus colegas conduziram um experimento com GPT-4 e 200 de seus alunos, estabelecendo o mesmo desafio para humanos e máquinas: apresentar uma ideia para um produto destinado a estudantes universitários americanos que fosse vendido por menos de US$ 50.
E os resultados? “O ChatGPT-4 gerou mais ideias, mais baratas e melhores do que os alunos. Ainda mais impressionante, do ponto de vista comercial, foi que a intenção de compra de juízes externos também foi maior para as ideias geradas pela IA! Das 40 melhores ideias avaliadas pelos jurados, 35 vieram do ChatGPT.”
O aspecto realmente esclarecedor do estudo, porém, foi uma inferência extraída dele pelos pesquisadores sobre sua economia. “Um profissional que trabalha com ChatGPT-4”, escrevem eles, “pode gerar ideias a uma taxa de cerca de 800 ideias por hora. A um custo de US$ 500 por hora de esforço humano, um valor que representa uma estimativa do custo totalmente carregado de um profissional qualificado, as ideias são geradas a um custo de cerca de US$ 0,63 cada… Na época em que usamos o ChatGPT-4, a taxa de API [application programming interface, which allows two or more computer programs to communicate with each other] para 800 ideias custava cerca de US$ 20. Pelos mesmos US$ 500 por hora, um humano trabalhando sozinho, sem a ajuda de um LLM, gera apenas 20 ideias a um custo de aproximadamente US$ 25 cada… Para a tarefa focada de geração de ideias em si, um humano usando ChatGPT-4 custa cerca de 40 vezes mais produtivo do que um ser humano trabalhando sozinho.”
Se você quisesse ter uma visão sobre como as corporações verão essa tecnologia, não poderia fazer melhor do que isso. Lê-lo trouxe à mente a percepção perceptiva de Ted Chiang Nova iorquino ensaio sobre como a IA seria de fato usada. “Sugiro”, escreveu ele, “que pensemos na IA como uma empresa de consultoria de gestão, nos moldes da McKinsey & Company. Empresas como a McKinsey são contratadas por diversos motivos, e os sistemas de IA também são usados por vários motivos. Mas as semelhanças entre a McKinsey – uma empresa de consultoria que trabalha com 90% das empresas Fortune 100 – e a IA também são claras.”
Chiang cita a descrição que um ex-funcionário da McKinsey fez da consultoria como “carrascos voluntários do capital”. Se você é um executivo sênior que precisa tomar algumas decisões desagradáveis, mas precisa de uma negação plausível, ser capaz de citar um consultor externo – ou uma nova tecnologia? – é uma boa maneira de fazer isso. Assim, diz Chiang, à medida que a IA se torna mais poderosa e flexível, a questão que deveríamos colocar é: existe alguma maneira de evitar que ela seja outra versão da McKinsey? Você só precisa fazer a pergunta para saber a resposta.
O que tenho lido
Coragem alemã
Just for Fun é um lindo ensaio de Rebecca Baumgartner na plataforma 3 Quarks Daily sobre a reação das pessoas à notícia de que ela está aprendendo alemão – por diversão!
Hobbes nobbing
AI e Leviathan: Parte II é o número 2 de uma notável série de ensaios de Samuel Hammond em seu segundo melhor blog.
Homem de muitas palavras
O ensaio de Henry Oliver no blog Common Reader da Substack – Samuel Johnson, Opsimath – é uma bela homenagem ao Grande Cham.
.