.
TO verão AI está bem e verdadeiramente sobre nós. (Essa piada pode não funcionar tão bem para os leitores do hemisfério sul.) Se chamarmos esse período de pico do “ciclo do hype” ou simplesmente o momento em que a curva se verticalizar, ficará óbvio apenas em retrospectiva, mas a cadência de grandes notícias no campo passou de semanal para quase diária. Vamos acompanhar o que os maiores players em IA – Meta, Microsoft, Apple e OpenAI – estão fazendo.
Maçã
Sempre um para manter suas cartas perto do peito, não espere ouvir muitas descobertas de P&D de Cupertino. Mesmo o trabalho de IA que chegou ao envio de produtos é escondido, em vez de gritado dos telhados, com a empresa falando sobre “aprendizado de máquina” e “transformadores” em sua conferência anual de desenvolvedores mundiais (WWDC) no mês passado, mas claramente evitando dizer “IA”.
Mas isso não significa que não esteja jogando o mesmo jogo que todos os outros. Por Bloomberg (£):
A fabricante do iPhone construiu sua própria estrutura para criar grandes modelos de linguagem – os sistemas baseados em IA no centro de novas ofertas como ChatGPT e Bard do Google – de acordo com pessoas com conhecimento dos esforços. Com essa base, conhecida como “Ajax”, a Apple também criou um serviço de chatbot que alguns engenheiros chamam de “Apple GPT”.
Nos últimos meses, o impulso da IA se tornou um grande esforço para a Apple, com várias equipes colaborando no projeto, disseram as pessoas, que pediram para não serem identificadas porque o assunto é privado. O trabalho inclui tentar abordar possíveis preocupações de privacidade relacionadas à tecnologia.
Por um lado: claro que são. É difícil lembrar, porque está em desvantagem há tanto tempo, mas a Apple liderou o setor com assistentes de voz quando lançou o Siri em 2011. Mas em poucos anos – certamente com o lançamento do alto-falante inteligente Echo em 2014 – ficou para trás e agora foi relegado quase ao status de piada. Consertar a Siri é um trabalho árduo, mas é perfeito para o trabalho de ponta do LLM. Portanto, não é surpresa que a empresa esteja trabalhando nisso.
Por outro: construir um modelo de fundação é difícil, caro – e talvez desnecessário. A Apple construiu em cima de raízes de código aberto antes (cada um de seus sistemas operacionais, por exemplo, fica em cima do kernel de Darwin de código aberto) e licenciou tecnologia de terceiros (mais notavelmente, hoje em dia, Arm, que ainda fornece os designs básicos para seus chips). E há muitas oportunidades para qualquer uma dessas abordagens…
Meta e Microsoft
O modelo de fundação Llama da Meta tornou-se a fundação acidental, er, de toda uma comunidade de pesquisa. O concorrente GPT foi liberado para download para um seleto grupo de pesquisadores, que assinaram NDAs e prometeram não compartilhá-lo de forma mais ampla… quando vazou imediatamente. As cópias do Samizdat foram compartilhadas na rede, assim como todo um sistema de colaboração sem nunca publicar abertamente o LLM roubado. A coisa toda ia contra os termos da Meta, mas a empresa não parecia muito infeliz por ser o centro de uma revolução da computação.
E agora, é oficial. A Meta lançou o Llama 2 com termos de serviço que legitimam esse ecossistema. De seu anúncio:
Agora estamos prontos para abrir o código da próxima versão do Llama 2 e disponibilizá-lo gratuitamente para pesquisa e uso comercial. Estamos incluindo pesos de modelo e código inicial para o modelo pré-treinado e versões de conversação ajustadas também.
E a empresa fez parceria com a Microsoft para expandir o acesso:
A partir de hoje, o Llama 2 está disponível no catálogo de modelos de AI do Azure, permitindo que os desenvolvedores que usam o Microsoft Azure criem com ele e aproveitem suas ferramentas nativas da nuvem para filtragem de conteúdo e recursos de segurança. Ele também é otimizado para ser executado localmente no Windows, oferecendo aos desenvolvedores um fluxo de trabalho contínuo, pois eles trazem experiências de IA generativas para clientes em diferentes plataformas.
O modelo é livre como na cerveja, em vez de livre como na fala, no entanto. Os termos comerciais da Meta exigem uma licença de qualquer empresa com mais de 700 milhões de usuários ativos mensais – essencialmente, todas as outras empresas discutidas no boletim de hoje e muito poucas outras. Além disso, impede que alguém use o Llama 2 para melhorar outros LLMs. Pode ser gratuito, em outras palavras, mas não é de código aberto.
OpenAI

Mas ainda é mais aberto do que a concorrência. Permitir que usuários, pesquisadores e concorrentes (menores) baixem o modelo completo e dêem uma olhada para ver como ele funciona obviamente ajuda qualquer um que queira construir sobre o que você fez, mas também ajuda a construir confiança com parceiros em potencial. Para um sinal das armadilhas que acompanham a abordagem oposta, dê uma olhada no OpenAI. Da Ars Technica:
Em um estudo intitulado “Como o comportamento do ChatGPT está mudando ao longo tempo?” publicado no arXiv, Lingjiao Chen, Matei Zaharia e James Zou, lançaram dúvidas sobre o desempenho consistente dos modelos de linguagem grande (LLMs) da OpenAI, especificamente GPT-3.5 e GPT-4. Usando o acesso à API, eles testaram as versões de março e junho de 2023 desses modelos em tarefas como resolução de problemas matemáticos, resposta a perguntas delicadas, geração de código e raciocínio visual. Mais notavelmente, a capacidade do GPT-4 de identificar números primos caiu drasticamente de uma precisão de 97,6% em março para apenas 2,4% em junho. Estranhamente, o GPT-3.5 apresentou melhor desempenho no mesmo período.
Os resultados reforçam o medo generalizado de que os esforços para melhorar a segurança do GPT o estejam tornando mais estúpidos. A OpenAI certamente lança ajustes no GPT regularmente e, dada a regularidade com que o executivo-chefe Sam Altman fala sobre segurança de IA, é perfeitamente plausível que esses ajustes sejam amplamente focados na segurança. E se o sistema está piorando, não melhorando, talvez seja por causa dessa troca.
após a promoção do boletim informativo
Mas o papel em si não se sustenta. Ars Technica, novamente:
O pesquisador de IA Simon Willison também contesta as conclusões do artigo. “Não acho muito convincente”, disse ele a Ars. “Uma parte decente de suas críticas envolve se a saída do código está ou não envolvida em acentos Markdown ou não”… Até agora, Willison acha que qualquer mudança percebida nos recursos do GPT-4 vem da novidade do desgaste dos LLMs. Afinal, o GPT-4 provocou uma onda de pânico AGI logo após o lançamento e já foi testado para ver se poderia dominar o mundo. Agora que a tecnologia se tornou mais mundana, suas falhas parecem gritantes.
Mas as acusações atingem o cerne do modelo (ironicamente) fechado da OpenAI. A empresa lança alterações no GPT regularmente, com poucas explicações e sem capacidade para os usuários entenderem por que ou como cada novo modelo difere. Inspecionar qualquer LLM é um problema de “caixa preta”, com pouca capacidade de espiar dentro e ver como ele pensa – mas esses problemas são muito piores quando sua única maneira de interagir é por meio de uma API para uma versão hospedada por terceiros.
Ars Tehcnica, uma última vez:
Wilson concorda. “Honestamente, a falta de notas de lançamento e transparência pode ser a maior história aqui”, disse ele a Ars. “Como pretendemos construir um software confiável em cima de uma plataforma que muda de maneiras completamente não documentadas e misteriosas a cada poucos meses?”
O x marca o lugar

Então o Twitter tem um novo nome: aqui está tudo o que sabemos até agora.
O TechScape mais amplo

.








