.

No Connect 2023, a Meta lançou uma série de ferramentas e recursos de edição de IA, introduzindo adesivos de IA e recursos de edição de imagens, como restyle e pano de fundo. O empecilho, no entanto, foi o lançamento do novo assistente de IA da Meta, que se juntará ao WhatsApp, Messenger e Instagram nos próximos dias. Porém, o método usado para treinar esse assistente pode não agradar a todos.
Nick Clegg, presidente de assuntos globais da Meta, compartilhou que os bate-papos privados em serviços de mensagens também estavam fora da tabela de dados de treinamento. A Meta tomou medidas para filtrar detalhes privados de conjuntos de dados públicos usados para treinamento. Clegg destacou que Meta “tentou excluir conjuntos de dados que têm uma grande preponderância de informações pessoais.” Clegg também disse que o “grande maioria“dos dados usados pela Meta para treinamento estavam disponíveis publicamente. Por exemplo, o LinkedIn foi omitido deliberadamente devido a questões de privacidade.
A Meta desenvolveu o assistente usando um modelo customizado baseado no modelo de linguagem grande Llama 2, lançado publicamente em julho, e um novo modelo chamado Emu, projetado para gerar imagens em resposta a solicitações de texto. O produto está configurado para produzir texto, áudio e imagens, acessando informações em tempo real por meio de uma parceria com o mecanismo de busca Bing da Microsoft.
Postagens públicas no Facebook e Instagram, contendo texto e fotos, desempenharam um papel importante no treinamento da Meta AI. O Emu se concentrou na geração de imagens, enquanto as funções de chat foram baseadas no Llama 2, aprimoradas com conjuntos de dados anotados e disponíveis publicamente. Clegg disse que foram implementadas restrições de segurança para evitar a criação de imagens fotorrealistas de figuras públicas.
Respondendo às preocupações sobre materiais protegidos por direitos autorais, Clegg antecipa possíveis litígios, especialmente em relação a se o conteúdo criativo se enquadra na doutrina existente de uso justo. Embora Meta acredite que sim, Clegg reconhece que isso pode acontecer em batalhas legais.
.







