Ciência e Tecnologia

Licenças de modelo ‘abertas’ geralmente carregam restrições

.

Nesta semana, o Google lançou uma família de modelos abertos de IA, Gemma 3, que rapidamente recebeu elogios por sua impressionante eficiência. Mas como um número de desenvolvedores Lamentado em X, a licença da Gemma 3 faz do uso comercial dos modelos uma proposta arriscada.

Não é um problema exclusivo da Gemma 3. Empresas como a Meta também aplicam termos de licenciamento não padrão e personalizados aos seus modelos abertamente disponíveis e os termos apresentam desafios legais para as empresas. Algumas empresas, especialmente operações menores, preocupam que o Google e outras possam “puxar o tapete” em seus negócios, afirmando as cláusulas mais onerosas.

“O licenciamento restritivo e inconsistente dos chamados modelos de IA ‘aberto’ está criando incerteza significativa, particularmente para a adoção comercial”, Nick Vidal, chefe de comunidade da iniciativa de código aberto, A, uma Instituição de longa duração Com o objetivo de definir e “administrar” todas as coisas de código aberto, disse ao Strong The One. “Embora esses modelos sejam comercializados como abertos, os termos reais impõem vários obstáculos legais e práticos que impedem as empresas de integrá -los em seus produtos ou serviços”.

Os desenvolvedores de modelos abertos têm seus motivos para liberar modelos sob licenças proprietárias, em oposição a opções padrão do setor, como Apache e com. Startup de IA coere, por exemplo, foi claro sobre sua intenção de apoiar o trabalho científico – mas não comercial – em cima de seus modelos.

Mas as licenças de Llama de Gemma e Meta têm restrições que limitam as maneiras pelas quais as empresas podem usar os modelos sem medo de represálias legais.

Meta, por exemplo, proíbe desenvolvedores Ao usar a “saída ou resultados” dos modelos LLAMA 3 para melhorar qualquer modelo além da LLAMA 3 ou “obras derivadas”. Também impede que empresas com mais de 700 milhões de usuários ativos mensais implantam modelos de llama sem primeiro obter uma licença especial e adicional especial.

Licença de Gemma é geralmente menos oneroso. Mas concede ao Google o direito de “restringir (remotamente ou não) o uso” do Gemma que o Google acredita que está violando o da empresa Política de uso proibido ou “leis e regulamentos aplicáveis”.

Estes termos não se aplicam apenas aos modelos originais de llama e gemma. Modelos baseados em lhama ou gemma também devem aderir às licenças de lhama e gemma, respectivamente. No caso de Gemma, isso inclui modelos treinados em dados sintéticos gerados pela Gemma.

Florian Brand, um assistente de pesquisa do Centro de Pesquisa Alemão de Inteligência Artificial, acredita que – apesar que executivos da gigante da tecnologia teriam você acredita – Licenças como Gemma e Llama “não podem ser razoavelmente chamadas de” código aberto “.

“A maioria das empresas possui um conjunto de licenças aprovadas, como o Apache 2.0, portanto, qualquer licença personalizada é muitos problemas e dinheiro”, disse Brand ao Strong The One. “Pequenas empresas sem equipes jurídicas ou dinheiro para advogados manterão modelos com licenças padrão”.

Brand observou que os desenvolvedores de modelos de IA com licenças personalizadas, como o Google, ainda não aplicaram agressivamente seus termos. No entanto, a ameaça geralmente é suficiente para impedir a adoção, acrescentou.

“Essas restrições têm um impacto no ecossistema da IA ​​- mesmo em pesquisadores de IA como eu”, disse Brand.

Han-Chung Lee, diretor de aprendizado de máquina da Moody’s, concorda que licenças personalizadas, como aquelas anexadas a Gemma e Llama, tornam os modelos “não utilizáveis” em muitos cenários comerciais. O mesmo acontece com Eric Tamel, uma equipe aplicada cientista da AI Startup Gretel.

“As licenças específicas para modelos fazem esculturas específicas para derivativos e destilação de modelos, o que causa preocupação com as garras”, disse Tamel. “Imagine um negócio que esteja produzindo especificamente o modelo tunes finos para seus clientes. Que licença deve ter uma tune fine-tune de gemma ter? Qual seria o impacto para todos os seus clientes a jusante? ”

O cenário que implanta mais teme, disse Tamel, é que os modelos são uma espécie de cavalo de Trojan.

“Uma fundição de modelo pode lançar [open] Modelos, espere para ver o que os casos de negócios se desenvolvem usando esses modelos e, em seguida, braçam seu caminho para as verticais bem-sucedidas por extorsão ou lei ”, afirmou. “Por exemplo, Gemma 3, por todas as aparências, parece uma liberação sólida – e que pode ter um amplo impacto. Mas o mercado não pode adotá -lo por causa de sua estrutura de licença. Portanto, as empresas provavelmente ficarão com modelos Apache 2.0 mais fracos e menos confiáveis. ”

Para ficar claro, certos modelos alcançaram distribuição generalizada, apesar de suas licenças restritivas. A LLAMA, por exemplo, foi baixada centenas de milhões de vezes e incorporada em produtos das principais empresas, incluindo o Spotify.

Mas eles poderiam ter ainda mais sucesso se fossem licenciados permissivamente, de acordo com Yacine Jernite, chefe de aprendizado de máquina e sociedade da startup de IA abraçando o rosto. A Jernite pediu a provedores como o Google que se movesse para abrir estruturas de licença e “colaborar mais diretamente” com os usuários em termos amplamente aceitos.

“Dada a falta de consenso sobre esses termos e o fato de que muitas das suposições subjacentes ainda não foram testadas nos tribunais, tudo serve principalmente como uma declaração de intenção desses atores”, disse Jernite. ““[But if certain clauses] São interpretados de maneira ampla, muito trabalho de bom trabalho se encontrará em terreno legal incerto, o que é particularmente assustador para as organizações que construem produtos comerciais de sucesso. ”

Vidal disse que há uma necessidade urgente de modelos de IA que as empresas podem integrar, modificar e compartilhar livremente sem temer alterações repentinas de licença ou ambiguidade legal.

“O cenário atual do licenciamento do modelo de IA está repleto de confusão, termos restritivos e reivindicações enganosas de abertura”, disse Vidal. “Em vez de redefinir o ‘aberto’ para se adequar aos interesses corporativos, a indústria da IA ​​deve se alinhar com os princípios estabelecidos de código aberto para criar um ecossistema verdadeiramente aberto”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo