Bolt42

Nesta semana, o Google lançou uma família de modelos de IA abertos, Gemma 3, que rapidamente recebeu elogios por sua impressionante eficiência. Mas, como um número de desenvolvedores lamentaram no X, a licença do Gemma 3 torna o uso comercial dos modelos uma proposta arriscada.

Esse não é um problema exclusivo do Gemma 3. Empresas como a Meta também aplicam termos de licenciamento personalizados e não padronizados a seus modelos disponíveis publicamente, e esses termos apresentam desafios legais para as empresas. Algumas firmas, especialmente menores, se preocupam que o Google e outras empresas possam “tirar o tapete” de seus negócios ao impor cláusulas mais onerosas.

“O licenciamento restritivo e inconsistente dos chamados modelos de IA ‘abertos’ está criando uma incerteza significativa, particularmente para a adoção comercial”, disse Nick Vidal, chefe de comunidade da Open Source Initiative, uma instituição de longa data que visa definir e “gerir” tudo que é código aberto, ao TechCrunch. “Embora esses modelos sejam comercializados como abertos, os termos reais impõem diversas barreiras legais e práticas que desestimulam as empresas a integrá-los em seus produtos ou serviços.”

Os desenvolvedores de modelos abertos têm suas razões para liberar modelos sob licenças proprietárias em vez de opções padrão da indústria como Apache e MIT. A startup de IA Cohere, por exemplo, deixou claro sua intenção de apoiar trabalhos científicos — mas não comerciais — em cima de seus modelos.

Mas as licenças do Gemma e do Llama da Meta, em particular, têm restrições que limitam as maneiras como as empresas podem usar os modelos sem medo de represálias legais.

A Meta, por exemplo, proíbe desenvolvedores de usar a “saída ou resultados” dos modelos Llama 3 para melhorar qualquer modelo além do Llama 3 ou “trabalhos derivados”. Também impede que empresas com mais de 700 milhões de usuários ativos mensais implantem modelos Llama sem antes obter uma licença adicional especial.

A licença do Gemma é geralmente menos onerosa. Mas confere ao Google o direito de “restringir (remotamente ou de outra forma) o uso” do Gemma que o Google acredita estar em violação da política de uso proibido da empresa ou de “leis e regulamentos aplicáveis.”

Esses termos não se aplicam apenas aos modelos originais Llama e Gemma. Modelos baseados no Llama ou Gemma também devem obedecer às licenças do Llama e Gemma, respectivamente. No caso do Gemma, isso inclui modelos treinados com dados sintéticos gerados pelo Gemma.

Florian Brand, assistente de pesquisa no Centro Alemão de Pesquisa em Inteligência Artificial, acredita que — apesar de o que os executivos das grandes empresas de tecnologia gostariam que você acreditasse — licenças como as do Gemma e Llama “não podem ser razoavelmente chamadas de ‘código aberto’.”

“A maioria das empresas tem um conjunto de licenças aprovadas, como a Apache 2.0, então qualquer licença personalizada causa muita dor de cabeça e custo,” disse Brand ao TechCrunch. “Pequenas empresas sem equipes jurídicas ou dinheiro para advogados vão acompanhar modelos com licenças padrão.”

Brand notou que desenvolvedores de modelos de IA com licenças personalizadas, como o Google, ainda não têm feito uma aplicação agressiva de seus termos. No entanto, a ameaça é muitas vezes suficiente para desestimular a adoção, acrescentou.

“Essas restrições têm um impacto no ecossistema de IA — mesmo em pesquisadores de IA como eu,” disse Brand.

Han-Chung Lee, diretor de aprendizado de máquina na Moody’s, concorda que licenças personalizadas, como as anexadas ao Gemma e Llama, tornam os modelos “não utilizáveis” em muitos cenários comerciais. Eric Tramel, um cientista aplicado da startup de IA Gretel, também compartilha dessa visão.

“Licenças específicas para modelos fazem isenções específicas para derivativos e destilação de modelos, o que causa preocupação sobre clawbacks,” disse Tramel. “Imagine uma empresa que está produzindo especificamente fine-tunes de modelo para seus clientes. Que licença deve ter uma fine-tune do Llama baseada em dados do Gemma? Qual seria o impacto para todos os seus clientes subsequentes?”

O cenário que os desenvolvedores mais temem, segundo Tramel, é o de que os modelos sejam uma espécie de cavalo de Troia.

“Um fundidor de modelo pode lançar [modelos] abertos, esperar para ver quais casos de uso de negócios se desenvolvem com esses modelos e, em seguida, forçar seu caminho em verticais de sucesso, seja por extorsão ou litígios,” afirmou. “Por exemplo, o Gemma 3, à primeira vista, parece um lançamento sólido — e um que poderia ter um impacto amplo. Mas o mercado não pode adotá-lo por causa de sua estrutura de licença. Assim, as empresas provavelmente continuarão a usar, talvez, modelos Apache 2.0 que são mais fracos e menos confiáveis.”

Para deixar claro, certos modelos alcançaram ampla distribuição apesar de suas licenças restritivas. O Llama, por exemplo, foi baixado centenas de milhões de vezes e incorporado em produtos de grandes corporações, incluindo a Spotify.

Mas eles poderiam ser ainda mais bem-sucedidos se fossem licenciados de forma permissiva, segundo Yacine Jernite, chefe de aprendizado de máquina e sociedade na startup de IA Hugging Face. Jernite pediu a provedores como o Google que adotem estruturas de licença abertas e “colaborem mais diretamente” com os usuários em termos amplamente aceitos.

“Dada a falta de consenso sobre esses termos e o fato de que muitas das suposições subjacentes ainda não foram testadas nos tribunais, tudo serve principalmente como uma declaração de intenção desses atores,” disse Jernite. “[Mas se certas cláusulas] forem interpretadas de forma excessiva, muito trabalho bom encontrará um terreno legal incerto, o que é particularmente assustador para organizações que estão construindo produtos comerciais de sucesso.”

Vidal afirmou que há uma necessidade urgente de empresas de modelos de IA que possam ser integradas, modificadas e compartilhadas livremente, sem temer mudanças repentinas de licenças ou ambiguidade legal.

“O atual cenário de licenciamento de modelos de IA está repleto de confusões, termos restritivos e alegações enganosas de abertura,” disse Vidal. “Em vez de redefinir ‘aberto’ para atender interesses corporativos, a indústria de IA deveria alinhar-se com princípios estabelecidos de código aberto para criar um ecossistema verdadeiramente aberto.”


    19 − 18 =

    Bolt42