Bolt42

Esta semana, o Google lançou uma família de modelos de IA aberta, o Gemma 3, que rapidamente recebeu elogios por sua impressionante eficiência. Mas, como um número de desenvolvedores lamentaram no X, a licença do Gemma 3 torna o uso comercial dos modelos uma proposta arriscada.

Não se trata de um problema exclusivo do Gemma 3. Empresas como a Meta também aplicam termos de licenciamento personalizados e não convencionais aos seus modelos disponíveis publicamente, e esses termos apresentam desafios legais para as empresas. Algumas firmas, especialmente operações menores, temem que o Google e outros possam “puxar o tapete” de seus negócios ao afirmar cláusulas mais onerosas.

“O licenciamento restritivo e inconsistente dos chamados modelos de IA ‘abertos’ está criando uma incerteza significativa, especialmente para a adoção comercial”, disse Nick Vidal, chefe da comunidade da Open Source Initiative, uma instituição de longa data que visa definir e “administrar” tudo relacionado ao software livre, ao TechCrunch. “Enquanto esses modelos são comercializados como abertos, os termos reais impõem vários obstáculos legais e práticos que desmotivam as empresas a integrá-los em seus produtos ou serviços.”

Os desenvolvedores de modelos abertos têm suas razões para lançar modelos sob licenças proprietárias em vez de opções padrão da indústria, como Apache e MIT. A startup de IA Cohere, por exemplo, deixou claro sua intenção de apoiar trabalhos científicos — mas não comerciais — com base em seus modelos.

Mas as licenças do Gemma e do Llama da Meta, em particular, têm restrições que limitam as maneiras como as empresas podem usar os modelos sem temer represálias legais.

A Meta, por exemplo, proíbe desenvolvedores de usar a “saída ou resultados” dos modelos Llama 3 para melhorar qualquer modelo além do Llama 3 ou “obras derivadas.” Ela também impede que empresas com mais de 700 milhões de usuários ativos mensais implantem modelos Llama sem primeiro obter uma licença adicional especial.

A licença do Gemma é geralmente menos onerosa. No entanto, concede ao Google o direito de “restrigir (remotamente ou de outra forma) o uso” do Gemma que o Google acreditar estar em violação da política de uso proibido da empresa ou das “lei e regulamentos aplicáveis.”

Esses termos não se aplicam apenas aos modelos originais do Llama e do Gemma. Modelos baseados no Llama ou Gemma também devem obedecer às licenças do Llama e Gemma, respectivamente. No caso do Gemma, isso inclui modelos treinados com dados sintéticos gerados pelo Gemma.

Florian Brand, assistente de pesquisa no Centro Alemão de Pesquisa em Inteligência Artificial, acredita que — apesar de o que os executivos das grandes empresas de tecnologia gostariam que você acreditasse — licenças como as do Gemma e Llama “não podem ser razoavelmente chamadas de ‘código aberto’.”

“A maioria das empresas tem um conjunto de licenças aprovadas, como a Apache 2.0, então qualquer licença personalizada representa muito trabalho e dinheiro,” disse Brand ao TechCrunch. “Pequenas empresas sem equipes jurídicas ou dinheiro para advogados vão se apegar a modelos com licenças padrão.”

Brand observou que os desenvolvedores de modelos de IA com licenças personalizadas, como o Google, ainda não impuseram suas cláusulas de forma agressiva. No entanto, a ameaça geralmente é suficiente para desencorajar a adoção, acrescentou.

“Essas restrições têm um impacto no ecossistema de IA — até mesmo em pesquisadores de IA como eu,” disse Brand.

Han-Chung Lee, diretor de aprendizado de máquina na Moody’s, concorda que licenças personalizadas, como as anexadas ao Gemma e Llama, tornam os modelos “inutilizáveis” em muitos cenários comerciais. Eric Tramel, um cientista aplicado da startup de IA Gretel, também concorda.

“Licenças específicas de modelo fazem carve-outs específicos para derivativos e destilação de modelos, o que causa preocupação sobre recuperações,” disse Tramel. “Imagine um negócio que está especificamente produzindo ajustes de modelos para seus clientes. Que licença um ajuste de Llama baseado em dados do Gemma deve ter? Qual seria o impacto para todos os seus clientes posteriores?”

O cenário que os implantadores mais temem, disse Tramel, é que os modelos sejam uma espécie de cavalo de Troia.

“Uma fundição de modelos pode lançar modelos [abertos], esperar para ver quais casos de negócios se desenvolvem usando esses modelos, e então forçar sua entrada em verticais de sucesso por meio de extorsão ou contencioso,” disse ele. “Por exemplo, o Gemma 3, à primeira vista, parece um lançamento sólido — e um que poderia ter um impacto amplo. Mas o mercado não pode adotá-lo por causa de sua estrutura de licença. Portanto, os negócios provavelmente ficarão com modelos Apache 2.0, que podem ser mais fracos e menos confiáveis.”

Para ser claro, certos modelos alcançaram uma ampla distribuição apesar de suas licenças restritivas. O Llama, por exemplo, foi baixado centenas de milhões de vezes e incorporado em produtos de grandes corporações, incluindo a Spotify.

No entanto, eles poderiam ser ainda mais bem-sucedidos se fossem licenciados de forma permissiva, de acordo com Yacine Jernite, chefe de aprendizado de máquina e sociedade na startup de IA Hugging Face. Jernite pediu que provedores como o Google adotem estruturas de licenciamento abertas e “colaborem mais diretamente” com os usuários em termos amplamente aceitos.

“Dada a falta de consenso sobre esses termos e o fato de que muitas das suposições subjacentes ainda não foram testadas em tribunal, tudo isso serve principalmente como uma declaração de intenção desses atores,” disse Jernite. “[Mas se certas cláusulas] forem interpretadas de forma muito ampla, muitos bons trabalhos encontrarão um terreno legal incerto, o que é particularmente assustador para organizações que estão construindo produtos comerciais bem-sucedidos.”

Vidal disse que há uma necessidade urgente por empresas de modelos de IA que possam ser integrados, modificados e compartilhados livremente, sem temer mudanças repentinas de licença ou ambiguidade legal.

“O atual cenário de licenciamento de modelos de IA está repleto de confusão, termos restritivos e reivindicações enganadoras de abertura,” disse Vidal. “Em vez de redefinir ‘aberto’ para atender a interesses corporativos, a indústria de IA deve alinhar-se aos princípios estabelecidos de código aberto para criar um ecossistema verdadeiramente aberto.”


    treze + dezessete =

    Bolt42