Bolt42

Poucas horas após David Sacks afirmar que a DeepSeek utilizou os modelos da OpenAI para treinar seus próprios modelos, o Bloomberg Law relata que a Microsoft está investigando o uso da API da OpenAI pela DeepSeek.

De acordo com pesquisadores de segurança da Microsoft, a empresa chinesa por trás do modelo de raciocínio R1 pode ter exfiltrado uma grande quantidade de dados usando a API da OpenAI no outono de 2024. A Microsoft, que também é a maior acionista da OpenAI, notificou a OpenAI sobre a atividade suspeita.

Embora qualquer pessoa possa se inscrever e acessar a API da OpenAI, os termos de serviço da empresa estipulam que você não pode usar a saída para treinar um novo modelo de IA.

Você está proibido de usar “Saída para desenvolver modelos que competem com a OpenAI,” escreve a empresa em seus termos de uso. Além disso, a empresa afirma que você não pode “extrair dados ou saída de forma automática ou programática.”

O problema central parece vir da destilação, um método usado por desenvolvedores de modelos de IA para extrair conhecimento de outro modelo usando um tipo de comportamento de professor-aluno. Será interessante ver se a DeepSeek encontrou maneiras inovadoras de contornar os limites de taxa da OpenAI e consultar sua API em grande escala. Se for o caso, certamente haverá ramificações legais.


    dois × um =

    Bolt42