Bolt42

O parceiro próximo e colaborador da Microsoft, OpenAI, pode estar sugerindo que a DeepSeek roubou sua propriedade intelectual e violou seus termos de serviço. No entanto, a Microsoft ainda deseja os novos modelos brilhantes da DeepSeek em sua plataforma de nuvem.

Hoje, a Microsoft anunciou que o R1, o chamado modelo de raciocínio da DeepSeek, está disponível no serviço Azure AI Foundry, a plataforma da Microsoft que reúne diversos serviços de IA para empresas sob uma única bandeira. Em um post no blog, a Microsoft afirmou que a versão do R1 no Azure AI Foundry passou por “exaustivos testes e avaliações de segurança”, incluindo “avaliações automatizadas do comportamento do modelo e extensas revisões de segurança para mitigar riscos potenciais.”

Num futuro próximo, a Microsoft informou que os clientes poderão utilizar versões “destiladas” do R1 que poderão ser executadas localmente em PCs Copilot+, a marca da Microsoft para hardware Windows que atende a certos requisitos de prontidão em IA.

“À medida que continuamos expandindo o catálogo de modelos no Azure AI Foundry, estamos animados para ver como desenvolvedores e empresas aproveitam […] o R1 para enfrentar desafios do mundo real e proporcionar experiências transformadoras,” continuou a Microsoft no post.

A adição do R1 aos serviços de nuvem da Microsoft é uma decisão curiosa, considerando que a Microsoft supostamente iniciou uma investigação sobre o possível abuso dos serviços dela e da OpenAI pela DeepSeek. De acordo com pesquisadores de segurança da Microsoft, a DeepSeek pode ter exfiltrado uma grande quantidade de dados usando a API da OpenAI no outono de 2024. A Microsoft, que também é a maior acionista da OpenAI, notificou a OpenAI sobre a atividade suspeita, segundo a Bloomberg.

Mas o R1 está em alta, e a Microsoft pode ter sido persuadida a trazê-lo para sua nuvem enquanto ainda mantém seu apelo.

Não está claro se a Microsoft fez alguma modificação no modelo para melhorar sua precisão — e combater a sua censura. De acordo com um teste realizado pela organização de confiabilidade da informação NewsGuard, o R1 fornece respostas imprecisas ou não responde 83% das vezes quando questionado sobre tópicos relacionados a notícias. Um teste separado descobriu que o R1 se recusa a responder 85% das perguntas relacionadas à China, possivelmente uma consequência da censura governamental à qual modelos de IA desenvolvidos no país estão sujeitos.

A TechCrunch possui um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo na sua caixa de entrada todas as quartas-feiras.


    10 + 6 =

    Bolt42