Bolt42

Participe de nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba mais


A liberação do modelo de raciocínio DeepSeek R1 causou ondas de choque na indústria de tecnologia, com o sinal mais óbvio sendo a repentina queda nas ações de grandes empresas de IA. A vantagem de laboratórios de IA bem financiados, como OpenAI e Anthropic, agora parece menos sólida, já que a DeepSeek conseguiu desenvolver seu concorrente o1 a uma fração do custo.

Enquanto alguns laboratórios de IA estão em modo de crise, para o setor empresarial, as notícias são majoritariamente positivas.

Aplicações mais baratas, mais aplicações

Como mencionamos anteriormente, uma das tendências a serem observadas em 2025 é a queda contínua nos custos de uso de modelos de IA. As empresas devem experimentar e construir protótipos com os modelos de IA mais recentes, independentemente do preço, sabendo que a redução contínua de preços permitirá, eventualmente, que implementem suas aplicações em larga escala.

Essa linha de tendência acaba de sofrer uma grande mudança. O custo do OpenAI o1 é de $60 por milhão de tokens de saída, em comparação com $2,19 por milhão para o DeepSeek R1. E, se você se preocupa em enviar seus dados para servidores chineses, pode acessar o R1 em provedores baseados nos EUA, como Together.ai e Fireworks AI, onde os preços são $8 e $9 por milhão de tokens, respectivamente — ainda assim, um grande pechincha em comparação ao o1.

Para ser justo, o o1 ainda tem vantagem sobre o R1, mas não a ponto de justificar uma diferença de preço tão grande. Além disso, as capacidades do R1 serão suficientes para a maioria das aplicações empresariais. E, podemos esperar que mais modelos avançados e capazes sejam lançados nos próximos meses.

Também podemos esperar efeitos de segunda ordem no mercado geral de IA. Por exemplo, o CEO da OpenAI, Sam Altman, anunciou que usuários gratuitos do ChatGPT em breve terão acesso ao o3-mini. Embora ele não tenha mencionado explicitamente o R1 como a razão, o fato de que o anúncio foi feito logo após o lançamento do R1 é indicativo.

https://twitter.com/sama/status/1882478782059327666

Mais inovação

O R1 deixa muitas perguntas sem resposta — por exemplo, há múltiplos relatos de que a DeepSeek treinou o modelo com saídas de grandes modelos de linguagem (LLMs) da OpenAI. Mas, se seu artigo e relatório técnico estiverem corretos, a DeepSeek conseguiu criar um modelo que quase iguala o estado da arte enquanto corta custos e remove algumas das etapas técnicas que exigem muito trabalho manual.

Se outros puderem reproduzir os resultados da DeepSeek, isso pode ser uma boa notícia para laboratórios de IA e empresas que foram marginalizadas pelas barreiras financeiras à inovação no campo. As empresas podem esperar uma inovação mais rápida e mais produtos de IA para impulsionar suas aplicações.

https://twitter.com/AndrewYNg/status/1883972263177072730

O que acontecerá com os bilhões de dólares que as grandes empresas de tecnologia gastaram na aquisição de aceleradores de hardware? Ainda não chegamos ao teto do que é possível com a IA, então as principais empresas de tecnologia poderão fazer mais com seus recursos. A IA mais acessível, de fato, aumentará a demanda no médio a longo prazo.

https://twitter.com/satyanadella/status/1883753899255046301

Mas, mais importante, o R1 é uma prova de que nem tudo está atrelado a clusters de computação e conjuntos de dados maiores. Com as habilidades de engenharia certas e um bom talento, você poderá expandir os limites do que é possível.

Open source para a vitória

Para deixar claro, o R1 não é totalmente de código aberto, uma vez que a DeepSeek apenas liberou os pesos, mas não o código ou detalhes completos dos dados de treinamento. No entanto, isso é uma grande vitória para a comunidade de código aberto. Desde o lançamento do DeepSeek R1, mais de 500 derivados foram publicados no Hugging Face, e o modelo foi baixado milhões de vezes.

https://twitter.com/ClementDelangue/status/1883946119723708764

Isso também dará mais flexibilidade para as empresas em relação a onde executar seus modelos. Além do modelo completo de 671 bilhões de parâmetros, existem versões destiladas do R1, variando de 1,5 bilhões a 70 bilhões de parâmetros, permitindo que as empresas executem o modelo em uma variedade de hardware. Além disso, ao contrário do o1, o R1 revela toda sua cadeia de pensamento, dando aos desenvolvedores uma melhor compreensão do comportamento do modelo e a capacidade de direcioná-lo na direção desejada.

Com o código aberto se aproximando dos modelos fechados, podemos esperar uma renovação do compromisso em compartilhar conhecimento e pesquisa para que todos possam se beneficiar dos avanços em IA.

https://twitter.com/ylecun/status/1882943244679709130





    2 × três =




    Bolt42