Bolt42

Apresentado pela AMD


À medida que a adoção da IA acelera, as empresas estão enfrentando gargalos de computação que vão além da mera potência de processamento. O desafio não é apenas ter mais capacidade computacional; é ter uma computação mais inteligente e eficiente, personalizada para as necessidades de uma organização, com a capacidade de escalar juntamente com a inovação em IA. Os modelos de IA estão crescendo em tamanho e complexidade, exigindo arquiteturas que podem processar enormes conjuntos de dados, suportar aprendizado contínuo e proporcionar a eficiência necessária para a tomada de decisões em tempo real.

Desde o treinamento e a inferência de IA em data centers de alta escala até a automação impulsionada por IA em empresas, a capacidade de implantar e escalar infraestrutura de computação de forma tranquila agora é um diferencial competitivo.

“É uma tarefa difícil. As organizações estão lutando para se manter atualizadas com as demandas computacionais de IA, escalar cargas de trabalho de IA de forma eficiente e otimizar sua infraestrutura,” diz Mahesh Balasubramanian, diretor de marketing de produtos de GPU de data center da AMD. “Toda empresa com a qual conversamos quer estar na vanguarda da adoção de IA e da transformação dos negócios. O desafio é que eles nunca enfrentaram uma tecnologia tão massiva e definidora de era antes.”

Lançando uma estratégia de IA ágil

Por onde começar? Modernizar os data centers existentes é um passo essencial para remover gargalos à inovação em IA. Isso libera espaço e energia, melhora a eficiência e torna o data center mais sustentável, tudo isso ajudando a organização a se manter ágil o suficiente para se adaptar ao ambiente de IA em mudança.

“Você pode atualizar seu data center existente de um CPU Intel Xeon 8280 de três gerações atrás para a última geração de CPU AMD EPYC e economizar até 68% em energia enquanto utiliza 87% menos servidores3,” diz Balasubramanian. “Não é apenas uma forma inteligente e eficiente de atualizar um data center existente; abre opções para os próximos passos na atualização do poder computacional de uma empresa.”

E à medida que uma organização evolui sua estratégia de IA, é fundamental ter um plano para as crescentes exigências de hardware e computação. É uma tarefa complexa, seja você trabalhando com um único modelo que fundamenta os processos organizacionais, modelos personalizados para cada departamento ou IA agente.

“Se você entender sua situação fundamental – onde a IA será implantada e qual infraestrutura já está disponível em termos de espaço, energia, eficiência e custo – você terá uma grande variedade de soluções tecnológicas robustas para resolver esses problemas,” afirma Balasubramanian.

Além da computação “tamanho único”

Uma percepção comum nas empresas é que as soluções de IA exigem um investimento maciço logo no início, em hardware, software e serviços. Isso se provou ser uma das barreiras mais comuns à adoção — e uma fácil de superar, diz Balasubramanian. A jornada da IA começa com uma análise da tecnologia existente e atualizações no data center; a partir daí, uma organização pode começar a escalar para o futuro escolhendo tecnologia que pode ser ajustada para os problemas de hoje e as metas de amanhã.

“Em vez de gastar tudo em um tipo específico de produto ou solução, você pode agora ajustar o tamanho e a solução para as organizações que possui,” afirma Balasubramanian. “A AMD é única porque temos um conjunto amplo de soluções para atender requisitos personalizados. Temos soluções que vão desde a nuvem até o data center, soluções de borda, soluções de cliente e de rede e muito mais. Este amplo portfólio nos permite fornecer o melhor desempenho em todas as soluções e nos permite oferecer orientação detalhada para as empresas que buscam a solução que se encaixa em suas necessidades.”

Esse portfólio de IA é projetado para enfrentar as cargas de trabalho de IA mais exigentes — desde o treinamento de modelos fundamentais até a inferência de borda. As mais recentes GPUs AMD InstinctTM MI325X, alimentadas pela memória HBM3e e arquitetura CDNA, oferecem desempenho superior para cargas de trabalho de IA generativa, proporcionando até 1,3X melhor desempenho em inferência em comparação com soluções concorrentes1,2​. As CPUs AMD EPYC continuam a definir padrões na indústria, oferecendo densidade de núcleo inigualável, eficiência energética e alta largura de banda de memória, essenciais para a escalabilidade computacional da IA​.

A colaboração com uma ampla gama de líderes do setor — incluindo OEMs como Dell, Supermicro, Lenovo e HPE, fornecedores de rede como Broadcom e Marvell, e fornecedores de switches como Arista e Cisco — maximiza a modularidade dessas soluções de data center. Ela escala de forma tranquila de dois ou quatro servidores a milhares, todos construídos com tecnologia de rede de IA baseada em Ethernet de próxima geração e apoiados por tecnologia e expertise líderes da indústria.

Por que o software de código aberto é crítico para o avanço da IA

Enquanto hardware e software são cruciais para enfrentar os desafios da IA hoje, o software de código aberto impulsionará a verdadeira inovação.

“Acreditamos que não existe uma única empresa no mundo que tenha as respostas para todos os problemas,” afirma Balasubramanian. “A melhor maneira de resolver os problemas do mundo com IA é ter uma frente unida, e ter uma frente unida significa ter um stack de software aberto no qual todos possam colaborar. Essa é uma parte chave de nossa visão.”

O stack de software de código aberto da AMD, ROCmTM, é amplamente adotado por líderes da indústria como OpenAI, Microsoft, Meta, Oracle e mais. A Meta executa seu maior e mais complexo modelo em GPUs AMD Instinct. O ROCm vem com suporte padrão para PyTorch, a maior estrutura de IA, e possui mais de um milhão de modelos do repositório de modelos premium da Hugging Face, possibilitando aos clientes iniciar sua jornada com uma experiência integrada desde o início no software ROCm e nas GPUs Instinct.

A AMD trabalha com fornecedores como PyTorch, Tensorflow, JAX, Triton da OpenAI e outros para garantir que, independentemente do tamanho do modelo, pequeno ou grande, aplicações e casos de uso possam escalar de um único GPU até dezenas de milhares de GPUs — da mesma maneira que seu hardware de IA pode escalar para atender qualquer carga de trabalho.

O engajamento profundo do ROCm com o ecossistema, com integração contínua e desenvolvimento contínuo, garante que novas funções e recursos de IA possam ser integrados de forma segura ao stack. Esses recursos passam por um processo automatizado de testes e desenvolvimento para garantir que se encaixem, sejam robustos, não quebrem nada e possam fornecer suporte imediato aos desenvolvedores de software e cientistas de dados que os utilizam.

E à medida que a IA evolui, o ROCm está se adaptando para oferecer novas capacidades, em vez de prender uma organização a um único fornecedor que pode não oferecer a flexibilidade necessária para crescer.

“Queremos dar às organizações um stack de software de código aberto que seja completamente aberto de cima a baixo e em toda a organização,” diz ele. “Os usuários podem escolher as camadas que atendem suas necessidades e modificá-las conforme necessário, ou executar modelos prontos para uso desde o início, garantindo que as empresas possam rodar modelos intensivos como DeepSeek, Llama ou os mais recentes modelos Gemma do Google desde o primeiro dia.”

Uma perspectiva futura: a visão da AMD para computação em IA

À medida que as organizações abraçam a revolução inicial da IA, precisam evitar ficar presas a uma solução particular, encontrando soluções de computação que atendam suas necessidades agora e no futuro. Trabalhar com um especialista do setor é crítico para identificar essas necessidades e o que é necessário para levá-las adiante à medida que a IA muda o mundo.

A AMD está impulsionando essa mudança, colaborando com laboratórios de IA líderes na vanguarda do desenvolvimento de IA, e com o ecossistema mais amplo de desenvolvedores e empresas de software de ponta. Com uma base de clientes em crescimento que inclui Microsoft, Meta, Dell Technologies, HPE, Lenovo e outros, a AMD está moldando o cenário da IA ao fornecer soluções de alto desempenho e eficiência energética que impulsionam a inovação em diversos setores.

Olhando para o futuro, essa colaboração é fundamental para o roadmap tecnológico da AMD. A empresa está investindo em soluções abrangentes de hardware e software, incluindo a recente aquisição da ZT Systems, trazendo expertise essencial em design de servidores e clusters para lançar soluções de full-stack rapidamente com nossos parceiros OEM, ODM e de nuvem.

E à medida que os modelos se tornam maiores e mais sofisticados, as demandas de hardware estão aumentando exponencialmente. Isso é o que direciona a estratégia de produtos da AMD e seus conjuntos de recursos: garantir que seu portfólio de soluções possa escalar, com uma infraestrutura de IA aberta e flexível que mantenha desempenho e eficiência.

“Este amplo portfólio é projetado para ajustar as soluções de IA e proporcionar o melhor desempenho em cada configuração do cliente, impulsionando estratégias de IA de todos os tamanhos,” diz Balasubramanian. “Independentemente de qual parte da jornada de IA uma organização esteja, se está construindo um modelo ou usando um modelo para um caso de uso final, gostaríamos que elas viessem e conversassem conosco, e vissem como podemos ajudar a resolver seus maiores problemas.”

Os novos aceleradores AMD Instinct MI325X estão quebrando as barreiras de desempenho em IA — saiba mais agora.

Notas de rodapé

1. https://www.amd.com/en/legal/claims/instinct.html#q=MI325-014

2. https://www.amd.com/en/legal/claims/instinct.html#q=MI325-015

3. https://www.amd.com/en/legal/claims/epyc.html#q=SP9xxTCO-002A


Artigos patrocinados são conteúdos produzidos por uma empresa que está pagando pelo post ou possui uma relação comercial com a VentureBeat, e estão sempre claramente marcados. Para mais informações, entre em contato com sales@venturebeat.com.


    16 − 2 =

    Bolt42