Inteligência Artificial

Demanda por chips de inferência pode ameaçar dominância da Nvidia em IA; entenda

A ascensão de modelos de IA de raciocínio, como o R1 da chinesa DeepSeek, tem aumentado a demanda por chips de inferência em vez de chips de treinamento

Ramana Rech
Ramana Rech

Redatora

Publicado em 11 de março de 2025 às 11h35.

Tudo sobreInteligência artificial
Saiba mais

A demanda por chips de inferência para sistemas de inteligência artificial pode ameaçar a dominância da Nvidia no mercado de infraestrutura de IA, diz um artigo do Financial Times. Investidores têm pressionado a companhia, que viu grande valorização de suas ações, para manter o desempenho em meio à mudança nas tendências de infraestrutura.

A Nvidia detém boa parte do mercado de chips para treinamento de IA. Mas, agora a demanda tem crescido em torno de chips de inferência, processo que ocorre quando o usuário faz o seu pedido à IA.

Isso porque modelos de raciocínio em ascensão, como o R1, da DeepSeek, o GPT-o3, da OpenAI, e o Claude 3.7, da Anthropic, consomem mais recursos computacionais na fase de inferência do que no treinamento.

É em infraestrutura de inferência que os concorrentes da Nvidia, desde startups até big techs, têm concentrado seus esforços para ultraar a companhia de semicondutores.

Analistas do Morgan Stanley estimam que mais de 75% da demanda por poder computacional em data centers dos Estados Unidos serão destinados à inferência nos próximos anos, embora destaquem a incerteza de quando exatamente a transição irá acontecer.

Analistas do banco britânico Barclays disseram que a Nvidia terá, em essência, 100% do mercado de treinamento de IA, mas apenas metade do de computação de inferência no longo prazo. Isso deixa os rivais da companhia com uma porção de US$ 200 bilhões dos gastos com chips até 2028.

Os chips de inferência têm requisitos, como grande memória e velocidade, enquanto os produtos da Nvidia têm maior força no manuseio de grandes volumes de cálculos. Isso tem aberto caminho para alternativas à empresa.

Os produtos de inferência também funcionam melhor quando alinhados a um tipo particular de modelo de IA. Grandes companhias, como Meta, Google e Amazon têm criado seus chips de inferência para atender às próprias demandas de forma customizada.

Acompanhe tudo sobre:NvidiaChipsInteligência artificial

Mais de Inteligência Artificial

Wikipedia suspende teste com IA que gerava resumos automáticos após reação dos editores

Adobe projeta lucros acima do esperado, mas encara desafios na era da IA

Startup de nuvem Crusoe investe US$ 400 milhões em chips da AMD para novo data center de IA nos EUA

Cuidado ao usar o Meta AI: botão de compartilhar pode expor conversas privadas dos usuários