Todo mundo quer comer o almoço da Nvidia

Até agora, a Nvidia forneceu a grande maioria dos processadores usados para treinar e operar grandes modelos de IA, como os que sustentam o ChatGPT. As empresas tecnológicas e os laboratórios de IA não gostam de depender demasiado de um único fornecedor de chips, especialmente à medida que a sua necessidade de capacidade computacional aumenta, por isso procuram formas de diversificar. E assim, intervenientes como a AMD e a Huawei, bem como hiperscaladores como a Google e a Amazon AWS, que acaba de lançar o seu mais recente chip Trainium3, estão a apressar-se para melhorar os seus próprios tipos de aceleradores de IA, os processadores concebidos para acelerar tipos específicos de tarefas de computação. Poderia a concorrência eventualmente reduzir a Nvidia, o player dominante da IA, a apenas mais um fornecedor de chips de IA, uma das muitas opções, potencialmente abalando as bases tecnológicas da indústria? Ou a crescente demanda por chips de IA é grande o suficiente para levantar todos os barcos? Essas são as perguntas de um trilhão de dólares. O Google enviou uma pequena onda de choque em toda a indústria quando mencionou casualmente que havia treinado seu impressionante novo modelo Gemini 3 Pro inteiramente em suas próprias unidades de processamento de tensor (TPUs) – outro tipo de chips aceleradores de IA (GPUs). Os observadores da indústria imediatamente se perguntaram se a ampla dependência da indústria de IA dos chips Nvidia era justificada. Afinal, eles são muito caros: uma grande parte dos bilhões que estão sendo gastos agora para desenvolver a capacidade de computação de IA (data centers) vai para os chips da Nvidia. E as TPUs do Google parecem mais uma alternativa da Nvidia. A empresa pode alugar TPUs em seus próprios data centers e está considerando vender os chips diretamente para outras empresas de IA, incluindo Meta e Anthropic. Um relatório (com acesso pago) do The Information em novembro disse que o Google está em negociações para vender ou alugar suas GPUs para que possam rodar no data center de qualquer empresa. Um relatório da Reuters diz que a Meta está em negociações para gastar “bilhões” em TPUs do Google a partir de 2027, e pode começar a pagar para executar cargas de trabalho de IA em TPUs dentro dos data centers do Google ainda mais cedo. A Anthropic anunciou em outubro que usaria até um milhão de TPUs nos data centers do Google para desenvolver seus modelos Claude. A venda imediata das TPUs colocaria, tecnicamente, o Google em concorrência direta com a Nvidia. Mas isso não significa que o Google esteja se esforçando para roubar o negócio de chips da Nvidia. Afinal, o Google é um grande comprador de chips Nvidia. O Google pode ver a venda de TPUs para determinados clientes como uma extensão da venda de acesso a TPUs em execução em sua nuvem. Isso faz sentido se os clientes estiverem procurando fazer os tipos de processamento de IA nos quais as TPUs são especialmente boas, diz Brandon Hoff, analista da IDC. Embora as GPUs da Nvidia sejam cavalos de batalha capazes de realizar uma ampla gama de trabalhos, a maioria das grandes empresas de plataformas de tecnologia projetaram seus próprios aceleradores, desenvolvidos especificamente para seus tipos de computação mais cruciais. A Microsoft desenvolveu chips otimizados para seus serviços em nuvem Azure. Os chips Trainium da Amazon são especialmente bons em tarefas relacionadas ao comércio eletrônico, como sugestão de produtos e logística de entrega. As TPUs do Google são boas para veicular anúncios direcionados em suas plataformas e redes. Isso é algo que o Google compartilha com o Meta. “Ambos fazem anúncios e por isso faz sentido que a Meta queira dar uma olhada no uso das TPUs do Google”, diz Hoff. E não é apenas Meta. A maioria das grandes empresas de tecnologia usa uma variedade de aceleradores porque usam aprendizado de máquina e IA para uma ampla variedade de tarefas. “A Apple adquiriu algumas TPUs, alguns chips AWS, é claro, algumas GPUs, e eles estão brincando com o que funciona bem para diferentes cargas de trabalho”, acrescenta. A grande vantagem da Nvidia é que seus chips são muito poderosos – eles são a razão pela qual o treinamento de grandes modelos de linguagem se tornou possível. Eles também são ótimos generalistas, bons para uma ampla variedade de cargas de trabalho de IA. Além disso, são flexíveis, o que significa que podem ser conectados a diferentes plataformas. Por exemplo, se uma empresa quiser executar seus modelos de IA em uma combinação de serviços em nuvem, é provável que desenvolva esses modelos para rodar em chips Nvidia, porque todas as nuvens os utilizam. “A vantagem de flexibilidade da Nvidia é real; não é por acaso que a fungibilidade das GPUs entre cargas de trabalho foi focada como uma justificativa para o aumento das despesas de capital da Microsoft e da Meta”, escreveu o analista Ben Thompson em um boletim informativo recente. “As TPUs são mais especializadas no nível do hardware e mais difíceis de programar no nível do software; para esse fim, na medida em que os clientes se preocupam com a flexibilidade, a Nvidia continua sendo a escolha óbvia.” No entanto, o aprisionamento do fornecedor continua a ser uma grande preocupação, especialmente porque as grandes empresas tecnológicas e os laboratórios de IA estão a investir centenas de milhares de milhões de dólares em novas capacidades de centros de dados para IA. As empresas de IA prefeririam usar uma combinação de chips de IA de diferentes fornecedores. A Anthropic, por exemplo, é explícita sobre isso: “A estratégia de computação exclusiva da Anthropic se concentra em uma abordagem diversificada que usa eficientemente três plataformas de chips – TPUs do Google, Trainium da Amazon e GPUs da NVIDIA”, disse a empresa em uma postagem no blog de outubro. A AWS da Amazon afirma que seu chip Trainium3 é cerca de quatro vezes mais rápido que o chip Trainium2 anunciado há um ano e 40% mais eficiente. Devido ao desempenho dos chips Nvidia, muitas empresas de IA padronizaram o CUDA, a camada de software da Nvidia que permite aos desenvolvedores controlar como as GPUs trabalham juntas para oferecer suporte a seus aplicativos de IA. A maioria dos engenheiros, desenvolvedores e pesquisadores que trabalham com grandes modelos de IA conhece CUDA, o que pode causar outra forma de aprisionamento organizacional baseado em habilidades. Mas agora pode fazer sentido para as organizações construir pilhas de software alternativas totalmente novas para acomodar diferentes tipos de chips, diz Thompson. “O facto de não o terem feito durante muito tempo é uma função de simplesmente não valer a pena o tempo e o esforço; quando os planos de despesas de capital atingem centenas de milhares de milhões de dólares, no entanto, o que ‘vale’ o tempo e o esforço muda.” A IDC projeta que a alta demanda por poder de computação de IA provavelmente não diminuirá tão cedo. “Vemos que os fornecedores de serviços em nuvem estão a crescer rapidamente, mas os seus gastos irão abrandar”, diz Hoff. Além disso, uma segunda vaga de procura poderá vir de “fundos soberanos”, como a Arábia Saudita, que está a construir o “centro de IA” de Humain, um grande complexo de infra-estruturas de IA que financiará e controlará. Outra onda de procura poderá vir de grandes empresas multinacionais que queiram construir infraestruturas de IA “soberanas” semelhantes, explica Hoff. Há muitas coisas em 2027 e 2028 que continuarão impulsionando a demanda.” Existem muitas histórias de “desafios dos fabricantes de chips à Nvidia”, mas quanto mais se aprofunda nas complexidades econômicas e na dinâmica competitiva do mercado de chips de IA, grande parte do drama se esvai. À medida que a IA encontra mais aplicações tanto na tecnologia empresarial como de consumo, os modelos de IA serão solicitados a realizar cada vez mais tipos de trabalho, e cada um exigirá várias misturas de chips generalistas ou especializados. Portanto, embora haja uma pressão competitiva crescente sobre a Nvidia, ainda existem muitos bons motivos para empresas como Google e Amazon colaborarem com a Nvidia. “Nos próximos dois anos, haverá mais demanda do que oferta, então quase nada disso importa”, diz Patrick Moorhead, analista-chefe da Moor Insights & Strategy. Moorhead acredita que daqui a cinco anos as GPUs Nvidia ainda manterão sua participação de mercado de 70%.
Publicado: 2025-12-05 14:30:00
fonte: www.fastcompany.com








