
(Bloomberg/Nick Turner) — Meta Platform Inc. está em negociações para gastar bilhões em chips de IA do Google, segundo dados, somando-se a uma recuperação de ações que já dura um mês, enquanto a gigante das buscas tenta desafiar a Nvidia Corp.
Um acordo sinalizaria um impulso crescente para os chips do Google e o potencial de longo prazo para desafiar o domínio de mercado da Nvidia, depois que a empresa concordou anteriormente em fornecer até 1 milhão de chips para a Antrópica PBC.
Proprietária do Google, Alphabet Inc. A avaliação de mercado de US$ 4 trilhões está no caminho certo pela primeira vez desde que as negociações foram abertas em Nova York na quarta-feira. As ações da Nvidia caíram quase 4% nas negociações de pré-mercado.
A Meta está em negociações para usar chips do Google – conhecidos como unidades de processamento tensor, ou TPUs – em data centers em 2027, informou o The Information, citando uma pessoa não identificada familiarizada com as discussões. A Meta pode alugar chips da divisão de nuvem do Google no próximo ano, disse a agência de notícias.
Explicador: como as TPUs do Google poderiam dar à Nvidia uma corrida pelo seu dinheiro
Um acordo ajudará a estabelecer as TPUs como uma alternativa aos chips da Nvidia, o padrão ouro para grandes empresas de tecnologia e startups, da Meta à OpenAI, que precisam de poder computacional para desenvolver e executar plataformas de inteligência artificial.
As ações da Nvidia já enfrentam dores de cabeça, pois os investidores temem uma bolha de IA em expansão. Michael Bury, imortalizado em The Big Short pelas suas apostas contra o mercado imobiliário durante a crise financeira de 2008, examinou a fabricante de chips em termos de acordos circulares de IA, depreciação de hardware e reconhecimento de receitas.
Depois que o acordo de antropologia do Google foi anunciado, o analista da Seaport, Jay Goldberg, chamou-o de “validação realmente forte” para TPU. “Muitas pessoas já estavam pensando nisso e provavelmente muito mais pessoas estão pensando nisso agora”, disse ele.
“O Google Cloud está enfrentando uma demanda acelerada por nossas TPUs personalizadas e GPUs NVIDIA; estamos comprometidos em oferecer suporte a ambos, como temos feito há anos”, disse um porta-voz do Google.
Os representantes da Meta não quiseram comentar.
Aqui está o que diz a Bloomberg Intelligence
O uso potencial da TPU do Google pela Meta, que a Anthropic já usa, mostra que fornecedores terceirizados de grandes modelos de linguagem podem aproveitar o Google como fornecedor secundário de chips aceleradores para inferência de curto prazo. O investimento da Mater para 2026 é de pelo menos US$ 100 bilhões, sugerindo que ela gastará pelo menos US$ 40 a US$ 50 bilhões em recursos de chips de inferência no próximo ano, calculamos. O crescimento dos custos e do backlog do Google Cloud pode acelerar em comparação com outros pares hiperescaladores e neo-cloud devido à demanda de clientes corporativos que desejam usar TPUs e Gemini LLM no Google Cloud.
– Mandeep Singh e Robert Bigger, analistas
Clique aqui para pesquisar.
As ações asiáticas relacionadas à Alphabet subiram no início do pregão na Ásia na terça-feira. Na Coreia do Sul, a IsuPetasys Co., que fornece placas multicamadas para a Alphabet, saltou 18%, para um novo recorde intradiário. Em Taiwan, as ações da MediaTek Inc. subiram quase 5%.
Um acordo com a Meta – uma das maiores gastadoras globais em data centers e desenvolvimento de IA – representaria uma vitória para o Google. Mas muito depende se os chips Tensor podem demonstrar a eficiência energética e a força computacional necessárias para serem uma opção viável no longo prazo.
O chip tensor – desenvolvido há mais de 10 anos especificamente para tarefas de inteligência artificial – está ganhando impulso fora de sua empresa natal como uma forma de treinar e executar modelos complexos de IA. Seu apelo como alternativa cresceu em um momento em que empresas ao redor do mundo se preocupam com a dependência excessiva da Nvidia, em um mercado onde até mesmo a Advanced Micro Devices Inc. é um distante segundo colocado.
Unidades de processamento gráfico, ou GPUs, parte do mercado de chips dominado pela Nvidia, foram desenvolvidas para acelerar a renderização de gráficos – principalmente em videogames e outras aplicações de efeitos visuais – mas provaram ser adequadas para treinar modelos de IA porque podem lidar com grandes quantidades de dados e cálculos. Por outro lado, TPU é um tipo de produto especializado conhecido como circuito integrado de aplicação específica ou microchip que foi projetado para uma finalidade específica.
Os chips tensores também foram adaptados como aceleradores para IA e trabalho de aprendizado de máquina nos próprios aplicativos do Google. À medida que o Google e sua unidade DeepMind desenvolvem modelos de IA de ponta, como o Gemini, a empresa tem conseguido levar lições dessas equipes aos designers de chips. Ao mesmo tempo, a capacidade de personalizar chips beneficiou as equipes de IA.
-Auxiliado por Riley Griffin e Carmen Arroyo.
Mais histórias como esta estão disponíveis bloomberg. com
©2025 Bloomberg LP



