A Arma Secreta de IA do Google Acabou de Vazou

Enquanto rivais lutam por capacidade de processamento (compute), o Google está silenciosamente impulsionando toda a revolução da IA, incluindo concorrentes como a Anthropic. Seu novo modelo de 10 trilhões de parâmetros revela a verdadeira e inatacável vantagem do Google.

Stork.AI
Hero image for: A Arma Secreta de IA do Google Acabou de Vazou
💡

Resumo / Pontos-chave

Enquanto rivais lutam por capacidade de processamento (compute), o Google está silenciosamente impulsionando toda a revolução da IA, incluindo concorrentes como a Anthropic. Seu novo modelo de 10 trilhões de parâmetros revela a verdadeira e inatacável vantagem do Google.

O Grande Paradoxo do Compute de IA

Laboratórios como OpenAI e Anthropic frequentemente citam um gargalo crítico: a escassez de AI compute. No entanto, o Google opera a partir de uma posição de profunda abundância, não apenas impulsionando seus próprios modelos colossais como Gemini, mas também fornecendo poder de processamento aos seus concorrentes mais ferozes. Este paradoxo marcante revela a vantagem estratégica única do Google.

O CEO do Google Cloud, Thomas Kurian, oferece uma visão chave sobre essa disparidade. Ele destaca a posição singular do Google: possuir todo o stack de IA, desde silício personalizado como suas Tensor Processing Units (TPUs) até modelos avançados de IA e a infraestrutura de dados corporativos subjacente. Este controle de stack completo permite ao Google otimizar cada camada para eficiência e escala incomparáveis.

Como o Google consegue manter essa imensa capacidade, mesmo vendendo para rivais como a Anthropic, enquanto outros lutam? A resposta reside em décadas de planejamento estratégico meticuloso e de longo prazo. O Google antecipou o boom da IA anos atrás, garantindo proativamente vastos imóveis para data centers e diversificando suas fontes de energia para garantir energia ininterrupta.

A empresa também revolucionou a construção de data centers, passando de métodos de construção tradicionais para um processo de fabricação mais eficiente. Isso reduziu drasticamente os tempos de ciclo de implantação para máquinas, permitindo um escalonamento rápido. O compromisso do Google com o desenvolvimento de suas próprias TPUs por mais de uma década solidificou ainda mais sua independência de hardware e eficiência de custos, garantindo que obtenha "grandes margens" independentemente de como monetiza seu compute.

Essa visão culmina em compromissos massivos, como o compromisso da Anthropic de utilizar até um milhão de TPUs e aproximadamente 3,5 gigawatts de capacidade de processamento (compute) baseada em TPU de próxima geração a partir de 2027. A capacidade do Google de gerar um fluxo de caixa significativo ao fornecer essa capacidade financia sua própria pesquisa ambiciosa em IA, criando um ciclo autossustentável de inovação e domínio de infraestrutura.

O Ás do Google: Uma Década de Silício Personalizado

Ilustração: O Ás do Google: Uma Década de Silício Personalizado
Ilustração: O Ás do Google: Uma Década de Silício Personalizado

A arma secreta do Google é seu silício personalizado, a Tensor Processing Unit (TPU). Ao contrário das GPUs de uso geral da NVIDIA, as TPUs são Application-Specific Integrated Circuits (ASICs) projetadas desde o início para aprendizado de máquina. Este design especializado lhes confere eficiência superior e desempenho por watt para cargas de trabalho de IA, otimizando tanto as tarefas de treinamento quanto de inferência em toda a vasta infraestrutura do Google.

A empresa embarcou nesta jornada ambiciosa há mais de 12 anos, uma aposta estratégica que agora rende dividendos massivos. Este compromisso de longo prazo com o desenvolvimento de chips proprietários posicionou o Google de forma única à frente do atual boom da IA, permitindo-lhe escalar seus próprios modelos e apoiar parceiros como a Anthropic. As mais recentes TPUs de 8ª geração do Google, a TPU 8t para treinamento e a TPU 8i para inferência, exemplificam essa liderança. A TPU 8t escala para 9.600 chips com dois petabytes de memória compartilhada de alta largura de banda, dobrando a largura de banda interchip da geração anterior e entregando até 2,7x de melhoria de desempenho por dólar para treinamento em larga escala.

Possuir esta propriedade intelectual permite à Google exercer um controlo inigualável sobre a sua infraestrutura de IA. Esta integração vertical traduz-se diretamente num controlo de custos significativo, desempenho otimizado adaptado ao seu vasto ecossistema e uma proteção crucial contra os estrangulamentos da cadeia de abastecimento que afetam os concorrentes dependentes de hardware de terceiros. O CEO da Google Cloud, Thomas Kurian, enfatiza: "Nós possuímos a nossa própria IP. Não somos apenas um distribuidor da IP de outras pessoas", destacando a sua capacidade de alcançar fortes margens operacionais e garantir termos favoráveis com fornecedores devido à demanda agregada.

As TPUs agora se estendem muito além das necessidades internas de IA da Google ou mesmo de parceiros como a Anthropic, que se comprometeu com até um milhão de TPUs a partir de 2027 para o seu modelo Mythos de 10 trilhões de parâmetros. A Google Cloud está a diversificar a monetização das TPUs, implementando-as como infraestrutura de uso geral. O Department of Energy utiliza TPUs para computação de alto desempenho. Empresas de mercados de capitais como a Citadel as utilizam cada vez mais para negociação algorítmica, mudando da computação numérica tradicional para técnicas baseadas em inferência mais rápidas e eficientes. Esta ampla adoção sublinha a versatilidade das TPUs e a vantagem estratégica da Google no cenário de IA com restrições de computação.

Por Que Partilhar o Seu Superpoder?

Por que a Google, com a sua capacidade de computação de IA inigualável, partilharia a sua arma secreta? O CEO da Google Cloud, Thomas Kurian, aborda diretamente esta questão, afirmando a necessidade de "ganhar dinheiro para financiar tudo isto". Mesmo com os vastos recursos da Google, o imenso investimento de capital necessário para o desenvolvimento de IA — projetado entre 175 mil milhões e 185 mil milhões de dólares até 2026 — exige um fluxo de caixa contínuo.

Kurian descreve uma lógica de negócios tripla para democratizar o acesso às suas Tensor Processing Units (TPUs) personalizadas. Primeiro, gera um fluxo de caixa crucial, equilibrando as necessidades internas da Google com a demanda externa. Segundo, concede uma alavancagem significativa na cadeia de abastecimento. A demanda combinada da Google, representando um pool muito maior, garante termos favoráveis dos fornecedores para componentes, assegurando uma linha de produção robusta e eficiente.

Terceiro, partilhar as TPUs aprimora o próprio produto. Requisitos diversificados de clientes, desde empresas financeiras como a Citadel a entidades governamentais como o Department of Energy, impulsionam a Google a inovar e refinar o seu hardware e software. Este uso amplo transforma as TPUs em infraestrutura de uso mais geral, muito além dos algoritmos iniciais de IA. Para mais detalhes técnicos, explore Tensor Processing Units (TPUs) - Google Cloud.

Esta estratégia também oferece uma tábua de salvação crucial para outros laboratórios de IA. Kurian enfatiza que "o capital de risco não pode financiá-lo indefinidamente" à medida que os custos de computação para grandes execuções de treino aumentam. O modelo da Google oferece um caminho para a lucratividade, permitindo que laboratórios como a Anthropic escalem sem depender exclusivamente de financiamento de VC cada vez mais insustentável. O compromisso da Anthropic de utilizar até um milhão de Google Cloud TPUs para o seu modelo Claude Mythos 5, a partir de 2027, exemplifica esta relação simbiótica.

Em última análise, a Google transforma uma maravilha da engenharia interna numa plataforma poderosa e geradora de receita. Este movimento solidifica a posição de mercado da Google Cloud, não apenas como um provedor de infraestrutura, mas como o parceiro essencial para o desenvolvimento de IA de ponta. Com 75% dos clientes da Google Cloud a usar agora os seus produtos de IA e modelos a processar mais de 16 mil milhões de tokens por minuto, esta estratégia claramente compensa.

Os Novos Titãs: TPU v8 Chegou

O Google revelou oficialmente suas Tensor Processing Units de 8ª geração, marcando um salto significativo no hardware de IA. A linha apresenta a TPU 8t para cargas de trabalho de treinamento intensivo e a TPU 8i otimizada para inferência eficiente. Essa abordagem de duas frentes visa fases distintas de desenvolvimento e implantação de modelos de IA.

Pesquisas destacam ganhos substanciais de desempenho com o novo hardware. A TPU 8t oferece uma melhoria impressionante de 2,7x no desempenho por dólar para treinamento em larga escala em comparação com seu predecessor, o Ironwood. Para inferência, a TPU 8i ostenta um aumento de até 80% no desempenho por dólar, tornando a IA em larga escala mais acessível e econômica.

Além da velocidade bruta, as TPUs de 8ª geração priorizam a eficiência. Tanto a 8t quanto a 8i alcançam até 2x melhor eficiência energética, abordando preocupações crescentes sobre a pegada energética da IA. A TPU 8t escala para impressionantes 9.600 chips e dois petabytes de memória compartilhada de alta largura de banda, apresentando o dobro da largura de banda entre chips. A TPU 8i também aumenta significativamente a capacidade com até 331,8 TB de HBM por pod, um salto massivo em relação aos 49,2 TB da geração anterior.

Esses avanços de hardware abrem novas possibilidades para a IA. Treinamento mais rápido significa que os desenvolvedores podem iterar em modelos maiores e mais complexos em menos tempo, expandindo os limites do que a IA pode alcançar. Inferência mais barata e eficiente permite que modelos de próxima geração sejam implantados em escala, reduzindo os custos operacionais para usuários em todo o Google Cloud.

Criticamente, esse poder de computação permite a hospedagem de modelos anteriormente considerados inviáveis devido à escala. O modelo de 10 trilhões de parâmetros da Anthropic, Mythos, exemplifica isso. Tais modelos massivos, exigindo recursos de computação sem precedentes, agora podem encontrar um lar na infraestrutura avançada de TPU do Google, impulsionando a próxima onda de IA agentiva.

O Monstro de 10 Trilhões de Parâmetros da Anthropic

Ilustração: O Monstro de 10 Trilhões de Parâmetros da Anthropic
Ilustração: O Monstro de 10 Trilhões de Parâmetros da Anthropic

O suposto modelo Claude Mythos 5 da Anthropic representa uma nova fronteira na IA. Este modelo colossal supostamente possui impressionantes 10 trilhões de parâmetros, uma escala que anã até mesmo os maiores modelos publicamente conhecidos e redefine as expectativas para a IA generativa. Tal imensa escala sinaliza um salto profundo nas capacidades da IA, indicando uma mudança de chatbots de uso geral para agentes altamente especializados e poderosos.

Crucialmente, este leviatã de IA generativa não é meramente um conceito; ele está sendo ativamente treinado e servido na robusta infraestrutura de TPU do Google Cloud. A decisão da Anthropic de alavancar o silício personalizado do Google para um modelo da magnitude do Mythos serve como um endosso poderoso e público do poder de computação, eficiência e escalabilidade incomparáveis da plataforma. Esta parceria ressalta o papel crítico do Google

A Estratégia 'Frenemy': Impulsionando a Concorrência

A estratégia do Google com suas Tensor Processing Units (TPUs) personalizadas revela uma dinâmica fascinante de "coopetição", particularmente com a Anthropic. Enquanto o Google desenvolve seus próprios modelos fundamentais como o Gemini, ele simultaneamente impulsiona concorrentes como a Anthropic, um laboratório líder de IA que supostamente está desenvolvendo o Claude Mythos 5 de 10 trilhões de parâmetros. Essa relação paradoxal ressalta um movimento calculado na corrida de alto risco da IA.

A Anthropic obtém acesso crítico a poder de computação de classe mundial e econômico no Google Cloud, essencial para treinar e implantar modelos da imensa escala do Mythos 5. A recém-anunciada TPU 8t oferece uma melhoria de até 2,7x no desempenho por dólar para treinamento em larga escala, enquanto a TPU 8i oferece até 80% melhor desempenho por dólar para inferência. Essas eficiências permitem à Anthropic expandir os limites do desenvolvimento de IA sem os custos proibitivos de infraestrutura inicial.

Para o Google, esta relação valida sua plataforma TPU como uma solução de ponta para pesquisa de IA de fronteira. Alimentar a Anthropic gera receita substancial, contribuindo para o fluxo de caixa necessário para financiar os enormes gastos de capital do Google, projetados entre US$ 175 bilhões e US$ 185 bilhões em 2026. Essa diversificação também fortalece a posição do Google com fornecedores da cadeia de suprimentos, garantindo termos favoráveis devido à demanda agregada.

Adotar uma abordagem de plataforma aberta, em vez de acumular poder de computação, acelera a inovação em toda a indústria de IA. O CEO do Google Cloud, Thomas Kurian, destaca que o Google equilibra suas próprias necessidades com a demanda externa, garantindo fluxo de caixa suficiente enquanto promove um ecossistema mais amplo. Isso contrasta fortemente com uma estratégia fechada, que poderia sufocar as próprias inovações que poderiam impulsionar a demanda futura pela infraestrutura do Google.

Apesar de manter uma estratégia multi-cloud, utilizando também plataformas como AWS e NVIDIA, a Anthropic está aprofundando significativamente seu investimento com o Google. A empresa comprometeu-se a alavancar até um milhão de TPUs e aproximadamente 3,5 gigawatts de computação baseada em TPU de próxima geração do Google Cloud a partir de 2027. Esse compromisso substancial demonstra a confiança da Anthropic no silício personalizado do Google para seus projetos mais ambiciosos. Para mais detalhes sobre o trabalho deles, visite Home \ Anthropic.

Além do Poder Bruto: A Economia da Dominância da IA

Além dos teraflops brutos e do desempenho de pico teórico, o verdadeiro campo de batalha para a dominância da IA se desloca cada vez mais para o Custo Total de Propriedade (TCO). Enquanto a NVIDIA exalta sua proeza em GPUs, o Google Cloud posiciona suas Tensor Processing Units (TPUs) personalizadas como a escolha economicamente superior, uma narrativa particularmente atraente para empresas que lidam com os custos astronômicos de desenvolvimento e implantação de modelos de linguagem grandes. Não se trata apenas de chips mais rápidos; trata-se de toda a despesa operacional.

A vantagem distinta do Google decorre de sua profunda integração vertical. A empresa projeta seu próprio silício, constrói seus data centers personalizados otimizados para esse hardware e desenvolve a pilha de software que orquestra tudo. Esse controle de ponta a ponta permite ao Google ajustar cada camada para máxima eficiência e repassar essas economias aos clientes. Os concorrentes frequentemente revendem hardware de outra empresa, incorrendo em margens adicionais e carecendo da otimização holística que o Google oferece. Essa diferença fundamental permite ao Google oferecer uma economia unitária superior.

O CEO do Google Cloud, Thomas Kurian, enfatiza essas "economias unitárias atraentes" como uma vantagem competitiva central em um ambiente perpetuamente restrito em capacidade. Para clientes como a Anthropic, treinar um modelo colossal de 10 trilhões de parâmetros como o Mythos 5, os ganhos de eficiência se traduzem diretamente em bilhões economizados ao longo da vida útil de um projeto. O recém-anunciado TPU 8t, por exemplo, promete uma melhoria de até 2,7x no desempenho por dólar em relação ao seu predecessor para treinamento em larga escala, enquanto o TPU 8i oferece uma melhoria de até 80% no desempenho por dólar para cargas de trabalho de inferência.

Crucialmente, essa eficiência econômica se estende ao desempenho por watt. Em um mundo consciente da energia, onde os data centers de IA consomem uma potência imensa, a eficiência de hardware do Google representa tanto um imperativo ecológico quanto um benefício econômico significativo. As TPUs de 8ª geração entregam até 2x melhor desempenho por watt em comparação com a geração anterior, reduzindo diretamente os gastos operacionais relacionados à eletricidade e refrigeração. Essa eficiência torna a computação do Google não apenas poderosa, mas também sustentavelmente escalável, um fator crítico para a infraestrutura de IA de longo prazo.

Esta abordagem abrangente permite à Google não só impulsionar os seus próprios ambiciosos empreendimentos de IA, mas também abastecer estrategicamente parceiros e concorrentes chave. Ao fornecer uma base de alto desempenho e custo-benefício, a Google garante que os seus TPUs se tornem uma infraestrutura indispensável, consolidando a sua posição no ecossistema de IA mesmo com a intensificação da concorrência. Este é o alavanca sutil, mas potente, na estratégia de "frenemy" da Google.

Construindo o Futuro, Estilo Fábrica

Ilustração: Construindo o Futuro, Estilo Fábrica
Ilustração: Construindo o Futuro, Estilo Fábrica

O CEO da Google Cloud, Thomas Kurian, revela uma mudança radical na implantação de data centers, passando da construção tradicional para uma mentalidade de fabricação. Esta abordagem inovadora envolve a pré-fabricação e pré-teste de filas inteiras de data centers fora do local. A Google então implanta rapidamente estas unidades padronizadas e modulares, reduzindo drasticamente o tempo de ciclo em comparação com os métodos de construção convencionais, do zero.

Esta eficiência operacional é fundamental para se manter à frente da curva de computação de IA. Kurian enfatiza que a fabricação permite uma implantação de infraestrutura significativamente mais rápida do que a construção, uma capacidade vital dada a demanda implacável e crescente tanto de projetos internos da Google quanto de laboratórios de IA externos como a Anthropic. Esta estratégia permite diretamente à Google escalar a sua pegada física a um ritmo sem precedentes.

O compromisso da Google com esta infraestrutura física é imenso, com despesas de capital projetadas para atingir entre US$ 175 bilhões e US$ 185 bilhões em 2026. Este investimento substancial traduz-se diretamente num impacto econômico significativo, promovendo a criação de empregos nas comunidades locais que rodeiam estas instalações avançadas. Desde ofícios da construção a técnicos altamente qualificados, emerge um amplo espectro de oportunidades de emprego.

A empresa aborda ativamente o sentimento público integrando soluções energéticas avançadas na sua estratégia de data centers. Isso inclui diversificar as fontes de energia, implantar tecnologias behind-the-meter e utilizar energia renovável para aumentar a sustentabilidade e a confiabilidade das suas instalações intensivas em energia. A Google visa ser um vizinho responsável enquanto constrói o futuro da IA.

Esta mudança estratégica da construção sob medida para a fabricação eficiente e repetível sustenta diretamente a capacidade da Google de satisfazer a demanda insaciável por computação de IA. Garante a rápida escalabilidade das suas Tensor Processing Units (TPUs) personalizadas, acomodando os requisitos colossais de modelos como o Mythos 5 de 10 trilhões de parâmetros da Anthropic.

Ao otimizar a sua pegada física e acelerar a implantação, a Google não só garante a capacidade de computação necessária para os seus próprios avanços em IA, mas também mantém a sua posição como um provedor crítico de infraestrutura de alto desempenho. Esta proeza operacional permite à Google impulsionar um ecossistema diversificado de desenvolvimento de IA, incluindo o dos seus concorrentes 'frenemy', solidificando o seu papel fundamental na era da IA.

O Amanhecer da 'Era Agêntica'

O CEO da Google Cloud, Thomas Kurian, declarou inequivocamente que "a era do agente chegou", marcando uma mudança crucial na aplicação da IA. Este pronunciamento sinaliza um movimento além de chatbots conversacionais e sistemas simples de perguntas e respostas, em direção a entidades sofisticadas e autônomas capazes de executar fluxos de trabalho de negócios complexos em empresas. A formidável infraestrutura de computação da Google, sustentada pelos seus mais recentes TPU 8t e TPU 8i, é construída especificamente para impulsionar esta próxima onda de IA.

Um agente de IA transcende a mera recuperação de informações; é um sistema projetado para automatizar processos intrincados e multifásicos com mínima intervenção humana. Ao contrário de um modelo estático, um agente pode perceber seu ambiente, raciocinar sobre seus objetivos, planejar ações e executá-las, frequentemente interagindo com múltiplos sistemas empresariais e fontes de dados. Essa capacidade é crucial para transformar as eficiências operacionais em diversas indústrias.

A pilha verticalmente integrada do Google, desde o silício personalizado até modelos avançados, o posiciona de forma única para suportar essas cargas de trabalho exigentes. Imagine agentes auxiliando seguradoras de saúde ao automatizar o processamento complexo de sinistros, desde a submissão inicial até o pagamento final, ou capacitando oncologistas ao vasculhar vasta literatura médica e dados de pacientes para sugerir protocolos de tratamento personalizados. Essas aplicações exigem confiabilidade e desempenho incomparáveis, aproveitando diretamente os avanços significativos na tecnologia TPU.

Para facilitar o desenvolvimento e a implantação desses sistemas sofisticados, o Google introduziu a Gemini Enterprise Agent Platform. Esta solução abrangente fornece as ferramentas robustas necessárias para construir, orquestrar e governar agentes de IA em escala dentro de qualquer ambiente empresarial. Ela garante que os agentes possam acessar dados sensíveis com segurança, cumprir regulamentações rigorosas e integrar-se perfeitamente aos ambientes de TI existentes, desbloqueando níveis inteiramente novos de automação. Para mais informações sobre os grandes modelos que impulsionam tais agentes, pode-se explorar discussões como Anthropic Claude Mythos 5: The First 10-Trillion-Parameter Model — Scaling Laws Hit a New Milestone | by Analyst Uttam | AI & Analytics Diaries | Apr, 2026 | Medium. Esta plataforma ressalta o compromisso do Google em possibilitar soluções de IA práticas e agenticas para o futuro.

O Verdadeiro Fosso Não É o Modelo

A verdadeira vantagem competitiva do Google se estende muito além de qualquer modelo de IA singular como o Gemini, ou mesmo um suposto gigante de 10 trilhões de parâmetros como o Mythos 5 da Anthropic. Sua genialidade estratégica reside no controle de toda a cadeia de valor da IA, um império verticalmente integrado que abrange do silício à plataforma. Essa abordagem full-stack posiciona o Google como a base indispensável para a crescente economia da IA, permitindo uma escala que outros só podem sonhar.

Ao projetar suas próprias Tensor Processing Units (TPUs) personalizadas, construir data centers hiper-eficientes e orquestrar uma rede global projetada para cargas de trabalho de IA, o Google dita a economia e o desempenho subjacentes de toda a indústria. Suas robustas plataformas de software consolidam ainda mais essa dominância, oferecendo a desenvolvedores e empresas um ecossistema completo e otimizado. Essa infraestrutura incomparável é o que permite ao Google Cloud impulsionar o desenvolvimento de modelos tão massivos quanto o Mythos 5 e apoiar a "era agentica" que Kurian vislumbra.

O público e a mídia frequentemente se fixam na "corrida de cavalos dos modelos", celebrando avanços em grandes modelos de linguagem e suas capacidades. No entanto, o verdadeiro poder se acumula para a empresa que possui a pista de corrida, os estábulos e a ração. O Google não é meramente um participante; é o arquiteto e proprietário de toda a arena da IA, lucrando quer seus próprios modelos ou os de seus "frenemies" como a Anthropic tenham sucesso.

À medida que os modelos de IA inevitavelmente se tornam mais comoditizados, os verdadeiros 'kingmakers' serão os provedores desta infraestrutura de computação fundamental. A aposta de uma década do Google em silício personalizado e uma oferta de nuvem de ponta a ponta o posiciona perfeitamente para ser essa força indispensável. Este controle abrangente garante a influência duradoura do Google, tornando-o o motor silencioso e poderoso por trás da próxima geração de inteligência artificial.

Perguntas Frequentes

O que é um Google TPU e por que é importante?

Uma Tensor Processing Unit (TPU) é um chip acelerador de IA projetado sob medida e criado pelo Google. É crucial porque fornece computação altamente eficiente e econômica para treinar e executar modelos de IA em larga escala, dando ao Google controle sobre toda a sua pilha de hardware e software.

O que é o modelo Mythos da Anthropic?

O Claude Mythos 5 da Anthropic é um modelo de IA de 10 trilhões de parâmetros, um dos maiores já concebidos. Ele é projetado para tarefas de alto risco, como cibersegurança e codificação, e está sendo desenvolvido usando a poderosa infraestrutura de TPU do Google Cloud.

Por que o Google vende sua valiosa computação de TPU para concorrentes como a Anthropic?

O CEO do Google Cloud, Thomas Kurian, explica que é uma decisão de negócios estratégica. Gera um fluxo de caixa significativo para financiar P&D, cria um mercado maior que proporciona alavancagem com fornecedores da cadeia de suprimentos, e a diversificação de casos de uso melhora o produto para todos.

Como o novo TPU v8 do Google é uma melhoria?

A 8ª geração do TPU v8 oferece ganhos significativos. O TPU 8t (training) tem um desempenho por dólar até 2,7x melhor, enquanto o TPU 8i (inference) tem uma melhoria de até 80%. Ambos são até 2x mais eficientes em termos de energia do que a geração anterior.

Perguntas frequentes

Por Que Partilhar o Seu Superpoder?
Por que a Google, com a sua capacidade de computação de IA inigualável, partilharia a sua arma secreta? O CEO da Google Cloud, Thomas Kurian, aborda diretamente esta questão, afirmando a necessidade de "ganhar dinheiro para financiar tudo isto". Mesmo com os vastos recursos da Google, o imenso investimento de capital necessário para o desenvolvimento de IA — projetado entre 175 mil milhões e 185 mil milhões de dólares até 2026 — exige um fluxo de caixa contínuo.
O que é um Google TPU e por que é importante?
Uma Tensor Processing Unit é um chip acelerador de IA projetado sob medida e criado pelo Google. É crucial porque fornece computação altamente eficiente e econômica para treinar e executar modelos de IA em larga escala, dando ao Google controle sobre toda a sua pilha de hardware e software.
O que é o modelo Mythos da Anthropic?
O Claude Mythos 5 da Anthropic é um modelo de IA de 10 trilhões de parâmetros, um dos maiores já concebidos. Ele é projetado para tarefas de alto risco, como cibersegurança e codificação, e está sendo desenvolvido usando a poderosa infraestrutura de TPU do Google Cloud.
Por que o Google vende sua valiosa computação de TPU para concorrentes como a Anthropic?
O CEO do Google Cloud, Thomas Kurian, explica que é uma decisão de negócios estratégica. Gera um fluxo de caixa significativo para financiar P&D, cria um mercado maior que proporciona alavancagem com fornecedores da cadeia de suprimentos, e a diversificação de casos de uso melhora o produto para todos.
Como o novo TPU v8 do Google é uma melhoria?
A 8ª geração do TPU v8 oferece ganhos significativos. O TPU 8t tem um desempenho por dólar até 2,7x melhor, enquanto o TPU 8i tem uma melhoria de até 80%. Ambos são até 2x mais eficientes em termos de energia do que a geração anterior.
🚀Descubra mais

Fique à frente da curva da IA

Descubra as melhores ferramentas de IA, agentes e servidores MCP selecionados pela Stork.AI.

Voltar a todas as publicações