O Google acaba de anunciar a disponibilidade pública de seu processador Trillium. Projetado para inteligência artificial, ele foi usado para treinar o Gemini 2.0 e promete atender a uma demanda cada vez maior por potência para grandes modelos de linguagem.
Enquanto GoogleGoogle acaba de lançar o Gemini 2.0, seu mais recente modelo de linguagem principal, a empresa também anunciou a disponibilidade do processador que foi utilizado para seu treinamento. Chamado Trillium, é um Unidade de processamento de tensores (TPU), um acelerador de inteligência artificial projetado especificamente para funcionar com a biblioteca de aprendizado de máquina TensorFlow. É utilizado tanto para treinamento de inteligência artificial, quanto para inferência, ou seja, seu funcionamento posterior, como responder a prompts.
A primeira geração de TPUs foi lançada em 2015 e o Trillium representa a sexta geração. Este processador é usado principalmente no AI Hypercomputer do Google Cloud, uma arquitetura de supercomputador composta por ” um sistema integrado de hardware com desempenho otimizado, software aberto, estruturas líderes de aprendizado de máquina e modelos de consumo flexíveis “.
Trillium disponível no Google Cloud
Google anuncia desempenho para treinamento de IA multiplicado por quatro em comparação com a geração anterior de TPU, com um velocidadevelocidade pico para cada chip multiplicado por 4,7. Além disso, o consumo de energia foi significativamente reduzido e a eficiência energética aumentou em 67%. Este desenvolvimento é oportuno, uma vez que as necessidades de poder computacional e energiaenergia para a IA estão a aumentar quase exponencialmente. Google está exagerando e já instalou 100 mil chips em sua rede JúpiterJúpiterfornecendo uma largura de banda de bissecção (disponível entre duas seções da rede) de 13 petabits por segundo.
Embora esses processadores estejam disponíveis ao público em geral, não é possível adquiri-los. Para utilizá-lo, você deve passar pela plataforma Google Cloud. Porém, com o aumento do desempenho, o custo de uso caiu. De acordo com o Google, o Trillium oferece 2,5x mais desempenho para treinar grandes modelos de linguagem por dólar em comparação com a geração anterior.
O Google Trillium mostra que o futuro da IA não depende apenas de grandes modelos de linguagem e outros componentes de software. Componentes de hardware especializados também serão necessários para atender à demanda cada vez maior. E o Google parece estar bem encaminhado em uma corrida contra seus principais rivais, notadamente processadores gráficosprocessadores gráficos Nvidia, o Trainium usado em AmazôniaAmazônia Serviços Web e MicrosoftMicrosoft Azure Maia.