Google continue de construire sa plateforme « AI Hypercomputer » avec des accélérateurs matériels personnalisés
Train de battage médiatique sur l'IA : Les unités de traitement Tensor sont des puces ASIC spécialisées conçues pour accélérer les algorithmes d'apprentissage automatique. Google utilise les TPU depuis 2015 pour améliorer ses services cloud basés sur le ML, et la société adopte désormais pleinement la dernière génération de TPU pour une plate-forme d'accélérateur d'IA encore plus efficace et puissante.
Lors de la conférence des développeurs I/O de cette année, Google a annoncé son TPU « le plus avancé » à ce jour. Trillium, l'accélérateur d'algorithmes d'apprentissage automatique, représente l'aboutissement de plus d'une décennie de recherche sur le matériel spécialisé d'IA et constitue un composant fondamental nécessaire à la construction de la prochaine vague de modèles de base d'IA.
Google a expliqué que le premier TPU a été développé en 2013 et que sans TPU, bon nombre des services les plus populaires de l'entreprise ne seraient pas possibles aujourd'hui. La recherche vocale en temps réel, la reconnaissance d'objets photo, la traduction linguistique et les modèles d'IA avancés comme Gemini, Imagen et Gemma profitent tous aux TPU.
Comme ses prédécesseurs, Trillium a été conçu dès le départ pour accélérer les charges de travail des réseaux neuronaux. Le TPU de 6e génération de Google atteint des performances maximales par puce de 4,7 fois par rapport à la génération précédente de TPU (v5e), grâce à l'adoption d'unités de multiplication matricielles plus grandes et d'une vitesse d'horloge plus élevée.
Les puces Trillium sont équipées de SparseCore de troisième génération, un accélérateur dédié au traitement des « intégrations ultra-larges » courantes dans les charges de travail avancées de classement et de recommandation. De plus, les nouveaux TPU offrent une capacité et une bande passante de mémoire à bande passante élevée doublées, ainsi qu'une bande passante d'interconnexion double par rapport à la génération v5e.
Bien qu’il soit beaucoup plus puissant et performant, Trillium est également plus durable. Google déclare que les TPU de 6e génération sont 67 % plus économes en énergie que le TPU v5e. La société a répertorié certaines des capacités avancées basées sur l'IA que Trillium devrait fournir à ses clients, telles que les interactions entre les humains et les voitures sur lesquelles travaille Essential AI.
Trillium fournira également une accélération de l'IA à Nuro, une société travaillant sur des modèles d'IA pour robots, à Deep Genomics pour la découverte avancée de médicaments, et à Deloitte, qui vise à « transformer » les entreprises grâce à l'IA générative. Google DeepMind utilisera également les TPU Trillium pour former les futures versions des propres modèles de base de Google dans la gamme Gemini.
Trillium fait partie de l'AI Hypercomputer, une architecture de superordinateur conçue par Google pour gérer les charges de travail d'IA les plus avancées. Dans l’IA Hypercomputer, une infrastructure optimisée basée sur TPU et des cadres logiciels open source travailleront ensemble pour former (et servir) les modèles d’IA du futur.
Les entreprises tierces pourront accéder à de nouvelles instances cloud basées sur Trillium plus tard cette année.