L’objectif est de réduire la dépendance au matériel Nvidia
Machine à rumeurs: Microsoft a déjà investi des milliards de dollars dans OpenAI. Avec ce nouveau projet, il vise à réduire le temps nécessaire à la formation des modèles d’IA pour ses serveurs. Une nouvelle carte réseau qui rivalise avec les fonctionnalités du ConnectX-7 de Nvidia donnerait également une amélioration des performances aux optimisations des centres de données hyperscale de Microsoft.
L’Information apprend que Microsoft développe une nouvelle carte réseau qui pourrait améliorer les performances de sa puce serveur Maia AI. En prime, cela contribuerait à l’objectif de Microsoft de réduire sa dépendance à l’égard de Nvidia, car la nouvelle carte réseau devrait être similaire à la carte ConnectX-7 de Team Green, qui prend en charge Ethernet 400 Go avec une bande passante maximale. TechPowerUp suppose qu’avec une disponibilité encore si lointaine, la conception finale pourrait viser une bande passante Ethernet encore plus élevée, comme 800 GbE, par exemple.
L’objectif de Microsoft pour sa nouvelle initiative est de réduire le temps nécessaire à OpenAI pour former ses modèles sur les serveurs Microsoft et de rendre le processus moins coûteux, selon le rapport. Il devrait également y avoir d’autres utilisations, notamment l’amélioration des performances grâce aux optimisations spécifiques nécessaires dans ses centres de données hyperscale, explique TechPowerUp.
Microsoft a investi des milliards de dollars dans OpenAI, la société d’intelligence artificielle à l’origine du service très populaire ChatGPT et d’autres projets comme DALL-E et GPT-3, et a intégré sa technologie dans de nombreux produits Microsoft.
Dans le même temps, Microsoft est déterminé à réduire sa dépendance à l’égard de Nvidia. L’année dernière, la société a annoncé avoir construit deux puces maison pour gérer les charges de travail d’IA et de calcul général dans le cloud Azure. L’un d’eux était l’accélérateur Microsoft Azure Maia 100 AI, conçu pour exécuter de grands modèles de langage tels que GPT-3.5 Turbo et GPT-4, qui pourraient sans doute rivaliser avec la superpuce AI H100 de Nvidia. Mais affronter Nvidia sera difficile, même pour Microsoft. L’adoption précoce par Nvidia de la technologie IA et des capacités GPU existantes l’a positionné comme le leader incontesté, détenant plus de 70 % du marché existant de l’IA, estimé à 150 milliards de dollars.
Néanmoins, Microsoft appuie beaucoup ce projet, même si la carte réseau pourrait prendre un an ou plus pour arriver sur le marché. Pradeep Sindhu a été choisi pour diriger l’initiative de carte réseau de Microsoft. Sindhu a cofondé Juniper Networks ainsi qu’une start-up de puces pour serveurs appelée Fungible, acquise par Microsoft l’année dernière. Sindhu ferait mieux de se dépêcher : Nvidia continue de réaliser des gains dans ce domaine. À la fin de l’année dernière, il a introduit une nouvelle superpuce d’IA, le GPU H200 Tensor Core, qui permet une plus grande densité et une bande passante mémoire plus élevée, deux facteurs cruciaux pour améliorer la vitesse de services comme ChatGPT et Google Bard.