Pour ne pas être défait par ses concurrents, Intel a lancé un nouveau portefeuille de produits d’IA
Dans le contexte: Le PDG d’Intel, Pat Gelsinger, a fait une déclaration audacieuse selon laquelle l’industrie s’en sort mieux avec l’inférence que avec le CUDA de Nvidia, car il est économe en ressources, s’adapte aux données changeantes sans avoir besoin de recycler un modèle et parce que le fossé de Nvidia est « peu profond ». Mais a-t-il raison ? CUDA est actuellement la norme de l’industrie et ne montre aucun signe d’être délogé de son perchoir.
Intel a déployé une gamme de produits d’IA destinés aux centres de données, au cloud, aux réseaux, à la périphérie et aux PC lors de son événement AI Everywhere à New York la semaine dernière. « Intel a pour mission d’apporter l’IA partout grâce à des plates-formes exceptionnellement conçues, des solutions sécurisées et une prise en charge des écosystèmes ouverts », a déclaré le PDG Pat Gelsinger, soulignant le lancement aujourd’hui des puces mobiles Intel Core Ultra et des processeurs Xeon de 5e génération pour l’entreprise.
Les produits ont été dûment remarqués par la presse, les investisseurs et les clients, mais ce qui a également retenu leur attention, ce sont les commentaires de Gelsinger sur la technologie CUDA de Nvidia et ce qu’il s’attendait à ce qu’elle finisse par sombrer dans l’obscurité.
« Vous savez, l’ensemble du secteur est motivé à éliminer le marché CUDA », a déclaré Gelsinger, citant MLIR, Google et OpenAI comme passant à une « couche de programmation Python » pour rendre la formation en IA plus ouverte.
En fin de compte, a déclaré Gelsinger, la technologie d’inférence sera plus importante que la formation à l’IA, car le fossé CUDA est « peu profond et petit ». L’industrie souhaite disposer d’un ensemble plus large de technologies pour la formation, l’innovation et la science des données, a-t-il poursuivi. Les avantages incluent l’absence de dépendance à CUDA une fois que le modèle a été formé avec l’inférence et il s’agit alors de savoir si une entreprise peut bien exécuter ce modèle.
A lire aussi : Le paysage du marché des puces IA – Choisissez soigneusement vos batailles

Une explication peu charitable des commentaires de Gelsinger pourrait être qu’il a dénigré les modèles de formation à l’IA parce que c’est là qu’Intel est à la traîne. L’inférence, par rapport à la formation sur modèle, est beaucoup plus économe en ressources et peut s’adapter à des données en évolution rapide sans avoir besoin de recycler un modèle, tel était le message.
Cependant, ses remarques montrent clairement que Nvidia a fait d’énormes progrès sur le marché de l’IA et est devenu l’acteur à battre. Le mois dernier, la société a déclaré un chiffre d’affaires de 18,12 milliards de dollars pour le troisième trimestre, en hausse de 206 % par rapport à l’année dernière et de 34 % par rapport au trimestre précédent. a déclaré le PDG Jensen Huang. Les GPU, les processeurs, les réseaux, les logiciels et les services d’IA de Nvidia sont tous « à plein régime », a-t-il déclaré.
Reste à savoir si les prédictions de Gelsinger concernant CUDA se réaliseront, mais à l’heure actuelle, la technologie est sans doute la norme du marché.
En attendant, Intel donne des exemples de sa clientèle et de la manière dont il utilise l’inférence pour résoudre ses problèmes informatiques. L’un d’eux est Mor Miller, vice-président du développement chez Bufferzone (vidéo ci-dessous), qui explique que la latence, la confidentialité et le coût sont quelques-uns des défis rencontrés lors de l’exécution de services d’IA dans le cloud. Il affirme que la société a travaillé avec Intel pour développer une nouvelle inférence d’IA qui répond à ces préoccupations.



