Les deux sociétés détaillent leur partenariat en matière d’IA à Ignite 2023
Pourquoi est-ce important: Microsoft et Nvidia ont considérablement accru leur attention sur l’IA suite à la popularité croissante de l’IA générative, mais une grande partie de la technologie repose sur des serveurs cloud. Alors que le matériel compatible avec l’IA commence à atteindre les consommateurs, les deux sociétés dévoilent des outils visant à réduire la dépendance des utilisateurs à l’égard des systèmes d’IA à distance.
Lors du récent événement Ignite 2023, Microsoft et Nvidia ont dévoilé des outils pour aider les utilisateurs à développer et à exécuter des applications d’IA générative localement. Le nouveau logiciel exploite l’accent accru mis par Windows 11 sur l’IA aux côtés des modèles d’IA populaires de Microsoft, Meta et OpenAI.
Le nouveau Windows AI Studio de Microsoft consolide de nombreux modèles et outils de développement issus de catalogues tels qu’Azure AI Studio et Hugging Face. Il comprend des interfaces de configuration, des procédures pas à pas et d’autres instruments pour aider les développeurs à créer et à affiner de petits modèles de langage.
Windows AI Studio permet aux utilisateurs de travailler avec des modèles tels que Llama 2 de Meta et Phi de Microsoft. Microsoft publiera initialement le flux de travail en tant qu’extension de code VS dans les semaines à venir. Vraisemblablement, les charges de travail d’IA locales d’AI Studio pourraient utiliser du matériel tel que les unités de traitement neuronal, qui deviendront répandues dans les prochaines générations de processeurs.
Pendant ce temps, Nvidia a annoncé une mise à jour imminente et importante de TensorRT-LLM, promettant d’étendre et d’accélérer les applications d’IA sur les systèmes Windows 11 tout en conservant les données sur les systèmes locaux sans recourir aux serveurs cloud, ce qui pourrait répondre aux problèmes de sécurité de certains utilisateurs. Les améliorations seront disponibles sur les ordinateurs portables, les ordinateurs de bureau et les postes de travail équipés de cartes graphiques GeForce RTX et d’au moins 8 Go de VRAM.
Une nouvelle fonctionnalité est un wrapper qui rend TensorRT-LLM compatible avec l’API Chat d’OpenAI. De plus, lorsque la version 0.6.0 arrivera plus tard ce mois-ci, elle rendra les opérations d’inférence d’IA cinq fois plus rapides et ajoutera la prise en charge de nouveaux modèles de langages volumineux comme Mistral 7B et Nemotron-3 8B sur n’importe quel GPU RTX 3000 ou 4000 avec au moins 8 Go de mémoire. .
La société publiera bientôt la mise à jour de son référentiel GitHub et rendra disponibles les derniers modèles d’IA optimisés sur ngc.nvidia.com. De plus, les personnes intéressées par la prochaine boîte à outils de personnalisation du modèle AI Workbench peuvent désormais rejoindre la liste d’accès anticipé.
Dans le même ordre d’idées, Microsoft a intégré le chatbot alimenté par l’IA de Bing dans la marque Copilot. Les utilisateurs qui ouvrent la fenêtre de discussion Bing dans Edge ou le nouvel assistant Copilot dans Windows 11 peuvent désormais voir le nom « Copilot with Bing Chat ».
Bing Chat est initialement apparu comme un chatbot au sein d’Edge avant que la société n’intègre ses fonctionnalités dans l’assistant Copilot qui a fait ses débuts avec la récente mise à jour de Windows 11 23H2. Unifier les fonctionnalités sous un seul nom pourrait positionner plus fermement l’interface comme la réponse de Microsoft à ChatGPT.