Redmond aurait enquête sur la sortie du modèle « distillé » de Chatgpt
Une patate chaude: Microsoft hausse les sourcils après avoir annoncé qu'il hébergera Deepseek R1 sur son service Cloud Azure. La décision intervient quelques jours seulement après que Openai a accusé Deepseek d'avoir violé ses conditions de service en utilisant prétendument les sorties de chatppt pour former son système, les allégations de Microsoft enquête actuellement.
Deepseek R1 a commencé à faire des vagues dans le monde de l'IA lors de son lancement la semaine dernière. Le développeur chinois Deepseek l'a présenté comme un modèle de raisonnement simulé disponible librement qui rivalise avec l'O1 d'Openai en performance mais à une fraction du coût de formation. Alors qu'Openai a évalué son modèle O1 à 60 $ par million de jetons de production, Deepseek répertorie R1 à seulement 2,19 $ par million – un contraste remarquable qui a coulé des actions pour les sociétés adjacentes AI-AI comme NVIDIA.
La décision de Microsoft d'accueillir R1 sur Azure n'est pas trop inhabituelle à sa surface. Le géant de la technologie propose déjà plus de 1 800 modèles d'IA grâce à sa fonderie Azure AI, donnant aux développeurs accès à une variété de systèmes d'IA pour l'expérimentation et l'intégration.
Microsoft ne fait pas de discrimination car il profite de toute plate-forme d'IA fonctionnant sur son infrastructure cloud. Cependant, la décision semble ironique depuis que Openai (une entreprise avec laquelle Microsoft a investi et a établi un partenariat) a passé la semaine dernière à critiquer de manière agressive le modèle de distillation des résultats de Chatgpt.
🚀 Deepseek-R1 est là!
⚡ Performance à égalité avec Openai-O1
📖 Modèle et rapport technique entièrement open source
🏆 MIT Licencié: distiller et commercialiser librement!🌐 Site Web & API sont en direct maintenant! Essayez Deepthink sur https://t.co/v1tfy7lhny aujourd'hui!
🐋 1 / n pic.twitter.com/7blpwapu6y
– Deepseek (@deepseek_ai) 20 janvier 2025
OpenAI affirme que la startup de l'IA a violé ses conditions d'utilisation en utilisant la «distillation», comme l'a rapporté Fox News. La distillation est lorsque les développeurs forment un modèle d'IA en utilisant des sorties d'un système plus avancé. Les soupçons sont survenus après que les utilisateurs ont découvert qu'un modèle antérieur, Deepseek V3, se qualifiait parfois de «chatgpt», suggérant que Deepseek a utilisé des données générées par OpenAI pour affiner son système.
Cette décision semble également quelque peu hypocrite, étant donné que les chercheurs en sécurité de Microsoft auraient lancé mercredi une enquête d'éthique sur Deepseek, mercredi. Des sources anonymes affirment que l'enquête se concentre sur la question de savoir si Deepseek a extrait des quantités substantielles de données via l'API d'OpenAI à l'automne 2024.
Malgré les frustrations de Deepseek, le PDG d'Openai, Sam Altman, a publiquement accueilli la compétition. Dans un tweet lundi, Altman a reconnu la rentabilité de R1, l'appelant « un modèle impressionnant », mais jurant qu'Openai fournirait bientôt « de bien meilleurs résultats ». Les analystes s'attendent à ce que la société puisse publier un nouveau modèle, O3-Mini, dès aujourd'hui.
Le R1 de Deepseek est un modèle impressionnant, en particulier autour de ce qu'ils sont en mesure de livrer pour le prix.
Nous fournirons évidemment de bien meilleurs modèles et il est également légitime revigorant d'avoir un nouveau concurrent! Nous allons tirer quelques versions.
– Sam Altman (@Sama) 28 janvier 2025
Le tollé d'Openai sur les pratiques de données de Deepseek est notable compte tenu de ses propres antécédents de violence présumée de données. Le New York Times a déposé une plainte contre Openai et Microsoft, les accusant d'utiliser le journalisme protégé par le droit d'auteur sans autorisation. OpenAI a également conclu des accords avec les éditeurs et les communautés en ligne – comme l'Associated Press et d'autres – pour accéder aux données générées par les utilisateurs pour la formation.
Toute la situation expose la relation hypocrite de l'industrie de l'IA avec la propriété des données. La société d'investissement Andreessen Horowitz, un autre investisseur d'IA ouvert, a fait valoir dans un dossier juridique de 2023 que les modèles d'IA de formation ne devraient pas être considérés comme une violation du droit d'auteur, car ils « extraient les informations » des travaux existants. Si Openai croit vraiment en ce principe, alors Deepseek ne fait que jouer selon les mêmes règles.
Le paysage actuel de l'industrie de l'IA est plus ou moins un libre pour tous. Nous n'avons pas de lois sur les livres pour gouverner directement l'IA, et les lois qui l'affectent indirectement, comme les lois sur le droit d'auteur et le commerce, sont dérangées dans une interprétation favorable par les entreprises d'IA qui les enfreignent.