C'est sournois et peut-être illégal, selon la FTC
Une patate chaude : Les données d’IA sont devenues une ressource précieuse pour les entreprises qui cherchent à former de nouveaux modèles. De nombreuses sources accessibles au public s’épuisent rapidement, et les entreprises se tournent vers des ensembles de données privés protégés par les lois sur la protection de la vie privée. Pour se protéger, ces entreprises insèrent de petites modifications dans leurs déclarations de confidentialité pour leur permettre d’utiliser les données de cette manière.
Plus tôt cette année, la Federal Trade Commission (FTC) a prévenu que les entreprises seraient fortement tentées de modifier les termes et conditions de leurs déclarations de confidentialité pour leur permettre d'utiliser les données de leurs clients pour former des modèles d'IA. Pour éviter les réactions négatives des utilisateurs soucieux de leur vie privée, les entreprises pourraient essayer d'apporter ces changements discrètement et sans fanfare, a déclaré la commission. Cependant, de telles actions seraient illégales, a-t-elle ajouté, notant que toute entreprise qui renie ses engagements en matière de confidentialité des utilisateurs risque d'enfreindre la loi.
« Il peut être injuste ou trompeur pour une entreprise d'adopter des pratiques de données plus permissives – par exemple, de commencer à partager les données des consommateurs avec des tiers ou à utiliser ces données pour la formation de l'IA – et d'informer les consommateurs de ce changement uniquement par le biais d'une modification subreptice et rétroactive de ses conditions de service ou de sa politique de confidentialité », a-t-elle déclaré sans équivoque.
Mais c’est précisément ce qui se passe, selon une analyse du New York Times.
Les entreprises qui cherchent à obtenir des données pour former leurs modèles d'IA se tournent de plus en plus vers des données protégées par les lois sur la protection de la vie privée. Pour se protéger juridiquement, elles réécrivent soigneusement leurs conditions générales pour y inclure des termes tels que « intelligence artificielle », « apprentissage automatique » et « IA générative ».
Google n’est qu’un exemple parmi d’autres. En juillet dernier, l’entreprise a apporté plusieurs modifications importantes à sa politique de confidentialité. Elle stipule désormais que Google utilise les informations accessibles au public pour aider à former ses modèles d’IA linguistique et développer des produits tels que Google Translate, Bard (désormais Gemini) et les fonctionnalités Cloud AI.
Google a expliqué le changement au Times en disant qu'il « a simplement clarifié que des services plus récents comme Bard (maintenant Gemini) sont également inclus. Nous n'avons pas commencé à former des modèles sur des types de données supplémentaires basés sur ce changement de langue. »
Le mois dernier, Adobe a entrepris une action similaire et a été confronté à des réactions négatives de la part des clients face aux modifications. Une fenêtre contextuelle a informé les utilisateurs de la mise à jour, suggérant que l'entreprise pourrait accéder et revendiquer la propriété du contenu créé avec sa Creative Suite pour former des modèles d'IA, entre autres fins. De nombreux utilisateurs étaient furieux, surtout lorsqu'ils ont réalisé qu'ils ne pouvaient pas accéder à leurs projets sans immédiatement accepter les nouvelles conditions déroutantes. Cela a conduit à une vague d'abonnements annulés et a forcé Adobe à clarifier les conditions mises à jour.
En mai, Meta a informé ses utilisateurs Facebook et Instagram en Europe qu'elle utiliserait des publications accessibles au public pour entraîner son IA. Cependant, après des plaintes du Centre européen pour les droits numériques dans 11 pays européens, Meta a suspendu ces projets.
Il est plus facile pour Meta de collecter des données auprès de ses utilisateurs américains en raison d'une protection des consommateurs plus faible et d'une mosaïque d'agences de surveillance étatiques et fédérales, y compris la FTC.
Il reste à voir quelles mesures la commission prendra à mesure que davantage de politiques de confidentialité seront modifiées pour intégrer la formation sur les données d'IA.