Le créateur n'assume aucune responsabilité quant à sa création
Une patate chaude : Les entreprises qui proposent des outils d’IA générative ont tendance à informer les utilisateurs que le contenu créé pourrait être inexact. LinkedIn de Microsoft a une clause de non-responsabilité similaire, bien qu'elle va un peu plus loin en avertissant que tout utilisateur partageant cette désinformation en sera tenu responsable.
Microsoft a récemment mis à jour son contrat de service avec une clause de non-responsabilité soulignant que son assistance AI n'est pas conçue, destinée ou destinée à être utilisée comme substitut aux conseils professionnels.
Tel que rapporté par The Reg, LinkedIn met à jour son contrat d'utilisation avec un langage similaire. Dans une section qui entre en vigueur le 20 novembre 2024, la plateforme indique que les utilisateurs peuvent interagir avec des fonctionnalités qui automatisent la génération de contenu. Ce contenu peut être inexact, incomplet, retardé, trompeur ou inadapté à ses objectifs.
Jusqu'à présent, tout est standard. Mais la section suivante est quelque chose que nous ne voyons pas souvent. LinkedIn déclare que les utilisateurs doivent examiner et modifier le contenu qui son IA génère avant de le partager avec d'autres. Il ajoute que les utilisateurs sont responsables de garantir que ce contenu généré par l'IA est conforme aux politiques de la communauté professionnelle, ce qui inclut de ne pas partager d'informations trompeuses.
Il semble quelque peu hypocrite que LinkedIn applique strictement des politiques interdisant aux utilisateurs de partager du contenu faux ou inauthentique que ses propres outils peuvent potentiellement générer. Les contrevenants répétés à ses politiques pourraient être punis de suspensions de compte, voire de résiliations de compte.
Le Reg a demandé à LinkedIn s'il avait l'intention de tenir les utilisateurs responsables du partage de contenu d'IA qui viole ses politiques, même si le contenu a été créé par ses propres outils. Sans vraiment répondre à la question, un porte-parole a déclaré qu'il mettait à disposition un paramètre de désinscription pour la formation des modèles d'IA utilisés pour la génération de contenu dans les pays où cela est fait.
« Nous avons toujours utilisé une certaine forme d'automatisation dans les produits LinkedIn, et nous avons toujours été clairs sur le fait que les utilisateurs ont le choix quant à la manière dont leurs données sont utilisées », a poursuivi le porte-parole. « La réalité d'où nous en sommes aujourd'hui est que beaucoup de gens recherchent de l'aide pour obtenir la première ébauche de leur CV, pour les aider à rédiger le résumé sur leur profil LinkedIn, pour les aider à rédiger des messages destinés aux recruteurs afin d'obtenir cette prochaine opportunité de carrière. En fin de compte, les gens veulent cet avantage dans leur carrière et nos services GenAI les aident à leur apporter cette aide. »
Un autre élément qui fait sourciller dans tout cela est que LinkedIn a annoncé les changements à venir le 18 septembre, soit à peu près au même moment où la plateforme a révélé qu'elle avait commencé à récolter du contenu généré par les utilisateurs pour entraîner son IA sans demander aux gens de s'inscrire au préalable. . Le tollé et les enquêtes ont conduit LinkedIn à annoncer plus tard qu'il n'autoriserait pas la formation à l'IA sur les données des utilisateurs de l'Espace économique européen, de Suisse et du Royaume-Uni jusqu'à nouvel ordre. Ceux qui vivent aux États-Unis doivent toujours se retirer.