Soyez « conscient » de ce que vous publiez sur Teams ou Slack
En un mot: Dans le cadre du dernier empiètement sur la vie privée des travailleurs, des entreprises comme Walmart, T-Mobile, AstraZeneca et BT se tournent vers un nouvel outil d’IA pour surveiller les conversations qui se déroulent sur les canaux de collaboration et de discussion dans Teams, Zoom, Slack et plus encore.
Pendant des années, les entreprises ont surveillé le contenu des e-mails de leurs employés, mettant en place des outils et des règles pour vérifier passivement ce que les employés s’envoyaient entre eux et dans le monde entier. Cependant, cette surveillance est appelée à devenir beaucoup plus invasive à mesure que des marques renommées se tournent vers des outils d’IA pour superviser les conversations dans les services de collaboration et de messagerie comme Slack, Yammer et Workplace de Meta.
Aware, une startup de Columbus, Ohio, se présente comme une « plateforme d’intelligence contextuelle qui identifie et atténue les risques, renforce la sécurité et la conformité et découvre des informations commerciales en temps réel à partir de conversations numériques à grande échelle ». Ces « conversations numériques » sont les discussions que les travailleurs ont sur les applications de productivité et de collaboration.
Ces « conversations numériques » sont les discussions que les travailleurs ont sur les applications de productivité et de collaboration.
Le produit phare de la société vise à surveiller le « sentiment » et la « toxicité » en utilisant des capacités de détection et d’analyse verbales et d’images pour observer ce dont les gens discutent et leurs sentiments sur diverses questions.
Bien que les données soient ostensiblement anonymisées, des balises peuvent être ajoutées pour les fonctions, l’âge, le sexe, etc., permettant à la plate-forme d’identifier si certains départements ou données démographiques réagissent plus ou moins positivement aux nouvelles politiques ou annonces commerciales.
Les choses empirent cependant avec un autre de leurs outils, eDiscovery. Il permet aux entreprises de nommer des personnes, telles que des représentants des ressources humaines ou des hauts dirigeants, qui pourraient identifier les individus spécifiques violant les politiques de « risque extrême » telles que définies par l’entreprise. Ces « risques » peuvent être légitimes, comme des menaces de violence, d’intimidation ou de harcèlement, mais il n’est pas difficile d’imaginer que le logiciel soit chargé de signaler des risques moins réels.
S’adressant à CNBC, le co-fondateur et PDG d’Aware, Jeff Schuman, a déclaré : « Il suit toujours le sentiment des employés en temps réel, ainsi que la toxicité en temps réel. Si vous étiez une banque utilisant Aware et que le sentiment du personnel augmentait au cours de la dernière » 20 minutes, c’est parce qu’ils parlent de quelque chose de positif, collectivement. La technologie serait capable de leur dire quoi que ce soit. «
Bien que certains puissent affirmer qu’il n’existe aucun droit ni aucune attente en matière de confidentialité sur les applications de messagerie interne d’une entreprise, la nouvelle du suivi analytique aura sans aucun doute un effet dissuasif sur la parole des gens. Il existe un monde de différence entre les méthodes traditionnelles de collecte de données passives et cette nouvelle surveillance en temps réel par l’IA.
Et même si Aware souligne rapidement que les données sur son produit sont anonymisées, cette affirmation est très difficile à démontrer. L’absence de noms peut rendre les données sémantiquement anonymes, mais il suffit souvent de quelques points de données pour reconstituer qui a dit quoi. Des études remontant à plusieurs décennies ont montré que des personnes peuvent être identifiées dans des ensembles de données « anonymes » en utilisant très peu d’informations très basiques.
Il sera fascinant de voir les répercussions lorsque les premiers licenciements se produiront, car l’IA a déterminé que le chat Teams d’un individu représentait un « risque extrême ».