Les entreprises d’IA abusent à la fois des travailleurs humains et de la vie privée des utilisateurs pour gagner de l’argent
Dans le contexte: Signal est une plateforme de communication qui offre un cryptage de bout en bout pour la messagerie instantanée, les appels vocaux et les appels vidéo. Reconnu comme un « gold standard » en matière de confidentialité des utilisateurs, ce logiciel open source est accessible sur toutes les principales plateformes et est officiellement considéré comme une « menace majeure » par la NSA.
La présidente de la Signal Foundation, Meredith Whittaker, a récemment participé à une discussion sur scène à TechCrunch Disrupt pour discuter de l’IA, des données utilisateur et de la surveillance. Whittaker est une critique éminente de la technologie de l’IA et des systèmes de reconnaissance faciale, et elle était l’une des anciennes employées de Google qui ont joué un rôle dans l’organisation des débrayages de Google en 2018.
Selon Whittaker, la technologie et les services d’IA s’appuient sur la vaste collection de données massives et sur l’industrie de ciblage pour fonctionner efficacement. Elle a déclaré que l’IA « nécessite le modèle commercial de surveillance » et exacerbe essentiellement ce que l’industrie connaît depuis la fin des années 90 avec la croissance de la « publicité de surveillance ». Whittaker a directement commenté : « Le diagramme de Venn est un cercle. »
La formation réussie de LLM et d’autres modèles d’IA nécessite d’énormes volumes de contenu généré par l’homme, généralement collecté à la fois auprès du public et de parties moins accessibles d’Internet. Cependant, Whittaker a souligné que la formation n’est qu’un aspect du problème. Elle a fait valoir que l’utilisation de la technologie de l’IA, notamment dans les systèmes de reconnaissance faciale, constitue une forme de surveillance.
Le président de Signal a illustré une application de la technologie de l’IA axée sur la surveillance en discutant d’une caméra de reconnaissance faciale conçue pour générer des données « pseudo-scientifiques » sur l’état émotionnel d’un passant. Ces données, qui peuvent être exactes ou inexactes, sont ensuite utilisées pour déterminer si une personne est heureuse, triste ou même potentiellement malhonnête.
En fin de compte, Whittaker a soutenu que ces systèmes de surveillance basés sur l’IA sont commercialisés auprès d’entités puissantes telles que les employeurs, les gouvernements et les contrôles aux frontières, leur permettant de prendre des décisions et des prédictions qui pourraient avoir un impact significatif sur l’accès des individus aux ressources et aux opportunités.
De plus, les systèmes de surveillance par IA exploitent une main-d’œuvre humaine qui pourrait à terme devenir la cible même de ces systèmes. Whittaker a expliqué qu’il n’y a aucun moyen de créer des LLM sans apprentissage par renforcement avec des commentaires humains, essentiellement « un travail humain précaire de lavage technologique ». Des milliers de travailleurs sont très mal payés pour vérifier la « vérité terrain des données », et la soi-disant « intelligence » artificielle ne pourrait exister sans leur contribution.
Whittaker a également reconnu que tous les modèles d’IA et d’apprentissage automatique ne sont pas identiques. Signal utilise également une certaine technologie d’IA. La plate-forme de messagerie instantanée utilise un « petit modèle sur appareil » que la fondation n’a pas développé, dans le cadre de la fonctionnalité de flou de visage de la boîte à outils d’édition multimédia de Signal. Même s’il n’est peut-être pas parfait, Whittaker a noté que le modèle d’IA est utile pour détecter les visages sur les photos de foule afin de protéger la vie privée des gens sur les réseaux sociaux.