Ils ont à peine six semaines pour s'y conformer
Bref: La loi sur les services numériques est en vigueur depuis environ un an et demi et, depuis le début, la Commission européenne n’a pas eu peur d’exercer ses pouvoirs. Les amendes en cas de violation de la loi sont suffisamment élevées pour que même les géants de la technologie comme Meta et Google se méfient des implications financières, et son mandat est large. Alors que le DSA couvre un large éventail d’activités, la CE semble depuis peu se concentrer sur les algorithmes de recommandation et leur impact sur la société.
La Commission européenne a demandé à YouTube, Snapchat et TikTok de fournir des informations détaillées sur leurs algorithmes de recommandation de contenu. Cette demande, formulée dans le cadre de la loi sur les services numériques (DSA), vise à comprendre comment ces plateformes recommandent du contenu aux utilisateurs et traitent les risques potentiels associés à leurs systèmes.
De manière générale, l’UE a exprimé ses inquiétudes concernant les algorithmes de recommandation et l’influence considérable que ces systèmes peuvent avoir sur divers aspects de la société, depuis la santé mentale individuelle jusqu’aux processus démocratiques plus larges. La Commission souhaite particulièrement comprendre comment les algorithmes recommandent le contenu aux utilisateurs. Il cherche à explorer leur rôle dans l’amplification des risques systémiques et les mesures prises par les plateformes pour atténuer la propagation de contenus illégaux, tels que les discours de haine et la promotion de drogues illégales.
Pour YouTube et Snapchat, l'enquête se concentre sur la manière dont leurs algorithmes pourraient affecter les processus électoraux, le discours civique, le bien-être mental des utilisateurs – y compris les comportements addictifs – et la protection des mineurs.
TikTok, outre ces préoccupations, est tenue de fournir des détails sur ses mesures visant à empêcher la manipulation des services par des acteurs malveillants et sur les mesures prises pour réduire les risques liés aux élections et au pluralisme des médias.
Les plateformes doivent répondre avant le 15 novembre 2024. Le défaut de se conformer ou de fournir des informations correctes pourrait entraîner des amendes ou des procédures formelles au titre du DSA.
Cette demande s'inscrit dans le cadre des efforts continus de l'UE pour réglementer les grandes entreprises technologiques et garantir la sécurité des utilisateurs en ligne, la Commission ayant déjà lancé des enquêtes similaires sur d'autres plateformes, notamment Facebook et Instagram.
Le DSA est entré en vigueur en février 2023, modifiant radicalement la manière dont les plateformes numériques de la région régulent leurs services. En vertu du DSA, toutes les plateformes en ligne sont désormais tenues de supprimer les contenus illégaux dans tout État membre de l'UE, de suspendre les comptes qui diffusent de tels contenus illégaux et de signaler les infractions pénales. Les très grandes plateformes en ligne doivent produire une évaluation annuelle des risques, mener un audit indépendant, mettre en œuvre des mesures d'atténuation des risques et nommer un responsable de la conformité responsable des obligations relatives aux contenus illégaux. L’amende maximale en cas de manquement est de 6 % du chiffre d’affaires annuel mondial de l’exercice précédent – un montant encore plus élevé que les amendes du RGPD.
Depuis la création du DSA, l'UE l'a appliqué de manière agressive, comme le montrent ces récentes demandes et les délais serrés accordés aux entreprises pour y répondre. Selon euronews, un haut responsable de l'UE a déclaré que l'enquête devrait servir de « signal d'alarme » pour inciter les plateformes à modifier leur comportement, par exemple en permettant aux utilisateurs de cacher certains types de vidéos.