Un règlement visant à réglementer les programmes basés sur l’IA tels que ChatGPT doit entrer en vigueur dans l’UE. Cependant, du point de vue du responsable d’OpenAI, Sam Altman, tout cela va trop loin dans la première version.
Des règles trop strictes pour ChatGPT dans l’UE ?
Le thème de « l’intelligence artificielle » ne domine pas seulement le monde de la technologie depuis des mois. Au lieu de cela, les logiciels tels que ChatGPT se voient attribuer une grande importance pour l’ensemble de la société. Certains comparent même la technologie basée sur l’apprentissage automatique à des jalons historiques tels que l’industrialisation ou l’invention de l’imprimerie. Il n’est donc pas surprenant que les hommes politiques ainsi que l’industrie technologique réclament l’établissement de règles complètes pour l’utilisation de l’intelligence artificielle. Même l’un des grands esprits derrière ChatGPT est de cet avis. Sam Altman, directeur d’OpenAI, estime depuis longtemps que la politique doit réagir par des réglementations appropriées.
À peine dit que c’était fait. Il n’a pas fallu le dire à deux fois à l’UE. En conséquence, la communauté des États a élaboré sans ménagement un règlement sur l’IA. Cependant, du point de vue du guérisseur IA, c’est un pas de trop. Après que l’expert ait examiné la première ébauche, son verdict est cinglant. C’est ainsi qu’il a qualifié la réglementation, dans le cadre d’un panel à l’University College de Londres mercredi, de simplement « surréglementation ». Il s’est néanmoins dit disposé à respecter les réglementations prévues. Cependant, si cela n’est pas possible, l’entreprise n’a pas peur de « arrêter ses opérations », selon le chef d’OpenAI.
Altman souligne des « limites techniques »
Dans une récente interview accordée au magazine Time, Altman a clarifié son point de vue sur les règles applicables aux intelligences artificielles. Il a par exemple souligné qu’ils revêtaient une grande importance, mais a en outre précisé qu’ils présentaient des « limites techniques ». Par exemple, une réglementation excessive, comme il le reconnaît dans le projet actuel de l’UE, peut limiter les fonctionnalités de programmes comme ChatGPT à un point tel qu’une utilisation normale ne serait plus possible. Cela est dû au fait que, sur la base du projet de l’UE, ChatGPT est un logiciel présentant un potentiel de risque élevé. Cela ne va toutefois pas de pair avec une interdiction de la solution d’IA. Au lieu de cela, la classification garantit qu’OpenAI doit répondre à de nombreuses exigences concernant son système. Cela inclut entre autres la soumission d’une évaluation des risques. Des langues malveillantes pourraient prétendre que le projet actuel souligne la frénésie réglementaire européenne classique.
D’autres, cependant, considéreront probablement la réglementation comme une étape correcte et importante vers le contrôle de l’intelligence artificielle. Alors que les réglementations proposées font actuellement l’objet de débats à l’échelle mondiale, Altman suggère un compromis. Il conseille à l’UE et aux États-Unis d’adopter une voie médiane entre les deux approches différentes. Selon lui, le résultat final devrait être une réglementation caractérisée par des exigences strictes « traditionnellement européennes », mais aussi par le cadre frontalier américain, dont l’expérience a montré qu’il est assez libre. Si ce n’est pas le cas, ce sera une tâche gigantesque, non seulement pour OpenAI, de tout mettre en conformité. Les développeurs qui souhaitent utiliser la solution IA comme base de leur travail seront alors également confrontés à un obstacle majeur. Après tout, même les petites entreprises technologiques pensent aujourd’hui à l’échelle mondiale et n’ont tout simplement pas les ressources nécessaires pour se développer sur deux marchés différents.
Le Parlement européen soutient une révision complète
Le contexte de tout cela est un projet de loi élaboré par le Parlement européen il y a quelques jours. Grâce à la collaboration de divers comités, cela a donné naissance aux premières pierres angulaires d’une réglementation sur l’IA. Dans le règlement, on peut lire des règles assez strictes pour les intelligences artificielles développées pour traiter de grandes quantités de données. Les exploitants de telles applications doivent veiller à ce que les risques pour les fondements sociaux tels que la démocratie, la sécurité, l’État de droit et les droits fondamentaux soient réduits au minimum en conséquence. Dans certaines circonstances, les opérateurs de services tels que ChatGPT peuvent également être amenés à faire réaliser des contrôles par des experts indépendants.
De plus, le règlement stipule que les entreprises comme OpenAI doivent être très transparentes quant aux fondements de leur IA. En particulier, les données de formation exclusives doivent être documentées en détail et mises à la disposition du public. Altman n’a apparemment aucune objection à la transparence elle-même. Bien au contraire. Lors de son discours à Londres, il a souligné que les utilisateurs de programmes comme ChatGPT devraient bénéficier d’un accès étendu. S’il parvient à ses fins, une nouvelle autorité devrait être fondée à cet effet. Sa tâche devrait alors être de tester en profondeur les modèles de base des intelligences artificielles comme ChatGPT.
Alors que cette question n’est actuellement discutée que dans le reste du monde, une telle enquête bat déjà son plein au sein de l’UE. Par exemple, l’Autorité européenne de protection des données et de la vie privée (EDSA) étudie actuellement les bases de l’IA avec un groupe de travail créé spécifiquement à cet effet. La raison de la création de la plateforme de discussion était l’interdiction temporaire de ChatGPT imposée par l’autorité italienne de protection des données. Par la suite, une interdiction en Allemagne a également été discutée. Entre-temps, le service est à nouveau disponible dans toute l’UE. Néanmoins, le groupe de travail souhaite échanger des points de vue sur une stratégie commune pour traiter de tels modèles de base d’IA.
L’UE est-elle perdante face à ChatGPT et co. ?
Les experts conviennent que les solutions d’IA telles que ChatGPT façonneront non seulement le monde technologique mais aussi notre société dans les années à venir. En particulier dans le domaine du travail, ces modèles de base pourraient garantir une transformation en profondeur. Microsoft a montré pour la première fois quelles possibilités cela signifie pour l’utilisateur commun lors de sa conférence des développeurs. Le Windows Copilot repose sur la même technologie que ChatGPT et est disponible à tout moment pour son utilisateur. Si l’outil pratique tient réellement ses promesses, l’investissement de 10 milliards de dollars de l’entreprise technologique américaine aura certainement porté ses fruits. Dans le même temps, OpenAI avec ChatGPT n’est qu’un début. Ce n’est un secret pour personne que d’autres géants bien connus du monde de la technologie travaillent également sur leurs solutions. Il s’agit notamment de Google, mais aussi d’Amazon.
Il est donc d’autant plus important que l’UE reconsidère peut-être les réglementations très strictes qu’elle prévoit actuellement. La sortie de Google Bard montre clairement comment cela est reçu par les développeurs responsables. L’alternative chatGPT du géant des moteurs de recherche a récemment été mise en ligne dans 180 pays. Toutefois, cela n’inclut pas un seul pays de l’UE. Apparemment, Google considère le débat actuel au Parlement européen comme problématique. Du point de vue de Sundar Pichai, PDG de Google, une sortie est tout simplement trop risquée pour le moment. Après tout, la situation juridique incertaine garantit que l’on ne veut pas lancer insensé l’IA interne. Pas encore, du moins. Selon le géant des moteurs de recherche, il souhaiterait lancer Bard dans notre pays après l’entrée en vigueur de la réglementation finale sur l’IA. Il n’y a pas que les règles spéciales de l’IA qui doivent être respectées.
Google veut se conformer aux lois
En plus de cela, Google promet vouloir se conformer à d’autres réglementations comme la loi sur les services numériques (DSA), entrée en vigueur en octobre 2022, et le règlement général sur la protection des données. C’est du moins ce qu’a annoncé Pichai lors d’une réunion avec le commissaire européen au Marché intérieur, Thierry Breton. Les déclarations de Google semblent quelque peu invraisemblables au vu des diverses violations de la protection des données et de la concurrence dont l’entreprise technologique s’est rendue coupable dans l’UE ces dernières années. En janvier, par exemple, l’entreprise américaine a reçu un avertissement de l’Office fédéral allemand des cartels en raison du traitement douteux des données des utilisateurs. Un véritable remède à ce problème ne viendra probablement qu’avec un successeur au Privacy Shield. À cet égard, l’UE et les États-Unis souhaitent s’efforcer d’adopter une ligne commune en matière de protection des données. La Commission européenne travaille actuellement sur la décision d’opportunité correspondante.
Collaboration entre la politique et l’industrie technologique
Comme l’a déclaré Thierry Breton aux experts de TechCrunch, des efforts sont déployés en coulisses pour travailler en étroite collaboration avec les experts de l’industrie technologique. Après tout, ce sont également eux qui savent le mieux quelle sera la portée des modèles de base d’IA dans un avenir proche. En outre, il a déclaré qu’ils auraient aimé parvenir à un accord avec Google pour pouvoir utiliser Bard sur les ordinateurs européens, et ce, pas seulement après l’entrée en vigueur du règlement sur l’IA. Cela montre clairement le travail d’équilibriste auquel la politique de l’UE doit parvenir. D’une part, ils veulent protéger la population contre les violations massives de la protection des données et du droit d’auteur. D’un autre côté, Bruxelles est bien entendu également consciente que l’IA sera le sujet qui façonnera fortement notre société à l’avenir.
Ils ne veulent pas être laissés pour compte et, surtout, ils ne veulent pas devenir peu attrayants pour les entreprises technologiques importantes et rémunératrices. En conséquence, un accord a été conclu sur la négociation d’un soi-disant pacte sur l’IA comme solution temporaire. Celui-ci doit entrer en vigueur plus rapidement que le règlement sur l’IA et établir également des règles de conduite pour les développeurs de modèles d’IA de base. Cependant, tout cela se fera uniquement sur une base volontaire. Une fois de plus, la coopération entre l’UE et les États-Unis jouera un rôle majeur. Ensemble, ils souhaitent établir des standards en matière d’intelligence artificielle. C’est ce qu’a annoncé Margrethe Vestager, vice-présidente de la Commission européenne chargée des affaires numériques, lors du sommet du G7 à Hiroshima.