Le potentiel de l’IA à devenir malveillante est une préoccupation majeure parmi les développeurs et les législateurs
Qu’est-ce qui vient de se passer? Dix-huit pays, dont les États-Unis et le Royaume-Uni, se sont unis pour garantir que le développement de l’IA soit « sécurisé dès la conception ». L’accord énonce un ensemble de principes visant à répondre aux préoccupations persistantes quant à la manière dont l’IA pourrait devenir une force perturbatrice si elle tombait entre les mains d’acteurs malveillants.
Le document de 20 pages mentionne plusieurs garanties pour garantir un développement responsable de l’IA, notamment la nécessité pour les entreprises technologiques de « la développer et de la déployer de manière à protéger les clients et le grand public contre toute utilisation abusive ». Outre les États-Unis et le Royaume-Uni, les autres pays signataires du document sont l’Allemagne, l’Italie, la République tchèque, l’Estonie, la Pologne, l’Australie, le Chili, Israël, le Nigeria et Singapour.
L’accord traite en détail des moyens de protéger l’IA contre le détournement par des pirates informatiques et comprend des recommandations sur la manière dont les entreprises doivent d’abord effectuer des tests de sécurité appropriés avant de publier leurs modèles. Cependant, comme le rapporte Reuters, le document n’aborde pas les questions controversées, telles que la manière dont les données sont collectées pour les modèles d’IA. Il y a déjà eu de nombreuses escarmouches juridiques sur cette question, on pourrait donc espérer que les régulateurs et les législateurs interviendront le plus tôt possible pour résoudre le problème une fois pour toutes.
Décrites comme le premier accord mondial sur la sécurité de l’IA, les lignes directrices pour le développement sécurisé de l’IA visent à rendre les développeurs d’IA plus responsables de leurs logiciels. Le document exhorte également toutes les parties prenantes, y compris les scientifiques des données, les développeurs, les gestionnaires, les décideurs et les propriétaires de risques, à suivre les recommandations pour prendre « des décisions éclairées sur la conception, le développement, le déploiement et l’exploitation de leurs systèmes d’IA ».
L’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) a salué cet accord comme un pas dans la bonne direction et a rappelé à tous que le développement de l’IA doit donner la priorité à la sécurité publique avant tout. Dans un message, la directrice de la CISA, Jen Easterly, a déclaré que l’IA ne devrait pas se limiter à des « fonctionnalités intéressantes » et à une réduction des coûts en réduisant les coûts, car cela pourrait avoir des effets secondaires dangereux à long terme.
Avant même la signature de cet accord, certains pays avaient déjà commencé à formuler des règles sur la manière dont des entreprises comme Google et OpenAI devraient autoréglementer le développement de l’IA. Alors que la France, l’Allemagne et l’Italie sont récemment parvenues à un accord sur « une autoréglementation obligatoire au moyen de codes de conduite », l’administration Biden aux États-Unis a adopté un décret visant à réduire les risques que le développement non réglementé de l’IA pourrait potentiellement faire peser sur la sécurité nationale.