Le gouvernement du pays a déjà reconnu le risque « existentiel » de l’IA
Une patate chaude : Il existe de nombreuses inquiétudes légitimes concernant les progrès dans le domaine de l’intelligence artificielle, du nombre d’emplois qu’elle pourrait supprimer aux implications de l’IA générative en matière de droits d’auteur. Au Royaume-Uni, les responsables gouvernementaux s’inquiètent de son potentiel plus meurtrier, comme le fait que des criminels ou des terroristes utilisent l’IA pour provoquer des destructions massives et que la technologie échappe au contrôle humain.
Les responsables britanniques parcourent le monde à l’approche d’un sommet sur la sécurité de l’IA au Royaume-Uni, écrit The Guardian, essayant d’obtenir du soutien en faveur d’une déclaration commune mettant en garde contre des acteurs malhonnêtes utilisant la technologie pour créer des armes biologiques. Certains pensent même que l’IA pourrait progresser suffisamment loin pour échapper complètement au contrôle humain. Cela peut ressembler à de la science-fiction, mais il y a eu de nombreux avertissements similaires et des appels à une réglementation pour empêcher une telle possibilité.
« Il y a deux domaines sur lesquels le sommet se concentrera particulièrement : les risques d’utilisation abusive, par exemple, lorsqu’un mauvais acteur est aidé par de nouvelles capacités d’IA dans des attaques biologiques ou cybernétiques, et les risques de perte de contrôle qui pourraient émerger de systèmes avancés que nous rechercherions. être aligné sur nos valeurs et nos intentions », a déclaré le gouvernement dans un communiqué.
Plus tôt cette année, le Premier ministre britannique Rishi Sunak a rencontré les dirigeants de Google DeepMind, OpenAI et Anthropic AI pour discuter des moyens de limiter les risques de l’IA. Le 10 Downing Street a reconnu le risque « existentiel » de l’intelligence artificielle à l’issue de la réunion.
En mars dernier, une lettre ouverte a été publiée sur le site Web du Future of Life Institute, appelant à une pause de six mois dans le développement avancé de l’IA. Plus de 1 000 signataires ont exprimé leur inquiétude face à ce qu’ils appellent une course incontrôlée pour développer et déployer des systèmes de plus en plus puissants, mais l’appel est pour la plupart tombé dans l’oreille d’un sourd.
Le professeur Max Tegmark du MIT, co-fondateur de l’institution et organisateur de la lettre, a déclaré la semaine dernière que même si de nombreux dirigeants technologiques étaient d’accord avec le concept d’une pause dans le développement, ils étaient enfermés dans une « course vers le bas », ce qui signifie non. L’entreprise peut être la seule à interrompre son développement de peur que ses concurrents ne prennent de l’avance.
La menace potentielle que représente l’IA pour la vie humaine a été un sujet brûlant cette année. Le patron d’OpenAI, Sam Altman, était l’un des nombreux experts à avoir mis en garde contre la possibilité que l’IA provoque l’extinction de la race humaine, comparant ces systèmes aux risques posés par la guerre nucléaire et les pandémies. Plus des deux tiers des Américains s’inquiètent du fait qu’elle menace la civilisation, et Warren Buffett a comparé la création de l’IA à la bombe atomique.
En juillet, OpenAI a annoncé qu’elle formait une équipe pour atténuer les risques liés au développement d’une IA plus intelligente que les humains, qui pourrait entraîner la perte de pouvoir de l’humanité, voire l’extinction de l’humanité au cours des dix prochaines années. L’entreprise consacre également 20 % du calcul qu’elle a obtenu à cet effort. Espérons que ce soit réussi.