Le résultat d’une dépendance excessive et d’un manque de diversité dans les modèles d’IA
Une patate chaude : La perte d’emplois, la mort de la créativité humaine, le plagiat, l’anéantissement de la race humaine – y a-t-il autre chose dont nous devons nous inquiéter en matière d’IA avancée ? Oui, selon le patron de la SEC : une crise financière « presque inévitable ».
Gary Gensler, président de la Securities and Exchange Commission des États-Unis, a déclaré au Financial Times que l’utilisation croissante des systèmes d’IA entraînerait presque certainement l’effondrement des marchés financiers au cours de la prochaine décennie.
Gensler prévient que la crise presque inévitable surviendra en raison de la dépendance aux modèles d’IA développés par les entreprises technologiques. Il a également blâmé le manque de diversité parmi les outils d’IA actuellement utilisés par les institutions financières pour surveiller les marchés, offrir des conseils, automatiser l’ouverture de compte, etc.
La solution, selon Gensler, consiste à introduire une réglementation qui supervise à la fois les modèles d’IA générative et la manière dont ils sont utilisés par les entités de Wall Street, qui ont adopté cette technologie en masse depuis le début de l’année. Mais le responsable de la SEC admet qu’il s’agira d’un « défi inter-réglementaire ».

« C’est franchement un défi difficile », a déclaré Gensler au FT. « C’est une question de stabilité financière difficile à résoudre car la majeure partie de notre réglementation concerne des institutions individuelles, des banques individuelles, des fonds du marché monétaire individuels, des courtiers individuels; c’est simplement dans la nature de ce que nous faisons. Et il s’agit d’une question horizontale (par laquelle) de nombreuses institutions pourraient s’appuyer sur le même modèle de base sous-jacent ou sur le même agrégateur de données sous-jacent.
Le scénario de Gensler ne marquerait pas la première fois que la technologie fait s’effondrer les marchés financiers. En 2010, un trader britannique a provoqué un « krach éclair » en manipulant illégalement le marché en inondant le Chicago Mercantile Exchange de fausses commandes provenant du sous-sol de ses parents à Londres. Cela a entraîné la disparition de près de 1 000 milliards de dollars de la valeur des actions américaines avant de rebondir immédiatement. Les régulateurs ont déclaré que les algorithmes de trading à haute fréquence avaient joué un rôle dans le krach.
Jusqu’à présent, les sociétés d’IA ont accepté de s’autoréguler et de gérer les risques posés par leurs technologies, mais les gouvernements réclament une réglementation plus stricte. La loi européenne sur l’IA, en préparation, pourrait obliger les développeurs d’outils d’intelligence artificielle générative à les soumettre pour examen avant leur diffusion générale. Le gouvernement américain, quant à lui, examine toujours la technologie pour décider quels aspects nécessitent une réglementation.
La SEC a proposé en juillet de nouvelles règles qui obligeraient les courtiers et les conseillers en investissement à prendre certaines mesures pour résoudre les conflits d’intérêts associés à leur utilisation de l’analyse prédictive pour interagir avec les investisseurs. L’objectif est d’empêcher les entreprises de faire passer leurs intérêts avant ceux des investisseurs.
Alors que Morgan Stanley et JPMorgan utilisent des modèles d’IA pour aider les traders et les conseillers financiers, Goldman Sachs, Deutsche Bank et Bank of America ont toutes interdit à leurs employés d’utiliser ChatGPT au travail plus tôt cette année.
Image centrale : Groupe de réflexion sur la troisième voie



