L'entreprise n'a pas pris la peine d'informer une quelconque autorité extérieure de l'incident de l'année dernière.
Dans le contexte: Bien qu'elle possède l'un des produits d'IA générative les plus performants du moment, OpenAI est une entreprise très controversée, avec un historique de mensonges, de mauvaise gestion et d'abus flagrants des caractéristiques biométriques des personnes. Désormais, vous pouvez également ajouter à ce lot les pirates informatiques susceptibles de voler des secrets sur le développement de l'IA.
Des acteurs malveillants inconnus ont accédé aux systèmes de messagerie interne d'OpenAI, espionnant des discussions sensibles sur les technologies d'IA et les documents de recherche de l'entreprise. Cependant, les pirates n'ont pas eu accès aux serveurs hébergeant le code source de l'IA. Deux personnes au courant du dossier ont révélé l'incident au New York Times cette semaine, affirmant qu'OpenAI n'avait pas révélé la violation car aucune donnée client n'avait été compromise.
Selon les sources, l'accès non autorisé s'est produit début 2023 et les dirigeants d'OpenAI ont révélé l'incident aux employés lors d'une réunion interne dans les bureaux de l'entreprise à San Francisco. Le conseil d'administration a également été informé, mais personne en dehors de l'entreprise n'a été impliqué. OpenAI n'a pas contacté le FBI ni aucun autre organisme chargé de l'application de la loi, car l'incident n'a pas été jugé suffisamment intéressant du point de vue de la sécurité nationale.
Certains employés ont exprimé leurs craintes quant à l'implication potentielle d'acteurs malveillants étrangers basés en Chine, en Russie ou ailleurs, qui auraient pu exploiter les algorithmes génératifs d'OpenAI pour nuire aux intérêts et à la technologie des États-Unis. Ils ont également accusé leur propre entreprise de ne pas prendre suffisamment au sérieux la sécurité opérationnelle ni de considérer les risques potentiels liés aux algorithmes d'IA susmentionnés.
Leopold Aschenbrenner, responsable technique du programme axé sur les risques de sécurité de l'IA, a envoyé une note interne au conseil d'administration d'OpenAI concernant ce qu'il considérait comme un effort insuffisant pour empêcher les agents étrangers d'accéder à la technologie de l'entreprise. OpenAI a riposté en licenciant le responsable, et Aschenbrenner a déclaré plus tard que l'entreprise l'avait licencié après un incident de sécurité non signalé et non spécifié.
Les nouvelles sources citées par le NY Times confirment et corroborent désormais la violation, tandis qu'OpenAI vient de déclarer dans une interview qu'elle avait besoin des « esprits les meilleurs et les plus brillants » pour travailler sur ce projet d'IA et qu'il y a simplement « quelques risques » à gérer.
Anthropic, concurrent d'OpenAI, estime que les inquiétudes concernant les risques de l'IA pour l'humanité sont grandement exagérées, même si la dictature communiste de Pékin pourrait développer une version plus avancée de ChatGPT.
Aujourd'hui, OpenAI a prouvé qu'elle ne méritait pas vraiment la confiance de quiconque. La direction de l'entreprise a été obligée de licencier le PDG Sam Altman pour sa prétendue « culture toxique du mensonge » et ses « abus psychologiques », et Altman est désormais de retour à la tête de l'entreprise qu'il a cofondée.
Les abus d'OpenAI en matière de droits d'auteur, de données personnelles et de confidentialité incluent un personnage vocal ChatGPT inspiré de Scarlett Johansson, que la société a ensuite supprimé après que l'actrice a fait appel à un avocat.