Ils ne dressent pas un tableau rose d’Altman
Résumer: Le monde de la technologie a été ébranlé en novembre dernier après le licenciement sans cérémonie du PDG d'OpenAI, Sam Altman. Les raisons officielles de cette décision étaient vagues et Altman a été réintégré à la tête de l'entreprise quelques jours plus tard. Aujourd'hui, d'anciens membres du conseil d'administration ont donné plus de détails sur ce qui s'est passé et pourquoi, notamment en accusant Altman d'avoir cultivé « une culture toxique du mensonge » et d'avoir adopté « un comportement (qui) peut être qualifié de violence psychologique ».
OpenAI a déclaré qu'Altman avait été démis de ses fonctions de PDG l'année dernière à la suite d'un processus d'examen par le conseil d'administration qui n'avait plus confiance en sa capacité à diriger l'entreprise et à rester « toujours franc dans ses communications avec le conseil d'administration ».
Quelques jours après le licenciement, le PDG de Microsoft, Satya Nadella, a déclaré qu'Altman rejoignait le fabricant de Windows pour diriger une nouvelle équipe d'IA. Deux jours après cette annonce, Altman était de retour chez OpenAI sous la direction d'un nouveau conseil d'administration.
Helen Toner et Tasha McCauley, deux des membres du conseil d'administration qui ont aidé à évincer Altman et qui ont ensuite quitté le conseil d'administration, ont décrit un environnement toxique chez OpenAI, accusant Altman de « abus psychologique » et de « mentir et être manipulateur dans différentes situations ».
Dans une interview sur le podcast TED AI Show, Toner a déclaré que le conseil d'administration estimait qu'il devait agir dans le dos d'Altman une fois qu'il avait décidé qu'un nouveau PDG était nécessaire.
Partage ceci, enregistré il y a quelques semaines. La majeure partie de l'épisode porte sur la politique en matière d'IA de manière plus générale, mais il s'agissait de ma première interview longue durée depuis la clôture de l'enquête OpenAI, nous avons donc également parlé un peu de novembre.
Merci à @bilawalsidhu pour cette conversation amusante ! https://t.co/h0PtK06T0K
– Hélène Toner (@hlntnr) 28 mai 2024
« Il était très clair pour nous tous que dès que Sam aurait la moindre idée que nous pourrions faire quelque chose qui allait à son encontre, il mettrait tout en œuvre, ferait tout ce qui était en son pouvoir pour saper le conseil d'administration, pour nous empêcher même de au point de pouvoir le licencier », a déclaré Toner.
Toner a déclaré que le conseil d'administration avait perdu sa confiance en Altman après qu'il ait omis de leur dire qu'il possédait l'OpenAI Startup Fund. Il a également fourni des informations inexactes sur les processus de sécurité de l'entreprise « à plusieurs reprises ». Toner a ajouté qu'elle avait été pointée du doigt par Altman parce qu'elle avait publié un document de recherche qu'il n'aimait pas. « Sam a commencé à mentir aux autres membres du conseil d'administration pour essayer de me faire sortir du conseil d'administration », dit-elle.
Toner donne également un aperçu de la façon dont le conseil d'administration d'OpenAI était souvent laissé dans l'ignorance de ce qui se passait dans l'entreprise. « Lorsque ChatGPT est sorti en novembre 2022, le conseil d'administration n'a pas été informé à l'avance. Nous avons entendu parler de ChatGPT sur Twitter. »
Le tollé suscité par l'éviction d'Altman a conduit les investisseurs à menacer de poursuivre l'entreprise en justice. Certains employés, dont l'un des membres du conseil d'administration qui l'a licencié, ont appelé à son retour, ce qui, selon Toner, était dû aux craintes des travailleurs pour l'avenir d'OpenAI sans Altman, tandis que d'autres avaient peur de ses représailles.
Toner a déclaré qu'Altman avait des antécédents de problèmes, notamment lors de son précédent emploi chez Y Combinator, qui l'avait licencié, et dans sa startup Loopt, où l'équipe de direction avait apparemment demandé au conseil d'administration de le licencier à deux reprises pour son comportement trompeur et chaotique.
Toner et McCauley affirment que la pression pour continuer à augmenter les bénéfices rendait l'autorégulation d'OpenAI inapplicable. Ils ont appelé à une réglementation gouvernementale de l’industrie de l’IA.
Jan Leike, chercheur principal en sécurité chez OpenAI, a démissionné de l'entreprise ce mois-ci, affirmant que « la culture et les processus de sécurité ont pris le pas sur les produits brillants ».
Le président du conseil d'administration d'OpenAI, Bret Taylor, a répondu au podcast avec la déclaration suivante :
Nous sommes déçus que Mme Toner continue de revenir sur ces questions. Un comité indépendant du conseil d'administration a travaillé avec le cabinet d'avocats Wilmer Hale pour mener un examen approfondi des événements de novembre. L'examen a conclu que la décision précédente du conseil d'administration n'était pas fondée sur des préoccupations concernant la sûreté ou la sécurité des produits, le rythme de développement, les finances d'OpenAI ou ses déclarations aux investisseurs, clients ou partenaires commerciaux. De plus, plus de 95 pour cent des employés, y compris la haute direction, ont demandé la réintégration de Sam en tant que PDG et la démission de l'ancien conseil d'administration. Notre objectif reste d'aller de l'avant et de poursuivre la mission d'OpenAI visant à garantir que l'AGI profite à toute l'humanité.