Les assureurs qui abusent des modèles d’IA prédictive en paieront le prix
Une patate chaude : Les Centers for Medicare & Medicaid Services (CMS) sont l’agence fédérale américaine qui gère le programme Medicare et décide des normes de santé correspondantes. L’organisation a récemment envoyé une nouvelle note aux assureurs expliquant la bonne façon d’utiliser les algorithmes d’IA et ce qui se passera s’ils enfreignent les règles.
Les assureurs proposant des plans Medicare Advantage (MA) ont reçu une nouvelle note du CMS, un document de type FAQ qui offre des clarifications minutieuses sur l’utilisation (ou l’abus) des prédictions de l’IA. L’agence affirme que les compagnies d’assurance ne peuvent pas refuser une couverture aux personnes malades uniquement sur la base de ces prédictions, car l’IA ne prend pas en compte l’image complète de l’état d’un patient.
Les documents CMS surviennent après que des patients ont porté plainte contre UnitedHealth et Humana, deux compagnies d’assurance qui ont utilisé un outil d’IA connu sous le nom de nH Predict. Les poursuites indiquent que les entreprises ont refusé à tort la couverture des soins de santé aux patients dans le cadre des plans MA, faisant des prédictions incorrectes sur leurs périodes de réadaptation.
Les estimations fournies par nH Predict ne sont pas fiables, selon les poursuites, et elles sont beaucoup plus restrictives que les plans officiels de MA. Par exemple, si un plan était conçu pour couvrir jusqu’à 100 jours dans une maison de retraite après une intervention chirurgicale, UnitedHealth aurait utilisé le jugement artificiel de nH Predict pour limiter la couverture à seulement 14 jours avant de refuser une couverture supplémentaire.
CMS affirme désormais que des outils comme nH Predict ne suffisent pas à refuser l’assurance aux patients atteints d’AM. L’algorithme a apparemment été formé sur une base de données de 6 millions de patients, il a donc une connaissance limitée des problèmes de santé potentiels ou des besoins en matière de soins de santé. L’agence américaine déclare que les assureurs MA doivent fonder leur décision sur les « circonstances individuelles du patient », qui comprennent les antécédents médicaux, les recommandations du médecin et les notes cliniques.
Les algorithmes d’IA peuvent être utilisés pour faire des prédictions et « aider » les assureurs, déclare le CMS, mais ils ne peuvent pas être utilisés de manière abusive pour mettre fin aux services de soins post-aigus. L’état d’un patient doit être soigneusement réévalué avant de mettre fin à la couverture, affirme l’agence, et les assureurs sont tenus de fournir une explication « spécifique et détaillée » sur les raisons pour lesquelles ils ne fournissent plus le service.
Selon les poursuites intentées contre UnitedHealth et Humana, les patients n’ont jamais reçu les raisons de leur refus de soins de santé décidé par l’IA. Le CMS fournit également une explication précise, quoique large, de ce qui constitue une intelligence artificielle et des prédictions basées sur des algorithmes afin de garantir que les compagnies d’assurance comprennent clairement leurs obligations légales. L’agence ajoute que les entreprises non conformes pourraient recevoir des lettres d’avertissement, des plans correctifs, voire des pénalités et sanctions pécuniaires.