Skip to main content

19 Nov, 2023

Le plus grand assureur en santé des Etats-Unis refuse des soins en vertu d’informations erronées dans 90 % des cas fournies par une IA, selon un procès

Le plus grand assureur en santé des Etats-Unis refuse des soins en vertu d’informations erronées dans 90 % des cas fournies par une IA, selon un procès

Une utilisation abusive de la technologie.

UnitedHealthcare, le plus grand fournisseur d’assurance maladie des États-Unis, utilise un algorithme d’IA baptisé nH Predict dont les prédictions extrêmement inexactes sont utilisées pour refuser la couverture médicale à des patients gravement malades en réduisant le temps qu’ils peuvent passer en soins prolongés, selon un nouveau procès.

La plainte, déposée cette semaine devant le tribunal de district du Minnesota, a été déposée par la succession de deux personnes décédées à qui UnitedHealth avait refusé la couverture. Les plaignants affirment que la compagnie d’assurance maladie aurait dû savoir à quel point son IA était inexacte et que le prestataire a rompu son contrat en l’utilisant.

Leurs griefs sont corroborés par une enquête de Stat News sur les pratiques internes de UnitedHealth au sein de sa filiale NaviHealth, qui a révélé que l’entreprise forçait ses employés à adhérer indéfectiblement aux projections douteuses de l’algorithme d’IA sur la durée pendant laquelle les patients pouvaient rester en soins prolongés.

Au moins, il y a eu une lueur d’espoir dans la salle du conseil d’administration : l’IA économe aurait permis à l’entreprise d’économiser des centaines de millions de dollars qu’elle aurait été obligée de dépenser pour les soins des patients autrement, selon Stat.

Bien que les allégations de santé fassent rarement l’objet d’un recours, lorsqu’elles le sont, environ 90 % d’entre elles sont annulées, selon le procès. Cela suggère que l’IA est extrêmement inexacte et qu’en lui accordant une confiance excessive, UnitedHealth escroque d’innombrables patients vulnérables en les privant de leurs soins de santé.

« Si UnitedHealth utilise les algorithmes [de NaviHealth] comme une parole d’évangile, il ne s’agit pas d’une prise de décision clinique », a déclaré Spencer Perlman, analyste des marchés de la santé, à Stat. « Il s’agit d’agréger des données et d’utiliser un algorithme pour prendre une décision qui n’a rien à voir avec l’individu lui-même.

UnitedHealth a répliqué dans une déclaration à Stat.

« Les affirmations selon lesquelles NaviHealth utilise ou incite ses employés à utiliser un outil pour refuser des soins sont fausses », peut-on lire. « Les décisions de couverture défavorables sont prises par les directeurs médicaux et basées sur les critères de couverture de Medicare, et non sur un outil ou un objectif de performance lié à une seule mesure de qualité. »

Des documents et des témoignages d’employés semblent toutefois corroborer les décisions douteuses prises par l’IA de UnitedHealth.

Dans un cas, le système nH Predict n’a alloué que 20 jours de rééducation à une femme âgée qui s’était retrouvée paralysée à la suite d’un accident vasculaire cérébral, soit à peine la moitié de la moyenne pour les patients atteints d’un accident vasculaire cérébral avec facultés affaiblies, d’après Stat. Un homme âgé, légalement aveugle, dont le cœur et les reins sont défaillants, n’a bénéficié que de 16 jours de convalescence, ce qui est scandaleusement insuffisant.

Pourquoi nH Predict se trompe-t-il à ce point ? L’entreprise fonde ses projections sur la durée des séjours de quelque six millions de patients précédents figurant dans sa base de données. À première vue, cela peut sembler judicieux, mais cela signifie que l’IA hérite des erreurs et des réductions de coûts de ces décisions antérieures – et surtout, qu’elle ne tient pas compte des facteurs d’urgence à la fois cliniques et pratiques.

« La durée du séjour n’est pas une variable biologique », a déclaré à Stat Ziad Obermeyer, médecin à l’université de Californie à Berkeley et chercheur sur les biais algorithmiques.

« Les gens sont forcés de quitter la maison de retraite parce qu’ils ne peuvent pas payer ou parce que leur assurance est nulle », a-t-il ajouté. « L’algorithme apprend donc toutes les inégalités de notre système actuel.

Pourtant, UnitedHealth n’a fait que rendre ses normes plus extrêmes. En 2022, les gestionnaires de cas ont reçu pour instruction de limiter les séjours en maison de retraite à 3 % de la projection de l’IA.

L’année suivante, cet écart a été ramené à moins d’un pour cent, ce qui n’a laissé aucune marge de manœuvre aux employés. Si les gestionnaires de cas n’atteignaient pas cet objectif, ils étaient sanctionnés ou licenciés, selon Stat.

« À la fin de mon séjour à NaviHealth, j’ai compris que je n’étais pas une avocate, mais juste une personne qui gagne de l’argent pour cette entreprise », a déclaré à Stat Amber Lynch, une ancienne gestionnaire de cas de NaviHealth qui a été licenciée au début de l’année. « C’est une question d’argent et de données », a-t-elle ajouté. « Cela enlève toute dignité au patient, et j’ai détesté cela.« 

Tout compte fait, il s’agit d’un sombre exemple de la manière dont l’apparente objectivité de l’IA peut être utilisée pour dissimuler des pratiques douteuses et exploiter les personnes les plus vulnérables.

https://cdn.arstechnica.net/wp-content/uploads/2023/11/class-action-v-unitedhealth-and-navihealth-1.pdf

https://www.statnews.com/2023/11/14/unitedhealth-algorithm-medicare-advantage-investigation/