Please enable JS

L’IA générative utilisée avec beaucoup de précaution par les hôpitaux et assureurs américains

Tic Pharma

L’IA classique a déjà bien intégré les outils de santé, dans le diagnostic, l’imagerie et « essentiellement l’aide aux décisions cliniques », a observé Lee Schwamm, directeur digital de Yale New Heaven Health, un réseau de cinq hôpitaux basé dans le Connecticut et affilié à l’école de médecine de Yale.

En revanche, l’IA générative, popularisée auprès du grand public par des outils comme ChatGPT, n’a pas encore révolutionné l’hôpital et le système de santé.

« Nous avons le bas de gamme, qui ressemble à des ‘bébés chatbots’ qui n’effectuent aucune tâche générative mais peuvent fournir des informations écrites, une automatisation des processus, des demandes d’indemnisation, des contrôles d’éligibilité en temps réel », a illustré le directeur.

Les opportunités sont pourtant réelles. L’IA générative pourrait ainsi pallier un cadre économique « de plus en plus contraint » pour l’hôpital, a mis en avant Sara Vaezy, directrice de la stratégie et du numérique au sein du réseau hospitalier Providence, qui emploie 117.000 soignants dans 51 hôpitaux et 1.085 cliniques de l’Ouest américain, accueillant près de 5 millions de patients par an.

Réduire la charge de travail des soignants, personnaliser le soin, prendre en compte des données plus larges et importantes pour la santé, comme les informations sur la « communauté » à laquelle appartient le patient et ses habitudes de vie, ont également été cités parmi les progrès que pourrait apporter la « gen AI », lors des différentes conférences sur le sujet au CES.

Traitements de message et mises en relation avec des professionnels

De premiers cas d’usage de cette technologie voient le jour dans les hôpitaux.

Providence a noué en novembre 2023 un partenariat avec Microsoft afin de traiter grâce à l’IA générative les millions de messages électroniques envoyés par les patients aux soignants, dont le nombre a explosé depuis la pandémie de Covid-19.

Selon Sara Vaezy, 40% à 60% de ces messages peuvent être traités sans intervention humaine et le temps de traitement a été réduit de 30%, pour atteindre 3 minutes en moyenne, avec une précision de réponse de 98%, contre 40% auparavant.

Lee Schwamm de Yale New Heaven Health, qui teste également ce système, estime que sur 700.000 messages reçus, 10.000 nécessitent une réponse sophistiquée. « A chaque fois que vous utilisez un modèle de langage, vous payez », a-t-il rappelé, soulignant qu’il reste à trouver un modèle économique à une utilisation à grande échelle de ces chatbots avancés.

L’entraînement de ces outils nécessite en outre de dévoiler des données de santé, qui sont protégées. Ils doivent donc reposer sur des systèmes internes et non grand public.

Le réseau Yale New Heaven Health travaille par ailleurs sur un outil de recommandation de professionnels de santé, en qualifiant du mieux possible la demande du patient, grâce à des questions sur son identité, ses symptômes et son historique de santé.

Un autre « cas d’usage » est l' »ambient listening », soit la possibilité de faire écouter une consultation par une IA, capable de traduire la conversation afin d’en faire une synthèse à destination du soignant et du patient et de soumettre une proposition de prescription à son issue.

« Nous l’utilisons et constatons des gains d’efficacité, qu’il s’agisse d’automatisation de flux du travail, de satisfaction du patient ou de gain de temps pour le soignant », a témoigné Sara Vaezy de Providence.

Coût, structuration des données et « hallucinations »

Malgré ces démonstrations, l’un des principaux enjeux est désormais de « faire le tri » entre les différents cas d’usage qui pourraient être mis en place.

« Nous devons trouver comment les hiérarchiser et gérer le coût de leur réalisation, et nous n’avons pas mis en place ce genre de système. Aucun réseau de santé ne l’a fait aujourd’hui », a observé Sara Vaezy.

Providence travaille sur quatre démonstrations de cas d’usage, en partenariat avec Microsoft, principalement dans le domaine de l’automatisation des tâches et de l’amélioration de l’autonomie des patients dans leur accès aux informations, a-t-elle dévoilé.

« Il reste encore beaucoup à faire pour garantir que nous utilisons les outils à notre disposition de manière appropriée et nous recherchons des cas d’utilisation spécifiques plutôt que de tester différents modèles de langage », a-t-elle expliqué.

Le problème de la structuration des données a également été abordé. Il s’agit même du « problème numéro 1 » à l’utilisation de l’IA générative en santé, d’après David Rhew, directeur médical de Microsoft, selon qui 80% des données de santé ne sont pas structurées.

Le dirigeant a également alerté sur les problèmes liés aux « hallucinations », ou affabulations, « inhérents » à l’IA générative, soit leur capacité de produire des informations qui apparaissent véridiques mais qui sont en réalité fausses, voire inventées.

« Il existe des moyens de mitiger ce risque » mais il s’agit d’une « limite » qu’il faut prendre en compte, même si « cela ne veut pas dire que nous ne devons pas utiliser » cette technologie, a-t-il estimé.

Gagner la confiance avant d’aller plus loin

Si l’IA générative progresse à toute vitesse, un consensus semble émerger sur le fait de ne pas aller trop vite pour l’adopter dans la santé.

Au sein de l’assureur Elevance Health, qui compte 170 millions de clients aux Etats-Unis, la « gen AI » est en cours d’adoption, notamment pour simplifier la compréhension des « milliers de pages de polices d’assurance » par les soignants.

Elle représente une « énorme opportunité de répondre aux questions de santé d’une façon très personnelle » mais, « aussi encourageante et excitante que soit cette technologie », elle se développera dans ce domaine « au rythme de la confiance », a estimé la PDG Gail Boudreaux lors d’une keynote.

« Sur le court terme, nous surestimons probablement l’impact de l’IA générative, et sur le long terme, nous la sous-estimons », a-t-elle lancé.

Si les premiers cas d’usage devraient avancer rapidement, « cela ira plus lentement dans le domaine clinique, car nous devons être très prudents », a-t-elle averti.

« La santé est personnelle et nous devons être incroyablement juste dans notre façon d’appliquer l’IA, d’adopter des modèles responsables et de certifier des principes tels que la transparence, la sécurité des données et l’évaluation de ces modèles », a jugé la dirigeante.

Dans les soins, cela nécessite que les décisions cliniques soient toujours prises par un humain, « jamais par une IA », a-t-elle affirmé.

Les sociétés doivent également gagner cette confiance auprès de leurs salariés, en leur donnant l’accès à ces outils, a-t-elle défendu.

Biais de l’IA à surveiller

La question de l’équité d’accès est par ailleurs clé.

L’assureur Elevance Health a annoncé lors du CES un partenariat avec Samsung et trois opérateurs télécom afin d’équiper de smartphones certains bénéficiaires du programme de couverture fédéral Medicaid afin de combler les inégalités d’accès aux « soins virtuels ».

Cet enjeu d’équité sera par ailleurs au cœur des missions du nouveau comité spécialisé dans la santé digitale de la Food and Drug Administration (FDA), dont la création a été annoncée en octobre 2023, a fait savoir le commissaire de l’agence, Robert Califf, lors d’une session de questions-réponses organisée dans le cadre du CES.

Ce comité sera composé de neuf membres venus de « différents horizons » et devra aider l’agence à explorer les enjeux « complexes scientifiques et techniques » relatifs aux technologies numérique en santé, tels quels l’IA et le machine learning, la réalité augmentée, la réalité virtuelle, les objets connectés, la télésurveillance et les logiciels.

Selon Robert Califf, il donnera des avis sur « des domaines » et non sur des produits spécifiques et aura pour fonction principale de conseiller l’agence sur les « biais liés aux algorithmes d’IA », qui doivent « faire partie de l’évaluation standard de n’importe quel algorithme appliqué à la santé ».

Le commissaire, passé par Alphabet (maison mère de Google) après avoir dirigé une première fois la FDA sous Barack Obama, a notamment cité les biais liés au genre, au sexe, à l’origine ethnique ainsi que ceux affectant les personnes habitant en zone rurale, éloignées des soins et des outils numériques.

« Nous avons un système de soins structurellement construit pour avantager les personnes qui ont de l’argent et du pouvoir », qui seront toujours « les premiers à bénéficier » des avancées en santé, a-t-il reconnu.

« Un algorithme d’IA ne sera jamais plus efficace que le système dans lequel il est déployé », a-t-il ajouté.

Dans cette perspective, il a défendu une « évaluation en continu » des dispositifs médicaux embarquant de l’IA, y compris après leur mise sur le marché.

« Je suis à 100% convaincu que si vous mettez un algorithme dans un environnement de santé et que vous le laissez agir, il va s’empirer », a-t-il alerté.

Pour le « rendre meilleur », il faut récolter les retours des populations à qui il s’adresse et, pour cela, « intégrer les entités communautaires à l’évaluation », a-t-il plaidé.

L’une des « plus grandes opportunités qu’offre l’IA » est de mieux prendre en compte ces biais, qui empêchent le système d’être plus efficient et font des Etats-Unis l’un des pays où l’espérance de vie est la plus basse parmi les pays les plus riches, a-t-il souligné.

Categories

NewsNon classé