5 points à retenir d'une discussion sur l'IA générative et l'amélioration de la qualité
Pourquoi c'est important
« À terme, l’IA sera probablement largement utilisée dans le domaine de la santé. Les implications sont nombreuses. Les préparatifs peuvent commencer dès maintenant. »
Récemment, plus de 300 participants ont suivi un webinaire d’une heure organisé par Institute for Healthcare Improvement (IHI) sur l’utilisation de l’IA générative pour l’amélioration de la qualité. Bien que nous ayons répondu à des questions, nous avons principalement adopté une approche « tout enseigner, tout apprendre » pour discuter de la manière dont les outils d’IA générative peuvent être appliqués dans un contexte d’amélioration de la qualité et avons appris ce qui enthousiasme et inquiète les participants au sujet de la gamme actuelle d’outils disponibles.
Notre conversation a fait ressortir les besoins en matière de formation continue, d’élaboration de politiques et de réflexion approfondie sur les impacts éthiques, sur la vie privée et sur l’environnement à mesure que l’IA s’intègre davantage dans la pratique des soins de santé.
Nous résumons ici ce que nous avons retenu de la session.
- L’IA générative n’est pas encore largement utilisée, mais son adoption est en cours . Nous avons interrogé les participants et constaté que la plupart (65 %) n'utilisent pas l'IA dans le cadre d'un travail de qualité. Ceux qui l'utilisent l'utilisent pour réfléchir à des changements (25 %), analyser des problèmes (16 %) et élaborer des solutions telles que des travaux standard (16 %). De nombreux participants ont participé activement au chat et ont partagé les types de cas d'utilisation suivants :
Gestion des données — Les cas décrits impliquaient l’utilisation de l’IA pour la manipulation et la synthèse des données afin de simplifier des tâches complexes ou chronophages.
Dossiers cliniques — Un projet pilote utilisant l’IA générative pour la tenue de dossiers dans les soins primaires a démontré son potentiel d’automatisation de la documentation.
Rédaction et recherche médicales — Les participants ont souligné que les problèmes d’exactitude largement documentés nécessitent une certaine prudence. Toute personne utilisant l’IA à des fins de recherche ne doit pas utiliser ou citer des informations générées par l’IA sans vérifier les sources.
Traduction — Les participants ont partagé des expériences mitigées concernant l’utilisation de l’IA pour traduire des informations entre les langues, soulignant son utilité mais aussi la nécessité d’un examen attentif par un humain ayant une expertise dans les langues concernées, en particulier lorsque des termes techniques sont impliqués.
Création de contenu — Les participants ont utilisé l’IA générative pour les aider à préparer des présentations, des tables rondes et à élaborer des propositions, illustrant ainsi comment l’IA peut remplir une fonction créative et être un partenaire de brainstorming efficace.
Pronostic et analyse prédictive — Ce cas d’utilisation concerne l’IA au sens large (plutôt que l’IA générative en particulier), et au moins un participant utilisait déjà l’IA pour un projet de prédiction de la septicémie. - Les limites et les dangers des outils d'IA existants limitent la volonté de les utiliser . Les participants ont souligné des défis de taille, tels que garantir l'exactitude du contenu généré par l'IA (par exemple, identifier les hallucinations et vérifier les références étant donné la propension de l'IA à générer des références réalistes mais fictives), promouvoir la transparence concernant les limites de l'IA et lutter contre les biais.
Les participants ont soulevé la question des informations obsolètes. Par exemple, la version gratuite de ChatGPT (GPT-3.5) ne comprend que les données disponibles jusqu'en janvier 2022. Une solution possible pour résoudre le problème des informations obsolètes que les outils d'IA peuvent fournir consiste à demander des références vérifiables pour évaluer les résultats.
La transparence et la confiance sont essentielles pour l'utilisation continue des outils d'IA. Si les professionnels de la santé ne font pas confiance aux résultats, ils n'utiliseront pas les outils. Une meilleure compréhension des algorithmes et de la manière dont ils génèrent leurs réponses pourrait aider à répondre aux préoccupations des utilisateurs. Un participant a demandé si les entreprises d'IA reconnaissaient la probabilité de résultats inexacts. Notamment, OpenAI a ajouté une clause de non-responsabilité à l'interface ChatGPT signalant la possibilité d'inexactitude.
Les participants ont également exprimé leur inquiétude quant aux biais présents dans les algorithmes d’IA , qui conduisent à des décisions cliniques qui ne sont pas conformes aux meilleures pratiques de soins fondées sur des données probantes. Ces actions peuvent être néfastes et inéquitables. Certaines entreprises intègrent des précautions telles que l’apprentissage par renforcement avec rétroaction humaine dans leurs outils, mais les utilisateurs doivent être conscients qu’elles ne sont pas infaillibles. - L’adoption croissante de l’IA générative a suscité toute une série de préoccupations . Un participant a exprimé son appréhension à l’idée que les utilisateurs deviennent trop dépendants des plateformes d’IA. Trois contributeurs ont discuté des implications pour la confidentialité, notamment le traitement des données sensibles et le respect des réglementations telles que la loi HIPAA aux États-Unis. (Il convient de noter qu’au moment de la rédaction de cet article, les outils d’IA commerciaux ne sont pas conformes à la loi HIPAA , de sorte qu’aucune information médicale protégée ne doit être saisie lors de leur utilisation.) Un participant a comparé l’empreinte environnementale de l’IA à l’ impact de l’exploitation minière de Bitcoin . La question de l’accès Cette question a été soulevée alors que nous discutions de la question de savoir si les outils adaptés aux débutants démocratiseraient l’amélioration de la qualité en rendant les outils et les ressources plus largement disponibles ou s’ils exacerberaient les écarts entre les milieux à ressources élevées et faibles.
- Il y a lieu d’être optimiste, mais aussi de s’inquiéter profondément . D’autres cas d’utilisation et politiques ont abordé le sujet de l’intégration de l’IA dans les systèmes de soins de santé (par exemple, les systèmes de triage de l’IA). Le potentiel de coproduction de l’IA avec les communautés mal desservies a été évoqué et a soulevé la possibilité de promouvoir les meilleures pratiques d’amélioration de la qualité et la co-conception équitable en contrepoint à la discussion sur les biais algorithmiques.
- L'IA finira probablement par être largement utilisée dans les soins de santé. De nombreuses implications doivent être prises en compte. La préparation peut commencer dès maintenant. Compte tenu de l'adoption rapide de l'IA dans la communauté de l'amélioration de la qualité, les contributeurs ont souligné la nécessité de former les étudiants et les professionnels à utiliser l'IA de manière efficace et sûre. Nous avons discuté d'une série de questions à prendre en compte maintenant et dans un avenir proche pour s'engager de manière responsable avec l'IA.
Les grandes organisations disposant d’importants volumes de propriété intellectuelle et souhaitant utiliser l’IA générative devraient commencer dès maintenant (si elles ne l’ont pas déjà fait) à créer des politiques concernant l’utilisation organisationnelle responsable et le risque de sacrifier leurs informations exclusives lors de leur envoi dans le domaine public.
Le fait de ne pas utiliser l’IA dans le domaine de la santé sera-t-il un jour considéré comme une négligence ? Compte tenu de son impact croissant et de son potentiel à produire des prévisions et des diagnostics extrêmement précis, il s’agit là d’une autre possibilité qui mérite d’être étudiée.
Ressources pour en savoir plus
Compte tenu du rythme rapide des changements et de la richesse des nouvelles informations mises en ligne presque quotidiennement, il est utile de savoir comment rester au courant des évolutions de l’IA. La discussion a fait émerger trois podcasts à prendre en compte : Everyday AI , The AI Breakdown et Perspectives . En outre, les animateurs ont conseillé aux participants de se renseigner sur les cours en ligne ouverts et massifs (MOOC) gratuits qui enseignent des compétences telles que l’ingénierie rapide et fournissent des informations de base aux non-informaticiens sur le fonctionnement de ces nouveaux outils.
Gareth S. Kantor, MD, est consultant clinique chez Insight Actuaries & Consultants. Marina Renton, MPhil, est associée de recherche en innovation et conception à IHI . Jeffrey Rakover, MPP, est directeur de l'innovation et de la conception à IHI . Pierre M. Barker, MD, MBChB, est directeur scientifique de l'IHI à Institute for Healthcare Improvement.
Vous pourriez également être intéressé par :
Vous pouvez toujours vous inscrire pour écouter l'enregistrement du webinaire sur l'IA pour l'amélioration de la qualité .
Discours d'ouverture du IHI Forum 2023 — Peter Lee, Ph. D., vice-président de la recherche et des incubations chez Microsoft
La génération actuelle d’outils d’IA : trois considérations pour les responsables de la qualité