Cet article fait référence à un rapport* élaboré par Vizient & Kaufman Hall qui essaie de balayer l’ensemble des activités sanitaires qui pourraient être concernées par l’IA en 2025. Les premières d’entre elles ont pour objectif les améliorations opérationnelles, qui se concentrent sur les domaines où la technologie peut renforcer l’efficacité sans compromettre la qualité des soins.
Des applications qui permettent d’anticiper les moyens humains et matériels à mobiliser pour assurer une prise en charge de qualité
Il s’agit ici d’automatiser les tâches administratives et d’optimiser l’allocation des ressources, notamment en identifiant automatiquement les erreurs de codage ou en améliorant les systèmes de planification pour le personnel et les patients. Les outils d’IA prédictifs modélisent des données historiques et élaborent des algorithmes qui permettent d’anticiper, souvent avec une grande précision, les volumes de patients susceptibles de remplir un établissement, et, par là-même, de prévoir les besoins en personnel, en matériel et d'affiner les processus budgétaires.
Les responsables hospitaliers peuvent ainsi prendre des décisions plus éclairées sur l’allocation des ressources, réduisant ainsi le gaspillage et améliorant la prestation de services. Et pour les directeurs financiers, ces applications pratiques de l’IA offrent un retour sur investissement immédiat et renforcent la confiance dans le potentiel de la technologie. Le rapport met en exergue ici leur capacité à identifier d’abord les défis commerciaux, à déterminer comment l’IA peut les résoudre, et adopter une approche axée sur les résultats.
Des implications éthiques et de sécurité pour les solutions cliniques
On identifie dès lors assez précisément les apports de ces applications opérationnelles de l’IA, en termes d’organisation, de gouvernance et de gestion matérielle et humaine. Mais les hôpitaux se doivent de rester prudents quant aux cas d’utilisation clinique, en raison de la nature sensible des soins aux patients. Les implications éthiques et de sécurité complexes entourant les soins directs aux patients sont en effet très prégnantes et de nombreuses institutions sont quelquefois hésitantes à adopter pleinement l’IA dans la prise de décision clinique.
Ainsi, si des applications de stratification des risques, où l’IA sert de système d’alerte précoce pour des pathologies telles que la septicémie ou l’insuffisance cardiaque, gagnent du terrain en raison de leur faible risque et de leur potentiel élevé d’amélioration des résultats pour les patients, d’autres usages doivent faire l’objet de précautions, notamment éthiques.
Une composante humaine obligatoire pour la validation des outils de prise de décision clinique
L’IA est par exemple utilisée pour aider les cliniciens en résumant les commentaires relatifs aux patients et en facilitant les transmissions lors des changements d’équipe. L’outil nécessite alors une surveillance minutieuse pour garantir l’exactitude des informations traitées et éviter les conséquences imprévues. Une composante humaine, garantissant qu’un clinicien reste impliqué dans les processus de prise de décision, est dans ce cas indispensable pour valider les résultats obtenus avant une adoption généralisée.
Une gouvernance efficace sera en tout cas essentielle pour que les hôpitaux développent leur utilisation de l’IA en 2025, afin d’éviter les dérives de performances et/ou le risque d’« hallucinations de l’IA ». Les hôpitaux devront mettre en place des équipes multidisciplinaires pour superviser le développement et le déploiement des outils d’IA, englobant l’expertise de leurs composantes cliniques, techniques et éthiques.
Un équilibre à trouver entre innovation et surveillance, confiance et consentement
La formation et l’éducation seront également des éléments essentiels de la gouvernance de l’IA, à tous les niveaux, afin que chacun puisse interpréter de manière appropriée les informations générées par ces outils et les utiliser avec confiance. Et pour la confiance des patients envers les applications d’IA, un processus de communication et de consentement clairs doit être mis en place. Le rapport évoque en conclusion un équilibre entre l’innovation et la surveillance, pour optimiser les usages de l’IA et tirer pleinement parti des avantages de ces nouveaux outils tout en préservant le bien-être et la sécurité des patients.
*Pour en savoir plus : consulter le rapport
*Lire l'article original ICI