L'intelligence artificielle permet de créer des contenus audio, vidéo et visuels convaincants, qui s'étendent au-delà des plateformes sociales pour s'infiltrer dans les systèmes cliniques, la télémédecine et la communication avec les patients.
Quand les médias synthétiques s’immiscent dans les outils diagnostics et les actions de formation
Un article publié sur la plateforme « Healthcare IT To-day » nous alerte sur le fait que ces manipulations ne reposent pas sur un code malveillant mais exploitent la confiance humaine dans les parcours de soins, entrainant des implications opérationnelles considérables, allant de l'intégrité des outils de diagnostic à l'authenticité de l'identité des cliniciens ou aux messages de santé publique. Le domaine de la santé est donc une cible et les contrôles de sécurité doivent désormais vérifier ce que les personnes voient et entendent pendant les soins, en plus de la surveillance des réseaux et des appareils en arrière-plan.
L'impact des médias synthétiques s'étend au diagnostic, à l'accès aux soins et à la confiance du public. Les possibilités sont nombreuses, de l’image médicale falsifiée pouvant induire en erreur les décisions cliniques à la voix d’un clinicien clonée utilisée pour accéder à des systèmes sensibles ou pour obtenir la divulgation d'informations confidentielles en passant par une vidéo truquée d'un responsable de la santé publique.
Des réseaux antagonistes génératifs intégrés aux outils d’IA d’aide au diagnostic
Ces fausses informations, rappelle l’article, peuvent circuler rapidement et se propager à grande échelle et même les personnels de santé formés sont susceptibles de se faire piéger. Dans ce cadre, avec la numérisation des soins de santé, la tromperie se manifestera par des voix de synthèse réalistes, des examens manipulés et de fausses téléconsultations. On comprend très vite les implications de telles actions. Ainsi, un scanner falsifié pourrait entraîner des interventions inutiles ou la voix d'un médecin clonée, enregistrée lors d'un webinaire ou d'une conférence de presse, peut donner des ordres frauduleux en milieu clinique.
Des recherches récentes ont montré que les réseaux antagonistes génératifs (GAN) peuvent insérer ou supprimer des indicateurs de maladie dans les images tomodensitométriques (TDM), trompant ainsi les radiologues et les outils d’aide au diagnostic par IA. Ils peuvent également enrichir les systèmes d'entraînement de l'IA, ouvrant simultanément la voie à la fraude et aux détournements de moyens.
Mettre en place une vérification en temps réel intégrée au flux de travail
Dès lors, quels sont les moyens à mettre en œuvre face aux médias synthétiques? La détection et la réponse aux menaces d'identité (ITDR), la protection des terminaux et l'authentification multifacteurs (MFA) permettent de lutter contre les logiciels malveillants, l'usurpation d'identité et la compromission d'appareils. Mais ces outils ne sont pas conçus pour détecter un visage falsifié lors d'une consultation de télémédecine ni un fichier TDM altéré stocké dans un PACS.
La recherche en matière de détection, expliquent les auteurs de l’article, progresse rapidement, malgré l'ampleur du défi. Au-delà du filtrage algorithmique, la provenance cryptographique, le tatouage numérique et la signature des dossiers médicaux par blockchain gagnent du terrain pour garantir l'intégrité des données cliniques. Mais pour être efficace, la vérification doit être effectuée en temps réel et intégrée aux flux de travail cliniques, et non après le signalement d'un incident. Il est donc nécessaire d’intégrer la détection des deepfakes aux systèmes de santé afin d’identifier les scénarios où un examen, une prescription enregistrée ou une consultation en direct est frauduleux, avec des étapes claires de confinement, de vérification secondaire et de communication.
Revoir la formation des professionnels de santé et faire collaborer les établissements pour plus d’efficacité
La formation du personnel doit évoluer d'une sensibilisation générale vers des protocoles de vérification structurés pour les demandes inattendues, y compris celles qui semblent provenir de collègues de confiance, même si les cadres réglementaires n'ont pas encore intégré les risques liés aux médias synthétiques. D’autre part, la collaboration entre hôpitaux, assureurs et organismes de réglementation est essentielle, car aucune entité ne peut à elle seule faire face à l'ensemble des menaces.
La tâche est immense pour les acteurs sanitaires pour répondre à ce risque. Intégrer la validation des médias dans les DPI, les PACS et la télémédecine, étendre la réponse aux incidents pour couvrir les scénarios de fraude et renforcer les protocoles de vérification constituent une voie pragmatique à suivre. L’enjeu est de taille car la confiance du public envers le système de santé est menacée.