Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
En matière de santé, les techniques d’intelligence artificielle sont souvent citées positivement, avec des espoirs pour l’assistance au diagnostic par la lecture d’images, la prédiction des risques ou l’accélération de la découverte de candidats-médicaments. Mais à court terme, c’est plutôt un danger sur lequel alerte une « Lettre aux éditeurs » du journal Diagnostic and Interventional Imaging, parue le 5 octobre.
Un peu par hasard, l’un des auteurs, Augustin Lecler, professeur à l’université Paris-Cité et radiologue à l’hôpital Fondation Adolphe de Rothschild, a découvert qu’il était possible de modifier des IRM cérébrales avec un smartphone dernier cri, Samsung – à partir de S23 –, iPhone – au-delà du 16 –, ou Pixels de Google – supérieur à 8. Dans son bureau, joignant le geste à la parole, il photographie à la volée une IRM sur son écran. Sur son smartphone qui affiche cette photo, il entoure de son doigt une tumeur et la fait disparaître dans un joli feu d’artifice.
Puis, à l’inverse, ayant gardé en mémoire cette « tache » tumorale, il la colle sur l’IRM d’un patient sain en quelques secondes. « La première fois, j’avais fait ça rapidement et déjà, j’étais bluffé. Puis, j’ai extrait des IRM de notre système d’information, en les mettant sur mon téléphone et en les reconvertissant au bon format », résume Augustin Lecler, qui est aussi à l’origine de l’un des premiers articles scientifiques écrit par ChatGPT, en février 2023. Celui-ci était consacré aux bénéfices et aux limites à utiliser… ChatGPT en radiologie.
Dans sa brève lettre, le spécialiste montre quatre exemples d’images trafiquées, y compris pour des métastases plus petites qu’un doigt. « La manipulation d’images en médecine n’est pas récente. Dans les années 1970, des médecins avaient retouché des clichés pour inventer des pathologies », rappelle Augustin Lecler. Les logiciels pré-IA, Gimp ou Photoshop, permettent aussi de détourer, enlever, ajouter des bouts d’images. Mais là, « tout le monde peut créer de faux clichés de radiologie, sans aucune expertise technique, en utilisant les smartphones modernes [et] en ayant recours à de l’intelligence artificielle générative », écrivent les auteurs dans l’article. Les « filigranes », parfois ajoutés pour indiquer que l’image est fausse, ne sont pas une sécurité infaillible.
Mais pour quoi faire ? Le radiologue ne veut pas donner de mauvaises idées, mais, forcément, on songe à enjoliver des articles scientifiques, voire des essais cliniques, avec des images trafiquées. Ou bien à modifier des dossiers médicaux pour cacher une pathologie, pour un dossier de crédit, ou pour exagérer l’effet d’un accident (pour un procès), même si cela suppose aussi une complicité du corps médical. S’attaquer à l’intégrité des données de l’hôpital peut aussi être envisagé.
Il vous reste 22.73% de cet article à lire. La suite est réservée aux abonnés.