Une nouvelle étude a révélé que les programmes d’intelligence artificielle qui vérifient les images médicales à la recherche de signes de cancer peuvent être trompés par le piratage et les cyberattaques.

Les chercheurs ont montré que le programme informatique pouvait ajouter ou supprimer des preuves de cancer de l’imagerie par rayons X. Ces changements ont trompé à la fois l’outil d’IA et les radiologues humains.

Cela conduit à un diagnostic erroné. Un programme d’IA qui aide à dépister les mammographies peut dire que l’analyse est saine lorsqu’il y a des signes de cancer, ou à tort dire qu’une patiente a un cancer alors qu’elle n’a pas de cancer.

De telles pénétrations ne sont pas encore connues pour se produire dans le monde réel. Mais la nouvelle étude s’ajoute à un nombre croissant de recherches qui suggèrent que les organisations de soins de santé doivent s’y préparer.

Les hôpitaux et les établissements de santé sont de plus en plus ciblés par les pirates informatiques avec des cyberattaques. Dans la plupart des cas, ces attaques volent les données des patients ou arrêtent les systèmes informatiques de l’organisation jusqu’à ce que l’organisation paie une rançon.

Ces deux types d’attaques peuvent nuire aux patients en altérant les opérations hospitalières et en rendant difficile pour les travailleurs de la santé de fournir des soins de qualité.

Mais les experts sont également de plus en plus préoccupés par le potentiel d’attaques plus directes contre la santé des personnes.

Des chercheurs en sécurité ont montré que les pirates peuvent s’introduire à distance dans les pompes à insuline connectées à Internet et délivrer des doses dangereuses de médicaments, par exemple.

Lire aussi : Microsoft essaie de vous empêcher de télécharger Google Chrome

Les hacks qui peuvent altérer les images médicales et affecter le diagnostic entrent également dans cette catégorie.

Une équipe de recherche de l’Université de Pittsburgh a conçu un programme informatique qui ferait apparaître des radiographies sans signes de cancer comme cancéreuses. Il peut également faire des radiographies qui semblent être cancéreuses et ne montrent aucun signe de cancer.

Ils ont soumis les images manipulées à un programme d’intelligence artificielle formé à la détection des signes de cancer du sein. Ils ont demandé à cinq radiologues de décider si les images étaient réelles ou fausses.

L’intelligence artificielle peut être trompée par des photos piratées

Environ 70 pour cent des images manipulées ont pu tromper ce programme. C’est-à-dire que l’IA a dit à tort que les images qui avaient été manipulées pour apparaître sans cancer étaient sans cancer. Il a également déclaré que les photos manipulées pour donner l’impression qu’elle avait un cancer présentaient des signes de cancer.

Lire aussi : La Chine intensifie la surveillance de la publicité en ligne

Quant aux radiologues, certains étaient meilleurs que d’autres pour détecter les images manipulées. La précision dans la sélection de fausses photos variait entre 29 % et 71 %.

D’autres études ont également montré qu’une cyberattaque sur des images médicales peut conduire à des diagnostics erronés. Et une équipe de chercheurs en cybersécurité a montré en 2019 que les pirates peuvent ajouter ou supprimer des preuves de cancer du poumon à partir d’un scanner. Ces changements ont également trompé à la fois les radiologues humains et les logiciels d’intelligence artificielle.

Il n’y a pas eu de cas généraux ou notables d’une telle violation. Mais il y a quelques raisons pour lesquelles un pirate pourrait vouloir altérer des choses comme les rayons X ou les scanners du cancer du poumon.

Le pirate peut être intéressé à cibler un patient spécifique, comme une personnalité politique. Ou il peut vouloir changer ses chèques pour être payé par la compagnie d’assurance.

Lire aussi : Microsoft a saisi 42 sites Web piratés

Les pirates informatiques peuvent également manipuler des images au hasard et refuser d’arrêter de les falsifier jusqu’à ce que l’hôpital paie une rançon.

Des études comme celle-ci montrent que les organisations de santé et les personnes qui conçoivent des modèles d’IA doivent être conscientes qu’un piratage qui modifie les analyses médicales est une possibilité.

L’auteur de l’étude a déclaré que les modèles manipulés devraient être montrés pendant leur formation pour leur apprendre à repérer les fausses images. Les radiologues peuvent également avoir besoin d’être formés à l’identification de fausses images.

Related Articles
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *