Appli au labo : où en est-on ?
Dans le secteur médical, un nombre grandissant d’applications pour smartphone apparaissent, dont une grande partie utilise l’intelligence artificielle. Plus particulièrement, elles font appel à des algorithmes de machine learning qui, une fois entraînés à interpréter des images ou des données annotées, permettent de faire des prédictions sur de nouvelles données. « Il existe de telles applications en bactériologie, en virologie, en parasitologie et en mycologie », liste Grégoire Pasquier, assistant hospitalo-universitaire au laboratoire de parasitologie-mycologie du CHU de Montpellier, lors de la Ricai 2022. Attention toutefois à ne pas se laisser aveugler par ces nouveautés technologiques ! Si l’on regarde les applications approuvées par la Food and Drugs Administration (FDA), elles concernent principalement la radiologie, la cardiologie, la cancérologie, l’ophtalmo- logie… mais aucune en microbiologie. « Les applications de biologie médicale sont rarement testées en pratique courante, ce qui est indispensable pour évaluer les services qu’elles peuvent rendre aux laboratoires, avertit Grégoire Pasquier. La plupart des publications scientifiques sur le sujet se contentent d’en développer en entraînant les algorithmes sur des jeux d’images disponibles sur Internet. » On est donc encore, bien souvent, loin de la mise en œuvre sur le terrain, car du codage sur ordinateur à l’utilisation du smartphone pour analyser automatiquement des images, le chemin est long.
Un parcours semé d’embûches
Tout d’abord, quatre étapes sont indispensables pour entraîner l’algorithme à reconnaître des photos. La première consiste à prendre les clichés et la seconde à les annoter. Dans un troisième temps, les images sont prétraitées pour rendre le jeu de données homogène. La dernière étape consiste à entraîner le modèle avec le jeu de données ainsi créé. « 80 % des photos servent à l’entraînement et 20 % à la validation du modèle, ce qui permet à l’algorithme de progresser », précise le biologiste. Pour évaluer les performances du test, il faut ensuite l’appliquer à un jeu de données différent, afin d’éviter les biais d’apprentissage, très fréquents, qui fausseraient les résultats, « notamment le biais du surapprentissage, c’est-à-dire quand l’algorithme apprend par cœur et n’arrive pas à généraliser sur de nouvelles images », indique-t-il. Il est ensuite nécessaire de développer un support pour rendre l’algorithme facilement utilisable en routine au laboratoire. Cela peut être une application smartphone, mais aussi, par exemple, un scanner de lame pour automatiser le processus. Finalement, il faut tester l’ensemble en laboratoire avant de l’implémenter si ses performances sont satisfaisantes, c’est-à-dire si son taux de prédictions correctes (Accuracy) est proche de celui d’un opérateur humain expérimenté. Par ailleurs, il ne suffit pas d’étudier les performances de l’algorithme, mais bien celles de l’algorithme utilisé par l’être humain, pour avoir la spécificité et la sensibilité du test en conditions réelles d’utilisation. « Ces points essentiels sont rappelés dans le Guide de bonnes pratiques pour le Machine Learning appliqué aux utilisations médicales1, édité récemment par la FDA », souligne Grégoire Pasquier.
Quelques applications tirent toutefois leur épingle du jeu et ont montré leur intérêt sur le terrain, en général dans les pays en voie de développement, qui n’ont souvent pas accès à des automates ni à des experts.
Des réussites sur le terrain
C’est le cas d’Antibiogo, développée par la fondation Médecins Sans Frontières, qui permet de déterminer le profil de résistance des bactéries responsables de l’infection des patients à partir d’une photo d’antibiogramme. En situation, les résultats montrent un très haut niveau de concordance, allant de 90 % à 98 % en fonction des bactéries, lorsqu’ils sont comparés à l’interprétation de microbiologistes qualifiés2.
Autre exemple de réussite : le loascope, composé d’un petit dispositif optique grossissant relié à un smartphone, qui a été testé au Cameroun. Dans ce pays, le loa loa est endémique et peut engendrer des accidents de lyse filarienne chez les patients traités par ivermectine et ayant des microfilarémies importantes. « Le sang capillaire est mis dans le boîtier, qui établit la microfilarémie », détaille le biologiste. Un code couleur indique sur le smartphone de l’opérateur si un traitement à l’ivermectine peut être proposé aux patients dans le cadre de programmes de traitement de masse en vue de l’élimination de l’oncho- cercose (maladie co-endémique de la loase causée par un ver rond), sans risque d’effets secondaires graves. Les résultats ont montré qu’il n’y avait pas d’effets indésirables sévères après utilisation de ce test pour sélectionner les patients éligibles à l’ivermectine3.
En dehors du vaste champ de la reconnaissance d’images, des applications peuvent-elles aider les biologistes ? « Il existe des applications pour interpréter des amplifications isothermes médiées par les boucles (LAMP), d’autres qui intègrent des données image et des données patient, mais elles ne sont pas encore au point, constate Grégoire Pasquier. Bien que compliquées à développer, des applications intégratives sont ce vers quoi il faudrait tendre. »
Des applis pour le diagnostic du paludisme ?
Une étude a comparé sur le terrain cinq applications mobiles destinées à la lecture de tests de diagnostic rapide du paludisme de six fabricants différents. Elles ont une moins bonne sensibilité que les opérateurs, tout particulièrement lorsque la parasitémie devient faible4. » Par ailleurs, les études multicentriques permettent d’éviter certains biais comme le manque d’homogénéité des colorations entre laboratoires « , souligne Grégoire Pasquier. Une difficulté à laquelle s’est heurtée l’appli Malaria Screener, développée pour diagnostiquer le paludisme à partir de frottis sanguins et de gouttes épaisses, grâce à un adapteur de smartphone fixé à un microscope5. Cet écueil a été évité avec l’application Easy Scan Go, développée dans la même optique et qui utilise un scanner de lames. Elle a été testée sur le terrain dans 11 pays, sur trois continents. » Les auteurs font état d’une bonne sensibilité (91,1 %), mais d’une moins bonne spécificité (75,6 %), empêchant l’automatisation totale du test, indique-t-il. Autre inconvénient : plus de 45 minutes par goutte épaisse sont nécessaires pour avoir le résultat6. «
Références
- FDA, Good Machine Learning Practice for Medical Device Development: Guiding Principles. 2021.
- Pascucci et al., Nat Commun. 2021;12(1):1173.
- Kamgno et al., N EnglJ Med. 2017;377(21):2044-2052.
- Visser et al., Malar J. 2021;20(1):39.
- Yu et al., BMC Infect Dis. 2020;20(1):825.
- Horning et al., Malar J. 2021 Feb 25;20(1):110.