Un marché très dynamique avec des investissements importants aux États-Unis
Aux États-Unis, ces données quantitatives sont cohérents avec le dynamisme observé au jour le jour pour ces produits dans les grands écosystèmes d’innovation. Sans être exhaustif, notons qu’à San Francisco, la startup Exo a ainsi levé en août de cette année 40 millions de dollars de financement pour sa solution portable d’imagerie médicale à base d’ultrasons. En juillet 2020, la startup Thrive Earlier Detection Corp a levé en série B la somme impressionnante de 110 millions de dollars pour un test sanguin de détection précoce du cancer développé à John Hopkins University. Preuve supplémentaire de ce dynamisme, on observe également des interactions très fortes sous forme d’accords de partenariats entre startups, grandes entreprises, centres de recherches, et hôpitaux. Citons ainsi la collaboration entre UCSF et NVIDIA au sein du Center for Intelligent Imaging[2], qui permet de mutualiser l’expertise en radiologie de UCSF ainsi que ses données avec la puissance de calcul des GPU et de la plateforme Clara de NVIDIA.
Concernant le type de diagnostic, ce rapport nous apprend également que la neurologie domine les autres domaines avec 25% de part de marché, notamment pour les solutions utilisant l’analyse d’imagerie médicale pour la détection précoce de maladies neurologies telles que l’épilepsie, Alzheimer, Parkinson, les AVC, etc. Le secteur de la radiologie apparaît lui comme un secteur étant amené à croître très rapidement.
De grands espoirs mais des résultats qui restent à confirmer en situation réelle
Ces solutions sont obtenues en analysant et recoupant de grandes bases de données de dossiers médicaux électroniques (« Electronic Health Record » : EHR), images médicales, analyses sanguines, informations démographiques, demandes de remboursements soumises par les patients, etc. Elles s’appuient sur l’efficacité des méthodes de deep learning, et notamment sur celle des réseaux de convolution (CNN : Convolutional Neural Networks) pour l’analyse d’images. Elles peuvent permettre de relier des symptômes ou des examens cliniques à des diagnostics et recommander des traitements. La plupart du temps, le médecin reste décisionnaire et ces applications apparaissent sous la forme d’outils d’assistance au médecin : ceux-ci sont typiquement destinés à lui permettre de traiter plus rapidement les tâches de routine quand le doute sur le diagnostic est quasi-inexistant, attirer son attention sur des images ou sur des données essentielles, apporter une proposition de diagnostic visant à confirmer ou infirmer l’avis initial du médecin. Il est au final attendu de ces algorithmes des médecins qui peuvent consacrer une plus grande partie de leur temps au patient, ainsi qu’une approche médicale plus objective, des soins plus personnalisés et moins sujets à erreur car basés sur les données.
Mais c’est notamment ce dernier point qui fait à la fois la force et la faiblesse de ces solutions à base d’IA pour le diagnostic médical. En matière de santé comme pour tout autre type d’application, la qualité et la quantité des données sont essentielles. Or, les soignants prennent souvent des décisions basées sur des observations qui ne sont pas toujours clairement documentées. Étant absents des EHR, ces éléments manquants peuvent conduire à des algorithmes défaillants ou biaisés[3]. Ainsi, un modèle d’IA évalué par l’University of Pittsburgh Medical Center évaluait à tort le risque de décès chez les patients de plus de 100 ans atteints de pneumonie comme étant très faible[4]. Il apparait que cela était dû au fait que ces patients se voyaient immédiatement prescrit des antibiotiques dès leur admission et avant même l’ouverture de leur EHR, cette information n’y figurait donc pas et n’apparaissait pas dans les données d’apprentissage du modèle d’IA. Utilisé en situation réelle, un tel outil d’aide au diagnostic aurait remonté des informations inexactes aux médecins les manipulant, avec des conséquences potentiellement graves pour la santé des patients. Des données biaisées ou utilisées de façon inadaptée pour entrainer des modèles peuvent aussi induire des résultats discriminants vis-à-vis de certaines populations[5], et ces problèmes sont exacerbés par le fait que les réseaux de neurones actuels restent très peu transparents et explicables.
Au-delà du risque de biais dans les données, un article du Scientific American[6] alerte sur une faible culture de la validation expérimentale qui existerait dans cet écosystème de startups développant des outils d’IA pour le diagnostic médical. Il cite ainsi une étude du European Journal of Clinical Evaluation[7] qui montre que très peu des startups qui développent ces outils publient leurs méthodes dans des journaux revus par les pairs et peu de produits vendus aux Etats-Unis ont été soumis à des tests randomisés. De plus, dans la majorité des cas, les résultats sont validés uniquement sur ordinateur, et non pas dans des hôpitaux, soit très loin des conditions réelles : certains algorithmes se sont ainsi avérés peu robustes, ne fonctionnant par exemple pas en cas de changements de la marque de la machine effectuant l’IRM[8]. Pourtant, ce même article du Scientific American affirme que la majorité de ces solutions ne nécessitent pas d’autorisation de la FDA, ou alors de façon très allégée. Bob Kocher, expert du domaine et partenaire au fonds de capital-risque Venrock, affirme ainsi qu’aucune « des entreprises dans lesquelles il a investi ne faisait l’objet d’une approbation de la FDA ». Il ajoute que « nous allons continuer à découvrir beaucoup de risques et de conséquences inattendues de l’utilisation de l’IA sur des données médicales ». D’autant plus que pour faire face à l’afflux d’outils digitaux pour la médecine et ne pas être un goulot d’étranglement pour l’innovation, la FDA teste un programme de « pré-certification »[9], qui évalue les entreprises et non les produits, afin d’accélérer le processus d’arrivée sur le marché ainsi que la validation des mises à jour fréquentes de ces logiciels. Ces entreprises pré-certifiées auront des procédures d’approbation allégées dans le cas d’outils à faibles risques, voire pas de procédures du tout. Il appartiendra ainsi dans ce cadre aux entreprises de gérer la sécurité de leurs produits une fois celui-ci sur le marché.
Ainsi, malgré certains résultats très encourageants et l’enthousiasme qui semble inaltérable des investisseurs, l’efficacité de ces outils en situation réelle et leur bonne intégration dans le parcours de soins reste encore à démontrer en situation réelle. Elle sera déterminante pour la croissance de ce marché et la modernisation du parcours de soin.
[1] https://www.grandviewresearch.com/industry-analysis/artificial-intelligence-diagnostics-market?utm_source=prnewswire&utm_medium=referral&utm_campaign=hc_29-jul-20&utm_term=artificial-intelligence-in-diagnostics-market&utm_content=rd1
[2] https://www.ucsf.edu/news/2019/10/415611/ucsf-launches-artificial-intelligence-center-advance-medical-imaging
[3] https://www.brookings.edu/blog/usc-brookings-schaeffer-on-health-policy/2019/03/05/will-robots-replace-doctors/
[4] http://people.dbmi.columbia.edu/noemie/papers/15kdd.pdf
[5] https://www.marketplace.org/shows/marketplace-tech/health-care-discrimination-race-algorithms-inequalities/
[6] https://www.scientificamerican.com/article/artificial-intelligence-is-rushing-into-patient-care-and-could-raise-risks/
[7] https://onlinelibrary.wiley.com/doi/full/10.1111/eci.13072
[8] https://science.sciencemag.org/content/364/6446/1119
[9] https://www.fda.gov/media/106331/download
Rédacteur : Jean-Baptiste BORDES (Attaché pour la Science et la Technologie, San Francisco)