Open Access
Issue
Med Sci (Paris)
Volume 35, Number 10, Octobre 2019
Page(s) 797 - 803
Section Repères
DOI https://doi.org/10.1051/medsci/2019158
Published online 18 October 2019

© 2019 médecine/sciences – Inserm

Licence Creative Commons
Article publié sous les conditions définies par la licence Creative Commons Attribution License CC-BY (http://creativecommons.org/licenses/by/4.0), qui autorise sans restrictions l'utilisation, la diffusion, et la reproduction sur quelque support que ce soit, sous réserve de citation correcte de la publication originale.

Vignette © Lightwise/123RF.

« La nuance est le luxe de l’intelligence libre »

(Albert Camus)1

La médecine clinique est à l’ère de l’intelligence artificielle (IA). Partant, mutatis mutandis - changer ce qui doit être changé - est-il dit. Volens nolens - qu’on le veuille ou non - ajoutent d’aucuns ! Oui, mais pas à n’importe quelle condition ni à n’importe quel prix, notamment pas à celui de sacrifier la relation singulière patient-soignant, préciserai-je. Faisant fi de l’opposition entre bioprogressistes et bioconservateurs, de la querelle des anciens et des modernes, la nuance est plus que jamais nécessaire à un débat dépassionné et argumenté entre intelligence clinique et intelligence artificielle !

Sont analysés ici quelques éléments distinctifs - en pratique médicale - entre intelligence clinique et intelligence artificielle, notamment en matière de prise en charge de la personne, de décisions prises et de conscience de ces décisions. L’objectif est de souligner la complémentarité entre ces deux intelligences, mais aussi les risques de substitution, à terme, de la seconde à la première.

L’intelligence clinique

C’est là tout l’art et toute la science du praticien, que guère de revue n’a, à mes yeux, mieux définis et exprimés - et continue à le faire - le prestigieux New England Journal of Medicine, d’abord par sa rubrique « Medical Intelligence », puis, après elle, à travers ses sections « Clinical problem-solving », ou « Clinical implications of basic research », qui entretiennent l’indispensable aller-retour entre clinique et recherche. Là est précieusement et régulièrement livrée ce qu’il convient donc d’appeler l’intelligence clinique de la médecine, de la prise en charge holistique de la personne à la découverte de nouvelles maladies et à celle de leurs mécanismes, de leurs outils de diagnostic et de traitement.

En pratique médicale et de soins, « tout commence et tout finit par la clinique ». Cet aphorisme qui, pour d’aucuns, appartiendrait à la médecine d’hier, reste d’une parfaite actualité. En effet, la clinique - qui va de l’abord, de l’écoute, du dialogue avec la personne et de son examen physique attentif, aux hypothèses diagnostiques et thérapeutiques et à la recommandation, si nécessaire, d’investigations paracliniques, de la synthèse de leurs résultats à leur intégration aux caractéristiques physiques, émotionnelles et psychologiques de la personne - représente encore l’essentiel de l’exercice quotidien des quelques 103 000 médecins généralistes et de bon nombre des 124 000 spécialistes en activité (régulière ou de remplacement) en France en 2018 ; elle est aussi la part essentielle de l’activité des soignants non-médecins, infirmiers, sages-femmes, et kinésithérapeutes notamment.

L’intelligence clinique, fondée sur ces caractéristiques, n’en a pas, pour autant, la vie facile. La médecine clinique est, en effet, masquée par tout ce qui se prend pour elle, cernée par l’indifférence, menacée d’omission, accusée d’obsolescence ou dévorée par l’oubli. Pourtant, tout à la fois ancienne et moderne, elle n’est pas, loin s’en faut, une vieille dame, celle des Diafoirus père et fils2, du « Malade imaginaire » de Molière. L’intelligence clinique a su, en effet, s’adapter, avec ses valeurs propres, aux nouvelles techniques et aux progrès médicaux : elle a notamment su les intégrer dans des arbres de décisions et des algorithmes cliniques, alimentés depuis les années 1990 par la « médecine fondée sur des données probantes » et conformes aux données contemporaines de la science médicale. Si nécessaire, la pratique clinique intègre des dispositifs techniques au contact du patient, telle l’échographie abdominale ou cardiaque. Ni sacro-sainte ni dépositaire d’une vérité éternelle, mais méthode médicale incarnée, fondée sur le discernement et, par essence, personnalisée, la clinique ne s’oppose donc pas aux investigations les plus récentes : elle est un filtre de leurs indications, les sélectionnant et les hiérarchisant selon l’individualité du patient.

Les meilleures revues médicales internationales n’omettent jamais d’inclure les données issues de la clinique - lorsqu’elles sont disponibles -, y compris celles de l’examen physique, dont de récentes études nord-américaines et la très active Société américaine de médecine clinique ont confirmé l’importance fondamentale : une insuffisance de l’examen physique était même la cause du retard ou de l’omission diagnostique dans deux cas sur trois d’une série de plus de 200 patients ayant connu un tel problème diagnostique [1, 2].

Intelligence clinique et incertitude en médecine

Le raisonnement clinique, même ancré sur des données probantes, inclut aussi la gestion - nuancée - de l’incertitude : l’observation médicale et l’empirisme n’étaient-ils pas, pour Claude Bernard, dans son « Introduction à la médecine expérimentale »3, des appuis nécessaires à la médecine scientifique ? La tolérance de l’incertitude - que ne suppriment pas les algorithmes prédictifs de l’IA [3] - a été récemment jugée comme un élément d’une prochaine révolution médicale [4]. Les vertus du doute ne doivent surtout pas être confondues avec la perte de confiance dans la science médicale [5] - telle que l’inadmissible remise en cause des vaccinations - ni avec les redoutables mises en cause et scepticisme à l’égard des résultats de la recherche, établis avec les outils scientifiques les plus performants, comme l’ont bien analysé, dans médecine/Sciences, Jean-Luc Teillaud [6] () et Marie Gaille [7] ().

(→) Voir l’Éditorial de J.L. Teillaud, m/s n° 1, janvier 2019, page 7

(→) Voir l’Éditorial de M. Gaille, m/s n° 11, novembre 2017, page 919

En médecine clinique, le doute et l’ébranlement occasionnel de pseudo-certitudes - lorsqu’ils sont raisonnés pour ne pas faire obstacle, inversement, à la prise de décision - peuvent être un moteur d’éthique, de correction d’erreurs et de progrès de la connaissance. La pratique clinique enseigne vite que la médecine est tout autant un art qu’une science ou une technique. William Osler (1849-1919) en avait fait une maxime : « La médecine est une science de l’incertitude et un art de la probabilité » [4]. Face à cela, les succès de l’IA médicale, principalement en analyse et diagnostic d’images, renforcent l’idée de certitude et de maîtrise absolues, de prédiction et de prévisibilité [8].

Les facettes de l’intelligence clinique

L’intelligence clinique possède une riche panoplie, faite d’intelligence non seulement cognitive, mais aussi émotionnelle et adaptative - contrôle de soi et des émotions négatives -, d’intelligences sensible, relationnelle, intuitive ou décisionnelle, d’intelligence du cœur vectrice d’empathie. Paul Valéry (1871-1945) soulignait que « la sensibilité qu’on oppose à tort à l’intelligence [...] en est, au contraire, la véritable puissance motrice ». L’intelligence sensible peut - comme le fait la pensée, ce qu’a élégamment rappelé Axel Kahn dans un éditorial de médecine/sciences [9] (), accélérer le cœur, déclencher des émois, ce que ne peut faire l’intelligence artificielle, elle-même dépourvue de corps sensible. Des deux types d’intelligence qu’Henri Bergson (1859-1941) distinguait, dans « Le rire », la première, et pour lui l’essentielle, était l’intelligence intuitive - qu’il jugeait profonde et nous permettant de communier avec l’existence -, à l’opposé de la seconde, l’intelligence prédatrice, rusée et violente. Coupé de l’intelligence intuitive, on est aussi, pour Bergson, coupé de soi-même et de la vie réelle.

(→) Voir l’Éditorial d’A. Kahn, m/s n° 4, avril 2018, page 283

Mais l’intelligence clinique a ses défis actuels : brièveté de la consultation physique, due à l’afflux des demandes et aux déserts médicaux régionaux incluant la raréfaction de soignants cliniciens non-médecins. Pour aussi graves de conséquences qu’ils soient, ces défis ne sauraient être le prétexte au remplacement systématisé de la pratique clinique directe par une télémédecine faite de consultations virtuelles et de télécabines médicales. La télémédecine - téléconsultation, téléconseil, télé-expertise, télésurveillance -, source d’une nouvelle réalité médicale, dite « virtuelle », trouve sa place dans des circonstances définies par la récente législation française4, notamment dans les déserts médicaux. Bien que parfois désignée comme « la vraie médecine de proximité », la télémédecine n’est pas à ériger en panacée : Pierre Simon, ancien président de la Société française de télémédecine, reste circonspect et maintient qu’un examen clinique direct fait mieux qu’une primo-téléconsultation [10]. Le législateur est d’ailleurs allé dans ce sens, indiquant, qu’en dehors des cas précisés au Journal officiel, le patient téléconsultant devra avoir été vu au moins une fois, dans les 12 mois précédant la première téléconsultation, en consultation réelle par le médecin téléconsulté. Une analyse détaillée de la télémédecine en France, de ses enjeux et de ses applications potentielles [11, 12] incluant les maladies rares [11, 13, 14] (), a été récemment publiée dans médecine/sciences, de même que les limites et les problèmes éthiques soulevés par sa virtualité, par exemple en soins bucco-dentaires [15] ().

(→) Voir les articles de S. Aymé, E. Salamanca, P. Leleu, P. Espinoza, m/s hors série n° 1, mai 2018, pages 22, 26, 32, 33

(→) Voir l’article Repères de M. Allouche et al., m/s n° 12, décembre 2017, page 1105

Allant plus loin dans le dépassement du « réel » colloque singulier patient-médecin, d’aucuns préconisent l’installation d’une nouvelle profession et spécialité médicale, celle de médecins « virtualistes » [16]. D’autres préconisent, en première intention et à des fins de gain de productivité, une médecine de « self-service » par la personne, une médecine sans médecin, par analogie aux modèles de commerce concurrentiel. En fait, le maintien de la présence - et de la formation - de cliniciens de terrain aptes à recueillir, au contact de la personne, des données qualifiées, claires, bien annotées, ni fautives ni biaisées, est une nécessité ; c’est, en effet, de la qualité de ces données - ce nouveau pétrole, cet « or gris » tant recherché et capté par les géants de l’informatique - que dépend la fiabilité des algorithmes de l’intelligence en santé. On peut ici rappeler l’impact économique du marché de l’e-santé estimé à 4 milliards d’euros pour 2020 en France [12] et à 1 000 milliards (!) de dollars dans le monde : la valeur des données de santé représenterait 6 à 10 fois la valeur des données financières ! [17]

Intelligence artificielle en médecine clinique

Succès et promesses

L’IA actuelle en médecine, surtout fondée sur une approche connexionniste (analogique) par apprentissage automatique, notamment profond, peut se prévaloir de grandes performances, comme - essentiellement - l’analyse d’images [18, 19] à visées diagnostique et pronostique, aussi bien en : radiologie (de la radiographie thoracique à la tomodensitométrie, mammographie ou neuro-imagerie) ; ophtalmologie (diagnostic de la rétinopathie diabétique au fond d’œil [20], premier algorithme diagnostique direct de l’IA à avoir été reconnu par la Food and Drug Administration [FDA], en avril 2018); dermatologie (reconnaissance et classification de cancers cutanés) [19] ; cardiologie (lecture d’électrocardiogrammes, d’échocardiogrammes, détection d’arythmies) [19] ; cancérologie et anatomie pathologique (analyse d’images de lames pour la détection précoce de divers cancers) [19] ; chimiothérapie personnalisée [21] () et robotique chirurgicale assistée par l’IA ; endoscopie (reconnaissance de polypes colorectaux) [19]. L’apport des données massives en génomique et en génétique médicale - et celui de leur partage, devenu synonyme d’échange commercial, notamment en Amérique du Nord - a été largement souligné en matière de génétique des populations, de pharmaco-génomique, de prédiction de certains phénotypes et maladies [18, 22, 23] ().

(→) Voir l’article Numérique et santé de B. Wolf et C. Scholze, m/s n° 5, mai 2018, page 456

(→) Voir le Forum de H.C. Stoeklé et al., m/s n° 8-9, août-septembre 2018, page 735

Les algorithmes de l’IA en santé permettent de recueillir et d’analyser les données en vie réelle : issues des dossiers médicaux électroniques et des patients eux-mêmes, elles sont désignées comme un enjeu majeur pour la qualité des soins et la régulation du système de santé. Les évaluations en monde réel peuvent remplacer, dans des circonstances définies, les modalités classiques des essais cliniques, notamment les essais contrôlés et randomisés (ECR) ; mais il a aussi été souligné, en 2019, que les algorithmes médicaux de l’IA ne devaient pas souffrir d’exception scientifique et que les ECR devaient rester l’étalon-or de leur évaluation et validation en santé clinique [24]. Les données de santé en vie réelle alimentent l’actuel Système national des données de santé (SNDS) et la plateforme des données de santé (Health data hub) récemment créés : elles constituent une base exceptionnelle, « une mine d’or patrimoniale » dans un pays centralisé de la dimension de la France [25] ().

(→) Voir l’article Numérique et santé de D. Polton, m/s n° 5, mai 2018, page 449

Mais elles demandent à être enrichies, notamment parce qu’elles sont essentiellement médico-administratives, peu cliniques [25], et souvent peu claires et « bruitées ». Pour recueillir des données de terrain, bien annotées, qualifiées et fiables, les cliniciens de première ligne restent nécessaires : les incitations visant, parallèlement à la promotion de la télémédecine et de l’IA en santé, à aider les cliniciens par la création de postes d’assistants médicaux vont dans le bon sens. Des progrès sont à attendre, en matière de données cliniques, du dossier médical partagé et de la plateforme des données de santé. L’intérêt, pour la recherche clinique y compris à l’Inserm, des dossiers de santé électroniques hospitaliers et du projet européen EHR4CR (Electronic health records for clinical research) a été judicieusement rappelé dans médecine/sciences [26] ().

(→) Voir l’article Numérique et santé de D. Dupont et al., m/s n° 11, novembre 2018, page 972

L’exploitation de bases de données massives est une chance pour la recherche et le possible croisement de données cliniques, biologiques et génomiques avec d’autres données personnelles ou d’environnement est un facteur important de progrès, notamment en pharmaco-épidémiologie [25].

Les algorithmes de l’IA donnent aussi de sérieux espoirs en matière d’urgences médicales (prévision, orientation, régulation), de neuropsychiatrie (surveillance « connectée » pour prévention du suicide) [27] (), d’observance thérapeutique [28] (), de biobanques (organisation, échanges, partages de données, notamment génomiques) [29] (), ainsi qu’en épidémiologie clinique et en santé publique, où sont solidement présentes des équipes de recherche de l’Inserm [30].

(→) Voir l’article Numérique et santé de S. Berrouiguet et al., m/s n° 8-9, août-septembre 2018, page 730

(→) Voir l’article Numérique et santé de N. Postel-Vinay et al., m/s n° 8-9, août-septembre 2018, page 723

(→) Voir l’article Numérique et santé de G. Dagher et al., m/s n° 10, octobre 2018, page 849

Critiques, réserves, limites de l’intelligence artificielle en pratique clinique

Parallèlement à ses acquis très prometteurs en analyse d’images, l’IA soulève, quant à son introduction potentielle en clinique courante - notamment médecine générale et interne - des questions d’ordres méthodologique, structurel, sémantique, médiatique et éthique.

Questions méthodologiques

Diverses faiblesses et limites de l’IA connexionniste (analogique) actuelle sont régulièrement relevées.

  1. l’IA analogique nécessite des données parfaitement propres, qualifiées - bien annotées cliniquement - et non-biaisées. Or nombre de données médicales sont biaisées, notamment par des préjugés lors de leur recueil - préjugés qui ne sont pas toujours pris en compte par les concepteurs de logiciels et sont reproduits, voire renforcés par l’algorithme - comme la sur- ou sous-représentation de certaines catégories de personnes, en termes d’âge, de sexe, d’origine géographique ou ethnique [3, 8].

  2. L’apprentissage automatique profond souffre d’un manque d’explication de ses décisions (« d’explicabilité ») et de transparence (distincte de « l’explicabilité » et consistant à rendre public le code-source d’un algorithme) qui le fait régulièrement identifier à une boîte noire [19, 3133], voire à une alchimie [34]. Il souffre également d’une médiocre reproductibilité [35]. Pour Stéphane Mallat (professeur de la chaire « Science des données » du Collège de France), on ne comprend ni la capacité des algorithmes d’IA de si bien généraliser à partir d’exemples aussi nombreux soient-ils, ni la nature des régularités, les structures et les notions qu’ils découvrent [36]. Dans un récent ouvrage, Olivier Houdé [37] montre que l’intelligence humaine ne saurait être réduite aux algorithmes logiques (suite d’opérations logico-mathématiques élémentaires) de ses circuits longs ni aux intuitions de ses circuits courts, mais comporte aussi un système d’inhibition - inexistant dans l’IA - seul capable de bloquer ou de corriger les biais des réponses cognitives, au cas par cas - selon le contexte et les objectifs ; c’est cette inhibition qui serait la clé de l’intelligence dans le cerveau, souligne Jean-Pierre Changeux dans la préface de cet ouvrage [37]. Ne retrouve-t-on pas, là, Albert Camus, notant dans « Le premier homme »5 : « Dans certaines circonstances [...], un homme, ça s’empêche » ? Si les décisions humaines ne sont pas nécessairement expliquées, il est toujours possible de dialoguer avec un humain. Partant, l’opacité des décisions des algorithmes de l’IA a entraîné une exigence « d’explicabilité » - par le Conseil d’État, la Commission nationale de l’informatique et des libertés (CNIL) et un rapport parlementaire - et de transparence par le Règlement général de protection des données de l’Union européenne [19]. Le CCNE a souligné - dans ses avis, rapports et États généraux de la bioéthique [38] - que l’homme doit « garder la main » en IA de la santé, afin de limiter une déshumanisation par la machine, et de conserver l’autonomie décisionnelle du soignant.

  3. les réseaux de neurones artificiels de l’IA peuvent être abusés, en analyse d’images, par de petites modifications de l’orientation ou le positionnement même d’un petit nombre de pixels [39, 40].

  4. les modèles de prédiction - notamment diagnostique, thérapeutique ou pronostique - créés par l’IA et désignés comme un de ses principaux apports en santé ont fait l’objet d’importantes réserves : ils reposent, en effet, davantage sur la seule informatique que sur des modèles statistiques scientifiquement bien établis, fondés sur des méthodes de régression, tels que le modèle de la déclaration TRIPOD (transparent reporting of a multivariable prediction model for individual prognosis or diagnosis) [8]. L’évaluation objective des modèles prédictifs de l’IA et de leur robustesse, par des chercheurs indépendants, a été jugée absolument nécessaire avant leur usage en pratique médicale quotidienne [8].

Limites structurelles de l’IA

L’IA a été notamment définie par sa faculté de reproduire et de se comparer à certaines activités cognitives du cerveau humain, mais comparaison n’est pas raison. La très complexe richesse structurelle du cerveau humain, notamment celle de ses éléments innés faite de connexions inter-neuronales latérales et descendantes, explique vraisemblablement sa supériorité, comparée aux actuels modèles neuronaux artificiels d’apprentissage profond, en matière de compréhension comme d’apprentissage cognitif [41]

Questions sémantiques

Si, pour certains - y compris des mathématiciens comme Luc Julia, un ancien de la Silicon Valley - l’intelligence artificielle n’existe pas [42], d’autres préfèrent à ce termed’IA des appellations plus modestes, aux consonances moins médiatiques, tels qu’apprentissage statistique, apprentissage automatique, englobant l’apprentissage profond, supervisé (annoté ou étiqueté par l’homme) ou non supervisé.

Pour Stanley Durrleman, chercheur à l’Institut national de recherche dédié aux sciences du numérique (Inria) et à l’Inserm, on ne peut inclure, dans le domaine de l’IA, l’apprentissage statistique, donc les réseaux de neurones artificiels. Pour lui, « ceux-ci sont construits sur les principes fondamentaux des statistiques [...]; leur développement inspire et irrigue le champ de l’IA, mais l’un n’est pas réductible à l’autre » ; « prendre les algorithmes d’apprentissage automatique pour de l’intelligence artificielle procèderait, ainsi, de la même confusion que prendre un marteau pour la main qui le tient et le commande » [43].

Quelle que soit son appellation, l’IA actuelle n’est pas - du moins pas encore ! - l’IA forte promise, celle capable d’exprimer une conscience de soi, des sentiments, la compréhension et les preuves de ses propres décisions, ou de l’intuition lui permettant de réagir correctement dans des situations non programmées. Partant, la question de savoir si les algorithmes de l’IA sont plus ou moins « intelligents que les praticiens humains » - aussi stimulante qu’elle puisse être pour certains, parlant d’une guerre des intelligences - est jugée, par d’autres, hors de propos [3]. En 2017, Guy Vallancien, soulignant qu’il n’y a pas « d’empathie numérique », appelait urgemment à un « humanisme numérique » et à une conférence sur la régulation de l’IA, y compris en robotique chirurgicale [44]. En décembre 2018, la France et le Canada ont annoncé la création d’un Groupe international d’experts en IA (G2IA) - alter ego pour l’IA du GIEC (Groupe intergouvernemental d’experts sur l’évolution du climat) - qui aura pour mission de réfléchir aux enjeux de cette discipline.

Médiatisation

Une critique importante concerne l’excessif battage médiatique et publicitaire autour de l’IA, surmédiatisation d’un niveau sans précédent en santé - même pour les applications cliniques des plus grandes découvertes de la recherche médicale. Le battage médiatique a « essentialisé » le débat sur l’IA médicale : d’outil technique, elle est passée à l’état de vérité première, de principe irréfutable ou inéluctable, pour le plus grand bien des géants de l’informatique. Présenter les choses comme inéluctables est un moyen de les rendre telles, en incitant les âmes les moins trempées à démissionner ; un certain fantasme sert à l’entraînement des consciences et des volontés. De l’aveu même de chercheurs spécialistes en données massives [8, 17, 19, 24], le battage médiatique sur l’IA a de loin dépassé l’état de sa science. D’importantes analyses récentes [8, 24, 45, 46] () admettent que l’IA médicale, certes très prometteuse, reste pauvre en données probantes (notamment en données validées en pratique clinique), qu’elle ne doit pas faire exception aux règles d’évaluation scientifique en médecine, et doit donc inclure des études prospectives du type des ECR. Une certaine humilité, vertu importante de la recherche scientifique, semble, là, souhaitable tout autant qu’une certaine retenue médiatique [33].

(→) Voir l’article Numérique et santé de A. Bril et al., m/s n° 5, mai 2018, page 448

Symétriquement, la communauté des cliniciens devrait éviter d’être fascinée par la révolution de l’IA [8, 40], avant l’évaluation impartiale de ses résultats. Des discordances existent entre les diagnostics cliniques corrects et ceux issus de dossiers médicaux informatisés ou de données médico-administratives [40] : l’implication initiale, dans le recueil de données, des cliniciens de première ligne s’avère donc indispensable pour arriver à une automatisation fiable des processus de diagnostic.

Quelques aspects éthiques de l’intelligence artificielle en clinique : garantie humaine

Les questions éthiques, de régulation et de protection des données, que pose l’IA en médecine, ont été largement débattues, notamment par le CCNE [38] et dans médecine/sciences [15, 47] (), mais quelques points semblent utiles à souligner quant à son introduction en pratique clinique. (a) Le clinicien doit connaître le risque de conclusions « non-éthiques » de l’IA, car les algorithmes ne font pas intervenir de considérations éthiques, en dehors de celle qu’aura pu introduire dans la machine d’apprentissage statistique l’expert construisant ces algorithmes. (b) La formation à l’éthique de ces experts est donc une question importante, soulevée notamment par la mathématicienne Cathy O’Neil, experte en science des données : sont soulignées les possibles disparités et discriminations systémiques, involontaires ou non, que peuvent créer ou aggraver les algorithmes alimentés par les données massives [48]. (c) De même, le risque de déléguer toutes les décisions médicales à la machine - faisant entrer le clinicien dans un mécanisme d’automatisme avec perte de recul critique - a été bien souligné par Ethik-IA (initiative citoyenne et académique française, lancée en 2018, et portée par des chercheurs de diverses disciplines) [49] et par le CCNE [38] : ont été proposés une « régulation positive » de l’IA et de la robotisation en santé, ainsi que des outils et notes de cadrage pour garantir un regard humain, une « garantie humaine » sur les algorithmes de l’IA [38, 49, 50] ().

(→) Voir l’article de F. Lesaulnier, m/s hors série n° 1, mai 2018, page 27

(→) Voir l’article de S. Sacconi et al., m/s hors série n° 1, mai 2018, page 42

Pour sa mise en pratique, ont été suggérées la création d’un Collège de garantie humaine (à l’échelle d’un établissement ou d’un territoire plus large), ainsi que la définition d’un nouvel acte de télémédecine, dit « de garantie humaine » - acte préconisé par la Société française de télémédecine - permettant d’obtenir un deuxième avis médical humain [49]. De fait, avec l’IA, le clinicien devrait être amené à identifier - avec nuance - les faux diagnostics, positifs et négatifs et les erreurs ou omissions thérapeutiques commis par l’IA, erreurs qui remplaceraient, au moins en partie, les erreurs actuelles des cliniciens,

En 2019, une étude d’envergure, menée par des chercheurs français, a analysé la perception et l’opinion qu’avaient 1 200 patients, atteints de diverses affections chroniques, de l’usage de l’IA et de dispositifs portables de surveillance biométrique : 47 % pensaient qu’ils sont un grand progrès, alors que 11 % y voyaient un danger. 65 % les acceptaient, sous condition d’un possible contrôle humain : partant, 3 personnes sur 4 refusaient une automatisation complète [51].

L’affirmation fréquente, selon laquelle le déploiement de l’IA en médecine clinique libérerait du temps médical et permettrait au clinicien de se recentrer sur son cœur de métier et d’exprimer davantage d’humanité et d’empathie à son patient [17], est, pour nombre de cliniciens, discutable. Ainsi, a-t-il été souligné qu’avec l’établissement de dossiers médicaux électroniques, les cliniciens de première ligne passaient le plus clair de leur temps (44 %) sur leur écran et seulement 24 % de leur temps directement avec leurs patients, abstraction faite de ce que la rédaction de ce type de dossiers contribuerait à leur épuisement professionnel [52]. La dépendance généralisée créée par les téléphones intelligents (smartphones) « tenant en laisse » leurs utilisateurs ajoute au scepticisme de nombreux cliniciens.

Ainsi l’intelligence clinique pourrait-elle être la garantie humaine de l’IA en médecine, leur complémentarité devant conduire à une qualité des décisions et, finalement, des soins, largement supérieure à celle que peut fournir séparément chacune d’elles [18, 49]. Pour des lycéens français réunis en 2019 par le CCNE afin d’exposer leurs réflexions, à l’issue d’un an d’études sur l’impact du numérique en santé, l’IA reste une technique dont la responsabilité reviendra toujours à l’humain [53]. C’est exactement dans ce sens, qu’Arnold Munnich conclut son dernier livre : « Ce qui comptera demain, c’est l’usage humain ou inhumain qui sera fait des outils que nous laissons entre les mains des étudiants d’aujourd’hui, médecins de demain » [54].

Intelligence artificielle, conscience et science de la conscience

Si l’intelligence humaine est consciente d’elle-même, l’IA actuelle ne l’est pas. Or, « Science sans conscience n’est que ruine de l’âme » disait Rabelais dans une lettre de Gargantua à son fils Pantagruel, après lui avoir demandé d’être un « abîme de science » en maîtrisant autant de secrets des sciences naturelles qu’il en était enseigné à son époque. Par un heureux hasard ou une géniale prévoyance de Rabelais, cette citation - depuis largement exploitée par les moralistes contre ce qu’ils décrivaient comme les excès de la science et contre les scientistes - a trouvé sa concrétisation dans le développement d’une « Science de la conscience », notamment depuis la fin du siècle dernier [55, 56]. Stanislas Dehaene et al. [57], notamment, ont examiné les dimensions ou modes fonctionnels de la conscience humaine - classés en C1 (mode de « disponibilité globale » des informations) - et C2 (auto-évaluation ou méta-cognition, introspection et conscience de soi) -, au-delà du mode inconscient (C0) de traitement automatique de l’information familière par le cerveau humain : ce n’est qu’à ce mode C0 que correspondent, pour la reconnaissance d’images ou de sons, les algorithmes actuels d’IA, dépourvus de C1 et C2, soulignent Dehaene et al. [57], qui ont également minutieusement analysé le chemin qu’il resterait à parcourir pour répondre à la question initiale que se posait Alan Turing en 1950 [58] sur sa machine informatique : peut-elle penser ?

Conception syncrétiste de l’intelligence artificielle

Une réponse syncrétiste aux critiques de manque « d’explicabilité » de l’IA est suggérée par certains chercheurs, pour lesquels l’avenir de l’IA serait de combiner l’approche connexionniste (ou analogique) et la plus ancienne approche symbolique (ou logique), qui, bien qu’abandonnée ou simplement « en veilleuse », offre l’avantage majeur de permettre de déchiffrer le chemin du raisonnement [59]. Cette approche hybride tirerait profit des performances de l’une et du raisonnement de l’autre, et serait particulièrement utile pour exploiter les différents types de données des patients

Conclusion

La médecine, au moins pour ce qui est de la clinique dont il a été question ici, n’est pas - pas encore (?) - soluble dans l’IA, ni réductible au traitement des données. « Il semble encore trop tôt pour que des preuves scientifiques orientent définitivement la part du numérique dans la santé », soulignait Antoine Bril et al dans médecine/sciences [46]. La recherche en santé numérique ne peut préjuger trop tôt de ses résultats, comme elle ne peut échapper au chemin toujours long et à l’esprit critique et de nuance des sciences. Sur ce chemin, « Plus on avance, plus on a l’impression de ne pas comprendre, de rechercher une utopie », disait magnifiquement Philippe Lazar, ancien directeur général de l’Inserm, lors du 30e anniversaire de la revue en 2015. Comme lui, je citerai là, à nouveau, Albert Camus : « La lutte elle-même vers les sommets suffit à remplir un cœur d’homme. Il faut imaginer Sisyphe heureux ». Même si l’IA continue à révolutionner, à juste titre, le monde autour de nous, y compris le monde médical, notre temps enivré de technologie devrait - j’emploie là un conditionnel de prudence, par respect de l’incertitude - tenter de retrouver le chemin d’un peu de cette sagesse.

L’intelligence du cœur sera-t-elle jamais artificielle ? Dans cette attente, la médecine clinique reste la gardienne d’une certaine douceur des choses, dans la rude épreuve de la maladie.

Liens d’intérêt

L’auteurs déclare n’avoir aucun lien d’intérêt concernant les données publiées dans cet article.


1

La Peste. Paris : Gallimard, 1947.

2

Diafoirus est le nom du médecin pédant décrit par Molière dans sa comédie, et de son fils Thomas.

3

Publication de 1865.

4

Journal Officiel des 10 et 23 août 2018.

5

Roman autobiographique inachevé d’Albert Camus, publié par sa fille en 1994 chez Gallimard.

Références

  1. Verghese A, Charlton B, Kassirer JP, et al. Inadequacies of physical examination as a cause of medical errors and adverse events: a collection of vignettes. Am J Med 2015 ; 128 : 1322–4. [Google Scholar]
  2. Clark BW, Derakhshan A, Desai SV. Diagnostic errors and the bedside clinical examination. Med Clin North Am 2018 ; 102 : 453–64. [CrossRef] [PubMed] [Google Scholar]
  3. Chen JH, Asch SM. Machine learning and prediction in medicine: beyond the peak of inflated expectations. N Engl J Med 2017 ; 376 : 2507–9. [Google Scholar]
  4. Simpkin AL, Schwartzstein RM, Tolerating uncertainty: the next medical revolution? N Engl J Med. 2016 ; 375 : 1713–5. [Google Scholar]
  5. Baron RJ, Berinsky AJ. Mistrust in science: a threat to the patient–physician relationship. N Engl J Med 2019 ; 381 : 182–5. [Google Scholar]
  6. Teillaud JL. médecine/sciences 2019: un espace de débats scientifiques et médicaux. Med Sci (Paris) 2019 ; 35 : 7–8. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  7. Du Gaille M. bon usage du scepticisme à l’égard des sciences. Med Sci (Paris) 2017 ; 33 : 919–20. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  8. Collins GS, Moons KG. Reporting of artificial intelligence prediction models. Lancet 2019 ; 393 : 1577–9. [CrossRef] [PubMed] [Google Scholar]
  9. Kahn A. La part de l’humain dans la médecine de demain. Med Sci (Paris) 2018 ; 34 : 283–4. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  10. Simon P. Télémédecine : enjeux et pratiques. Brignais : Le Coudrier , 2015 : 190 p. [Google Scholar]
  11. Espinoza P. État des lieux des expérimentations innovantes en télémédecine en France. Med Sci (Paris) 2018 ; 34(hs1) : 33–5. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  12. Leleu P. État des lieux des technologies innovantes dans la e-santé. Med Sci (Paris) 2018 ; 34(hs1) : 32–3. [Google Scholar]
  13. Aymé S. État des lieux de la collecte et de l’exploitation des données pour la recherche et la prise de décision en santé dans les maladies rares en France. Med Sci (Paris) 2018 ; 34(hs1) : 22–5. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  14. Salamanca E. État des lieux du développement de la Banque nationale de données maladies rares. Med Sci (Paris) 2018 ; 34(hs1) : 26. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  15. Allouche M, Hervé C, Pirnay P. Le nécessaire questionnement éthique autour de la relation de soin en télémédecine bucco-dentaire. Med Sci (Paris) 2017 ; 33 : 1105–9. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  16. Nochomovitz M, Sharma R. Is it time for a new medical specialty? The medical virtualist JAMA 2018 ; 319 : 437–8. [CrossRef] [PubMed] [Google Scholar]
  17. Topol EJ. Deep medicine: how artificial intelligence can make healthcare human again. New-York : Basic Books, 2019 : 400 p. [Google Scholar]
  18. Esteva A, Robicquet A, Ramsundar B, et al. A guide to deep learning in healthcare. Nat Med 2019 ; 25 : 24–9. [CrossRef] [PubMed] [Google Scholar]
  19. Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med 2019 ; 25 : 44–56. [CrossRef] [PubMed] [Google Scholar]
  20. De Fauw J, Ledsam JR, Romera-Paredes B, et al. Clinically applicable deep learning for diagnosis and referral in retinal disease. Nat Med 2018 ; 24 : 1342–50. [CrossRef] [PubMed] [Google Scholar]
  21. Wolf B, Scholze C. Médecine 4.0 ou de l’importance des nouvelles technologies dans la médecine moderne : le cas de la chimiothérapie personnalisée. Med Sci (Paris) 2018 ; 34 : 456–61. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  22. Schrider DR, Kern AD. Supervised machine learning for population genetics: a new paradigm. Trends Genet 2018 ; 34 : 30–12. [CrossRef] [PubMed] [Google Scholar]
  23. Stoeklé HC, Forster N, Charlier P, et al. Le partage des données génétiques : un nouveau capital. Med Sci (Paris) 2018 ; 34 : 735–9. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  24. Topol EJ. A decade of digital medicine innovation. Sci Transl Med 2019 ; 11 : eaaw7610. [PubMed] [Google Scholar]
  25. Polton D. Les données de santé. Med Sci (Paris) 2018 ; 34 : 449–55. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  26. Dupont Beresniak A, Kalra D, et al. Intérêt des dossiers de santé électroniques hospitaliers pour la recherche clinique : le projet européen EHR4CR. Med Sci (Paris) 2018 ; 34 : 972–7. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  27. Berrouiguet S, Le Moal V, Guillodo E, et al. Prévention du suicide et santé connectée : vers la personnalisation des soins ? Med Sci (Paris) 2018 ; 34 : 730–4. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  28. Postel-Vinay N, Reach G, Eveillard P. Observance et nouvelles technologies : nouveau regard sur une problématique ancienne. Med Sci (Paris) 2018 ; 34 : 723–9. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  29. Dagher G, Lavitrano ML, Hofman P. Le next-generation biobanking : un défi des données numériques. Med Sci (Paris) 2018 ; 34 : 849–51. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  30. Thiébaut R, Thiessard F. Artificial intelligence in public health and epidemiology. Yearb Med Inform 2018 ; 27 : 207–10. [Google Scholar]
  31. Castelvecchi D. Can we open the black box of AI ? Nature 2016 ; 538 : 20–3. [CrossRef] [PubMed] [Google Scholar]
  32. Voosen P. The AI detectives. Science 2017 ; 357 : 22–7. [Google Scholar]
  33. Reyzin L. Unprovability comes to machine learning. Nature 2019 ; 565 : 166–7. [CrossRef] [PubMed] [Google Scholar]
  34. Hutson M. Has artificial intelligence become alchemy ? Science 2018 ; 360 : 478. [Google Scholar]
  35. Hutson M Artificial intelligence faces reproducibility crisis. Science 2018 ; 359 : 725–6. [Google Scholar]
  36. L’intelligence artificielle : un enjeu scientifique ? Mallat S, invité à 64 minutes le monde en français : TV5 Monde, 18 février 2019. https://www.actuia.com/actualite/lintelligence-artificielle-un-enjeu-scientifique-stephane-mallat-invite-sur-tv5monde) [Google Scholar]
  37. Houdé O. L’intelligence humaine n’est pas un algorithme. Paris : Odile Jacob, 2019 : 248 p. [Google Scholar]
  38. Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE). 1. Avis 129 : Contribution du CCNE à la révision de la loi de bioéthique. 18 septembre 2018, 160 p. 2. Rapport Numérique et santé : Quels enjeux éthiques ? Pour quelles régulations ? Kirchner C, Gruson D. 19 novembre 2018, 100 p. 3. Bioéthique. États généraux 2018 : Rapport de synthèse du CCNE: opinions du comité citoyen. 220 p. 4. Avis 130. Données massives et santé : une nouvelle approche des enjeux éthiques. 29 mai 2019, 92 p. [Google Scholar]
  39. Fralick M, Colak E, Mamdani M. Machine learning in medicine. N Engl J Med 2019 ; 380 : 2588–9. [Google Scholar]
  40. Rajkomar A, Dean J, Kohane I. Machine learning in medicine. N Engl J Med 2019 ; 380 : 1347–58. [Google Scholar]
  41. Ullman S. Using neuroscience to develop artificial intelligence. Science 2019 ; 363 : 692–3. [Google Scholar]
  42. Julia L. L’intelligence artificielle n’existe pas. Paris : First ; 2019 : 286 p. [Google Scholar]
  43. Durrleman S. Intelligence artificielle : la grande méprise ? Libération hors-Série 2 ; décembre 2018–février 2019 : 28–9. [Google Scholar]
  44. Vallancien G, Homo artificialis : plaidoyer pour un humanisme numérique. Paris : Michalon ; 2017 : 208p. [Google Scholar]
  45. He J, Baxter SL, Xu J, et al. The practical implementation of artificial intelligence technologies in medicine. Nat Med 2019 ; 25 : 30–6. [CrossRef] [PubMed] [Google Scholar]
  46. Bril A, Dollé L, Postel-Vinay N. Numérique et santé (avant-propos). Med Sci (Paris) 2018 ; 34 : 448. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  47. Lesaulnier F. Recherche en santé et données personnelles : la nouvelle donne. Med Sci (Paris) 2018 ; 34(hs1) : 27–8. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  48. D’Alessandro B, O’Neil C, LaGatta T. Conscientious classification: a data scientist’s guide to discrimination-aware classification. Big Data 2017 ; 5 : 120–34. [CrossRef] [PubMed] [Google Scholar]
  49. Gruson D. La machine, le médecin et moi : pour une régulation positive de l’intelligence artificielle en santé. Paris : L’Observatoire, 2018 : 160 p. [Google Scholar]
  50. Sacconi S, Mehl J, Lenain C, et al. E-Santé et innovation thérapeutique. Med Sci (Paris) 2019 ; 35(hs1) : 42–5. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  51. Tran VT, Riveros C, Ravaud P. Patients’views of wearable devices and AI in healthcare : findings from the ComPaRe e-cohort. NPJ Digit Med 2019 ; 2 : 53. [CrossRef] [PubMed] [Google Scholar]
  52. Khan MS, Riaz H. The rise of documentation and the destruction of modern medicine. Am J Med 2019 ; 132 : 407. [Google Scholar]
  53. Favereau E. IA, datas et santé : pour des lycéens marseillais, la responsabilité reviendra toujours à l’humain. Libération, 29 mai 2019. [Google Scholar]
  54. Munnich A, Programmé mais libre : les malentendus de la génétique. Paris : Plon, 2016 : 144p. [Google Scholar]
  55. Facco E, Lucangeli D, Tressoldi P. On the science of consciousness: epistemological reflections and clinical implications. Explore (NY) 2017 ; 13 : 163–80. [CrossRef] [PubMed] [Google Scholar]
  56. Michel M, Beck D, Block N, et al. Opportunities and challenges for a maturing science of consciousness. Nat Hum Behav 2019 ; 3 : 104–7. [CrossRef] [PubMed] [Google Scholar]
  57. Dehaene S, Lau H, Kouider S. What is consciousness, and could machines have it? Science 2017 ; 358 : 486–92. [Google Scholar]
  58. Turing AM. Computing machinery and intelligence. Mind 1950 ; 59 : 433–60. [Google Scholar]
  59. Garnelo M, Shanahan M. Reconciling deep learning with symbolic artificial intelligence: representing objects and relations. Curr Opin Behav Sci 2019 ; 29 : 17–23. [Google Scholar]

Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.

Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.

Initial download of the metrics may take a while.