Accès gratuit
Numéro
Med Sci (Paris)
Volume 40, Numéro 3, Mars 2024
Page(s) 283 - 286
Section Repères
DOI https://doi.org/10.1051/medsci/2024022
Publié en ligne 22 mars 2024

Vignette (© Lightwise/123RF).

L’intelligence artificielle (IA) constitue une étape importante dans l’évolution des techniques informatiques. Dans cette synthèse, nous discutons de la genèse de l’intelligence artificielle en nous appuyant sur les principales publications scientifiques depuis l’article fondateur d’Alan Turing en 1950, dans lequel il posait la question : « can machines think? » [1].

L’IA se réfère à des systèmes informatiques capables d’effectuer des tâches nécessitant habituellement une intelligence humaine, allant de la résolution de problèmes abstraits à la reconnaissance vocale [2]. Cette idée fut longtemps théorique et utopique. Or, depuis quelques années et l’avènement de l’apprentissage profond [3], l’IA se rapproche progressivement de cette définition.

L’innovation principale de ces nouveaux types d’algorithmes réside dans leur capacité à effectuer des actions pour lesquelles ils n’ont pas été spécifiquement codés, contrairement aux systèmes experts et aux algorithmes heuristiques utilisés jusqu’à présent. En effet, les réponses de ChatGPT1, les images de Midjourney2, ou les publicités proposées par Meta3, n’ont pas été particulièrement écrites, dessinées ou choisies par des développeurs. Elles sont le fruit d’algorithmes qui ont été entraînés pour proposer, eux-mêmes, le meilleur résultat possible à une tâche spécifique.

Leur impact grandissant se constate dans plusieurs domaines de la médecine, où les algorithmes d’IA apportent une aide au diagnostic [4], à la stratification de risque [5], à l’analyse d’images (y compris en imagerie interventionnelle [6]), à la personnalisation des traitements [7], etc. L’IA s’immisce dans notre quotidien progressivement, soulevant des enjeux cliniques, éthiques et sociétaux à mesure que son utilisation se généralise.

Une histoire de l’intelligence artificielle

Les origines et les pionniers : Alan Turing et la question de la pensée artificielle

Le concept de pensée artificielle trouve ses origines dans les travaux d’Alan Turing, un pionnier dans le domaine de l’informatique et de la philosophie de l’intelligence artificielle. Turing évoque un modèle théorique d’une machine capable d’exécuter des algorithmes si avancés et si complexes qu’ils deviendraient indissociables d’une intelligence humaine.

Ce concept est fondamental pour la compréhension des objectifs des équipes de recherche en IA. Les travaux d’Alan Turing ont en effet exercé une influence considérable sur les centres de recherche en mathématiques et en informatique durant la seconde moitié du xx e siècle. Ses idées visionnaires ont stimulé la formation de diverses équipes animées par le désir de développer des algorithmes « apprenants ».

Un algorithme « classique » est une séquence d’instructions finie et bien définie, qui décrit la réalisation d’une tâche donnée. Il est fondé sur des étapes logiques et structurées qui, lorsqu’elles sont déroulées, permettent d’atteindre un objectif spécifique. En combinant plusieurs algorithmes de ce type, on obtient un « système expert ».

Les systèmes experts : l’évolution vers des programmes informatiques capables de résoudre des problèmes complexes

Les systèmes experts sont des programmes informatiques développés pour modéliser et reproduire l’expertise humaine dans des domaines spécifiques. Construits sur des bases de connaissances et sur des règles, ces systèmes visent à résoudre des problèmes complexes en utilisant des processus logiques pour arriver à des conclusions. Ils sont testés en soumettant des scénarios variés pour vérifier leur capacité à fournir des réponses ou des solutions conformes à des normes établies.

Dans les années 1960 à 1990, des systèmes experts notables ont vu le jour, tels que Dendral [8], conçu pour l’analyse de spectrométrie de masse en chimie organique, et MYCIN [9], spécialisé dans le diagnostic et le traitement des bactériémies. Cependant, malgré leur efficacité dans des domaines spécifiques, ces systèmes avaient des limites : ils étaient statiques, utilisant des règles fixes, incapables d’apprentissage, d’adaptation ou de généralisation. Cela a conduit à une évolution vers l’intelligence artificielle, visant à produire des systèmes plus dynamiques pour gérer des scénarios plus complexes et diversifiés.

L’avènement de l’apprentissage automatisé puis de l’apprentissage profond

L’évolution de l’intelligence artificielle moderne est intimement liée à l’avènement de l’apprentissage automatisé (ou en anglais, machine learning) [10]. Dans les années 1980 et 1990, ces algorithmes ont introduit des approches permettant aux machines de s’améliorer en utilisant des données et des expériences antérieures, éliminant ainsi la nécessité d’une programmation explicite pour chaque tâche.

L’apprentissage profond (ou deep learning), une sous-catégorie de l’apprentissage automatisé, s’est ensuite avéré crucial dans le développement de l’intelligence artificielle moderne. Il est principalement caractérisé par l’utilisation de réseaux de neurones. Sans aucun lien avec la physiologie du cerveau humain (la tentation d’anthropomorphisme est facile, mais largement inexacte), ce système fonctionne sur la logique d’optimisation de fonctions mathématiques.

Un réseau de neurones se compose de couches successives de « neurones » qui correspondent à des fonctions qu’il s’agit d’optimiser, c’est-à-dire minimiser la perte (la différence) entre les données d’entraînement (les exemples donnés à l’algorithme) et le résultat fourni par l’algorithme. Chaque neurone reçoit des signaux (les données d’entrées), les pondère et génère une sortie (le résultat final). Ces signaux sont transmis à travers des couches successives, chaque couche effectuant des opérations complexes pour extraire des caractéristiques des données entrantes. Lorsque la sortie n’est pas satisfaisante (en comparaison aux données d’entrées), les pondérations des neurones des couches intermédiaires changent. Cette opération d’optimisation (de modification des pondérations) est effectuée de manière itérative, parfois plusieurs milliards de fois, jusqu’à obtenir en sortie un résultat qui paraît optimal.

Ces réseaux sont utilisés dans de très divers domaines : reconnaissance d’images, de son, traduction, recommandation, tâches de classification, etc.

Pourquoi maintenant ?

L’évolution récente, et de plus en plus rapide, de l’apprentissage automatisé trouve son fondement dans plusieurs facteurs majeurs. Ces facteurs peuvent être résumés en trois points : l’augmentation significative de la puissance de calcul, la forte accélération de la production et du stockage de données structurées, et l’émergence progressive d’un marché qui entretient le développement de ce domaine.

Puissance de calcul et évolution des techniques : rôle des GPU, initialement conçus pour les jeux vidéo, dans l’accélération de l’IA

La récente accélération de l’intelligence artificielle est liée à l’évolution des techniques, notamment à l’émergence des GPU4 (graphics processing unit), des processeurs dédiés au traitement graphique (contrairement aux CPU [central processing unit] plus génériques et moins puissants), qui, à l’origine, étaient destinés à l’industrie des jeux vidéo. L’industrie des jeux vidéo est extrêmement demandeuse de processeurs puissants, capable d’effectuer plus d’opérations par seconde dans un espace toujours plus réduit. Cela a progressivement permis de développer des microprocesseurs dédiés aux calculs matriciels très puissants, qui ont été ensuite utilisés pour traiter des bases de données et des réseaux de neurones.

Plusieurs travaux ont montré comment ces GPU, conçus pour manipuler des images et des graphiques de manière intensive, ont trouvé une application inattendue dans l’accélération des calculs nécessaires à l’apprentissage profond [11].

Production exponentielle de données exploitables : la numérisation de la vie quotidienne

Une autre raison de l’avènement actuel de l’IA est la production exponentielle des données exploitables, telles que les images, les vidéos, les audios et les textes structurés. La numérisation croissante de la vie quotidienne via l’utilisation généralisée d’ordinateurs personnels, d’Internet, des smartphones et des objets connectés a engendré une masse importante de données. Cette croissance exponentielle des données a alimenté l’IA en fournissant un réservoir sans cesse croissant de données à analyser et à exploiter [12].

Ce vaste réservoir d’informations est notamment exploité par des géants technologiques, tels que les réseaux sociaux et les plateformes de télécommunication, comme Google, Meta, Apple, Microsoft (principal investisseur d’OpenAI, l’entreprise mère de ChatGPT) et bien d’autres. Ces entreprises stockent et analysent les données pour entraîner les réseaux de neurones et autres modèles d’IA.

Il est important de souligner que cette abondance de données est en grande partie alimentée par nos propres actions. Nos interactions, nos préférences, nos comportements en ligne, tout cela contribue à façonner les modèles d’IA. Cette utilisation des données pose cependant un défi majeur en termes de biais. Ces modèles peuvent en effet refléter et renforcer des préjugés existants, car ils sont formés sur des ensembles de données qui peuvent être influencées par des biais humains. Un service (par exemple Meta) qui est moins utilisé dans une partie du monde (par exemple en Russie ou en Chine) sera beaucoup moins entraîné sur les données de cette population, et les algorithmes seront ainsi biaisés et inadaptés à un usage dans cette zone géographique. Cette limite est importante à connaître en cas d’utilisation d’algorithme d’apprentissage automatisé, en médecine, à l’échelle d’un patient dont les caractéristiques socio-démographiques, morphologiques, biologiques, etc., ne correspondent pas au corpus d’entraînement de l’algorithme en question.

Il est aussi important de noter les motivations économiques que ces entreprises technologiques cachent derrière l’utilisation de ces données massives. L’IA est devenue un pilier de leurs modèles commerciaux, alimentant des produits et des services de plus en plus personnalisés et adaptés, renforçant ainsi leur compétitivité et leur valeur sur leurs marchés d’intérêt (essentiellement celui de la publicité).

Émergence d’un marché : le marché de la publicité comme principal utilisateur des algorithmes de classification

L’essor de l’IA est intimement lié à l’émergence d’un marché massif utilisant des algorithmes de classification. Des recherches ont souligné le rôle prédominant de l’industrie publicitaire dans l’utilisation des techniques d’IA pour le ciblage, la personnalisation et l’optimisation des annonces [13].

Les algorithmes de classification sont employés pour analyser les préférences des utilisateurs, leurs habitudes de navigation et de consommation, permettant aux annonceurs de diffuser des publicités personnalisées [14]. Ces applications massives et commerciales ont motivé le perfectionnement des techniques d’IA et ont contribué à leur diffusion généralisée à travers de multiples secteurs d’activité.

L’utilisation d’algorithmes de classification pour l’optimisation publicitaire marque le tout premier champ d’application de l’intelligence artificielle. Cette industrie de la publicité est devenue le marché le plus important et le plus lucratif au monde.

Ce marché a joué un rôle prépondérant dans la valorisation et la montée en puissance des entreprises technologiques et de la recherche en sciences des données, stimulant l’importance d’une formation dans les universités pour répondre à la quête incessante de talents en intelligence artificielle. Cette demande de formation a déclenché une pression élevée sur les systèmes d’enseignement, incitant à la mise en place de programmes académiques ciblés, favorisant la recherche et le développement dans le domaine de l’IA et le regroupement avec d’autres sujets de recherche et d’études (optimisation par exemple [15]).

Les besoins croissants en algorithmes de classification et de prédiction, pour anticiper les « clics » (pointages) sur des publicités particulières ou pour effectuer des tâches de reconnaissance d’images par exemple, ont suscité l’organisation de compétitions annuelles largement médiatisées dans le monde de la science des données. Des plateformes, telles que Kaggle5, ont institué des défis pour évaluer et comparer les avancées des modèles d’IA. Ces plateformes ont un rôle de détermination de l’état de l’art et du gold standard qui s’est révélé très important pour comparer les différentes approches [16]. Les dernières évolutions en date, telles que les algorithmes génératifs, donnent lieu à des perspectives en médecine et en sciences qui suscitent un intérêt global [17].

Perspectives à court terme

L’apprentissage automatisé façonne un paysage en constante évolution. Les progrès récents comprennent des systèmes de langage de plus en plus sophistiqués, tels que ChatGPT ou les réseaux neuronaux pour des tâches de vision par ordinateur et de reconnaissance du langage naturel. Les implications de ces avancées touchent divers secteurs, notamment la médecine [18], redéfinissant la relation entre l’homme et la machine.

Algorithmes génératifs : exploration des avancées récentes

Les algorithmes génératifs de langage, aussi appelé LLM (large langage models) représentent une avancée significative dans le domaine de l’intelligence artificielle, offrant la capacité de produire du contenu original et cohérent. Après les progrès accomplis dans les algorithmes de classification, de détection et de prédiction, les systèmes génératifs sont devenus des piliers essentiels de cette évolution.

Parmi ces systèmes, ChatGPT se démarque nettement. Fondé sur des modèles de langage pré-entraînés sur des ensembles massifs de données, notamment des milliards de textes issus d’Internet, il opère sur un mécanisme de prédiction de texte en utilisant des modèles de langage statistique. En d’autres termes, lorsqu’on lui soumet une phrase d’introduction, une question ou une amorce (également appelée « prompt »), il génère la suite logique ou la réponse anticipée en fonction des probabilités établies au cours de son entraînement massif.

Fondamentalement, ce processus se résume à une fonction de probabilité. L’algorithme génératif attribue des probabilités à chaque mot ou ensemble de mots, déterminant ainsi la séquence suivante la plus probable en fonction du contexte donné [19]. C’est une prouesse issue de modèles mathématiques sophistiqués, propulsée par des couches de réseaux de neurones qui apprennent des structures linguistiques complexes.

Cette avancée intéresse grandement le monde de la médecine [20].

Implications de l’IA : impacts et évolutions prévisibles

Les implications de l’apprentissage automatisé, en particulier des algorithmes génératifs, dans le domaine médical ont ouvert de nouvelles perspectives et soulevé des enjeux majeurs. Ces avancées suggèrent des possibilités prometteuses et des changements significatifs dans la manière dont la médecine est pratiquée, enseignée et exploitée pour la recherche.

Ces algorithmes génératifs trouvent leur utilisation dans diverses tâches conversationnelles en médecine : en éducation thérapeutique [21], suivi médical, aide à la décision, et télésurveillance notamment. Ils facilitent la création de conversations intelligentes et fournissent des informations médicales personnalisées aux patients. L’utilisation de ces techniques, pendant les consultations médicales, permet également une rédaction automatique de comptes rendus détaillés [22].

Si ces cas d’usages offrent des avantages majeurs par l’optimisation de temps qu’ils offrent aux soignants, ils ne sont pas exempts de risques. Les erreurs, les biais et les limites des algorithmes génératifs sont des problèmes préoccupants. Des erreurs médicales peuvent résulter d’une interprétation incorrecte des données ou d’une mauvaise évaluation des informations [23].

Ainsi, bien que les algorithmes génératifs présentent des avancées remarquables pour la médecine, leur utilisation doit être encadrée et surveillée étroitement pour minimiser les risques d’erreurs ou de biais, garantissant une pratique médicale éthique et sûre.

Conclusion et perspectives

L’apprentissage automatisé, appelé improprement intelligence artificielle, a évolué à pas de géant. Les progrès dans les systèmes de langage comme GPT-4 et les avancées dans l’analyse d’images ou la génération de texte vont redéfinir la relation entre les médecins, les patients, les chercheurs et la technologie. Ces outils ont le potentiel d’améliorer le diagnostic, la prise de décision, la stratification de risque, le suivi et l’éducation thérapeutique. Ces progrès auront des répercussions sur la vie des individus et sur les systèmes de santé. Explorer ces possibilités en amont est une étape incontournable à une bonne adaptation future à ces innovations. Cependant, ces avancées ne sont pas sans risques. Les erreurs et les biais des algorithmes génératifs sont des préoccupations majeures en médecine. Il est donc impératif de réguler étroitement l’utilisation de ces techniques pour garantir une pratique médicale éthique et sûre. Une utilisation détournée, même involontaire, peut mener à des résultats dégradés. Par exemple, un médecin ne sachant pas que GPT-4 n’est qu’un modèle statistique de génération de texte, peut penser que la réponse à une question médicale (bibliographique par exemple) est exacte, alors qu’elle est le fruit d’une « hallucination » [24].

Aussi enthousiasmants que soient ces nouvelles méthodes algorithmiques, maintenir une approche raisonnée, appliquer la méthode scientifique, les confronter au jugement clinique, et respecter les règles de l’éthique sont donc des prérequis qui semblent indispensables à toute implémentation à grande échelle.

Liens d’intérêt

L’auteur déclare n’avoir aucun lien d’intérêt concernant les données publiées dans cet article.


1

ChatGPT est un algorithme générant du texte développé par la société OpenAI.

2

Midjourney est un algorithme générant des images à partir de texte, développé par David Holz.

3

Meta est l’entreprise mère de Facebook, Instagram, WhatsApp, dont le modèle économique est principalement fondé sur des publicités personnalisées.

4

GPU, pour Graphics Processing Unit, est une unité de calcul spécialisée dans le traitement de l’image. Les GPU sont donc optimisés pour les opérations mathématiques sur des matrices de données, contrairement aux processeurs classiques (CPU), qui sont donc moins rapides pour ces calculs.

5

Kaggle est une plateforme web interactive proposant des compétitions d’intelligence artificielle. Elle fournit des jeux de données que les compétiteurs utilisent pour créer des algorithmes répondant à une tâche spécifique. L’algorithme présentant les meilleures performances remporte la compétition.

Références

  1. Turing AM. Computing machinery and intelligence. Mind 1950 ; 236 : 433–460. [CrossRef] [Google Scholar]
  2. Patil M, Gaikwad R, Dedania R, et al. Artificial Intelligence: How Communication with Machine Will Evolve. International Jounal of Engineering Research and Technology 2017; 5. [Google Scholar]
  3. LeCun YBengio YHinton G. Deep learning. Nature 2015 ; 521 : 436–444. [CrossRef] [PubMed] [Google Scholar]
  4. Aneja SChang EOmuro Aet al. Applications of artificial intelligence in neuro-oncology. Curr Opin Neurol 2019 ; 32 : 850–856. [CrossRef] [PubMed] [Google Scholar]
  5. Mishra SG, Takke AK, Auti ST, et al. Role of Artificial Intelligence in Health Care. BioChemistry: An Indian Journal 2017; 11 : 120. [Google Scholar]
  6. Min JKwak MCha J. Overview of Deep Learning in Gastrointestinal Endoscopy. Gut Liver 2019 ; 13 : 388–393. [CrossRef] [PubMed] [Google Scholar]
  7. Iqbal M, Javed Z, Sadia H, et al. Clinical applications of artificial intelligence and machine learning in cancer diagnosis: looking into the future. Cancer Cell International 2021; 21 : 270–81. [CrossRef] [PubMed] [Google Scholar]
  8. Burlingame ALMcPherron RVWilson DM. Nonheuristic computer determination of molecular structure based upon carbon-13 nuclear magnetic resonance data: branched alkanes. Proc Natl Acad Sci U S A 1973 ; 70 : 3419–3422. [CrossRef] [PubMed] [Google Scholar]
  9. Shortliffe EH. Mycin: A Knowledge-Based Computer Program Applied to Infectious Diseases. Proceedings Annual Symposium on Computer Application in Medical Care 1977 : 66–69. [Google Scholar]
  10. Fradkov AL. Early History of Machine Learning. IFAC-Papers OnLine 2020; 53 : 1385–90. [CrossRef] [Google Scholar]
  11. Steinkraus D, Buck I, Simard PY. Using GPUs for machine learning algorithms. Proceedings of the Eighth International Conference on Document Analysis and Recognition (ICDAR’05) 2005; 1115–9. [Google Scholar]
  12. Hilbert MLópez P. The World’s Technological Capacity to Store, Communicate, and Compute Information. Science 2011 ; 332 : 60–65. [CrossRef] [PubMed] [Google Scholar]
  13. Qin XJiang Z. The Impact of AI on the Advertising Process: The Chinese Experience. Journal of Advertising 2019 ; 48 : 1–9. [CrossRef] [Google Scholar]
  14. Kasinathan A, Kasthurirangan D, Bhagavathy S. The Prevalence and Predominance of Artificial Intelligence in YouTube Advertisements in Shaping the Lifestyle of the Budding Generation. Handbook of Research on Lifestyle Sustainability and Management Solutions Using AI, Big Data Analytics, and Visualization 2022; 206–20. [Google Scholar]
  15. Causmaecker P. Data Science Meets Optimization. International Conference on Optimization and Decision Science, 2017. [Google Scholar]
  16. Zimmermann J. Data Competitions: Crowdsourcing with Data Science Platforms. The Machine Age of Customer Insight 2021; 1 : 183–97. [CrossRef] [Google Scholar]
  17. Haque M, Dharmadasa I, Sworna, et al. “I think this is the most disruptive technology”: Exploring Sentiments of ChatGPT Early Adopters using Twitter Data. ArXiv 2022. [Google Scholar]
  18. Waisberg E, Ong J, Masalkhi M, et al. GPT-4: a new era of artificial intelligence in medicine. Ir J Med Sci 2023; 192 : 3197–200. [CrossRef] [PubMed] [Google Scholar]
  19. Feldman P, Pan S, Foulds J. The Keyword Explorer Suite: A Toolkit for Understanding Online Populations. ArXiv 2023. [Google Scholar]
  20. Sallam M. The Utility of ChatGPT as an Example of Large Language Models in Healthcare Education, Research and Practice: Systematic Review on the Future Perspectives and Potential Limitations. Healthcare 2023; 11 : 887–90. [CrossRef] [PubMed] [Google Scholar]
  21. Hopkins A, Logan J, Kichenadasse, et al. AI chatbots will revolutionize how cancer patients access information: ChatGPT represents a paradigm-shift. JNCI cancer spectrum 2023; 7. [Google Scholar]
  22. Dave T, Athaluri SA, Singh S. ChatGPT in medicine: an overview of its applications, advantages, limitations, future prospects, and ethical considerations. Front Artif Intell 2023; 6 : 1169595. [CrossRef] [PubMed] [Google Scholar]
  23. Ahuja AS. The impact of artificial intelligence in medicine on the future role of the physician. PeerJ 2019; 7. [Google Scholar]
  24. Liu T, Zhang Y, Brockett C, et al. A Token-level Reference-free Hallucination Detection Benchmark for Free-form Text Generation. ArXiv 2021. [Google Scholar]

© 2024 médecine/sciences – Inserm

Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.

Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.

Le chargement des statistiques peut être long.