Open Access
Issue
Med Sci (Paris)
Volume 41, Number 3, Mars 2025
Page(s) 277 - 280
Section Prix Nobel
DOI https://doi.org/10.1051/medsci/2025036
Published online 21 March 2025

© 2025 médecine/sciences – Inserm

Licence Creative CommonsArticle publié sous les conditions définies par la licence Creative Commons Attribution License CC-BY (https://creativecommons.org/licenses/by/4.0), qui autorise sans restrictions l’utilisation, la diffusion, et la reproduction sur quelque support que ce soit, sous réserve de citation correcte de la publication originale.

Vignette (© Niklas Elmehed – Nobel Prize Outreach).

John J. Hopfield et Geoffrey E. Hinton sont deux figures emblématiques de l’intelligence artificielle. Le terme « intelligence artificielle » est utilisé pour désigner des algorithmes d’apprentissage automatique permettant de réaliser des tâches complexes, notamment en utilisant des réseaux de neurones artificiels [13] ().

(→) Voir m/s n° 3, 2024, page 283, m/s n° 11, 2020, page 1059 et m/s, n° 10, octobre 2020, page 919

Les travaux de ces deux chercheurs ont permis d’améliorer significativement la compréhension et l’utilisation des réseaux neuronaux artificiels dans de nombreux domaines, dont la physique, en proposant les bases théoriques de nombreux algorithmes actuels. En recevant le prix Nobel de Physique en 2024, ils rejoignent les 225 autres lauréats physiciens de cette prestigieuse récompense, mais avec la particularité d’être récompensés pour un sujet qui est habituellement associé à la science informatique.

Cet article retrace le parcours de ces deux chercheurs et explore l’impact de leurs travaux dans le domaine biomédical, notamment le développement de l’algorithme Alpha Fold [4] () dont les fondateurs furent également récompensés du prix Nobel de chimie cette même année.

(→) Voir m/s, n° 10, octobre 2024, page 725

Les prémisses des découvertes

John Joseph Hopfield, est né le 15 juillet 1933 à Chicago et a obtenu, en 1958, son Doctorat de Sciences à l’université Cornell (États-Unis) où il s’est intéressé aux cristaux [5]. Il a ensuite passé deux ans dans le groupe théorique des Laboratoires Bell1, puis un an à l’école normale supérieure d’Ulm à Paris. Après avoir été professeur de chimie et de biologie au California Institute of Technology (États-Unis) entre 1980 et 1996, il est depuis 1997 professeur de biologie moléculaire à l’université de Princeton. Aujourd’hui âgé de 91 ans, sa conférence devant le comité Nobel à Stockholm revenait sur sa contribution essentielle, le réseau de Hopfield [6], qui sera détaillé plus bas.

Geoffrey Everest Hinton est né le 6 décembre 1947 à Londres et a obtenu son Doctorat de Sciences à l’université d’Édimbourg (Écosse) en 1978 après une licence de psychologie à Cambridge (Angleterre). Il poursuit son doctorat par des postes d’enseignement et de recherche à l’université du Sussex, toujours en Angleterre, puis à l’université de Californie à San Diego et à l’université Carnegie-Mellon, aux États-Unis. Depuis 1987, il est professeur d’informatique à l’université de Toronto (où Yann Le Cun2 a effectué son post-doctorat). Ses travaux sur les machines de Bolztmann [7], qui sont les précurseurs des réseaux de neurones profonds, l’ont amené à être surnommé le « père de l’apprentissage profond ».

Hopfield et Hinton ont utilisé des outils et concepts issus de la physique, notamment de la physique statistique3, pour concevoir une théorie de réseaux de neurones artificiels qui optimisent leur état en minimisant leurs pertes. Tout comme certains systèmes physiques tendent naturellement vers leur état d’énergie minimal, les modèles de réseaux neuronaux qu’ils ont progressivement proposés convergent vers une configuration optimale en réduisant une fonction de coût. La fonction de coût mesure l’écart entre les prédictions d’un modèle et les valeurs réelles attendues. Plus cet écart est grand, plus le coût est élevé. Cette analogie avec la physique leur a permis de proposer des solutions innovantes aux problèmes que posaient l’apprentissage automatique dans les années 1980 [8].

En effet, au cours de cette décennie, les processeurs offraient une puissance de calcul très modeste et se posait alors l’enjeu d’établir une architecture de réseau la plus efficiente possible pour le traitement des données. Leur intérêt commun pour la modélisation des processus cognitifs (Hinton a effectué une licence en psychologie expérimentale), et l’application de principes physiques (Hopfield a effectué sa thèse en physique des particules) aux réseaux de neurones les a amenés à proposer des solutions issues de la neurobiologie et de la thermodynamique permettant d’optimiser les performances des réseaux dans un contexte de puissance computationnelle limitée, en utilisant des modèles de neurones à partir de ceux décrits initialement par le neurophysiologiste Warren McCulloch et le mathématicien Walter Pitts, dans leur article fondateur dans The Bulletin of mathematical biophysics [9], capables de faire du calcul booléen (sur des 0 et des 1).

Cette interaction étroite entre plusieurs disciplines, de la neurobiologie à la physique-chimie, appliquée à l’informatique théorique, explique ce double prix Nobel de physique, et son association, la même année, avec le prix Nobel de chimie qui a été décerné à Demis Hassabis et John Jumper [10]. Ces deux derniers font partie des chercheurs qui ont créé AlphaFold [11,12] () une architecture d’apprentissage profond capable de prédire la structure des protéines avec une précision inégalée.

(→) Voir m/s n° 6-7, 2005, page 609 et m/s n° 2, 2021, page 197

Si ces réseaux de neurones sont très utiles en biochimie, par exemple dans la découverte de nouveaux médicaments [13] (), le comité Nobel rappelle également que les réseaux de neurones sont employés depuis longtemps en physique et en astronomie. Cette méthode de traitement des données a été utilisée dans des champs de recherche tel que celui sur le boson de Higgs [14]. Ils sont aussi utilisés pour détecter et identifier des fluctuations de luminosité trahissant des transits planétaires, comme ce fut le cas avec la mission Kepler de la NASA [15].

(→) Voir m/s n° 4, avril 2024, page 369

John J. Hopfield et l’optimisation du réseau neuronal

En 1982, en se basant sur les travaux de McChulloch et Pitts4, Hopfield introduit une architecture de réseau neuronal récurrent permettant de stocker, de restructurer la donnée et d’en tirer une abstraction de manière automatisée [16]. À partir de cette abstraction, ce motif, le réseau de Hopfield va pouvoir associer un motif d’entrée à un des motifs stockés. Ce « réseau de Hopfield » est donc une sorte de mémoire associative. Inspiré de la physique statistique [17], il utilise le concept de minimisation d’énergie pour optimiser et stabiliser l’état global du réseau. Hopfield reprend le terme de « neurone » et le combine avec les propriétés des circuits électriques pour établir le terme de « réseau de neurones ».

Plus spécifiquement, dans le modèle standard de Hopfield, chaque neurone est connecté à tous les autres, et les connexions sont symétriques (i.e. wij = wji). Il est entraîné pour trouver des valeurs de connexions entre les nœuds de telle sorte que l’état final du réseau ait une faible énergie. Lorsqu’on introduit un état déformé5 dans le réseau de Hopfield, celui-ci travaille méthodiquement à travers les nœuds et met à jour leurs valeurs pour que l’énergie du réseau diminue et retrouve une configuration mémorisée, de façon séquentielle ou asynchrone. Le réseau fonctionne ainsi par étapes pour revenir dans un état de faible énergie. Il peut donc servir de modèle pour la mémoire associative et le traitement parallèle distribué6, puisque la minimisation de la fonction d’énergie permet au réseau de converger vers des états stables qui correspondent aux souvenirs ou aux motifs stockés [18]. Il est important de noter que cette méthodologie est déterministe : on n’est pas encore dans de l’apprentissage probabiliste (qui sera introduit par Hinton quelques années plus tard)7.

Le réseau de Hopfield a représenté une avancée majeure car il a démontré comment un système neuronal artificiel pouvait stocker et récupérer des informations de manière robuste, même en présence de données incomplètes ou bruitées.

Le comité du prix Nobel reconnaît aujourd’hui l’importance du changement de paradigme réalisé par John Hopfield. Il a utilisé des concepts de la physique fondamentale pour modéliser une architecture de réseau de neurones permettant de mimer la mémoire associative cérébrale, ouvrant la voie aux progrès de l’apprentissage automatique.

Geoffrey E. Hinton et la rétropropagation

En s’inspirant des avancées dans le domaine de l’apprentissage automatique dans les années 1960 et 1970, ainsi que des travaux de Hopfield, Geoffrey Hinton propose une nouvelle architecture de réseaux neuronaux, cette fois-ci probabiliste. En effet, un des problèmes des réseaux de Hopfield est qu’ils peuvent parfois, en fonction de leur configuration initiale, être bloqués dans des états stables mais sous-optimaux. Afin de contrecarrer cela, Hinton propose d’introduire une composante de fluctuation probabiliste permettant de s’échapper de ces états sous-optimaux : ce sont les machines de Boltzmann8, décrites par Hinton en 1985 [8].

Dans les années suivantes, Hinton fut l’un des auteurs, avec Paul Werbos, David Rumelhart, Ronald Williams, d’une méthodologie qui optimise l’apprentissage des algorithmes de manière radicale pour l’époque : la rétropropagation [19]. Cette technique est présentée comme une solution pratique pour ajuster les poids des réseaux de neurones et minimiser l’erreur de sortie de manière itérative. Elle consiste à mettre à jour les poids de chaque neurone de la dernière couche vers la première (d’où le terme “rétro”).

Dans le modèle originel de Hopfield (celui de 1982), il n’y a, en effet, pas de rétropropagation. À la place, les poids synaptiques sont déterminés par une règle de calcul déterministe : ils sont calculés en combinant les motifs à mémoriser sous forme de matrices, obtenues en multipliant chaque motif par lui-même. En additionnant ces matrices, le réseau construit progressivement une représentation qui permet d’associer un motif d’entrée au motif stocké le plus proche en termes de similarité.

La rétropropagation a été une percée significative car elle a démontré des performances bien plus élevées comparativement aux techniques antérieures, et a donné naissance à des modèles capables de reconnaître des motifs de plus en plus complexes dans des données de plus en plus volumineuses. Ces modèles ont été utilisés pour l’apprentissage non supervisé9, les tâches de classification et de prédictions, ainsi que la génération de nouvelles données, ouvrant la voie à des outils comme AlphaFold.

Dans les années 2010, accompagnés de ses étudiants Ilya Sutskever10 et Alex Krizhevsky, Hinton a développé AlexNet [20], une architecture de réseau de neurones qui marquera un tournant majeur dans le domaine de la reconnaissance d’image. L’innovation clé d’AlexNet résidait dans l’utilisation de processeurs graphiques (GPU) pour paralléliser les calculs, permettant ainsi d’entraîner un réseau profond avec beaucoup plus de couches qu’habituellement et de manière plus efficiente [21].

L’impact en Recherche Biomédicale

Les travaux de Hopfield et Hinton ont eu un impact majeur en recherche biomédicale [22]. Les réseaux de Hopfield ont été utilisés pour modéliser des processus biologiques complexes, tels que les interactions protéiques, les réseaux de régulation génétique et la dynamique des populations cellulaires [23]. La capacité de ces réseaux à converger vers des états stables a été exploitée pour comprendre comment les cellules maintiennent leur état différencié ou répondent à des signaux externes [24].

L’apprentissage profond, développé par Hinton notamment, est largement utilisé pour l’analyse des données de santé. Les réseaux neuronaux convolutifs, par exemple, sont utilisés dans tous les pans de la médecine : que ce soit en anatomopathologie pour prédire la réponse aux immunothérapies [25] ou en cardiologie pour analyser les coupes d’échographie trans-thoracique [26], ces réseaux augmentent les performances diagnostiques, thérapeutiques et pronostiques.

Ces avancées théoriques et méthodologiques ont également jeté les bases de développements majeurs d’outils tels qu’AlphaFold, un outil qui a grandement impacté la biologie structurale en permettant la prédiction précise de la structure tridimensionnelle des protéines. Depuis son lancement, AlphaFold est largement utilisé par grand nombre de biologistes. Il facilite l’étude des mécanismes moléculaires et l’élaboration de nouvelles stratégies thérapeutiques, notamment dans la recherche de cibles médicamenteuses et la conception de protéines sur mesure.

Conclusion

Les contributions de John J. Hopfield et Geoffrey E. Hinton ont profondément influencé le domaine de l’intelligence artificielle et ont conduit à des avancées significatives en santé. Leur utilisation innovante des concepts physiques pour modéliser des réseaux neuronaux plus performants a non seulement enrichi notre compréhension théorique, mais a également engendré des applications pratiques qui améliorent la santé humaine. Leur travail continue d’inspirer de nouvelles recherches et applications, consolidant leur place parmi les pionniers de l’intelligence artificielle.

Remerciements

Nous remercions le Dr Pierre Bauvin et le Pr Xavier Tannier pour leur encadrement technique et scientifique.

Liens d’intérêt

Les auteurs déclarent n’avoir aucun lien d’intérêt concernant les données publiées dans cet article.


1

Bell Telephone Laboratories, également connus sous le nom d’AT&T Bell Laboratories ou plus communément Bell Labs, est une institution de recherche et développement initialement créée pour consolider les activités de recherche et d’innovation dans le domaine des communications et des sciences connexes pour le système Bell (Ndlr d’après Wikipédia).

2

Yann Le Cun est le co-détenteur français du prix Turing 2018, qu’il partage avec Geoffrey Hinton et Yoshua Bengio.

3

La physique statistique est une branche fondamentale de la physique théorique dont l’objectif principal réside dans l’élucidation des phénomènes macroscopiques observables à partir des propriétés et des interactions des entités microscopiques constitutives (Ndlr d’après Wikipédia).

4

Warren Sturgis McCulloch (1898-1969) et Walter Harry Pitts Jr. (1923-1969) sont deux figures emblématiques dans le domaine des neurosciences computationnelles et de l’intelligence artificielle. McCulloch, neurophysiologiste américain, et Pitts, logicien spécialisé en neurosciences, ont collaboré pour conceptualiser le neurone formel, également connu sous le nom de neurone de McCulloch-Pitts. Ce modèle représente une abstraction mathématique et informatique d’un neurone biologique (Ndlr).

5

Dans le contexte d’un réseau de Hopfield, un « état déformé » désigne une configuration initiale des neurones (un motif ou un vecteur d’entrée) qui ressemble à un motif stocké, mais qui est incomplet, bruité ou erroné. Autrement dit, il ne correspond pas parfaitement à l’un des motifs appris, mais il s’en approche suffisamment pour que la dynamique de mise à jour du réseau (basée sur la minimisation de l’énergie) le « corrige » automatiquement et le fasse converger vers l’état stocké le plus proche.

6

Il s’agit de tâches exécutées sur plusieurs ordinateurs ou nœuds, utilisant la communication réseau et le partage de données (Ndlr).

7

L’apprentissage probabiliste est un sous-domaine de l’apprentissage automatique dans lequel les algorithmes font des prédictions basées sur des distributions de probabilité des résultats possibles (Ndlr).

8

Les machines de Boltzmann portent ce nom en l’honneur du physicien autrichien Ludwig Boltzmann (1844-1906). Cette appellation est due à l’inspiration issue de la mécanique statistique (plus précisément, en cinétique des gaz), un domaine dans lequel Boltzmann a apporté des contributions majeures.

9

L’apprentissage non supervisé, utilise des algorithmes d’apprentissage automatique pour analyser et regrouper des jeux de données non étiquetés sans nécessiter d’intervention humaine.

10

Qui deviendra le cofondateur et le directeur technique d’OpenAI, l’entreprise qui développera ChatGPT.

Références

  1. Benani A. History and vision of artificial intelligence. Med Sci (Paris) 2024 ; 40 : 283–286. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  2. Jean A. Une brève introduction à l’intelligence artificielle. Med Sci (Paris) 2020 ; 36 : 1059–1067. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  3. Haiech J. Parcourir l’histoire de l’intelligence artificielle, pour mieux la définir et la comprendre. Med Sci (Paris) 2020 ; 36 : 919–923. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  4. Taly A, Verger A. Prédiction de structures biomoléculaires complexes par AlphaFold 3. Med Sci (Paris) 2024 ; 40 : 725–727. [Google Scholar]
  5. Hopfield JJ. Theory of the Contribution of Excitons to the Complex Dielectric Constant of Crystals. Physical Rev 1958 : 1555–67. [Google Scholar]
  6. Hopfield JJ, Tank DW. “Neural” computation of decisions in optimization problems. Biol Cybern 1985 ; 52 : 141–52. [Google Scholar]
  7. Nair V, Hinton GE. Rectified Linear Units Improve Restricted Boltzmann Machines. ICML’10: Proceedings of the 27th International Conference on International Conference on Machine Learning, 2010 : 807–8. [Google Scholar]
  8. Ackley DH, Hinton GE, Sejnowski TJ. A Learning Algorithm for Boltzmann Machines. In : Fischler MA, Firschein O, eds. Readings in Computer Vision. San Francisco (CA) : Morgan Kaufmann, 1987 : 522–33. [Google Scholar]
  9. McCulloch WS, Pitts W. A logical calculus of the ideas immanent in nervous activity. Bull Math Biophys 1943 ; 5 : 115–33. [Google Scholar]
  10. Jumper J, Evans R, Pritzel A, et al. Highly accurate protein structure prediction with AlphaFold. Nature 2021 ; 596 : 583–9. [CrossRef] [PubMed] [Google Scholar]
  11. Simonson T. Le « problème du repliement » : peut-on prédire la structure des protéines ? Med Sci (Paris) 2005 ; 21 : 609–12. [Google Scholar]
  12. Jordan B. AlphaFold : un pas essentiel vers la fonction des protéines. Chroniques génomiques. Med Sci (Paris) 2021 ; 37 : 197–200. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  13. Moingeon P, Garbay C, Dahan M, et al. L’intelligence artificielle, une révolution dans le développement des médicaments. Med Sci (Paris) 2024 ; 40 : 369–76. [Google Scholar]
  14. Baldi P, Sadowski P, Whiteson D. Enhanced Higgs Boson to τ+τ - Search with Deep Learning. Phys Rev Lett 2015 ; 114 : 111801. [Google Scholar]
  15. Rajput PS. Exoplanet Detection Using Machine Learning : A Comparative Study Using Kepler Mission Data. Int J Sci Res Sci Technol. 2024 ; 11 : 43–8. [Google Scholar]
  16. Hopfield JJ. Neural networks and physical systems with emergent collective computational abilities. Proc Natl Acad Sci USA 1982 ; 79 : 2554–8. [Google Scholar]
  17. Hopfield JJ. Neurons with graded response have collective computational properties like those of two-state neurons. Proc Natl Acad Sci USA 1984 ; 81 : 3088–92. [Google Scholar]
  18. Hopfield JJ, Tank DW. Computing with Neural Circuits: A Model. Science 1986 ; 233 : 625–33. [Google Scholar]
  19. Rumelhart DE, Hinton GE, Williams RJ. Learning representations by back-propagating errors. Nature 1986 ; 323 : 533–6. [CrossRef] [Google Scholar]
  20. Krizhevsky A, Sutskever I, Hinton GE. ImageNet classification with deep convolutional neural networks. Commun ACM 2017 ; 60 : 84–90. [CrossRef] [Google Scholar]
  21. Yao L, Miller JA. Tiny ImageNet Classification with Convolutional Neural Networks. Computer Science, 2015. [Google Scholar]
  22. LeCun Y, Bengio Y, Hinton G. Deep learning. Nature 2015 ; 521 : 436–44. [CrossRef] [PubMed] [Google Scholar]
  23. Pritchard L, Dufton MJ. Do proteins learn to evolve? The Hopfield network as a basis for the understanding of protein evolution. J Theor Biol. 2000 ; 202 : 77–86. [PubMed] [Google Scholar]
  24. Fard AT, Srihari S, Mar JC, et al. Not just a colourful metaphor: modelling the landscape of cellular development using Hopfield networks. NPJ Syst Biol Appl 2016 ; 2 : 16001. [Google Scholar]
  25. Jiang Y, Zhang Z, Wang W, et al. Biology-guided deep learning predicts prognosis and cancer immunotherapy response. Nat Commun 2023 ; 14 : 5135. [PubMed] [Google Scholar]
  26. Ghorbani A, Ouyang D, Abid A, et al. Deep learning interpretation of echocardiograms. Npj Digit Med 2020 ; 3 : 1–10. [Google Scholar]

Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.

Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.

Initial download of the metrics may take a while.