Accès gratuit
Numéro
Med Sci (Paris)
Volume 18, Numéro 6-7, Juin–Juillet 2002
Page(s) 764 - 766
Section Repères : Perspectives/Horizons
DOI https://doi.org/10.1051/medsci/20021867764
Publié en ligne 15 juin 2002

Notre collègue George Klein déclara un jour, au cours d’un séminaire sur la transduction cellulaire du signal : « À compter de ce jour, les biologistes ne devront pas seulement vivre avec la complexité, ils devront aussi l’aimer ». La notion de complexité a une longue histoire. Elle n’a longtemps été qu’intuitive, un simple mot pour désigner nos difficultés à faire face à une situation donnée. C’est dans ce sens que Jacques Monod l’utilise quand il observe dans son livre célèbre « Le hasard et la nécessité » que l’organisation biologique est fondamentalement la même que celle des cristaux, seulement « plus complexe ».

Cependant, à peu près à la même période, John Von Neumann prédit l’émergence, au XXe siècle, d’une science de la complexité. Il partait d’une déclaration intuitive à propos de la complexité fonctionnelle : « un objet est du plus haut degré de complexité s’il peut « faire des choses » très difficiles et intriquées ». Il reconnaissait que le concept était encore « vague, non scientifique et imparfait », soulignant néanmoins « une propriété décisive de la complexité », à savoir qu’ « il existe une taille critique en-deçà de laquelle le processus de synthèse dégénère, mais au-delà de laquelle ce même phénomène, en conditions adéquates, peut devenir explosif ». Finalement, utilisant indistinctement complication et complexité comme des synonymes, ce qu’ils ne sont pas, il concluait quelques remarques introductives de cette manière : « Maintenant, rien de tout cela ne pourra sortir du domaine des énoncés vagues tant que l’on n’aura pas défini correctement le concept de complication. Et on ne peut définir correctement le concept de complication tant que l’on n’a pas examiné en détail quelques exemples critiques, c’est-à-dire quelques-unes des constructions manifestant les propriétés critiques et paradoxales de la complication. Il n’y a rien de nouveau dans tout cela. Il en est allé exactement de même avec les propriétés de conservation et de non-conservation en physique, avec le concept d’énergie et d’entropie, et avec d’autres concepts critiques. Les systèmes mécaniques et thermodynamiques les plus simples ont nécessité de longues discussions avant que les concepts corrects d’énergie et d’entropie aient pu en être extraits ».

En d’autres termes, Von Neumann entrevoyait qu’il ne suffirait pas d’utiliser le mot « complexité » pour rendre compte de phénomènes. Il faudrait plutôt reconnaître que la valeur explicative de ce mot est très limitée et que, de fait, il désigne des phénomènes et des choses qui restent à expliquer.

Espoirs…

Durant les quarante à cinquante dernières années, l’idéal classique qui vise à expliquer des observations très complexes en les réduisant à des lois et des mécanismes simples sembla être atteint en biologie grâce à la découverte du code génétique et de son universalité. C’était réellement là une découverte époustouflante qui devait mener à une loi invariante sous tendant tous les processus biologiques. En tant que tel, un réductionnisme génétique couronné de succès semblait à portée de main et la réalisation du projet d’analyse du génome était supposée répondre à cette attente.

…Déçus ?

Ce n’est pas ce qui s’est produit. En réalité, la réalisation de ce projet a mis en évidence que tout n’était pas inscrit dans les séquences d’ADN, même au niveau moléculaire et cellulaire. L’ère du post-génome dans laquelle nous entrons est dénommée « génomique fonctionnelle », « protéomique » ou « cellulomique ». Ces expressions ont pour but de souligner l’importance de comprendre les fonctions dans le contexte de la structure tridimensionnelle des protéines irréductibles aux séquences nucléotidiques linéaires, et des interactions régulatrices entre les protéines, les acides nucléiques, les petites molécules et les ions dans une seule cellule. Ce qui caractérise une cellule est un réseau de milliers de réactions chimiques, activées ou réprimées différemment en fonction du type de cellule et de l’état dans lequel cette cellule se trouve, normal ou pathologique. Tous les motifs structuraux et fonctionnels ne sont pas déterminés de manière simple par le génome comme s’il s’agissait de l’exécution d’un programme informatique. Les structures d’ADN s’apparentent plutôt à des données statiques stockées dans une mémoire, transmises de cellule en cellule et d’une génération à l’autre, et traitées par le reste de la machinerie cellulaire. C’est cette dernière qui exécute vraiment les fonctions. Même cette métaphore devrait être corrigée par l’observation que la structure du réseau biochimique fonctionnel d’une cellule dans un état donné est modifiée lorsque le profil d’activation des gènes est modifié. Le tableau qui en résulte est celui d’un réseau en perpétuelle évolution, dont les changements de structure sont le résultat de son activité.

Adieu, simplicité

Le grand défi aujourd’hui est d’arriver à gérer la somme colossale de données expérimentales qui concernent les corrélations entre, d’une part, les structures et les interactions moléculaires et, d’autre part, les fonctions cellulaires, en gardant bien présent à l’esprit que la notion classique « un gène – une protéine – une fonction » est l’exception plutôt que la règle. Non seulement un gène code plusieurs protéines mais une protéine est le produit de plusieurs séquences d’ADN. Il arrive aussi qu’une seule et même protéine assure, dans une cellule, plusieurs fonctions totalement différentes, apparemment sans lien entre elles, suivant sa localisation et son micro-environnement.

Pour comprendre comment cela fonctionne, la méthode expérimentale classique qui consiste à faire varier un seul paramètre à la fois, tout le reste étant égal par ailleurs, n’est pas suffisante. L’utilisation de techniques sophistiquées de biologie moléculaire, telles que celles donnant naissance aux animaux génétiquement modifiés, était sensée appliquer avec succès cette méthode au niveau moléculaire et cellulaire, comme cela avait été le cas aux temps pionniers de la physiologie au niveau des organes et des organismes. Dans ce contexte, il est cependant surprenant de constater que l’invalidation, chez une souris, d’un gène impliqué dans de nombreuses fonctions vitales puisse avoir aussi peu de conséquences phénotypiques.

De plus, la découverte de théories générales réduisant cette complexité à des lois simples, comme c’est le cas en physique et même en chimie, est très improbable en biologie.

Modélisation, mode d’emploi

La modélisation est maintenant le mot-clé. Comment allons-nous concevoir une image intelligible d’une cellule ou d’un ensemble de différentes populations cellulaires en assemblant leur constituants (organites, macromolécules, réactions chimiques, transports) de telle manière que le modèle reproduise ce qui est observé ?

Nous devons, d’une part, apprendre des ingénieurs et des scientifiques de l’informatique à concevoir des modèles mathématiques et informatiques de machines destinées à effectuer une fonction donnée en assemblant diverses parties de manière appropriée. En connaissant les propriétés individuelles de ces parties et la façon dont elles sont inter-connectées et s’influencent mutuellement, on peut calculer le comportement de l’ensemble. Bien entendu, cet ensemble peut lui-même être utilisé comme l’une des parties d’un niveau plus intégré d’organisation. C’est ainsi que des machines complexes sont construites… incluant les ordinateurs nécessaires au développement de ces modèles. Il faut, d’autre part, garder à l’esprit que ce type d’expertise de modélisation peut se révéler frustrant s’il est appliqué, tel quel, à la tâche de comprendre comment sont construites et fonctionnent des machines naturelles, non fabriquées par l’homme, telles que des cellules, des organismes et, dans une certaine mesure, des sociétés. La nature n’a pas construit ces machines à partir d’un plan conçu pour l’occasion par un ingénieur. C’est là que les physiciens, les ingénieurs et les informaticiens, tentés de relever ce défi, doivent puiser dans ce que les biologistes ont accumulé d’observations partielles et souvent contradictoires. La structure biologique n’est pas nécessairement celle qu’un ingénieur intelligent aurait choisi pour accomplir la même fonction. La rationalité de la nature n’est pas toujours celle d’un architecte, même avec l’aide de la sélection naturelle, n’en déplaise aux partisans de l’épistémologie évolutive. La métaphore du bricolage de François Jacob est ici plus adaptée que la recherche raisonnée et rationnelle des moyens les plus élégants et économiques d’atteindre un but. Souvenons-nous que cette métaphore a été empruntée à l’anthropologiste Claude Lévy-Strauss qui l’utilisait pour décrire le genre d’outils développés par des populations qui ne connaissaient rien de la science moderne et de la technologie. Cela signifie que différents types de rationalité peuvent être à l’œuvre dans la nature, y compris dans la nature humaine. Il en découle que nous pouvons rencontrer des difficultés inattendues et, peutêtre, des limitations intrinsèques dans l’habituelle règle du jeu de la modélisation quand nous l’appliquons à la compréhension d’organisations naturelles complexes, même au niveau d’une simple cellule.

L’une des différences majeures avec l’approche classique de l’ingénieur est l’utilisation, par la nature, d’un certain degré de hasard, classiquement considéré comme une source de désorganisation, pour accroître au contraire l’efficacité d’une organisation. Cela est admis aujourd’hui au point que des ingénieurs et des physiciens ont intégré ce concept dans leurs propres méthodes de conception de systèmes adaptatifs.

Salutaire redondance

Une autre difficulté, peut-être encore plus fondamentale, est le degré de sous-détermination des modèles qui semble caractériser la plupart des systèmes biologiques étudiés in vivo. Quand on s’intéresse à un système constitué d’un nombre important de variables observables liées entre elles de telle sorte que différents états structuraux et fonctionnels de l’ensemble peuvent être observés, il existe en général de nombreux modèles possibles d’interactions permettant de prédire les mêmes états observés. Cette caractéristique n’est pas seulement un obstacle au cheminement idéal qui consisterait à éliminer tous les modèles possibles sauf un. C’est probablement une propriété intrinsèque de stabilité de structure qui confère un grand degré de robustesse et de redondance fonctionnelle aux différentes voies dans les systèmes réels eux-mêmes et non seulement dans leurs modèles. Il est très probable que l’immense complexité des voies de signalisation intracellulaires illustre cette propriété. Ce degré de sous-détermination peut être mesuré, pour un système donné, par le rapport entre le nombre de modèles possibles d’interaction entre n composants et le nombre d’états observés. En tant que tel, cela pourrait être une bonne estimation de la complexité des systèmes naturels. Puisque ce rapport augmente exponentiellement avec n, il constitue vraisemblablement une limitation intrinsèque aux capacités de modélisation analytique pour de tels systèmes.

C’est pourquoi il importe de bien choisir la stratégie ad hoc de modélisation, la mieux adaptée à l’ensemble de données disponibles et aux différentes possibilités d’observations et d’expériences. La modélisation générique peut également être utile. Dans un modèle générique, on n’essaie pas de mettre ensemble toutes les données disponibles dans une stratégie « du bas vers le haut ». On procède au contraire « du haut vers le bas », abandonnant certaines des données disponibles au niveau de chaque élément et recherchant des modèles abstraits capables de donner un aperçu de certains traits généraux ou de lois d’organisation qui puissent aider à expliquer des structures et/ou des fonctions globales. Par exemple, sous quelles conditions des processus d’auto-organisation de complexité croissante, prévus par Von Neumann, peuvent-ils se produire ? Comment les systèmes naturels engendrent-ils leur propre signification, sachant que la relation entre la complexité algorithmique et le sens n’est pas la même pour des machines fabriquées par l’homme et pour des « machines » naturelles ?

Espérons enfin que nous surmonterons une ultime difficulté, celle qui découlerait de la réalisation de modèles aussi complexes que les systèmes réels qu’ils sont censés représenter, … de sorte que la technique de modélisation ne fournisse plus aucune aide à la compréhension du réel.


© 2002 médecine/sciences - Inserm / SRMS

Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.

Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.

Le chargement des statistiques peut être long.