Accès gratuit
Numéro
Med Sci (Paris)
Volume 25, Numéro 6-7, Juin-Juillet 2009
Page(s) 576 - 577
Section Dossier Biologie des systèmes : Avant-propos
DOI https://doi.org/10.1051/medsci/2009256-7576
Publié en ligne 15 juin 2009

La biologie systémique : la biologie passe du descriptif au prédictif

Pour paraphraser Antoine Danchin qui parlait de la barque de la pythie, c’est l’interaction des planches entre elles qui permet de comprendre pourquoi l’embarcation de la déesse flotte et non pas la description de chaque planche qui en fait a été changée à de multiples reprises [1]. En voulant expliquer la biologie en partant des propriétés des molécules et surtout des relations entre elles, l’école pastorienne de Jacques Monod, François Jacob et André Lwoff a modifié les paradigmes des sciences du vivant avec la naissance de la biologie moléculaire dans les années 1950. Cette transition naturelle avait débuté en fait au début du XXe siècle avec l’enzymologie (G. Büchner en 1897, V. Henri en 1903 puis L. Michaelis et M. Mentens en 1912, G.E. Briggs et J.B. Haldane en 1925) ; elle s’est aussi appliquée aux sciences cognitives : au cours des rencontres organisées par la fondation Macy1 entre 1942 et 1953, le travail multidisciplinaire entre cybernéticiens (N. Wiener, J. Von Newman), mathématicien (A.M. Turing) et neurologue (W.S. MacCulloch), dont l’objectif était de modéliser la vision et le fonctionnement de l’esprit, fut à l’origine entre autres de travaux menés par la communauté scientifique travaillant en intelligence artificielle.

Les deux approches (biologie moléculaire/sciences cognitives) ont mis en avant le concept de flux d’informations (la description, les bases de données) et ont naturellement représenté les systèmes vivants sous forme de réseaux, dont l’interaction était décrite par la théorie des graphes, outil mathématique important.

À partir des années 1920, l’analyse des flux de matière et d’énergie dans la cellule a conduit à décrire les chaînes métaboliques puis à essayer de les modéliser. Partant de la cinétique enzymatique, une théorie des systèmes s’appuyant sur une représentation des flux utilisant les équations différentielles s’est naturellement développée. Les années 1970-1980 constituent avec l’émergence de la théorie des systèmes de P. Delattre, R. Thom (mathématicien qui a exploré tout un versant de la théorie des équations différentielles, la théorie des catastrophes) et la communauté des thermodynamiciens autour d’Ilya Prigogine, l’acmé de cette école.

Le couple flux d’informations/flux de matière-énergie constitue la pierre angulaire de la biologie des systèmes. La biologie des systèmes considère que les propriétés du système global sont « supérieures » à la somme des propriétés des éléments qui le composent. Elle permet à la biologie de devenir prédictive. La biologie des systèmes serait restée cantonnée à des discours théoriques sans l’émergence des technologies « -omiques » permettant une vision globale d’un morceau du vivant. Les années 1990 ont préparé cette révolution. Les « -omiques » sont à la biologie des systèmes ce que le génie génétique des années 1970 est à la biologie moléculaire.

L’apparition de modèles prédictifs marque en général le début d’un dialogue entre ingénierie (faire) et science (comprendre). C’est le cas en sciences du vivant avec des interactions fructueuses entre médecine et science par l’établissement d’un cercle vertueux : comprendre pour soigner et soigner pour comprendre, et aussi entre biotechnologie et biologie.

La biologie synthétique et la vie artificielle

La biologie des systèmes a maintenant des extensions. La première, la « biologie synthétique », a été institutionnalisée au MIT (Massachusetts Institute of Technology) dans le département des sciences de l’ingénieur au début des années 2000. Elle se fonde sur la conviction que le vivant est trop complexe pour être décrit et modélisé. Il vaut mieux le reconstituer artificiellement en essayant d’imiter ses fonctions pour appréhender les lois fondamentales de la vie. Ainsi, la biologie synthétique est le mélange parfait du faire et du comprendre et apparaît comme le successeur de la biologie moléculaire et du génie génétique. Elle utilise les trois techniques de base du génie génétique (le séquençage, le clonage et la réaction de PCR) auxquelles elle ajoute trois techniques et concepts issus des sciences de l’ingénieur (la robotisation - miniaturisation et multiplexage - en particulier pour automatiser la synthèse de gènes, la standardisation - pour définir des modules de base réutilisables -, et finalement la simulation pour prédire le fonctionnement d’un système que l’on va construire) afin de créer des systèmes biologiques reconstitués. Cette approche a conduit le MIT à lancer une compétition internationale (iGEM) donc nous avons déjà rendu compte et où les équipes françaises sont très bien positionnées [2, 3].

La deuxième, la « vie artificielle »,a été médiatisée par John Craig Venter. L’amélioration des techniques de séquençage a permis de comparer les séquences d’organismes entiers et de poser la question d’un organisme minimal ou mieux, d’un organisme minimal réalisant une fonction donnée. Par rapport à l’approche du MIT où l’on part du concept de gène (le transistor de base du vivant) et où l’on complexifie, ici, on a une approche inverse : on part d’un organisme existant et on essaie de le simplifier. Cela consiste à faire avec un génome minimal une bactérie résistante à la radioactivité par exemple [4].

La nature a inventé les nanosciences : cela s’appelle le vivant

Au cours de l’évolution, la nature a créé des nanomachines et des nanocircuits de gestion de l’information, soit des machines dont la taille est celle des molécules (le nanomètre ou 10 Å). La nature a sélectionné des ensembles de molécules uniques différentes, ordonnées dans un espace cellulaire et organisées pour réaliser des fonctions permettant une pérennité de ces ensembles dans l’espace et dans le temps grâce à une adaptation et une anticipation aux conditions extérieures. Nous avons coutume d’appeler ces ensembles systèmes vivants. Copier le vivant revient à faire des nanosciences. Copier le vivant pour soigner, c’est faire de la nanomédecine. Entre le médecin chercheur et le médecin praticien (l’ingénieur de la santé) commence à s’établir une synergie beaucoup plus importante. Le médecin praticien utilise les concepts issus de la connaissance du vivant pour créer des outils diagnostiques et thérapeutiques de plus en plus miniaturisés. Le but est d’agir le plus localement possible au niveau de la cellule ou de la molécule (dans le domaine du nanomètre). On assiste maintenant à l’émergence d’une médecine personnalisée qui s’appuie sur le couplage du thérapeutique et du diagnostic (le « théranostique ») utilisant des nanocapteurs (pour le diagnostic), des nanoparticules « intelligentes » (pour la formulation des molécules actives) et des nanosystèmes (des nanopompes par exemple) pour délivrer le médicament au bon moment en fonction des mesures effectuées par les nanocapteurs. L’Europe commence à explorer les possibilités de ce tryptique - biologie systémique/biologie synthétique/nanobiotechnologies - dans le domaine de la santé. Elle a ainsi lancé plusieurs actions pour défricher ces nouveaux champs du savoir et de l’ingénierie.


Références

  1. Danchin A. Saurons-nous construire une bactérie synthétique ? Med Sci (Paris) 2008; 24 : 533–40. [Google Scholar]
  2. Bikard D, Képès F. Succès de la première équipe française lors de la compétition iGEM de biologie synthétique. Med Sci (Paris) 2008; 24 : 541–4. [Google Scholar]
  3. Häfner S. Compétition iGEM 2008 : deux équipes françaises. Med Sci (Paris) 2009; 25 : 524–8. [Google Scholar]
  4. Gibson DG, Benders GA, Andrews-Pfannkoch C, et al. Complete chemical synthesis, assembly and cloning of a Mycoplasma genitallium genom. Science 2008; 319 : 1215–20. [Google Scholar]

© 2009 médecine/sciences - Inserm / SRMS

Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.

Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.

Le chargement des statistiques peut être long.