Accès gratuit
Numéro
Med Sci (Paris)
Volume 28, Juin–Juillet 2012
2e Colloque Sciences de la vie en société : Transformation des modes de production dans les sciences du vivant / Biologie à haut débit, plates-formes, brevets (Paris, 8 décembre 2011)
Page(s) 34 - 38
Section Session 3 : Façons de connaître – Un nouveau paradigme pour la recherche en biologie ?
DOI https://doi.org/10.1051/medsci/201228s210
Publié en ligne 29 juin 2012

Vincent Ramillon

Bonjour à tous. Je tiens à remercier l’IFRIS et Genopole® pour avoir organisé cette série de colloques. Les conclusions de mon exposé seront assez proches des idées proposées par Michel Morange, mais à partir d’une méthodologie différente, puisque mon objectif est plutôt de réfléchir aux conditions historiques ayant permis l’apparition du discours actuel sur la complexité biologique afin d’en analyser les enjeux en termes d’évolution des pratiques scientifiques.

1985-1995 : essor de la génomique et transformation des normes de l’activité scientifique

Je souhaite commencer ma présentation par une anecdote. Le 7 août 1987, le Congrès américain avait réuni les principaux acteurs impliqués dans la réflexion sur l’organisation d’un programme d’analyse du génome aux États-Unis, afin d’en évaluer les coûts [1]. Les discussions semblent s’être déroulées sans véritables tensions, à l’exception d’un échange ayant opposé Paul Berg1 à Walter Gilbert. Paul Berg, en effet, pose explicitement à cette occasion la question de l’utilité et de la pertinence scientifique immédiate de séquencer le génome dans son entier ; il propose au contraire de se limiter à ses portions exprimées. Walter Gilbert concède alors à Berg la validité de son objection, tout en rétorquant néanmoins que celle-ci repose sur une interprétation faussée voulant faire du séquençage un projet scientifique en tant que tel. Pour Gilbert, séquencer le génome humain serait certes un service incomparable rendu à la communauté scientifique, sans pour autant constituer en soi une activité de nature scientifique. Et de poursuivre que les institutions académiques ne sont pas le lieu naturel de la réalisation d’un tel projet. Il s’agit ici pour nous de bien mesurer que cette position ne vise pas à disqualifier les éventuels projets de séquençage par le truchement d’une contestation de leur nature scientifique. Gilbert est d’ailleurs lui-même si convaincu de leur utilité qu’il sera très précocement engagé dans une réflexion sur le lancement d’une structure privée dédiée à ces activités [2]. Ce que le paradoxe apparent de cette position révèle, c’est surtout à quel point, à l’époque, la nature des activités à mener pour parvenir à un séquençage exhaustif de génomes ne répondait pas aux critères implicites qualifiant une activité comme légitime à mener par des institutions à vocation scientifique.

Moins de dix ans plus tard, en revanche, la situation aura radicalement changé. Lorsqu’en mars 1995, les NIH (National Institutes of Health) décident d’initier le financement de la phase active du séquençage du génome humain, un appel d’offres est lancé afin de sélectionner un certain nombre de centres académiques sur la base de leur capacité à démontrer un savoir-faire en matière de séquençage à grande échelle [3]. Cette évolution illustre ce qui, à mon sens, constitue l’une des évolutions majeures ayant accompagné le développement des programmes de génomique dans la décennie concernée : la reconnaissance progressive d’un modèle d’activité scientifique centré sur la production en masse et standardisée de données, indépendamment de l’utilité immédiate de ces données. Au milieu des années 1980, ce type d’activités se trouve en contradiction avec les normes tacitement admises au sein de la communauté des biologistes moléculaires, bien qu’une telle activité soit par ailleurs pratiquée dans des domaines associés à la recherche biologique et médicale, comme par exemple dans le cadre de la recherche d’agents pharmacologiques. Au cours de la période s’étendant du milieu des années 1980 aux années 1990, les évolutions sociologiques associées au développement de la cartographie et du séquençage entraînent une redéfinition de ces normes, qui, entre autres, légitimera ce mode de production et d’administration des données scientifiques.

De la génomique comme activité de production : éléments pour une histoire sociale

Je citerai brièvement deux axes de mutation caractérisant ces transformations.

Démultiplication et usage des indicateurs statistiques comme instruments d’évaluation et de gouvernement

C’est le premier axe, et je l’illustrerai de façon simple : par exemple, l’utilisation d’indicateurs de productivité fut l’une des innovations centrales de la planification du projet « Génome Humain » dans sa phase préparatoire (ca. 1986-1991), et conduisit à l’explicitation d’un ensemble de grandeurs mesurables devant servir d’étalons pour évaluer l’état d’avancement des différentes phases du projet [4].

En ce qui concerne l’analyse des indicateurs statistiques, les sciences sociales ont permis de se démarquer des modèles hérités des sciences de la nature et de montrer que la définition de métrologies recouvre un ensemble de représentations situées socialement et idéologiquement [5]. En retour, leur usage revêt un contenu normatif par leur capacité performative à valider implicitement et à naturaliser les conventions à partir desquelles elles sont formées. Différents exemples illustrent cette idée : ainsi le cas du séquençage des étiquettes de gènes au début des années 1990 auquel est associé le nom de Craig Venter. Son laboratoire fut l’un des premiers récipiendaires d’automates de séquençage commercialisés. S’y engage alors tout un travail d’organisation de l’usage des machines, destiné à en optimiser la productivité, alors définie en termes de paires de base séquencées par unité de temps. Au mois d’octobre 1990 par exemple, avec un parc de quatre automates de séquençage, la productivité du laboratoire est estimée à 750 000 nucléotides par mois. Parallèlement, des chercheurs de ce laboratoire entreprennent le séquençage aléatoire des portions exprimées des gènes et appliquent à ce travail les techniques de gestion de la productivité mises en place par ailleurs pour le séquençage génomique. Une première liste de 337 séquences de ce type, connues sous le nom d’étiquettes de gènes ou « EST » est publiée en 1991 [6]. L’un des éléments décisif - bien que peu apparent - pour comprendre la diffusion ultérieure de cette technique tient à la redéfinition des indicateurs statistiques employés pour évaluer l’efficacité du séquençage. En effet, la technique des EST repose sur la substitution du nombre de gènes identifiés au nombre de paires de bases séquencées comme grandeur pertinente pour en mesurer la productivité. L’usage de cet indicateur statistique crée ainsi un nouveau cadre normatif pour évaluer les mérites réciproques de chacune des stratégies déployées en fonction de catégories telles que l’utilité, le coût relatif, les délais de réalisation. Ce nouveau cadre conduira à une remise en question du projet génome humain tel qu’il avait été initialement conçu [7], mais surtout à la repolarisation des activités de séquençage, en amenant différents acteurs à reprendre à leur compte cette technique, en particulier dans le secteur privé.

Pluralité des contextes sociaux

Le second élément concerne l’évolution des « épreuves de validation » par l’enrôlement mutuel des scientifiques engagés dans ces travaux et d’une diversité d’acteurs n’appartenant pas directement au champ académique, permettant par là même à la génomique de se déployer dans une pluralité de contextes sociaux. Pour reprendre l’exemple précédent des EST, la question des brevets sur les séquences de gènes est ici centrale. Les changements en matière de droit de la propriété intellectuelle relèvent en grande partie de dynamiques internes apparues dans les années 1980 dans le domaine juridique à partir de la question plus générale de la brevetabilité du vivant, et aux tentatives de fabrication d’une règle jurisprudentielle en l’absence de position tranchée chez les juristes. En revanche, si les scientifiques engagés dans le séquençage des EST se présentent eux-mêmes comme d’ardents défenseurs de la propriété intellectuelle sur les gènes à partir de 1991, de nombreux éléments peuvent laisser penser que cette position est intimement liée au fait qu’elle leur offre une épreuve de validation échappant au cours classique des évaluations académiques, dont ils savent qu’elles leur seraient par ailleurs défavorables. Cette évolution des épreuves de validation va de pair avec l’implication d’acteurs extérieurs dans le financement d’institutions de recherche travaillant dans le domaine de la génomique. Il s’agit d’une part des acteurs issus de l’entrepreneuriat privé, qui développent des entreprises commerciales fondées dans un premier temps sur un modèle de rémunération du séquençage par la mise en place de systèmes de « péages » réglant l’accès aux séquences et leur usage. D’autre part, interviennent aussi des acteurs associatifs ou philanthropes, tels que le Wellcome Trust en Angleterre ou l’AFM (association française contre les myopathies) en France. Pour faire le lien avec ce qui précède, du point de vue de cette diversification des contextes sociaux, l’usage des indicateurs statistiques comme outils de gouvernement est fondamental, puisque ceux-ci permettent la formation de cadres de référence simplifiés pouvant circuler sans exiger une expertise scientifique élevée de la part de leurs utilisateurs - contribuant ainsi à la pénétration de la génomique dans les milieux économiques par exemple, familiers des logiques d’administration comptable. En retour, cette circulation de références métrologiques à l’extérieur des milieux scientifiques renforce le développement de logiques managériales centrées sur les questions de productivité au sein des institutions concernées.

De la gestion à l’analytique de la complexité

Dans la dernière partie de l’exposé, je voudrais discuter des conséquences épistémiques de ces évolutions. En 1995, la revue Science employait le terme de « transition » pour caractériser l’état des lieux de la recherche génomique [8], terme que justifiaient plusieurs arguments : (1) la publication des premières séquences complètes de génomes ; (2) les premiers mouvements en faveur d’un lancement de la phase active du séquençage  du génome humain, jusqu’alors ajournée ; (3) l’apparition de technologies dites de « post-génomique » permettant d’étudier simultanément l’expression de dizaines de milliers de gènes. On pourrait tout d’abord interroger le contenu normatif de cette manière de lier différents développements dans un récit historique où chacun est appelé à valider le suivant par anticipation. Cette présentation est en effet caractéristique de l’apparition, à partir de 1995, d’une nouvelle construction discursive pour penser la génomique à partir d’une rupture historique centrée sur l’émergence d’approches dites de « post-génomique », représentant l’horizon d’une nouvelle modernité technique, elle-même caractérisée par la mise en avant d’un ensemble de dichotomies dont la pertinence intrinsèque mériterait une analyse plus poussée : biologie intégrative versus réductionnisme, analyse fonctionnelle versus analyse structurale, rôle des hypothèses dans l’expérimentation, téléologie, etc. Dans le prolongement de mon propos précédent, je voudrais proposer la thèse selon laquelle l’apparition de cette biologie « post-génomique », loin de se laisser réduire à ce mouvement de rupture, peut au contraire se comprendre comme le dernier acte de la transformation des modèles normatifs ayant accompagné le développement de la génomique dans la période précédente, et comme l’extension des pratiques de production « de masse » de données scientifiques à d’autres types de productions expérimentales que le séquençage, comme par exemple dans un premier temps à l’analyse de l’expression génétique. Cette extension conduira au modèle de la biologie « à haut débit » que l’on connaît actuellement.

Inventaire et collections de la post-génomique

Les instruments mobilisés par cette « seconde génomique » sont par exemple largement empruntés à l’instrumentarium du séquençage automatisé, développé depuis la fin des années 1980 pour prendre en charge les activités répétitives du séquençage de masse - je citerai à titre d’exemples les automates de manipulation des banques moléculaires modifiés pour la production des « puces à ADN », mais également l’ensemble des technologies informatisées de gestion de l’information pour centraliser les données, les mettre en relation, permettre leur traitement, et en organiser l’accès. La production de collections moléculaires adaptées à ces approches devient, à partir de 1995, l’un des problèmes centraux pour les groupes de recherche impliqués. Le troisième plan quinquennal du projet génome préconisait ainsi la constitution d’inventaires complets d’ADNc mis à la disposition de la communauté scientifique. En l’absence de données complètes sur les génomes, tout un  « bricolage savant » est alors mis en œuvre pour produire des collections représentatives, les solutions variant d’un organisme étudié à l’autre en fonction de l’avancement des projets de séquençage, des ressources disponibles et de leur accessibilité. À partir des années 2000, avec l’utilisation de molécules synthétiques d’ADN de grande taille ou même de PNA, molécules de synthèse hybrides entre protéines et acides nucléiques, c’est parfois la nature même de ces collections qui se voit déplacée en fonction des critères de normalisation retenus pour neutraliser les sources de variabilité au plus près de l’évolution des possibilités techniques et des hypothèses sur leurs effets.

Gestion de la complexité, modélisation et emprunts conceptuels à la théorie des systèmes

Avec ces travaux, la logique d’inventaire au cœur des projets de génomique se mue progressivement en une logique de modélisation, où le statut de la collection évolue vers celui d’un modèle simplifié et manipulable du génome, devant en contenir tous les éléments considérés comme significatifs pour un type d’expérience donné, identifiés, individualisés, classés et calibrés selon les critères de standardisation retenus. Entre les années 1995 et 2000, cette logique de modélisation et la possibilité technique qu’elle ouvre de générer de façon standardisée des données à grande échelle s’accompagnent de l’import progressif de concepts hérités de la théorie des systèmes, où la complexité n’est plus considérée comme une source de difficultés méthodologiques, mais au contraire comme une propriété fondamentale et ontologiquement pertinente du vivant. Les pratiques de « gestion de la complexité numérique » (liées à la multitude d’éléments composant les banques moléculaires, les collections de gènes, les listes de séquences, etc.) se voient ainsi progressivement intégrées à une « logique de la complexité systémique » (le génome et, de façon plus générale, les systèmes vivants, sont à comprendre dans leur unité) comme point de départ de l’analyse expérimentale, principe fondateur de la « biologie des systèmes » [9].

Un nouveau processus d’analyse scientifique de la complexité biologique ?

Au-delà des revendications diverses sur le caractère « révolutionnaire » de ces approches expérimentales qu’il convient de considérer avec recul, l’innovation qui me semble probablement la plus fondamentale ici concerne les essais de formalisation de méthodologies spécifiques et le rôle de la modélisation dans le processus d’analyse scientifique des sciences biologiques. Elle est parfois résumée sous forme d’une méthodologie idéalisée fondée sur un algorithme itératif comprenant différentes étapes : (1) formulation d’hypothèses et modélisation du système ; (2) établissement de prédictions sur les réponses du système à une perturbation ; (3) génération de données expérimentales ; (4) comparaison des résultats obtenus aux prédictions ; (5) validation du modèle ou formulation de nouvelles hypothèses sur la base des écarts observés.

Du point de vue de la thèse défendue ici sur le rôle de la pénétration de pratiques productivistes au sein des sciences biologiques dans la formation de nouveaux modèles épistémiques, on notera que cette formalisation peut se comprendre non seulement comme une tentative d’automatisation de la production des données scientifiques pour les démultiplier, mais également comme une généralisation de cette logique à la démarche scientifique elle-même. C’est d’ailleurs le sens des tentatives de mise au point de « robots scientifiques », associant automatisation et intelligence artificielle, dont on connaît des exemples dans la littérature [10].

Peut-on ainsi parler de « changement de paradigme », tel que l’intitulé de la session nous y invite ? Le terme de paradigme est en lui-même problématique. Je préfère ainsi lui substituer celui d’apparition de nouvelles « pratiques épistémiques », pour désigner la manière dont au sein du paradigme existant, la transformation des conditions de l’exercice scientifique, aussi bien dans ses dimensions techniques que sociales, s’est prolongée au niveau épistémique par la différenciation d’un système d’énonciation centré sur la complexité biologique, définissant un cadre expérimental et théorique nouveau.

Discussion

De la salle

Cet exposé était très intéressant. Je souhaiterais cependant revenir sur un point. Vous avancez l’idée que la demande de dépôt de brevets sur les EST relève d’une stratégie juridique normale. Je me permets d’émettre des doutes à ce sujet. Lorsque les stratégies juridiques visant à faire breveter des séquences de gène sont mises en relation avec les changements apparus dans le monde financier à ce moment-là et avec le fait qu’il est possible de faire entrer en bourse des firmes déficitaires, la demande de dépôt de brevet n’est alors plus innocente. Le secteur des biotechnologies a par exemple pu être mis en place grâce à la possibilité de breveter les gènes et à l’autorisation de mettre sur le marché des firmes déficitaires qui disposent d’un capital immatériel fort.

Vincent Ramillon

Je suis d’accord avec cette intervention.

Le sens de mon propos était ici simplement de souligner qu’au plan historique, ces transformations sociologiques ne se laissent pas réduire à une logique univoque, mais sont souvent le fait de dynamiques sociales complexes, où interviennent une multiplicité d’acteurs porteurs d’intérêts qui leur sont propres, de cultures professionnelles, de valeurs - conduisant par leurs actions réciproques à reconfigurer les normes de leurs activités.

De la salle

Les changements survenus dans les modes de production scientifique et en matière de production de données de masse ont été décrits par les intervenants. Toutefois, il est possible de se demander si ces développements n’ont pas été rapidement abandonnés par les laboratoires. Une fois la phase expérimentale terminée, ces évolutions semblent être entrées dans le giron de centres spécialisés et dédiés, tels que le Centre national de séquençage. La plupart des laboratoires sont revenus à la situation antérieure et ils ne produisent pas tous ces données. Les laboratoires ne semblent pas avoir réellement changé par rapport aux années 1970.

Vincent Ramillon

Si le laboratoire au sein duquel je travaille avait existé vingt ans plus tôt, il aurait probablement fonctionné de façon très proche au plan organisationnel. Il n’est toutefois pas nécessairement représentatif de l’évolution générale des normes pratiques réglant le fonctionnement des institutions scientifiques, en particulier par l’incorporation progressive de nouveaux modes de génération et d’administration des données.

De la salle

Avancer l’idée que le fonctionnement des laboratoires n’a pas changé depuis vingt ans me semble quelque peu contestable. Une évolution du management des laboratoires, qui se rapproche des modèles normatifs actuels, a pu être constatée. La division du travail n’était pas aussi prégnante par le passé. La question de la reconnaissance et du crédit des collaborateurs se pose désormais. Une évolution des modes de travail est bel et bien en marche.

Vincent Ramillon

Les situations sont différentes selon les laboratoires. Certains ont encore un mode de fonctionnement très traditionnel, d’autres au contraire fonctionnent selon des modes d’organisation extrêmement nouveaux.

Références

  1. Roberts L. Human genome: questions of cost. Science 1987 ; 317 : 1411–1412. [CrossRef] (Dans le texte)
  2. Cook-Deegan RM. The gene wars. New York : W.W. Norton and Co Inc, 1984. (Dans le texte)
  3. Pilot projects for sequencing of the human genome, NIH Guide, vol. 24, 10-03-1995. (Dans le texte)
  4. NIH and DoE, Understanding Our Genetic Inheritance, The U.S. Human Genome Project, The First Five Years, 1991-1995, avril 1990. (Dans le texte)
  5. Porter TM. Trust in Numbers, Princeton University Press, 1995. (Dans le texte)
  6. Adams MD, Kelley JM, Gocayne JD, et al. Complementary DNA sequencing: expressed sequence tags and human genome project. Science 1991 ; 252 : 1651–1656. [CrossRef] [PubMed] (Dans le texte)
  7. Venter JC, Adams MD, Martin-Gallardo A, et al. Genome sequence analysis: scientific objectives and practical strategies. Trends Biotechnol 1992 ; 10 : 8–11. [CrossRef] [PubMed] (Dans le texte)
  8. Jasny BR. In transition. Science 1995 ; 270 : 359. [CrossRef] [PubMed] (Dans le texte)
  9. Ideker T, Galitski T, Hood L. A new approach to decoding life: systems biology. Annu Rev Genomics Hum Genet 2001 ; 2 : 343–372. [CrossRef] [PubMed] (Dans le texte)
  10. King RD, Whelan KE, Jones FM, et al. Functional genomic hypothesis generation and experimentation by a robot scientist. Nature 2004 ; 427 : 247–252. [CrossRef] [PubMed] (Dans le texte)

1

[NDLR] Paul Berg (Université de Stanford) et Walter Gilbert (Université de Harvard) ont reçu (avec Frederick Sanger) le prix Nobel de chimie en 1980 pour leurs travaux sur la biochimie des acides nucléiques et de l’ADN recombinant.


© 2012 médecine/sciences – Inserm / SRMS

Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.

Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.

Le chargement des statistiques peut être long.