Accès gratuit
Numéro
Med Sci (Paris)
Volume 23, Numéro 6-7, Juin-Juillet 2007
Page(s) 652 - 654
Section Forum
DOI https://doi.org/10.1051/medsci/20072367652
Publié en ligne 15 juin 2007

Deux dangers guettent la recherche médicale : « passage à la limite  » et « collectivisation  » de la recherche.

« Passer à la limite  » est une expression bien connue des mathématiciens. Techniquement, l’opération consiste à intégrer des intervalles fragmentés successifs afin d’accéder à une continuité, et à produire ainsi un modèle de la réalité. Un modèle, comme on le sait, est une représentation appauvrie de la réalité. L’opération, utile en mathématiques, est préjudiciable quand il s’agit de produire des connaissances, car construire un savoir par atomisation introduit une distorsion dans la représentation des mécanismes propres au vivant qui réduit l’efficacité des interventions visant à en tirer parti.

Le second danger, la « collectivisation  » de la recherche, menace le système universitaire de production des connaissances. La « collectivisation  » survient quand les moyens de production de la connaissance (subventions, publications, etc.) sont monopolisés par un nombre restreint de chercheurs1 ; il en découle alors que les droits de la majorité des chercheurs individuels sont asservis aux intérêts d’une collectivité réduite de chercheurs. L’effet pervers de la « collectivisation  » est un amoindrissement des singularités et de l’originalité des activités de recherche.

Le « passage à la limite  »

Le « passage à la limite  » en sciences se manifeste par la multiplication effrénée des connaissances actuelles. Ainsi, dans le seul secteur biomédical, le nombre d’articles parus dans les diverses revues serait passé de 20 000 à 400 000 par an en une dizaine d’années [1]. Comment expliquer une telle prolifération, sans précédent dans l’histoire ? Comment peut-on produire autant de connaissances et, en même temps, rester si dépourvu devant les graves fléaux du monde moderne (grippe aviaire, réchauffement de la planète, maladies chroniques, etc.) ? Le réductionnisme caractéristique du « passage à la limite  » constitue une des causes fondamentales possibles de notre échec. Il s’avère que nous multiplions des connaissances disjointes, donc inaptes à établir des liens indispensables à une compréhension plus large, plus complexe, plus riche, de la réalité.

Nous alimentons le processus d’atomisation des connaissances. Nous poussons à sa limite l’approche cartésienne qui consiste à séparer pour mieux analyser mais, cette fois, le paradigme côtoie la perversité puisque l’unité fondamentale de la connaissance qui est produite et publiée, est réduite à sa plus simple expression [2]. Ce qui a pour effet de multiplier les revues spécialisées et de créer des disciplines toujours plus « pointues  », et toujours plus étrangères les unes aux autres. La stratégie du processus de morcellement de la connaissance est certes de découvrir des lois d’expression simples que l’on espère pouvoir intégrer au final afin d’engendrer un portrait cohérent de la réalité. Mais l’intégration se fait toujours attendre. Le « passage à la limite  » multiplie les relations fonctionnelles les plus simples possibles entre variables, qui trouvent des applications dans des cadres toujours plus restreints où tout est prétendu égal par ailleurs. Or, rien n’est jamais égal par ailleurs. Au contraire, tout est contextuel. Par exemple, des génotypes structurellement identiques conduisent à des phénotypes d’espèces très différents qui dépendent du degré d’expression des gènes, qui sont contextuels à l’espèce [3]. Autrement dit, on ne peut, en général, reproduire une observation en faisant abstraction de son contexte.

Il y a des raisons de penser que le phénomène de fragmentation de la connaissance est en pleine expansion et que les « exceptions  » aux lois vont continuer de se multiplier. Aussi, à défaut de lois raisonnablement généralisables, la science du moment cherche-t-elle à prédire les outcomes des modèles plutôt qu’à ouvrir la « boîte noire  » de sa mécanique. La science s’oriente donc tout naturellement vers la recherche de solutions utilitaires caractérisées par une formulation sursimplifiée des problèmes qu’elle aborde. L’exemple emblématique est certes celui de l’essai randomisé où les investigateurs demandent à la Nature de répondre simplement par oui ou par non. Il en va de même avec la médecine dite « scientifique  », celle des données probantes (evidence-based medicine), dont les solutions constituent une sorte de code de procédures des modalités cliniques, prétendûment applicable en toute fiabilité à tout patient aux prises avec la même maladie. La formation avancée, elle aussi, suit servilement ce paradigme : étroitement balisée, elle propose à l’intelligence des esprits les plus aiguisés des problèmes simplifiés dont les solutions ne sont pas reproductibles d’un contexte à l’autre. Il s’agit d’une formation pointue qui « reproduit  » des techniciens hautement qualifiés aptes à répéter à l’envi les méthodologies stéréotypées apprises au cours de leurs études.

La « collectivisation  »

On assiste en ce moment à un phénomène universitaire nouveau : un nombre croissant de chercheurs se partagent de moins en moins d’argent [4]. Bien que la quantité de fonds disponibles soit aujourd’hui plus élevée d’une année à l’autre, les coûts de la recherche et le nombre de chercheurs ont à ce point augmenté que le taux de capitalisation par chercheur a diminué. Il s’ensuit que la concurrence est extrêmement grande. Pis, quantité de chercheurs ne réussissent à participer que peu ou prou au processus de compétition. Tout se passe comme si, de démocratique qu’elle était, la production de connaissances nouvelles se trouvait concentrée entre les mains de quelques mandarins de la recherche. Aussi, ne serait-il pas étonnant que la distribution des fonds de recherche suive une loi de Pareto, signe de l’iniquité du processus de quête de la vérité scientifique [5]. Établie originellement en matière de revenus, la loi de Pareto est l’expression du capitalisme des sociétés : elle montre que le « grand capital  » est détenu par quelques privilégiés dont les profits sont faramineux et qui régissent les conditions d’embauche des plus démunis. Appliquée à la production de la connaissance, cette loi suggère qu’un faible pourcentage de chercheurs détient la plus grande partie des moyens de production et de diffusion de la connaissance, tout en instituant - phénomène nouveau mais attendu - une hiérarchisation de l’organisation du travail de recherche. Autrement dit, la plupart des publications sont signées par les mêmes auteurs ; leur influence se répand en taches d’huile, ils ciblent des parcelles de la connaissance qui, à elles seules, occupent tout l’espace de diffusion qui n’en finit plus de croître. On sait déjà que le nombre de citations des articles scientifiques suit un modèle de Pareto (loi de Lotka)2 [6] : on se cite, on cite qui nous cite, et l’on cite les partisans du paradigme dominant, l’ensemble évoluant en réseau restreint autoréférentiel.

Une oligarchie de chercheurs tout-puissants pourrait en venir à déterminer, assez rapidement, les nouvelles règles de la recherche universitaire : tel est le danger non négligeable qui menace la science. Un règne de gourous de la science, nommés pudiquement « experts  », est-il à craindre ? Le danger est bien réel quand des scientifiques monopolisent des parcelles de connaissance (par exemple s’approprier par brevet le code de certaines séquences génétiques) susceptibles de déboucher sur des technologies nouvelles, que réclament avec insistance gouvernements et sociétés. N’y a-t-il pas, en ce moment, dans nos universités, ce risque que la recherche libre ne devienne définitivement utilitaire, réductionniste, « réseautée  » et l’affaire de quelques-uns ? Dans ce cas, le processus de production de la connaissance serait sous l’emprise d’un phénomène de « collectivisation  », soit de domination du système par une élite ; la conséquence dramatique serait l’uniformisation de la quête du savoir. Pareille « collectivisation  » priverait une majorité de chercheurs de leur droit fondamental de participation, de manière originale et personnelle, au processus de création.

Un phénomène récent témoigne de la tendance à la « collectivisation  », c’est l’apparition des chaires de recherche au Canada. Les chaires, issues d’une intervention gouvernementale majeure, parachutées de l’extérieur dans le système universitaire, font fi des règles de fonctionnement et de la dynamique propre des secteurs de recherche. Leur but est de développer des champs nouveaux par l’octroi de fonds substantiels à des chercheurs individuels de haut rang qui se constituent ainsi d’impressionnantes équipes de collaborateurs et qui forment au sein des facultés des pôles d’attraction majeurs, drainant non seulement les subventions mais, aussi, les meilleurs étudiants.

Un autre effet pervers des chaires vient conforter la « collectivisation  », c’est le confinement de l’enseignement aux « non-chairés  », ce qui contribue à les évincer du terrain de la recherche. Enfin, un phénomène, bien connu celui-là, qui brime la liberté de recherche, tient à l’insertion d’un type de capital privé au sein de l’université qui privilégie le paradigme biomédical dominant au détriment de secteurs de recherche moins rentables, mais plus originaux, favorisant une fois de plus l’approche du « passage à la limite  » et la « collectivisation  ». Aussi, peut-on parler dorénavant d’universités à deux vitesses consacrant par là une différenciation des activités liées à la quête du savoir. Si les universités comme entités collectives y trouvent leur compte en termes financiers, la majorité des chercheurs individuels, eux, sont perdants.

Il est opportun de rappeler ici les résultats du récent classement de Shangaï (2005) des 500 meilleures universités du monde [7]. En tête de liste, on trouve le réseau des grandes universités américaines où domine le « grand capital  ». Naturellement, cela fait des envieux dans plusieurs pays, comme la France dont la meilleure école (Paris VI) s’est vue attribuer la 46e position, en régression par rapport au classement de l’année précédente. Quoi qu’il en soit, à en croire les officiels politiques, le classement des écoles françaises, jugé inacceptable par de nombreux scientifiques, ne restera pas lettre morte. Une intervention semble donc nécessaire. Quels moyens seront utilisés ? Quel qu’il soit, le risque d’une intervention extérieure, calquée sur le modèle américain ou canadien, qui ne respecte pas la dynamique propre du système, est à redouter.

Tout se passe donc comme si la domination à tout prix, étrangère à l’esprit qui devrait sous-tendre la recherche scientifique, s’exprimait par la loi de Pareto. Si le phénomène de « collectivisation  » perdure, nombre de chercheurs, laissés pour compte par les organismes subventionnaires, seront tentés de s’asservir au mouvement de hiérarchisation. Si l’asservissement s’avère, nous devons nous attendre à une homogénéisation du processus de recherche, à de plus en plus de publications coupées de la réalité, rançon du « passage à la limite  », et à des applications inopportunes des découvertes parce que l’activité de recherche libre aura été confisquée par une élite dominante. Un grave problème éthique se profile alors, et un redressement s’impose dès maintenant.

En conclusion

Le processus de production des connaissances doit être protégé pour éviter qu’il n’évolue au sein d’un ghetto, et pour que le chercheur individuel retrouve sa place au sein du système. Un véritable savoir, contextuel, qui donne sens aux parcelles de connaissance, doit être instauré de manière urgente, et partagé par tous les protagonistes de la recherche scientifique, pour éviter le risque de fracture au sein du système universitaire.


1

Ce mot est pris ici dans un sens légèrement différent de l’usage courant.

2

La loi de Pareto, également appelée loi des 80/20, est une loi empirique inspirée par les observations de Vilfredo Pareto, économiste et sociologue italien : 80 % des richesses sont détenues par 20 % des personnes économiques. Cette « loi  », bien qu'empirique, a été formalisée en mathématiques par la distribution de Pareto.

Références

  1. Witkowski N. L’état des sciences et des techniques. Montréal : Boréal, 1991 : 496 p. [Google Scholar]
  2. Boudreau B. La pratique de l’activité scientifique. Can Fam Phys 1999; 45 : 1141–3. [Google Scholar]
  3. Nijhout HF. The importance of context in genetics. Am Scient 2003; 91 : 416–23. [Google Scholar]
  4. Caillé A. Les chaires de recherche au Canada. Forum 2001; 35 ; 31. http://www.forum.umontreal.ca/numeros/2000_2001/forum_01_06_04/article02.html [Google Scholar]
  5. Montroll EW, Shlesinger MF. On 1/f noise and other distributions with long tails. Proc Natl Acad Sci USA 1982; 79 : 3380–3. [Google Scholar]
  6. Lotka AJ. The frequency distribution of scientific productivity. J Wash Acad Sci 1926; 16 : 317–23. [Google Scholar]
  7. Academic ranking of world universities, 2006. http://ed.sjtu.edu.cn/ranking.htm [Google Scholar]

© 2007 médecine/sciences - Inserm / SRMS

Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.

Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.

Le chargement des statistiques peut être long.