Open Access
Issue
Med Sci (Paris)
Volume 41, Octobre 2025
40 ans de médecine/sciences
Page(s) 59 - 72
Section Génétique, génomique, biotechnologie
DOI https://doi.org/10.1051/medsci/2025124
Published online 10 October 2025

De nature, art et Homme

En prémices à ce survol d’un vaste champ, rappelons le périmètre des biotechnologies. Il couvre un ensemble de techniques moléculaires appliquées aux formes vivantes et à leurs dérivées, principalement porteuses d’objectifs thérapeutiques, agronomiques ou de production industrielle. Ce préambule comporte un sous-entendu provocateur, qui réduit les biotechnologies à un sous-produit de la science, en bordure de propos pour une revue scientifique telle que médecine/ sciences. Il ne s’agit néanmoins pas d’un total horssujet, tant ce sous-produit a pu nourrir la science et contribuer à la produire. Cette bivalence, voire ambivalence pour certains, est au cœur de notre sujet qui concerne les modalités de l’appropriation sociétale des biotechnologies.

Faisons, avant cela, un rapide survol des éléments qui ont changé notre vision de la nature à l’aune de la deuxième moitié du xxe siècle. Le biologiste, auparavant observateur et expérimentateur, par des approches de physiologie animale, change d’échelle. Il passe d’analyses essentiellement macroscopiques, à la chimie biologique. Émerge alors le biochimiste, praticien des structures moléculaires et des métabolismes. Puis, dans le sillage de Avery, McLeod et McCarty1, dont l’expérience ouvre la voie au développement de la biochimie de l’ADN, naît le biologiste moléculaire. Cette focalisation sur l’ADN est d’ailleurs étrange, comment la comprendre ? Doit-on l’accepter avec son accord au singulier ? Serait-ce la biologie d’une seule molécule ? Un terme non pas unificateur mais dominateur, comme pourrait le laisser penser Francis Crick (1916-2004) qui établit le « dogme central de la biologie moléculaire »2. L’ADN au centre du vivant et porteur suffisant de toute l’information3.

Ignorons cette polémique, et rappelons qu’après la détermination de la structure de l’ADN un ensemble de découvertes a sculpté le domaine des biotechnologies, permettant à Paul Berg4, en 1972, d’ouvrir le champ du génie génétique. Véritable révolution technologique poursuivie aujourd’hui en prenant une dimension qu’il était difficile de mesurer lorsque les rouleaux encreurs ont imprimé le premier numéro de m/s, il y a 40 ans ! Signalons néanmoins que la mesure des conséquences de la révolution portée par la possibilité de modifier les génomes a, dès cette période, activé la conscience collective des chercheurs, aboutissant à la réunion d’Asilomar en 19755. De la réflexion menée lors de ces journées a découlé une série de mesures pour encadrer les recherches, moins sur le plan de leur développement, le moratoire qui avait été proposé n’ayant pas réellement fonctionné, que sur le plan de la sécurité lors de la réalisation des expérimentations. L’essor des outils et des méthodes de génie génétique a ensuite suivi une évolution par incréments, significatifs mais modestes, jusqu’à la fin des années 1980. Ainsi, les méthodes de génie génétique pouvaient être contenues dans les deux puis trois tomes du manuel rédigé par les biologistes américains J. Sambrook, E.F. Fritsch & T. Maniatis, recueil de la quasi-totalité des protocoles de biologie moléculaire6. Le « Maniatis » était bien plus que le « Ginette Mathiot 7 » du laboratoire, contenant en plus des protocoles, et des instructions pour la préparation des réactifs, des explications détaillées sur les mécanismes mis en œuvre ; une vraie bible pour tous ceux qui se sont lancés dans la biologie moléculaire à cette époque (Figure 1). Écrivant ces mots, l’âge nous pèse et il est évident que ces noms n’évoqueront rien à la majorité des chercheurs et étudiants de nos laboratoires. L’ère des kits, des réactifs vendus prêts à l’emploi, de la sous-traitance des clonages, et des plateformes, a balayé une grande part de l’approche expérimentale en biologie. Il en est de même pour les logiciels d’aide et d’analyse des séquences et clonages8. Ce point va de pair avec l’explosion des outils de bio-informatique. Nous ne l’aborderons pas, bien que l’on puisse considérer qu’elle soit l’une des principales, voire la plus centrale, des avancées des dernières décennies pour les biotechnologies. En l’absence de ces outils informatiques, les -omics ne seraient que des concepts et l’utilisation des données massives de génétique ou de physiologie moléculaires auraient une ampleur bien moindre.

thumbnail Figure 1

Images issues de la première édition du « Molecular cloning: a laboratory manual », familièrement appelé le Maniatis, publié pour la première fois en 1982. À gauche : page de couverture. À droite ; texte et image explicative pour la réalisation d’un Southern blot. D’après [78].

Toutefois, n’oublions pas que la biologie est avant tout une science expérimentale, ses théories ne vivent que de leur confirmation. Ce sont donc bien les évolutions techniques qui ont changé notre compréhension du vivant.

Abordons maintenant les quatre décennies fertiles, dont m/s a été témoin, qui furent une succession de mutations, voire de ruptures dans les pratiques. Cette perspective se focalisera autour du maîtremot de ces décennies, la spécificité, qui doit s’entendre à toutes les échelles, celle des organismes, de leurs tissus, de quelques cellules ou d’un gène en particulier. Accéder au cœur de l’information reste le point de mire des recherches depuis toujours. Mais, y parvenir ne relève pas toujours d’une démarche rationnelle, plus rêvée qu’accessible. La sérendipité [1], les pas de côté, le hasard des rencontres, et l’accès à une bibliographie scientifique couvrant l’ensemble des champs de la biologie, qui ont accompagné la démarche scientifique, ont constitué un contexte pluriel, lit de rapprochements et de collaborations.

La PCR, première bombe d’une réaction en chaîne

La simplicité de la PCR9 n’a d’égal que la puissance de ses retombées. Combien de victimes de Southern blots ininterprétables ont pu se réjouir de l’avènement de cette technique ? Manipuler le vivant nécessite de pouvoir modifier l’ADN, le transférer et détecter ces modifications. Les techniques à disposition pour ces étapes mettaient en jeu des systèmes bactériens (enrichis de plasmides et de phages), des coupures enzymatiques et la radioactivité. Ces méthodes nécessitaient du temps et nombre de précautions contraignantes. La mise au point d’une technique enzymatique d’amplification de l’ADN, réalisée in vitro, sur mesure et de manière spécifique, a bouleversé la biologie. Si l’idée de Kary Mullis et Michael Smith était simple, sa mise en œuvre initiale fut laborieuse10. Ainsi l’essor de la PCR s’est joué grâce à la biodiversité, pourvoyeuse de bactéries thermophiles et de leurs enzymes thermostables qui rendaient la réaction automatisable. Comme souvent c’est aussi l’ingénierie des matériels, ici l’effet Pelletier, qui a amplifié l’usage de la PCR.

En peu de temps la PCR a radicalement changé des pans entiers de la biologie. Le diagnostic, imaginez les difficultés qu’il y aurait eu à détecter le virus SARS-CoV-2 sans la PCR11 ; le clonage moléculaire devenu facile, extraordinairement rapide12, il repose aujourd’hui essentiellement sur des techniques PCR comme dans la technique In-Fusion13 ; le séquençage lui aussi débarrassé du phage M13 a radicalement changé. L’ADN n’est pas l’unique objet des amplifications, la technique s’applique aux ARN, que l’on convertit en ADN complémentaire (ADNc) sous l’action d’une transcriptase inverse (RT) rétrovirale. La formation de banques d’ADN ou d’ADNc permet l’identification de gènes et la caractérisation des profils de leur expression cellulaire. Et si la PCR a d’abord été une méthode d’amplification à saturation, l’utilisation de fluorophores a ouvert l’accès aux approches de mesure quantitatives fiables, enrichissant la compréhension des mécanismes physiologiques.

Avec l’unicité génétique du vivant, combinée à la possibilité de formation d’un ADNc, le terrain de jeu de la PCR couvre l’ensemble des règnes du vivant. Elle a rendu accessible l’étude d’espèces jusqu’alors difficilement abordables, voire inconnues. Ainsi en est-il du virome et du microbiome, dont l’extraordinaire diversité nous est révélée [2]. Au-delà de la diversité des techniques dérivées de la PCR, et l’avènement de la PCR digitale [3], la puissance de la réaction est telle que des molécules uniques peuvent être amplifiées14. La médecine légale, la police scientifique et l’archéologie se sont molécularisées [4]. Et on sait alors reconnaître autant les coupables que les morts, y compris certains de nos prédécesseurs du genre Homo [5, 6].

Les lumières de la vie

Dès son origine, avec les naturalistes ou les microscopistes, la biologie est une science d’observation. Ce souci d’une vision des phénomènes comme mode d’accès à la connaissance n’a jamais cessé. L’inventivité dans l’utilisation des ressources naturelles et de la chimie a permis le développement d’une imagerie illuminée aux fluorophores. Sur le plan de la biologie moléculaire, oubliés le bromure d’éthidium et le couplage radioactif. Les sondes et amorces nucléotidiques, les anticorps ou autres protéines, ont bénéficié de l’arc spectral d’une chimie technicolor. Cet apport a donné accès aux interactions moléculaires, par le FRET et le quenching [7], à la PCR quantitative, au séquençage capillaire [8]. Ce dernier a inauguré l’ère de la génomique avec la divulgation des premiers génomes bactériens dans les années 90, puis du génome humain en 2001, belle odyssée de l’espèce ! Quelques techniques plus tard, l’idée d’un génome de référence a fait long feu, et nous vivons à l’ère des pangénomes qui nous révèlent l’extrême variabilité au cœur du vivant. Cette diversité, qui est le fondement et le résultat de l’évolution, est logiquement observée dans tous les règnes. Ces données ont consolidé la phylogénie, apportant la confirmation de l’importance des Archées dans l’eucaryogénèse [9, 10], et ont objectivé la variabilité cellulaire et génétique dans le cancer. L’accès à la diversité génétique d’un grand nombre d’organismes permet aussi d’entrevoir comment elle pourrait être utilisée à des fins thérapeutiques ou pour modifier des organismes (voir le paragraphe sur les animaux modèles). Dans le domaine des biotechnologies, disposer d’outils de traçage de cellules in vivo, de méthodes de détection dynamique d’un grand nombre de processus biochimiques comme l’expression de gènes et les interactions entre protéines, répond à des besoins courants. À cette fin, l’utilisation d’un marquage moléculaire a été inaugurée par le clonage du gène de la β-galactosidase, enzyme bactérienne dont un substrat générait un précipité bleu aisé à observer, au prix d’une fixation des tissus incompatible avec un suivi dynamique. Voir « fonctionner » le vivant en direct, est devenu accessible à la suite d’un vaste travail d’identification et de caractérisation de protéines extraites d’organismes naturellement lumineux. Qui n’a pas été médusé par des images d’expression d’une GFP (green fluorescent protein), protéine dérivée d’Aequorea15 utilisée comme marqueur dès 1994. Rapidement elle a été cristallisée, puis génétiquement modifiée pour être plus facile à utiliser [11]. C’est aujourd’hui encore, surtout par la famille de ses dérivés comme la mCherry issue du corail Discosoma, un outil essentiel de l’imagerie vitale. La validation des vecteurs de transfert de gène, mais aussi la phylogénie somatique de cellules souches a longtemps16 reposé sur la combinaison de ces molécules au travers de souris transgéniques aux noms évocateurs, brainbow ou confetti [12, 13]. De plus, la plasticité et la taille réduite de ces protéines permettent également de fusionner leur gène à d’autres, et ainsi de pouvoir suivre in vivo les protéines de fusion formées. Ce suivi permet notamment de déterminer la temporalité et la spécificité tissulaire d’expression.

Dans ce même ordre d’idée du marquage in vivo, la luciférase s’est montrée diaboliquement efficace en permettant une imagerie sur des organismes entiers [14]. Le système, qui repose sur l’expression d’une enzyme catalysant une réaction libérant des photons détectables par caméra CCD17 après administration d’un substrat spécifique, est très largement utilisé en recherche en cancérologie pour le suivi de cellules greffées. La luciférase a aussi contribué à de nombreuses approches in vitro, comme par exemple le pyroséquençage, l’une des techniques de séquençage direct [15].

La forme des animaux

L’étude des caractéristiques génétiques des organismes entiers a été historiquement menée par l’observation des différences morphologiques au fil des générations, c’est-à-dire les phénotypes. La variabilité phénotypique est donc un élément clé. Thomas Morgan18 a pu bénéficier de la radioactivité pour produire de la diversité et structurer la génétique formelle chez la drosophile. Une telle méthode de production de la variabilité était bien adaptée aux caractéristiques de cette espèce, dont les croisements étaient faciles à diriger et la reproduction rapide. Ces propriétés ont permis de générer des associations de phénotypes et de les caractériser génétiquement. En agronomie, c’est encore le principe de la sélection variétale, qui combine la description de variétés sauvages, la mutagénèse aléatoire et les croisements. En génétique humaine, les maladies étaient une source de diversité phénotypique, en l’absence de toute induction évidemment. Les techniques de séquençage NGS (next-generation sequencing) ont par la suite bouleversé ce champ d’étude en révélant la pléthore de variations de l’ADN [16, 17].

À l’heure des données massives, et des approches globales, intégrées, il peut sembler surprenant que l’on ait caractérisé des processus biologiques par des méthodes réductionnistes chez l’animal. Ces modèles ont été pourtant très utiles pour réaliser des études à l’échelle moléculaire dans un environnement complexe. La « réduction » ne porte en fait que sur l’expression d’un (de) gène(s) qui reste un moyen simple pour comprendre les fonctions portées par les protéines qu’il(s) code(nt) dans un contexte d’organisme. C’est ce même processus qui a guidé le développement de modèles animaux. Dans un premier temps, par l’étude de modèles naturels portant une mutation sur un orthologue de gène humain. Puis, devant l’absence de modèle animal pour chaque gène, et avec l’avènement de la biologie moléculaire et du génie génétique, la création de lignées spécifiques pour chaque gène est apparue possible. La transgénèse animale a connu deux étapes majeures. La première est celle de l’obtention des premiers animaux transgéniques, recherche initiée dès les années 1970 par le généticien germano-américain Rudolf Jeanisch (1942-) et aboutissant à une lignée de souris exprimant le gène de l’hormone de croissance au début des années 1980 [18]. Rapidement, ce sont des dizaines de modèles qui sont apparus et ont permis des avancées majeures dans la compréhension de la physiologie et des maladies humaines. En 1989, année de révolution et des barrières abattues, les premiers animaux modifiés par recombinaison homologue sont obtenus. Cela a été possible grâce à trois ingrédients, l’existence d’une lignée de cellules cultivables in vitro et disposant du potentiel de contribuer à la formation d’un organisme complet, les cellules souches embryonnaires (ES) [19] ; la connaissance de séquences au sein desquelles un insert ADN sera intégré ; et la disponibilité d’un système de sélection, un gène de résistance ou de sensibilité à une molécule exogène. Sur cette base, de nombreux modèles murins ont été développés. Pour les autres espèces animales, le parcours a été plus long. Aujourd’hui, et plus particulièrement depuis l’avènement du système CRISPR/Cas [20] qui permet de s’affranchir du besoin de cellules ES, la transgénèse animale est très largement développée. Cela concerne autant les fins de recherches que les animaux de rente et leur éventuelle utilisation agronomique19.

En recherche, un manque de spécificité des effets observés a pu affecter la portée des résultats, qui restaient très informatifs néanmoins. Il était lié au fond génétique, aux sites d’insertion des transgènes, aléatoires initialement, et à la régulation de l’expression du gène que l’on devait obtenir, constitutive, régulée, ou inductible. Diverses astuces de clonage, d’identification du locus ROSA2620 permettant l’obtention de souris réceptrices « universelles », ou d’autres solutions techniques, ont amélioré la fiabilité des résultats au fil des ans. Pour le locus ROSA26, l’introduction d’une séquence de phage (LoxP) permet de disposer de clones dans lesquels une séquence d’ADN exogène, dotée également d’une séquence LoxP, peut être introduite, en présence d’une recombinase Cre [21]. Ce système Cre/Lox, aisé d’usage, a trouvé une série d’applications très large en transgénèse. Mais là encore, la recombinaison homologue et en particulier le système CRISPR/Cas ont changé la donne de façon radicale.

Il existe de nombreuses limites à l’usage des animaux transgéniques. Au-delà des questions éthiques, abordées plus bas, le fond génétique reste la principale limite, tant pour la spécificité des souches animales, chacune avec une particularité qui peut biaiser les résultats, que sur le plan de l’espèce elle-même, dont la physiologie et la place dans le processus évolutif peuvent être très différents de celles des humains. Aujourd’hui, où l’on comprend mieux l’importance de l’ADN non codant notamment, ce type de séquences fait désormais l’objet d’études [22]. Le contexte chromatinien et les caractéristiques d’espèce ont un impact fonctionnel difficile à appréhender sur des modèles xénogéniques.

Parmi les applications de la transgénèse animale, une mérite un arrêt sur image. Le gene drive, ou forçage génétique. Il consiste à modifier la fréquence de transmission d’un allèle. Il repose sur la capacité à créer une situation d’homozygotie dans les lignées germinales, et ainsi une homogénéité allélique dans les gamètes, garantissant la transmission d’un allèle choisi. Pour cela, chez un hétérozygote, il faut convertir un allèle « non désiré » à partir de l’allèle souhaité. Ce résultat est obtenu en générant un animal transgénique porteur d’une cassette de conversion génique qui sera introduite par croisement dans une population où elle diffusera. Ce concept dérive de l’observation d’éléments mobiles qui sont ainsi propagés. De premiers, et complexes, essais ont été menés en utilisant les éléments mobiles. Mais de nouveau, la technique CRISPR/Cas y a apporté sa puissante simplicité… Même si le gene drive peut, en théorie, être appliqué à toute espèce, seules celles dont la reproduction est rapide et explosive permettraient une diffusion homogène et complète d’un allèle à l’échelle d’une population. En dehors des études de laboratoire, le gene drive pourrait avoir une application dans la maîtrise de ravageurs ou dans le contrôle de maladies vectorielles, en particulier celles transmises par des moustiques [23, 24]. Ici, l’objectif est soit de rendre les moustiques réfractaires au virus, soit d’éliminer une espèce de moustiques vecteurs21. Dans ce dernier cas, de nombreuses questions se posent qui nécessitent une concertation sociétale complexe et de longue haleine.

En parallèle au monde animal, la transgénèse végétale s’est également développée avec les mêmes objectifs d’études de physiologie et en plus, des applications en agronomie. Malgré des particularités biologiques comme la paroi des cellules ou les modes de reproduction, par exemple, la biologie moléculaire n’était pas démunie et a permis le développement d’outils spécifiques. L’activité de recherche a ainsi beaucoup apporté aux connaissances en biologie végétale. De ces données, il a également été possible de tirer des réactifs à plus large portée, citons par exemple les facteurs de transcription TALE, que nous verrons dans un paragraphe suivant. Notons surtout que les utilisations agronomiques du génie génétique appliqué aux plantes ont connu une (in)fortune contrastée… que nous évoquerons plus bas.

Vers l’infini et hello Dolly!

La compréhension de la structure génétique des eucaryotes et du partage de cette information par l’ensemble des cellules d’un organisme, quel que soit leur phénotype, invitait à penser que la différenciation cellulaire dépendait seulement d’un jeu d’expression de gènes et non d’une différence de composition génétique. Ainsi, il est apparu possible d’envisager de jouer sur les mécanismes moléculaires de structure de l’ADN et de modifier un phénotype, en comprendre la différenciation et les conditions de sa réversibilité. Une série d’expériences de fusion cellulaire et de transfert de noyau, menées dans les années 1960 à 1980 a montré le caractère épigénétique et/ou post-traductionnel des phénotypes, changeant radicalement la compréhension de leur acquisition et de leur maintien. Ces données enrichissent le modèle de Waddington22 et le concept de plasticité cellulaire sur lequel repose aujourd’hui, pour une grande part, la thérapie cellulaire.

À l’échelle moléculaire, le paradigme fondateur vient du clonage du facteur de transcription MyoD, obtenu par de patientes techniques de biologie moléculaire, et qui établit le rôle d’une protéine dans l’activation d’une cascade de différenciation cellulaire, myogénique dans le cas présent. Cet exemple a des limites : rares sont les processus biologiques ne dépendant que d’une à deux protéines. Il est plus fréquent que le phénotype dépende d’un ensemble de facteurs, moléculaires et dynamiques. Le microenvironnement, qui comprend entre autres la matrice extracellulaire, agit par la signalisation biochimique médiée par des récepteurs et par les voies de mécanotransduction, qui transfèrent les informations de structure. Les partenaires cellulaires, locaux ou recrutés, par des échanges de signaux, protéiques ou autres comme les vésicules extracellulaires [25], sont aussi des acteurs. C’est particulièrement vrai pour les cellules du système immunitaire, notamment lors de l’inflammation. Plus récemment, il a été montré que le métabolisme cellulaire agit sur le contrôle de l’épigénétique et donc directement sur les phénotypes [26]. Cet ensemble de processus converge en induisant des modifications fonctionnelles et structurelles de la chromatine, et donc en agissant sur l’expression de gènes.

En 1990 le monde de la recherche était mûr pour produire les données ouvrant au clonage animal. Dans le monde végétal les clones sont connus et utilisés depuis des décennies. Ainsi, a-t-on pu voir la photo d’une brebis, Dolly23, en couverture de Nature, en surimpression d’un dispositif de micro-injection. Preuve par l’œuf que le noyau d’une cellule somatique pouvait être reprogrammé par un environnement cytoplasmique germinal. En 2002 avaient été clonés veau, vache, cochon, et même des félins. Le clonage s’est développé pour les animaux de rente, avec cependant une interrogation sur la profondeur de la reprogrammation, du fait de l’observation d’un vieillissement accéléré des clones mais aussi d’autres imperfections. La technique poursuit néanmoins son développement. Elle aurait un intérêt dans la reproduction de variétés élites en conservant une meilleure diversité génétique, alors que la reproduction conventionnelle tend, elle, à la consanguinité. Récemment, le clonage d’un primate non humain a été obtenu. Les objectifs de ces recherches sont d’augmenter la compréhension des mécanismes du développement embryonnaire précoce et des mécanismes de maladies. Quant à un hypothétique besoin sociétal, de conservation d’espèces ou d’animaux de compagnie, il se structure autour d’un faisceau disparate d’arguments, sans apaiser un débat tendu quant à une application humaine.

Les cellules souches embryonnaires (ES) murines, obtenues depuis le bouton embryonnaire d’un blastocyste en 1981, ont été motrices dans la mise au point d’une partie de la transgénèse (voir plus haut). Elles sont aussi une source d’étude des facteurs physiologiques qui contrôlent cet état de différenciation. Les cellules ES sont pluripotentes et si elles ne contribuent pas à la formation des annexes embryonnaires24, notons qu’à la génération F1, ces cellules peuvent donner des gamètes qui participeront à la génétique des annexes de la F2. Après plusieurs années de recherche, des cellules ES humaines ont pu être obtenues en 1998 par l’équipe de James Thompson aux États-Unis [27]. Outre la transgénèse et les études du développement, les cellules ES ont un intérêt thérapeutique indirect. La pluripotence de ces cellules ouvre à la possibilité de les différencier en cellules d’un phénotype souhaité et ainsi, avec ou sans combinaison à un transfert de gène, de réparer ou remplacer un organe. La difficulté de ces stratégies vient de leur histocompatibilité. Quand bien même des banques de cellules ES humaines caractérisées ont été générées, elles ne couvrent pas la diversité humaine en termes de systèmes d’histocompatibilité. Leur utilisation serait donc restreinte à des situations où il existe physiologiquement une tolérance tissulaire aux cellules allogéniques, comme il est observé dans le système nerveux central et la rétine.

Pour les applications thérapeutiques, le développement des cellules pluripotentes induites (iPS) offre un avantage considérable sur les ES, celui de pouvoir être issues de cellules autologues [28]. Les cellules iPS ont été obtenues in vitro par dédifférenciation de cellules somatiques. Il aura fallu tester une série de combinaisons de facteurs protéiques caractérisés dans les cellules ES, pour en associer une à l’induction d’un phénotype de pluripotence. Depuis ce travail pionnier, publié en 2006 dans un modèle de cellules murines et l’année suivante dans des cellules humaines [29, 30], la combinaison des 4 facteurs initialement identifiée a évolué. Plusieurs études ont visé à substituer des molécules pharmacologiques à l’expression de gènes qui étaient intégrés dans la cellule à dédifférencier par transfert rétroviral. Ceci pose un problème de biosécurité, tant par l’intégration elle-même que par le fait que les facteurs exprimés sont des proto-oncogènes. Les évolutions ont abouti à ce qu’aujourd’hui les facteurs soient exprimés principalement par les dérivés d’un virus murin à ARN négatif, les vecteurs dérivés du virus de Sendaï. Son génome ARN et sa réplication cytoplasmique réduisent les risques de persistance des séquences transférées dans les cellules différenciées. Les conditions de production et la stabilité génétique des iPS ont également fait l’objet d’études pour disposer de banques de cellules (master cell banks) qualifiées pour un usage clinique. Les iPS ne sont qu’un précurseur en thérapie cellulaire, ce sont les protocoles de différenciation qui définiront leurs usages. La solidité de la différenciation est essentielle à l’extinction de programmes embryonnaires au potentiel prolifératif. Un premier essai clinique de formation de cellules rétiniennes a été interrompu du fait d’anomalies de différenciation. En 2024-2025, deux essais cliniquement positifs ont été publiés. L’un pour le traitement d’une patiente diabétique en Chine, l’autre au Japon, pour la maladie de Parkinson [31, 32]. Ce sont des cellules allogéniques qui étaient utilisées dans le cas de la maladie de Parkinson, le cerveau étant un organe tolérant. Ailleurs dans le monde, un recensement récent identifie plus d’une centaine d’essais en cours, avec des iPS autologues ou allogéniques.

Les iPS ne sont pas les seules cellules à faire l’objet d’études, d’essais ou de commercialisation (41 produits commerciaux sont recensés). Le domaine de l’immuno-oncologie est aussi fertile en termes de cellules génétiquement modifiées : des cellules CAR-T, TIL (tumor infiltrating lymphocytes), des lymphocytes cytotoxiques (CTL) et des cellules dendritiques (DC) sont commercialisées. Les CAR-T pourraient aussi transformer le traitement des maladies auto-immunes [33]. De même des cellules stromales mésenchymateuses (CSM) sont très utilisées en clinique, tant en immunomodulation qu’en reconstruction [34-36].

Sur le plan des innovations, les approches organ-on-chip sont très actives et mettent en relation biologistes et ingénieurs des matériaux avec l’objectif d’obtention de microcapteurs ou de cellules programmables sur le plan métabolique, entre autres [37]. Notons enfin que de nouveaux systèmes biologiques, les organoïdes, connaissent des développements en matière de modélisation. Ce terme recouvre des assemblages cellulaires en 3 dimensions, de composition plus ou moins complexe selon les organes [38]. Les organoïdes permettraient d’étudier en laboratoire, hors animal, des fonctions cellulaires dans un contexte physiologique moins distant de la situation in vivo, en termes d’organisation et de polarisation cellulaires, que ne le sont les cultures cellulaires classiques en 2 dimensions. La difficulté principale pour ces structures cellulaires est celle de la diversité des phénotypes cellulaires qu’elles peuvent contenir. En particulier, la vascularisation et la connexion à un système nerveux restent des défis importants et complexes.

En thérapie

Alors que dans les années 1980 le paysage de la génétique donnait l’impression de pouvoir dessiner avec précision le présent et l’avenir, le séquençage à haut débit a révélé des variations inattendues dont l’ampleur a mis en lumière plusieurs paradoxes. En premier lieu, celui d’un certain immobilisme structurel et fonctionnel des organismes là où de si grands bouleversements se sont produits dans la compréhension de leur fonctionnement à l’échelle moléculaire. Explorons quelques-uns des changements qui ont affecté les approches thérapeutiques dépendant des données génétiques.

La possibilité d’une thérapie génique est envisagée dès les années 1960. Rapidement il apparaît que pour qu’elle advienne deux questions doivent être résolues. Premièrement, dans le cadre du traitement d’une maladie génétique, l’identification des mutations causales au sein d’un ou plusieurs gènes. La compréhension de la physiopathologie est également capitale, quel organe, à quel moment et avec quelle ampleur de correction ? Deuxièmement, par quel moyen transférer l’information génétique25 ? De cette dernière question a émergé le concept de vecteurs. Des approches non virales, comme la transfection d’acides nucléiques, se sont développées en parallèle d’approches virales.

Pour les vecteurs dérivés des viraux, une fois encore, c’est le biologiste naturaliste qui a posé les jalons. Ce sont les biologistes américains Howard Temin (1934-1994) et David Baltimore (1938-), travaillant respectivement sur des virus tumorigènes aviaires et de mammifères, qui identifient les premiers une famille d’agents oncogènes, les rétrovirus. Au sein de cette grande famille, ils observent que certaines souches contenaient des rétrovirus défectifs qui ont perdu un ou plusieurs gènes viraux. Ce qui caractérise ces virus défectifs est, la présence d’une séquence dont il existe chez l’hôte un orthologue génomique26 [39], et le fait qu’ils sont transférés en présence d’un autre virus, qui complémente le gène viral absent. Il n’aura fallu que quelques années pour que, selon ces principes, soient dérivés des vecteurs de transfert de gène, à partir de l’an -4 avant m/s [40-42]. Et il n’est pas exagéré de dire que, à part une avancée conceptuelle, le développement de virus dits auto-inactivants (ce n’est pas péché que d’utiliser l’acronyme anglophone, SIN pour self-inactivating), la biologie des vecteurs rétroviraux n’a pas évolué depuis !27 Les vecteurs SIN reposent sur une caractéristique de la transcription inverse, qui produit deux copies du promoteur/enhancer viral placées à chaque extrémité du génome viral. La délétion de la copie, en 3’ du génome du vecteur entraîne sa suppression complète dans le vecteur intégré dans la cellule cible. Il y a deux avantages à cela : la possibilité d’utiliser des promoteurs endogènes pour exprimer le transgène, et une réduction des effets du promoteur/ enhancer viral sur la transcription des gènes cellulaires à proximité des sites d’intégration des vecteurs. Toutes les améliorations opérées depuis sont incrémentales, même si, sans elles, il est possible que le passage à la clinique des vecteurs rétroviraux aurait été particulièrement difficile.

Citons quelques-unes de ces évolutions [43]. La séparation des séquences de transcomplémentation, en deux ou plusieurs unités, répond à un impératif de sécurité. Les génomes rétroviraux sont des ARN diploïdes, le provirus est un ADN, et la conversion de l’ARN en ADN est catalysée par une transcriptase inverse (RT) qui saute d’un modèle à l’autre. Ces sauts permettraient de reconstituer un génome réplicatif, et la séparation des gènes viraux réduit cette probabilité. Cette séparation permet aussi le pseudotypage, qui correspond au choix d’une protéine d’enveloppe différente de celle du virus parental. Il en découle de meilleurs rendements de production, sans pour autant autoriser un ciblage tissulaire efficace par ingénierie de ces enveloppes. Le changement le plus notable pour les vecteurs rétroviraux est le passage des rétrovirus murins aux lentivirus comme base pour construire des vecteurs. Ce changement est important car il améliore la transduction de cellules primaires, modestement celles d’organes in vivo, et change les sites d’intégration. Les rétrovirus s’intègrent dans le génome des cellules infectées, mais comme ils s’expriment par transcription, la sélection naturelle a produit des virus intégrés dans l’euchromatine28 à proximité ou au sein de gènes exprimés. Pour les vecteurs, cela est associé à un risque de mutagénèse par insertion, la différence entre rétrovirus murins et lentivirus étant la proximité du site d’intégration de celui de l’initiation de la transcription cellulaire, moins importante pour ces derniers [44]. Pour le reste, les vecteurs lentiviraux sont produits de la même manière que leurs prédécesseurs, avec les mêmes enveloppes, véhiculent des transgènes de même taille, avec des rendements sensiblement identiques et ont une structure SIN permettant l’utilisation d’un promoteur interne. Sur le point de la mutagénèse par insertion, l’expérience clinique montre que le risque existe bien dans les deux cas. Il serait sensiblement plus important pour les rétrovirus murins [45]. Mais il est principalement lié à la cellule cible, à la maladie ciblée et éventuellement au transgène [46]. La principale conséquence est la nécessité de surveillance clinique des patients sur un terme indéfini.

Les vecteurs rétroviraux ont contribué à l’éclosion de la thérapie génique en trois temps. Le premier dans les années 1990 en donnant de premiers résultats intéressants pour un déficit immunitaire en adénosine désaminase (ADA) et par transduction de lymphocytes T avec un vecteur rétroviral murin. Le deuxième, début des années 2000, avec les résultats de l’essai sur les enfants immunodéficients, SCID-X, qui confirmait la possibilité de reconstituer un système immunitaire, mais au risque d’une mutagénèse par insertion (voir plus haut) [47]. Le bénéfice de cet essai est indiscutablement positif, d’autant plus si l’on prend en compte les apports de ces vecteurs, dans la deuxième décennie du XXIe siècle, à l’obtention des cellules CAR-T et au traitement par thérapie génique des maladies génétiques de l’hémoglobine, notamment. Il en a découlé treize médicaments à base de cellules CAR-T, et sept à base de lentivirus et vecteurs rétroviraux pour traiter des déficits génétiques et disposant d’une autorisation de mise sur le marché en 2025 !

Les vecteurs dérivés des adénovirus ont connu un développement temporellement parallèle à celui des rétrovirus. Leur conception s’est avérée plus simple sur le plan moléculaire, la préexistence d’une lignée de complémentation permettant l’obtention de vecteurs défectifs. L’intérêt de ces virus était double. Non enveloppés, ils pouvaient être concentrés et purifiés très facilement. Dotés d’un génome de 30 kilos paire de bases, ils portaient l’espoir de transférer de grands transgènes. Pléthore d’équipes se sont lancées dans leur développement. Toutes ont buté sur deux soucis connexes, la courte durée de l’expression du transgène après transfert in vivo, moins de quinze jours en général, et leur forte immunogénicité. Il a été montré que les gènes viraux conservés dans le vecteur, malgré la délétion des gènes viraux clés du contrôle de l’expression, étaient exprimés à bas bruit in vivo, suscitant un rejet des cellules transduites par le système immunitaire. Malgré cela, un essai clinique pour une maladie génétique grave, le déficit en ornithine transcarbamylase (OTC), a été initié en 1999. L’un des patients, Jesse Gelsinger29, a succombé à un choc lors de l’administration d’une dose élevée de vecteur. Ce décès a stoppé le développement des adénovirus comme vecteurs de transfert pour les maladies génétiques. Les causes de ce choc sont multiples, immunologiques et certainement liées à la toxicité directe du virus par la lyse des endosomes qu’il déclenche [48].

Les adénovirus sont toujours l’objet de développements, en vaccinologie30, en cancérologie où leur caractéristique moléculaire de cytotoxicité lors de la réplication est exploitée pour le traitement des cancers p53 négatifs [49, 50]. Deux vecteurs ont une autorisation de mise sur le marché (AMM) dans ce domaine. Enfin, sur la base de sérotypes d’adénovirus non humains, des vecteurs complètement défectifs (aussi appelés « gutless ») sont développés grâce à une astucieuse utilisation du système Cre/Lox. Permettront-ils de résoudre les difficultés de l’immunogénicité ?

Le troisième acteur du transfert de gène est dérivé d’un parvovirus, de la famille des Dépendoparvovirus. Sa dénomination explicite ce dernier aspect, AAV pour virus associé aux adénovirus, nom pas tout à fait adapté, ces virus étant également associés aux herpesvirus, et probablement à d’autres aussi. La biologie de ce virus non enveloppé est intéressante à de multiples égards : au-delà de l’absence de maladie associée31, son caractère défectif intrinsèque ; la trace sérologique distincte laissée par les nombreux sérotypes naturels retrouvés dans un grand nombre d’espèces animales ; un génome simple doté de deux cadres de lecture auxquels il est possible de substituer un transgène, garantissant l’absence d’expression de gènes viraux ; enfin, une particule virale non enveloppée, formée par une capside très résistante qui peut être purifiée et concentrée. Les différents sérotypes d’AAV, issus de capsides naturelles, permettent de contourner la présence d’anticorps neutralisants retrouvés dans les populations humaines contre un nombre restreint d’entre eux. Ces divers sérotypes sont associés à une préférence tissulaire, qui oriente le choix selon le tissu cible. Ces caractéristiques sont à l’origine de sa popularité, qui n’aura été retardée que par la nécessité d’un virus associé pour sa production ainsi que par la petite taille de son génome, réduisant les possibilités de transfert ou de contrôle transcriptionnel [51]. La caractérisation de quelques gènes adénoviraux suffisants pour assurer une production dépourvue de virus est validée dès la moitié des années 1990. La limite qu’est la taille transférable peut être contournée par deux approches. L’une repose sur la possibilité de construire des mini(micro)ADNc codant une protéine fonctionnelle, avec l’exemple emblématique de la microdystrophine [52]. L’autre, sur le co-transfert de deux vecteurs codant un fragment du gène qui est réassemblé par épissage, recombinaison ou par ajout de modules d’interactions aux protéines traduites. Les taux d’expression sont alors faibles. Mais la taille moyenne d’un ADNc humain étant d’environ 3 kb, les vecteurs AAV conservent un vaste champ d’applications. D’où les centaines d’applications en essais cliniques, les AAV représentant 88 % des vecteurs viraux en cours de développement, dont 8 ont reçu une autorisation de mise sur le marché [53].

Quelles ont été les avancées les plus notables, en plus de celles mentionnées précédemment ? Une série de modifications des procédés de production et de structure du génome, comme la conception d’AAV auto-complémentaires qui seraient plus stables. D’autres recherches concernent aussi l’efficacité de formation des formes double-brin du génome transduit, avec comme objectif d’augmenter les titres efficaces. Mais, indéniablement, le travail sur les sérotypes et la recherche sur l’obtention de vecteurs plus spécifiques de certaines cibles est le point fort des vecteurs AAV. La détermination de la structure tridimensionnelle de la capside des AAV a permis l’identification de boucles peptidiques exposées à sa surface, pouvant être modifiées pour diriger le vecteur vers une cible cellulaire particulière [54]. Ici deux techniques ont été utilisées : le clonage de séquences déjà identifiées et les approches d’évolution moléculaire in vitro. Dans cette approche, une banque de séquences aléatoires est clonée dans la séquence codant la capside, en place de celle codant la boucle évoquée précédemment. Par un crible, fait de cycles d’infection, de récolte, d’amplification in vitro ou in vivo, une série de clones plus spécifiques est obtenue et caractérisée. C’est ainsi que de nouveaux vecteurs trasversant la barrière hémato-encéphalique ont été obtenus et pourraient être utilisés pour cibler le système nerveux central [51]. Les AAV sont néanmoins freinés dans leur développement par quelques aspects. Comme pour les adénovirus, une réaction immunologique plurifactorielle peut induire une réponse délétère chez les patients. Plusieurs décès d’étiologies mal définies, faisant l’objet d’études actuellement, sont à déplorer [55]. Toujours dans le domaine de l’immunologie, une réponse antivirale et/ou anti-transgène incite à prescrire des traitements immunosuppresseurs aux patients traités [56]. Enfin, les données précliniques et cliniques indiquent que des fragments du génome recombinant s’intègrent aléatoirement dans les génomes des cellules hôtes [57]. Cette surprenante donnée invite à la surveillance des patients. Les modèles animaux précliniques, hors des conditions particulières d’administration néonatales chez la souris, n’identifient pas de risque de transformation, ce qui est rassurant.

D’autres virus, notamment pour le traitement des cancers, sont développés. Mentionnons les vecteurs dérivés du virus de l’Herpès simplex (HSV), pour lesquels deux spécialités oncolytiques sont commercialisées [50]. Le principe de ces vecteurs, comme pour l’adénovirus, est d’utiliser des systèmes dont la réplication et l’effet cytopathique sont favorisés par les mutations communes aux cancers. Le plus souvent l’effet cytopathique permet un recrutement de cellules immunocompétentes. Des observations historiques de résolutions spontanées de tumeurs lors d’infections par le virus de la rougeole ont inspiré ces approches. Pour ce virus ce sont des souches vaccinales qui sont utilisées, elles ont l’avantage d’infecter un plus large panel de tumeurs en utilisant un récepteur (CD46) différent du récepteur naturel (SLAM).

À la différence des systèmes viraux, les développements des systèmes non viraux sont majoritairement portés par des laboratoires pharmaceutiques, et la composition des agents de transfection est mal connue. Ils sont majoritairement formés de lipides (LNP pour lipid nanoparticles) qui permettent de condenser les acides nucléiques et de favoriser leur interaction avec les membranes cellulaires. Ce champ des vecteurs non viraux connaît actuellement un essor considérable, notamment grâce aux approches CRISPR/Cas.

Après des années de stagnation, les vecteurs non viraux représentent, en 2025, 20 à 40 % des produits en essai ou commercialisés. Les résultats de premiers essais in vivo de CRISPR/Cas véhiculés dans des nanoparticules lipidiques, dans un but de knock-out (KO) de gène sont spectaculaires [58, 59]. Notamment un essai très récent de thérapie d’une maladie monogénique très rare, a pu être réalisée grâce à un processus de développement court [60]. Qu’en sera-t-il pour d’autres patients ? Dans le même ordre d’idée une approche de transfert d’oligonucléotide antisens spécifique d’un allèle a permis de stabiliser le phénotype d’une enfant atteinte d’une maladie neurodégénérative [61]. Les potentiels de développement des oligonucléotides sont très importants. En plus des oligonucléotides antisens, deux autres approches sont prometteuses : des oligonucléotides de contrôle de l’épissage, dans le cadre de la maladie de Duchenne de Boulogne par saut d’exon (exon-skipping) ; et des oligonucléotides stabilisants de l’ARN, pour la mucoviscidose par exemple.

Le développement de ces systèmes de transfert de gènes, viraux et non viraux, répond à la diversité des besoins thérapeutiques. Les objectifs de traitement d’une maladie génétique, d’une maladie liée au vieillissement, d’un cancer ou d’une maladie infectieuse ne se recouvrent pas nécessairement. Néanmoins, certaines caractéristiques sont partagées comme l’attente de thérapies administrées in vivo. De premiers CAR-T par transfert de LNP ont déjà été obtenus32. Dans ce contexte, la spécificité de ciblage du vecteur est centrale. Les stratégies pour obtenir des vecteurs ciblés reposent sur l’obtention de peptides, nanobodies, fragments variables simple chaîne (scFv) ou d’anticorps de camélidés, voire d’affitines, conjugués à la surface des vecteurs, par expression ou attaches chimiques (click-chemistry). Notons que la maîtrise de la réponse immune restera une préoccupation importante.

100 000 milliards de beaux n

Le séquençage à haut débit appliqué à l’ensemble des règnes expose les génomes dans leur extraordinaire variabilité. Celle-ci nous indique, au moins, deux points centraux concernant les organismes. Tout d’abord, que le potentiel évolutif de toute forme vivante est fonctionnellement consubstantiel à sa structure. Chaque individu porte des différences, par rapport à ses ascendants et congénères, qui, soumises à un environnement variable, peuvent contribuer à une dérive. Le deuxième point, est que malgré des différences importantes de composition, la physiologie des individus d’une même espèce est relativement identique, avec de subtiles variations phénotypiques en partie liées aux différences génétiques. À chaque position de nucléotide correspond une variation « n ». Dans le cadre d’une approche de compréhension de la physiologie, et de la pathophysiologie, l’enjeu est de pouvoir connecter les variations génétiques aux phénotypes. Cet objectif est identique à celui exposé pour la transgénèse. Ici, il est étendu à toutes les formes de vies, en culture isolée ou dans la complexité de différents environnements. Pour le réaliser, deux grandes classes de modifications sont le plus souvent réalisées : inactivations et conversions géniques.

Les premières sont les plus simples à obtenir car elles peuvent résulter d’un grand nombre de méthodes. L’irradiation et les agents mutagènes chimiques, dès les années 1930, puis les oligonucléotides ou de courtes séquences dans les années 1970-1980, ont permis d’obtenir des inactivations fonctionnelles de gènes, principalement in vitro et parfois au prix d’une difficile sélection.

Faisant suite à cette biologie rustique, une première amélioration est venue avec l’identification de l’interférence ARN chez C. Elegans, un petit ver de terre d’environ un millimètre [62]. De cette observation ont été dérivées deux approches : l’une fait appel à des molécules de synthèse, des siRNA (pour short interfering RNA) transfectés, l’autre est obtenue par l’expression de shRNA (pour short hairpin RNA) et miRNA (pour micro interfering RNA) vectorisés [63]. L’interférence a sensiblement facilité l’obtention de l’inactivation de traduction d’ARN cibles, mimant le phénotype d’une inactivation génique. Malgré l’aide de banques validées de si-, sh- ou mi-RNA, le choix de la séquence cible génomique reste empirique. Toujours très utilisés, les siRNA servent le plus souvent de premier crible pour vérifier la pertinence d’une cible génétique. Notons aussi que leur composition proche de médicaments conventionnels les rend attractifs pour les laboratoires pharmaceutiques qui en ont dérivé des formulations utilisées en clinique. L’étude des mécanismes de réparation de l’ADN a ouvert une piste d’évolution remarquable. En observant que les cassures double brin dans l’ADN induisaient les systèmes de réparation non-homologue (NHEJ pour non-homologous end-joining) ou homologue (HR pour homologous recombination), l’idée de détourner ces systèmes à des fins de modification ciblée des génomes, appelée édition génomique (genome editing) s’est faite jour, la recombinaison homologue, mécanisme assurant une réparation fidèle, étant l’objectif principal pour la correction des maladies génétiques. Deux problèmes se posaient alors ; celui de l’obtention d’un mode de coupure spécifique d’une séquence unique, afin d’activer les systèmes de réparation à ce seul site ; puis, celui du transfert d’un brin modèle de réparation qui permettrait la conversion génique, ou la recombinaison homologue au site de coupure. Il est aussi utile de mentionner les deux effets attendus sur le plan génétique, selon que l’on active le NHEJ ou la HR. Dans le cas du NHEJ, l’induction d’activités exonucléases se traduit par des microcoupures ou des insertions, ce qui, dans une séquence codante, décale le cadre de lecture et altère la protéine codée et, donc, sa fonction. La recombinaison homologue est, en revanche, plus précise, le brin modèle permettant une conversion génique spécifique. Le modèle des enzymes de restriction33 a été au départ inspirant pour concevoir de nouvelles enzymes capables de couper l’ADN de façon site-spécifique. Cependant, la courte séquence qu’elles reconnaissent est rédhibitoire, puisque les génomes eucaryotes en contiennent des milliers. Vint alors, le naturaliste, le collectionneur, qui, colligeant les sites ADN reconnus par les protéines à doigt de zinc (ZF) [64] et leur séquence protéique dans tous les règnes, rendit possible la construction de banques de données à partir desquelles il est aisé de former des protéines recombinantes spécifiques d’une séquence. Créer un programme informatique ad hoc pour les dessiner n’a pas été complexe. En associant à ces protéines à doigt de zinc le site nucléase d’une enzyme de restriction (N), il est possible de créer une endonucléase, ZFN, spécifique de chaque séquence. Ainsi, les ZFN furent les premiers outils de coupure de l’ADN véritablement adaptables. Si les ZFN ont permis une très notable avancée, la conception des doigts de zinc nécessitait plus que des doigts de fée ! C’est alors que le riz est venu nourrir le domaine ! L’étude des mécanismes d’action d’un pathogène du riz, la bactérie Xanthomonas oryzae, a révélé que ses protéines TALE (pour transcription activator-like effectors) sont transférées dans le noyau des cellules de plantes et que, fait remarquable, elles y exercent une action de facteur de transcription. Une TALE se lie à l’ADN par un domaine central répété au sein duquel chaque répétition contient deux acides aminés spécifiques d’un nucléotide (histidine/aspartate : C ; asparagine/isoleucine: A ; asparagine/glycine : T ; asparagine/asparagine : G) ! Pour obtenir une coupure spécifique, la conception d’une TALEN, TALE +N, était alors un jeu d’enfant34 [65]. Un certain talent est toutefois requis pour cloner le cDNA d’une TALEN… En peu de temps la puissance du système est établie avec la production d’animaux et de plantes modifiés. Dans la constellation des techniques, combien ont été éclipsées par l’ombre de plus brillantes ? Apparues en 2009, les TALEN ont dû rapidement cohabiter avec un nouvel entrant, le système CRISPR/Cas [20, 66]. Là encore un système bactérien, issu, à l’instar des enzymes de restriction, d’un mécanisme de résistance aux phages et aux plasmides. Son intérêt vient de ce que c’est un ARN qui reconnaît la séquence cible, et une seule protéine promeut la coupure. Ce mode de fonctionnement rend superflue la complexe conception d’une nucléase recombinante. La synthèse chimique ou l’expression d’un ARN guide ne pose aucune difficulté. En quelques mois CRISPR/Cas révolutionne la biologie de tous les règnes. Signalons que la question de la vectorisation des ZFN/TALEN relève d’une même difficulté, cependant réduite dans le cas de CRISPR/Cas qui est aujourd’hui très largement utilisé sous forme de complexes ribonucléoprotéiques, plus ou moins conjugués à des lipides (RNP, LNP).

La difficulté d’apport d’un acide nucléique, servant de modèle pour la réparation, persiste aujourd’hui. In vitro, la transfection d’un ADN modèle, plasmide ou vecteur viral est aisée, et l’efficacité de conversion repose sur une étape de sélection. Pour les cultures primaires ou in vivo, ces approches sont cependant insuffisamment efficaces. C’est ici que la facilité d’usage de CRISPR/Cas a aussi stimulé la mise en œuvre de solutions originales. Le couplage de la protéine Cas à une enzyme d’édition, ou de modification biochimique de type APOBEC (apolipoproteins B mRNA editing enzyme, catalytic polypeptide-like) ou ADAR (adenosine deaminase RNA specific), permet de modifier une séquence ADN sans coupure des brins. Cette approche aisée à mettre en œuvre, est très utilisée, elle ne devrait pas tarder à entrer en clinique [67]. La modification est cependant ponctuelle, les insertions ou délétions lui échappent. En couplant la Cas à une RT et en utilisant un ARN guide modifié (pegRNA) comme modèle, il est aussi possible de se dispenser de transférer un ADN modèle. L’amélioration de l’efficacité de cette approche d’édition, ou prime editing, fait l’objet d’intenses recherches [68].

La formation d’autres protéines de fusion Cas-XX permet en théorie de modifier les marques épigénétiques de l’ADN et, ainsi, de contrôler l’expression de gènes choisis. Il faudrait aussi évoquer les cribles réalisés par des inactivations induites par CRISPR/Cas, dans des cultures cellulaires ou in vivo, qui sont une inépuisable source de caractérisation du support génétique de phénotypes. La liste d’utilisation de CRISPR/Cas est encore longue et ouverte à de nombreuses innovations. La découverte d’un grand nombre de protéines agissant comme CRISPR/Cas dans l’ensemble du vivant, FANZOR (ou FZ) par exemple [69], laisse ouverte la voie à de nouvelles approches.

Une utilisation encore plus large de ces approches dépend de plusieurs éléments. Notamment, la maîtrise des coupures hors cible (off-target), problème essentiel qui repose sur des concepts techniques complexes. Réduire les coupures n’est pas insurmontable, il existe des solutions techniques avec l’utilisation de Cas de diverses espèces ou issues de mutagénèse. Toutefois, la certitude de la réduction du nombre de ces coupures pose un problème de détection d’événements rares et proches du seuil de spécificité et de sensibilité des techniques de séquençage actuelles. Enfin, l’avènement d’un mode de conversion génique efficace, directement in vivo, permettrait d’étendre son application en thérapie génique. De même, en agronomie, c’est un enjeu majeur que de pouvoir exploiter la variabilité génomique lorsqu’elle est liée à un phénotype d’intérêt, comme les adaptations aux changements climatiques ou la résistance aux maladies.

Dessine-moi un mutant

Approchant la conclusion, évoquons un ensemble de techniques originales et/ou disruptives qui ont émergé lors des quatre dernières décennies.

Commençons par les approches d’évolution moléculaire in vitro. Blessant notre vanité affine de constructions rationnelles, ces approches ont le potentiel de donner une vie à des structures que nous ne saurions prévoir. Une sorte d’intelligence artificielle (IA) générative, où la phase d’apprentissage consiste en un test biologique. Inaugurées par la technique du phage display35, leur principe est simple. Comme précédemment décrit pour les vecteurs AAV la première étape vise à générer une banque de séquences aléatoires placées dans un système capable de s’autoamplifier au sein du système biologique spécifique au crible. Une série de cycles du crible enrichit la banque initiale en séquences de plus en plus spécifiques [70].

Le monde des ARN a donné des idées aux amateurs d’aléatoire. La méthode Selex (systematic evolution of ligands by exponential enrichment) repose sur la synthèse aléatoire d’ARN qui vont être criblés, selon le même mode de cycles d’enrichissement que précédemment, pour leur capacité à lier une molécule. Les aptamères produits pourront ensuite être couplés à d’autres molécules pour des applications allant du contrôle de la traduction à la formation de ribozymes.

Une dernière technique de sélection aléatoire par évolution moléculaire in vitro est le DNA-shuffling. Son principe repose sur une étape de PCR créant des mutations aléatoires, dont le produit, d’amplification partiellement coupé, puis réassemblé, est cloné et soumis à un crible biologique [71].

À l’heure de l’IA générative il peut paraître étrange de toujours considérer ces approches. Mais n’oublions pas que la biologie est d’une réalité indépassable, et qu’il restera toujours nécessaire de valider fonctionnellement un produit d’IA. Alors pourquoi ne pas continuer à utiliser ces approches ? C’est la facilité de réalisation du crible biologique qui peut en décider, plus il est simple, plus efficaces seront les approches biologiques. Combiner les données d’IA et de structure, générées grâce à Alphafold et ses clones [72-74], pour réduire la composante aléatoire d’une approche pourrait aussi être avantageux.

Évoquons, pour finir, une question colossale ! Celle de la palette des possibilités qu’offre la biologie de synthèse. La première difficulté est de la définir tant elle couvre des champs différents, certains très proches de la chimie. Ainsi, des pans de la biologie de synthèse pourraient ne pas être biologiques, si on considère que le biologique est vivant… Alternativement, il est préférable de choisir de ne pas la définir mais de dire de quelles formes de biologie de synthèse il est question. Prenons quelques exemples : introduction d’une nouvelle voie métabolique dans un organisme, comme ce qui a été fait lors de l’intégration de la voie de synthèse du cholestérol dans la levure ; biologie de synthèse visant à produire des bactéries à génome réduit et défini, une approche réalisée par les équipes de C. Venter36 ; une version dérivée, la formation de nouveaux virus par combinaison de génomes ; synthèse de génomes d’organismes disparus ; création de formes vivantes ayant de nouveaux nucléotides, de nouveaux acides aminés… Et, dernière création conceptuelle, les bactéries miroir37 [75], exploitant ce carbone asymétrique que la sélection naturelle n’a pas retenu et qui râle devant une telle injustice… !

Cette courte liste, montre comment la biologie de synthèse, par certaines de ses formes, soulève un incommensurable nombre de questions. Elles sont avant tout techniques, et il est très probable qu’elles se résoudront. Alors, autant réfléchir et penser aux étapes suivantes. Ces dernières abordent les conditions de leur mise en œuvre. Quels processus de décision pour faire ou non ces expériences dans quelles conditions de sécurité, de sûreté, à quel coût économique, environnemental, sociétal, et, surtout, pour quels objectifs ? Alors commencent les difficultés d’un ordre différent, celles du suivi et du partage sociétal de ces questions, car si la biologie de synthèse interroge notre compréhension du vivant, et en ce sens est un stimulant philosophique et scientifique passionnant, sa phase pratique entre dans notre réalité et les conséquences concernent bien notre société humaine. En démocratie, le modèle de partage est bien celui d’une décision collective, reposant sur une commune compréhension où l’on perçoit clairement que les pensées lumineuses sont autant sources d’éblouissements que d’aveuglements.

En guise de conclusion, la possibilité du nihil, transe humaniste ou mythes décisifs ?

Comment conclure ce tour d’horizon de quarante années de recherches qui nous ont ouvert à la compréhension, encore partielle, de ce que nous sommes et à l’amélioration des moyens de vivre en meilleure santé, sans, étrangement, altérer une relative insatisfaction qui serait aussi bien le moteur de nos attentes déçues que la source d’une inventivité ?

Non pas sur les difficiles questions de société, à ne pas ignorer, mais qui nécessiteraient des développements que l’on ne peut ici couvrir. Disons brièvement que les biotechnologies, même dans leurs aspects médicaux, n’échappent pas aux embûches qui sont à la source du dilemme de Collingridge38. Comme elles concernent le vivant, dont nous sommes une partie, les débats qui leur sont associés ont une saveur particulière. Dans ce domaine, la question des plantes OGM (organismes génétiquement modifiés) est une bonne illustration des difficultés à structurer une discussion apaisée. Entre militants et entrepreneurs, les scientifiques se sentent perdus, insatisfaits, instrumentalisés, quel que soit leur point de vue de citoyens. Pour le cas particulier du coût des traitements innovants, voir l’analyse récente de B. Jordan [76], et notons l’une des initiatives sur le sujet [77]. Pas davantage sur les questions éthiques, tant elles sont complexes. Ces interrogations auraient eu pour sujet le clonage humain, la thérapie génique germinale39, voire l’utérus artificiel. Et point encore sur la dualité possible de quelquesunes de ces découvertes, à ne pas négliger.

Raillons, avec frayeur, certains des patrons des GAFA40, moins comiques que Gaston, qui voient dans le transhumanisme leur avenir narcissisé et qui, sombres ignorants du vivant, pensent pouvoir échapper à leur finitude par l’intermédiaire d’improbables avatars.

Rappelons-nous que l’un de nos prédécesseurs a été nommé Homo habilis, ce qui reflète une propension à agir, des capacités que les hasards espiègles de l’évolution ont accentuées avec plus ou moins de sagesse. Qui s’en plaindrait, à part l’Alceste41 qui est en nous ? En accédant à toutes les échelles de notre être, les biotechnologies ont cela de fascinant qu’elles nous permettent de créer une représentation de notre part invisible, et qu’elles éclairent également ce qui nous appartient : le libre arbitre et l’incertitude de sa subjectivité imprévisible.

Dans cette pérégrination foisonnante, réjouissons-nous d’y avoir croisé du Nobel à tous les paragraphes, d’en avoir été témoins, un peu acteurs auprès de nos éminents collègues, et d’y voir s’ouvrir des voies dont l’horizon est aussi invisible qu’attractif. Loin de chercher la solution, le mythe décisif, prenons plaisir à y pousser des cailloux facétieux qui seraient d’irrégulières bornes kilométriques d’une partition modale où jase une expression libérée.

Lien d’intérêt

L’auteur déclare n’avoir aucun lien d’intérêt concernant les données publiées dans cet article.


1

Oswald Avery (1877-1955, Colin MacLeod (1909_1972) et Maclyn McCarty (1911-2005) menèrent, en 1944, une expérience sur les pneumocoques qui fut décisive pour établir que l’acide désoxyribonucléique était le support de l’hérédité.

2

Ce dogme stipule que l’information génétique dans une cellule est transmise de l’ADN à l’ARN, puis à des protéines. En d’autres termes, il décrit le flux unidirectionnel de l’information génétique.

3

La question reste prégnante et controversée, polémique, dans le monde universitaire.

4

Paul Berg (1926-2023), biochimiste américain, prix Nobel de chimie en 1980 pour ses travaux sur les acides nucléiques.

5

La Conférence d’Asilomar, sur la côte ouest des Etats-Unis est une réunion historique, où des scientifiques ont discuté des implications éthiques et de sécurité des recherches en biologie moléculaire, notamment sur la génétique et les biotechnologies.

6

« Molecular cloning: a laboratory manual » publié pour la première fois en 1982 est devenu une référence incontournable en biologie moléculaire, souvent surnommé simplement le « Maniatis ». Il a largement contribué à la standardisation des techniques de clonage et à la diffusion des méthodes expérimentales dans les laboratoires du monde entier.

7

Ginette Mathiot (1907-1998) une enseignante en arts ménagers et auteure de livres de cuisine française (ndlr).

8

N’y voyez aucune nostalgie, notons simplement que la déconnexion entre expérimentations et compréhension des mécanismes moléculaires mis en œuvre peut altérer l’esprit critique nécessaire à l’analyse des résultats.

9

La « polymerase chain reaction » ou réaction en chaîne par polymérase, a été mise au point en 1983 par Kary Mullis (1944-2019), et Michael Smith (1932-2000), invention pour laquelle ils reçurent le prix Nobel en 1993.

10

Le brevet a été largement disputé, car il y avait beaucoup d’argent à gagner. Le norvégien Kjell Kleppe (1934-1988) avait déjà évoqué le principe de la PCR en 1971.

11

Seuls les complotistes et autres antisystèmes y trouveraient leur compte…

12

Des changements sont espérés avec le complexe développement de la synthèse de longs acides nucléiques à façon.

13

Cette technique utilise la PCR pour générer des fragments d’ADN avec des extrémités homologues à celles flanquant le site d’insertion dans le vecteur, permettant ainsi leur recombinaison. En comparaison avec d’autres méthodes de clonage, In-Fusion est apprécié pour sa flexibilité, sa rapidité et sa capacité à fonctionner avec des fragments d’ADN de taille variable sans nécessiter l’utilisation d’enzymes de restriction.

14

Une grande sensibilité qui n’est pas sans poser des problèmes de spécificité parfois.

15

Aequorea est un genre d’hydroméduses, de la famille des Aequoreidae.

16

Aujourd’hui, le traçage cellulaire repose également sur l’utilisation de courtes séquences d’ADN comme les code-barres, courtes séquences clonées et transférées par des vecteurs, ou sur la variation somatique naturelle suivie par séquençage.

17

Un capteur photographique CCD (charge coupled device) est un capteur photographique basé sur un dispositif à transfert de charges (ndlr).

18

Thomas Hunt Morgan (1866-1945), biologiste et généticien américain, est l’un des pères de la génétique moderne par ses travaux sur la mouche du vinaigre (Drosophila melanogaster), qu’il a utilisée comme organisme d’étude de l’hérédité.

19

Le Japon a récemment autorisé la commercialisation de deux poissons d’élevages modifiés par CRISPR/ Cas.

20

Le locus ROSA26 (reverse orientation splice acceptor) qui est situé sur le chromosome 6 de la souris, a été identifié pour la première fois en 1991. Il s’agit d’une région d’expression ubiquitaire et stable, c’est-à-dire que les gènes insérés à cet endroit sont exprimés dans presque tous les tissus, tout au long de la vie de l’animal.

21

Des moustiques transgéniques stérilisants mais sans capacité de diffusion, non capables de gene drive, sont utilisés dans la lutte contre les maladies vectorielles.

22

Le modèle de Waddington, aussi appelé paysage épigénétique de Waddington, est une métaphore visuelle proposée par le biologiste britannique Conrad Hal Waddington (1905-1975) dans les années 1940 pour illustrer le développement cellulaire et la différenciation. Le modèle représente le développement d’une cellule comme une bille qui roule le long d’un paysage vallonné, où chaque vallée mène à un destin cellulaire différent (neurone, muscle, cellule sanguine, etc.).

23

Nommer cet animal d’un prénom a-t-il contribué à enflammer le débat sur le clonage humain ?

24

Les annexes embryonnaires, appelées aussi membranes fœtales, sont des organes transitoires qui accompagnent l’embryon et le fœtus lors de son développement.

25

Et sous quelle forme moléculaire, ADN, ARN, gène entier, cDNA, etc.

26

Ces gènes sont des proto-oncogènes, leur forme mutée impliquée dans le cancer est nommée c-onc, la forme virale v-onc, découverte contribuant au prix Nobel de D. Bishop et H. Varmus Baltimore. Notons que le RSV (Rous sarcoma virus) est un rétrovirus aviaire qui porte un v-onc sans être défectif.

27

Petite exagération car des systèmes de transfert d’ARN ou de protéines ont été développés sur des plateformes lentivirales, ouvrant des perspectives intéressantes. Mol Ther Methods Clin Dev. 2015 Oct 21:2:15039. doi: 10.1038/mtm.2015.39. Nat Commun. 2025 Jan 4;16(1):397. doi: 10.1038/s41467-024-55604-0.

28

L’euchromatine est la chromatine qui apparaît partiellement décondensée en interphase et qui comporte des gènes transcriptionnellement actifs à l’opposé de l’hétérochromatine.

29

Le cas de ce patient est regrettable, il était mosaïque pour la mutation et avait une forme moins sévère de la maladie, qui lui avait permis de ne la manifester que tardivement, mais c’est cela qui l’avait orienté vers les doses les plus élevées de l’essai.

30

Pour lutter contre des infections virales, le SARS-CoV-2 étant la dernière.

31

La présence de formes intégrées dans certaines tumeurs hépatiques n’établit pas clairement une causalité (voir plus bas).

33

Il faut évoquer les travaux pionniers d’André Choulika par son approche d’évolution moléculaire d’une méganucléase, enzyme de restriction reconnaissant un site d’environ 25 nucléotides, séquence unique dans un génome complexe. La technique est cependant très difficile à mettre en œuvre, et cette limite n’a permis que quelques applications en agronomie.

34

Plus un geek maitrisant l’informatique, qu’un Buffon de laboratoire ! Qui sait ce qu’il aurait fait en naissant au 21e siècle !

35

La technique de phage display consiste à insérer un gène codant une protéine ou un peptide dans le génome d’un bactériophage, afin que celui-ci l’exprime à sa surface. Les phages affichant des protéines capables de se lier à une cible spécifique sont alors sélectionnés. Cette méthode est utilisée pour étudier les interactions entre protéines.

36

Craig Venter, biotechnologiste et homme d’affaires américains, avait annoncé en 2008 être parvenu avec son équipe à fabriquer un génome bactérien 100 % synthétique en collant des séquences d’ADN synthétisées bout à bout afin de reconstituer le génome complet de la bactérie Mycoplasma genitalium.

38

Exposé dans The Social Control of Technology (1980), David Collingridge (1945-2005), indique qu’à un stade précoce de développement les conséquences des technologies sont difficiles à anticiper, et qu’une fois le processus initié, les utilisations sont impossibles à stopper. La biologie de synthèse est au cœur de ce dilemme. Il n’y a d’ailleurs qu’à observer en direct le cas des bactéries miroir, qui ne sont aujourd’hui que des concepts, aux défis majeurs, et qui ont déjà ouvert un débat clivant…

39

He Jankui, qui a contribué à la naissance de 3 enfants au génome modifié par CRISPR/Cas, sans approbation de cet « essai » dont l’indication était très discutable, a purgé 3 années de prison en Chine. Il cherche aujourd’hui à reprendre ses activités…

40

Acronyme de Google, Apple, Facebook et Amazon, en référence aux puissantes multinationales des technologies de l’information et de la communication.

41

Alceste est une héroïne de la mythologie grecque, connue pour avoir échangé sa vie avec son mari Admète pour qu’il puisse revenir des Enfers et le personnage du Misanthrope de Molière ! (ndlr).

Références

  1. Gilgenkrantz H. Serendipité. Med Sci (Paris) 2024; 40 : 146. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  2. Dore J, Sansonetti PJ. Le microbiome humain : 340 ans d’histoire, 140 ans d’interrogations, d’innovations technologiques et émergence de la médecine microbienne Med Sci (Paris) 2024; 40 : 654–60. [Google Scholar]
  3. Perez-Toralla K, Pekin D, Bartolo JF, et al. PCR digitale en micro-compartiments - I. Détection sensible de séquences d’acides nucléiques rares. Med Sci (Paris) 2015; 31 : 84–92. [Google Scholar]
  4. Laurent FX, Vibrac G, Rubio A, et al. Les nouvelles technologies d’analyses ADN au service des enquêtes judiciaires. Med Sci (Paris) 2017; 33 : 971–8. [Google Scholar]
  5. Bon C. La paléogénétique ou de l’intérêt de l’exploration génétique du passé. Med Sci (Paris) 2024; 40 : 556–9. [Google Scholar]
  6. Bon C. Quand Néandertal rencontre Sapiens : ce que l’on sait, et ce que l’on ignore encore du métissage entre Néandertal et Homo sapiens. Med Sci (Paris) 2025; 41 : 386–91. [Google Scholar]
  7. Trugnan G, Fontanges P, Delautier D, Ait-Slimane T. FRAP, FLIP, FRET, BRET, FLIM, PRIM… de nouvelles techniques pour voir la vie en couleur! Med Sci (Paris) 2004; 20 : 1027–34. [Google Scholar]
  8. Jordan B. Actualités du séquençage d’ADN. Med Sci (Paris) 2019; 35 : 81–3. [Google Scholar]
  9. Forterre P, Gribaldo S, Brochier C. Luca: à la recherche du plus proche ancêtre commun universel. Med Sci (Paris) 2005; 21 : 860–5. [Google Scholar]
  10. López-García P, Moreira D. The Syntrophy hypothesis for the origin of eukaryotes revisited. Nat Microbiol 2020; 5 : 655–67. [Google Scholar]
  11. Pasquier H. Lumière sur les protéines fluorescentes. Med Sci (Paris) 2008; 24 : 985–6. [Google Scholar]
  12. Livet J. Brainbow ou le cerveau en couleurs. Med Sci (Paris) 2007; 23 : 1173–6. [Google Scholar]
  13. Hagert CF, Bohn AB, Wittenborn TR, Degn SE. Seeing the confetti colors in a new light utilizing flow cytometry and imaging flow cytometry. Cytometry A 2020; 97 : 811–23. [Google Scholar]
  14. Bécot A, Corona ML, van Niel G. L’imagerie in vivo - Un outil incontournable pour mieux comprendre la biologie des vésicules extracellulaires. Med Sci (Paris) 2021; 37 : 1108–15. [Google Scholar]
  15. Harrington CT, Lin EI, Olson MT, Eshleman JR. Fundamentals of pyrosequencing. Arch Pathol Lab Med 2013; 137 : 1296–303. [Google Scholar]
  16. Stoppa-Lyonnet D, Houdayer C. Séquençage de nouvelle génération en génétique médicale - Du génotype au phénotype, un défi majeur. Med Sci (Paris) 2012; 28 : 123–4. [Google Scholar]
  17. Jordan B. Rare is frequent. Med Sci (Paris) 2012; 28 : 893–6. [Google Scholar]
  18. Palmiter RD, Brinster RL, Hammer RE, et al. Dramatic growth of mice that develop from eggs microinjected with metallothionein-growth hormone fusion genes. Nature 1982; 300 : 611–5. [Google Scholar]
  19. Baribault H, Kemler R. Embryonic stem cell culture and gene targeting in transgenic mice. Mol Biol Med 1989; 6 : 481–92. [Google Scholar]
  20. Gilgenkrantz H. La révolution des CRISPR est en marche. Med Sci (Paris) 2014; 30 : 1066–9. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  21. McLellan MA, Rosenthal NA, Pinto AR. Cre-loxp-mediated recombination: general principles and experimental considerations. Curr Protoc Mouse Biol 2017; 7 : 1–12. [Google Scholar]
  22. Pedrazzini T. Le cœur des ARN non codants - Un long chemin à découvrir. Med Sci (Paris) 2015; 31 : 261–7. [Google Scholar]
  23. Bier E. Gene drives gaining speed. Nat Rev Genet 2022; 23 : 5–22. [Google Scholar]
  24. Naidoo K, Oliver SV. Gene drives: an alternative approach to malaria control? Gene Ther 2025; 32 : 25–37. [Google Scholar]
  25. Boireau W, Elie-Caille C. Les vésicules extracellulaires - Définition, séparation, caractérisation. Med Sci (Paris) 2021; 37 : 1092–100. [Google Scholar]
  26. Leduc-Gaudet JP, Guirguis C, Sincennes MC. Des liens entre métabolisme et régulation épigénétique des cellules souches musculaires. Med Sci (Paris) 2023; 39 : 530–6. [Google Scholar]
  27. Thomson JA, Itskovitz-Eldor J, Shapiro SS, et al. Embryonic stem cell lines derived from human blastocysts. Science 1998; 282 : 1145–7. [Google Scholar]
  28. Coulombel L. Cellules iPS humaines: déjà! Med Sci (Paris) 2008; 24 : 102–4. [Google Scholar]
  29. Takahashi K, Yamanaka S. Induction of pluripotent stem cells from mouse embryonic and adult fibroblast cultures by defined factors. Cell 2006; 126 : 663–76. [CrossRef] [PubMed] [Google Scholar]
  30. Takahashi K, Tanabe K, Ohnuki M, et al. Induction of pluripotent stem cells from adult human fibroblasts by defined factors. Cell 2007; 131 : 861–72. [CrossRef] [PubMed] [Google Scholar]
  31. Mallapaty S. Stem cells reverse woman’s diabetes - a world first. Nature 2024; 634 : 271–2. [Google Scholar]
  32. Sawamoto N, Doi D, Nakanishi E, et al. Phase I/II trial of iPS-cell-derived dopaminergic cells for Parkinson’s disease. Nature 2025; 641 : 971–7. [Google Scholar]
  33. Messaoudi D, Perez F, Gouveia Z. Les nouvelles générations de cellules CAR- T. Med Sci (Paris) 2024; 40 : 848–57. [Google Scholar]
  34. Sensebé L, Bourin P. Cellules souches mésenchymateuses - Production à usage clinique et contraintes sécuritaires. Med Sci (Paris) 2011; 27 : 297–302. [Google Scholar]
  35. Maumus M, Pers YM, Ruiz M, et al. Cellules souches mésenchymateuses et médecine régénératrice - Quel avenir pour l’arthrose ? Med Sci (Paris) 2018; 34 : 1092–9. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  36. Ménard C, Tarte K. Immunosuppression et cellules souches mésenchymateuses : Mieux comprendre une propriété thérapeutique majeure. Med Sci (Paris) 2011; 27 : 269–74. [Google Scholar]
  37. Molla A, Coll JL. Des organes sur puce au service de la cancérologie. Med Sci (Paris) 2019; 35 : 419–22. [Google Scholar]
  38. Chneiweiss H. Organoïdes : nouvelles perspectives et nouvelles questions éthiques. Med Sci (Paris) 2020; 36 : 99–100. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  39. Salvetti A. Gènes homologues : orthologues et paralogues. Med Sci (Paris) 2024; 40 : 788. [Google Scholar]
  40. Shimotohno K, Temin HM. Formation of infectious progeny virus after insertion of herpes simplex thymidine kinase gene into DNA of an avian retrovirus. Cell 1981; 26 : 67–77. [Google Scholar]
  41. Watanabe S, Temin HM. Construction of a helper cell line for avian reticuloendotheliosis virus cloning vectors. Mol Cell Biol 1983; 3 : 2241–9. [Google Scholar]
  42. Mann R, Mulligan RC, Baltimore D. Construction of a retrovirus packaging mutant and its use to produce helper-free defective retrovirus. Cell 1983; 33 : 153–9. [Google Scholar]
  43. Pagès JC, Bru T. Toolbox for retrovectorologists. J Gene Med 2004; 6 Suppl 1 : S67–82. [Google Scholar]
  44. Bushman FD. Retroviral insertional mutagenesis in humans: evidence for four genetic mechanisms promoting expansion of cell clones. Molecular Therapy 2020; 28 : 352–6. [Google Scholar]
  45. Milone MC, O’Doherty U. Clinical use of lentiviral vectors. Leukemia 2018; 32 : 1529–41. [Google Scholar]
  46. Fischer A, Hacein-Bey-Abina S, Cavazzana-Calvo M. Thérapie génique du déficit immunitaire combiné sévère lié à l’X: efficacité et complications. Med Sci (Paris) 2004; 20 : 115–7. [Google Scholar]
  47. Cavazzana-Calvo M, Hacein-Bey-Abina S, Fischer A. Dix ans de thérapie génique: réflexions. Med Sci (Paris) 2010; 26 : 115–8. [Google Scholar]
  48. Wilson JM. Lessons learned from the gene therapy trial for ornithine transcarbamylase deficiency. Mol Genet Metab 2009; 96 : 151–7. [CrossRef] [PubMed] [Google Scholar]
  49. Houel A, Foloppe J. Les virus oncolytiques : acteurs et vecteurs de protéines thérapeutiques contre les tumeurs. Med Sci (Paris) 2023; 39 : 845–54. [Google Scholar]
  50. Shalhout SZ, Miller DM, Emerick KS, Kaufman HL. Therapy with oncolytic viruses: progress and challenges. Nature Reviews Clinical Oncology 2023; 20 : 160–77. [Google Scholar]
  51. Suarez-Amaran L, Song L, Tretiakova AP, et al. AAV vector development, back to the future. Mol Ther 2025; 33 : 1903–36. [Google Scholar]
  52. Jaber A, Palmieri L, Gicquel E, et al. La microdystrophine pour le traitement de la dystrophie musculaire de Duchenne - Avancées, défis et voies d’amélioration. Med Sci (Paris) 2024; 40 Hors série n° 1 : 46–51. [Google Scholar]
  53. Wang D, Tai PWL, Gao G. Adeno-associated virus vector as a platform for gene therapy delivery. Nature Reviews Drug Discovery 2019; 18 : 358–78. [Google Scholar]
  54. Büning H, Huber A, Zhang L, et al. Engineering the AAV capsid to optimize vector-host- interactions. Curr Opin Pharmacol 2015; 24 : 94–104. [Google Scholar]
  55. Maurya S, Sarangi P, Jayandharan GR. Safety of adeno-associated virus-based vector-mediated gene therapy-impact of vector dose. Cancer Gene Ther 2022; 29 : 1305–6. [Google Scholar]
  56. Keeler AM, Zhan W, Ram S, et al. The curious case of AAV immunology. Mol Ther 2025; 33 : 1946–65. [Google Scholar]
  57. Rossi A, Salvetti A. Intégration des vecteurs AAV et mutagenèse insertionnelle. Med Sci (Paris) 2016; 32 : 167–74. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  58. Gillmore JD, Gane E, Taubel J, et al. CRISPR-Cas9 In vivo gene editing for transthyretin amyloidosis. N Engl J Med 2021; 385 : 493–502. [CrossRef] [PubMed] [Google Scholar]
  59. Pierce EA, Aleman TS, Jayasundera KT, et al. Gene editing for CEP290-associated retinal degeneration. N Engl J Med 2024; 390 : 1972–84. [Google Scholar]
  60. Musunuru K, Grandinette SA, Wang X, et al. Patient-specific in vivo gene editing to treat a rare genetic disease. N Engl J Med 2025; 392 : 2235–43. [Google Scholar]
  61. Ziegler A, Carroll J, Bain JM, et al. Antisense oligonucleotide therapy in an individual with KIF1A- associated neurological disorder. Nat Med 2024; 30 : 2782–6. [Google Scholar]
  62. Dautry F, Ribet C. L’interférence par l’ARN: vers une génomique fonctionnelle chez les mammifères ? Med Sci (Paris) 2004; 20 : 815–9. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  63. De Sousa P, Seitz H. Prix Nobel de physiologie ou de médecine 2024 : Gary Ruvkun et Victor Ambros - La découverte des microARN, révélation d’un nouveau monde en génétique. Med Sci (Paris) 2025; 41 : 180–5. [Google Scholar]
  64. Dion S, Demattéi MV, Renault S. Les domaines à doigts de zinc: vers la modification de la structure et de l’activité des génomes. Med Sci (Paris) 2007; 23 : 834–9. [Google Scholar]
  65. Dupret B, Angrand PO. L’ingénierie des génomes par les TALEN. Med Sci (Paris) 2014; 30 : 186–93. [Google Scholar]
  66. Tremblay JP. CRISPR, un système qui permet de corriger ou de modifier l’expression de gènes responsables de maladies héréditaires. Med Sci (Paris) 2015; 31 : 1014–22. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  67. Jordan B. Édition de gènes in vivo et thérapie génique - Chroniques génomiques. Med Sci (Paris) 2021; 37 : 933–5. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  68. Bouchard C, Godbout K, Tremblay JP. La correction de mutations pathogènes par prime editing. Med Sci (Paris) 2024; 40 : 748–56. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  69. Saito M, Xu P, Faure G, et al. Fanzor is a eukaryotic programmable RNA- guided endonuclease. Nature 2023; 620 : 660–8. [Google Scholar]
  70. Minard P. L’évolution dirigée des protéines. Med Sci (Paris) 2019; 35 : 169–75. [Google Scholar]
  71. Crameri A, Raillard S-A, Bermudez E, Stemmer WPC. DNA shuffling of a family of genes from diverse species accelerates directed evolution. Nature 1998; 391 : 288–91. [Google Scholar]
  72. Aguéro-Pizzolo S, Bettler E, Gouet P. Prix Nobel de chimie 2024: David Baker, Demis Hassabis et John M. Jumper - La révolution de l’intelligence artificielle en biologie structurale. Med Sci (Paris) 2025; 41 : 367–73. [Google Scholar]
  73. Jordan B. AlphaFold : un pas essentiel vers la fonction des protéines. Med Sci (Paris) 2021; 37 : 197–200. [CrossRef] [EDP Sciences] [PubMed] [Google Scholar]
  74. Taly A, Verger A. Prédiction de structures biomoléculaires complexes par AlphaFold 3. Med Sci (Paris) 2024; 40 : 725–7. [Google Scholar]
  75. Adamala KP, Agashe D, Belkaid Y, et al. Confronting risks of mirror life. Science 2024; 386 : 1351–3. [Google Scholar]
  76. Jordan B. Les thérapies géniques peuvent-elles devenir abordables ? Med Sci (Paris) 2025; 41 : 187–9. [Google Scholar]
  77. Risse J, Krzemien M, Schnalke J, Heinemann T. Towards ethical drug pricing: the European Orphan Genomic Therapies Fund. Gene Ther 2024; 31 : 353–7. [Google Scholar]
  78. Creager ANH. Recipes for recombining dna: a history of molecular cloning: a laboratory manual. BJHS Themes 2020; 5 : 225–43. [Google Scholar]
Jean-Christophe Pagès

Jean-Christophe Pagès
Membre du comité éditorial depuis 2024.

Jean-Christophe Pagès est un biologiste français, professeur des universités – praticien hospitalier (PU-PH) à l’Université Toulouse III – Paul Sabatier. Médecin et scientifique de formation, il obtient son doctorat en médecine en 1994, suivi d’un doctorat en sciences (PhD) en 1996 à l’Université Paris VII – Diderot.

Spécialiste en biologie cellulaire et en biochimie, il oriente sa carrière vers la recherche en biologie moléculaire, avec un fort intérêt pour les vecteurs viraux et la thérapie génique. Il dirige depuis 2019 un laboratoire hospitalier de biologie cellulaire au CHU Purpan de Toulouse, et travail au sein de l’institut RESTORE où il conduit des recherches sur la régulation de l’expression génétique, l’ingénierie des ARN cellulaires, et les outils de génie génomique.

En parallèle de sa carrière académique, il s’est investi dans les instances scientifiques et éthiques. Il a été président du Comité scientifique du Haut Conseil des biotechnologies (HCB) entre 2009 et 2021, et a assuré la présidence par intérim de 2018 à fin 2021.Il a aussi présidé le groupe d’évaluation des essais de thérapie génique de l’ANSM (ex-Afssaps), et participé à de nombreuses commissions sur la biologie de synthèse et les OGM. Il préside depuis 2022 le Comité d’évaluation de l’usage confiné des OGM (CEUCO).


© 2025 médecine/sciences – Inserm

Licence Creative CommonsArticle publié sous les conditions définies par la licence Creative Commons Attribution License CC-BY (https://creativecommons.org/licenses/by/4.0), qui autorise sans restrictions l’utilisation, la diffusion, et la reproduction sur quelque support que ce soit, sous réserve de citation correcte de la publication originale.

Liste des figures

thumbnail Figure 1

Images issues de la première édition du « Molecular cloning: a laboratory manual », familièrement appelé le Maniatis, publié pour la première fois en 1982. À gauche : page de couverture. À droite ; texte et image explicative pour la réalisation d’un Southern blot. D’après [78].

Dans le texte

Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.

Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.

Initial download of the metrics may take a while.