Open Access
Numéro
Med Sci (Paris)
Volume 35, Numéro 2, Février 2019
Page(s) 169 - 175
Section Repères
DOI https://doi.org/10.1051/medsci/2019007
Publié en ligne 18 février 2019

© 2019 médecine/sciences – Inserm

Licence Creative Commons
Article publié sous les conditions définies par la licence Creative Commons Attribution License CC-BY (http://creativecommons.org/licenses/by/4.0), qui autorise sans restrictions l'utilisation, la diffusion, et la reproduction sur quelque support que ce soit, sous réserve de citation correcte de la publication originale.

Vignettes (Photos III. Niklas Elmehed. © Nobel Media).

Les débuts de l’ingénierie des protéines

Pour situer le contexte de ces découvertes, il faut rappeler que la science des protéines avait connu au début des années 1980 une révolution méthodologique, grâce à l’introduction des méthodes de mutagenèse dirigée. Les protéines, ces objets complexes à l’organisation très sophistiquée, pouvaient enfin être décortiquées. On pouvait modifier leur séquence à loisir afin d’évaluer expérimentalement le rôle d’acides aminés particuliers dans le mécanisme réactionnel d’une enzyme, ou le processus de repliement des protéines. Si on parlait alors « d’ingénierie des protéines », les travaux de cette première époque étaient en réalité surtout des travaux de « dissection » ou de « démontage » moléculaire. Changer un résidu d’un site actif et voir que l’enzyme ne fonctionne alors plus, c’était certes un résultat intéressant mais, assez souvent, on se doutait un peu que le résultat serait celui-là…

Contourner les limites de la conception rationnelle pour mimer l’évolution

Dans ingénierie, il y a aussi l’idée de construire… Et là, il est vite apparu que le problème était beaucoup plus délicat : les essais de modifications de séquence destinés à construire (par exemple, créer un site différent de reconnaissance dans un anticorps), ou à augmenter l’activité catalytique d’une enzyme étaient le plus souvent des échecs. Il a fallu se rendre à l’évidence : nos connaissances théoriques et nos outils de modélisation reliant la séquence d’une protéine à sa structure, à son repliement et à sa stabilité étaient en général bien trop primitifs pour permettre d’atteindre ce type d’objectifs. Pourtant, à l’évidence, l’évolution naturelle était bien parvenue, elle, à créer des milliers de sites actifs, de protéines stables, d’anticorps spécifiques !

Les contributions de ces trois chercheurs et de leur équipes ont permis de démontrer que mettre ses pas dans les traces de l’évolution naturelle en reconstituant expérimentalement en laboratoire des processus d’évolution pouvait être un moyen très général et très efficace pour parvenir à créer des peptides ou des protéines aux propriétés nouvelles et utiles, alors même que leur conception rationnelle était impossible par des approches reposant sur la modélisation ou la dynamique moléculaire.

Frances Arnold : l’évolution dirigée des enzymes

L’un des premiers défis que les travaux de Frances Arnold ont relevé a été d’améliorer la thermostabilité ou encore la stabilité des enzymes en présence de solvants organiques de façon à permettre leur utilisation dans des procédés utilisables en chimie [1]. C’est un aspect important pour permettre une utilisation plus générale des enzymes en synthèse organique dans des conditions où la fragilité des enzymes et leur sensibilité aux solvants posent problème. D’autres types de questions abordées visaient à augmenter l’activité d’un enzyme vis-à-vis de substrats non naturels ou encore à améliorer son énantiosélectivité.

Ce sont sur ces problèmes que la stratégie utilisée dans beaucoup des travaux ultérieurs de Frances Arnold a été d’abord éprouvée. La méthode utilisée consistait à modifier la séquence génétique codant la protéine à améliorer afin de créer des collections (ou banques) de variants de cette séquence aléatoirement mutés. Il existe des méthodes bien établies pour créer des populations de gènes variants, la plus courante étant l’utilisation de PCR (polymerase chain reaction) mutagène. On exprime alors ces gènes mutés dans des microorganismes, puis on teste l’activité de quelques milliers (ou plus si possible) d’entre elles, prises au hasard dans la banque. Cela suppose, et c’est une des exigences majeures de la méthode, d’être en mesure d’évaluer la propriété à améliorer : par exemple, l’activité d’une enzyme en présence de solvant, parmi des milliers de clones différents, de façon à identifier les quelques séquences les plus performantes.

Il s’agit donc, pour résumer, d’associer un processus générateur de variété moléculaire à un processus de sélection de variants qui sont les plus adaptés. En cela la méthode utilisée est très similaire au processus qui préside à l’évolution naturelle. Mais la propriété qu’il s’agit de faire évoluer, par exemple l’activité en présence de solvant, peut être très éloignée des pressions de sélection ayant opéré au cours de l’évolution naturelle. C’est en ce sens que l’on regroupe ces études sous l’expression « évolution dirigée ». Il faut toutefois souligner que si l’expérimentateur décide des règles du jeu évolutif en définissant un crible, il est essentiel que les propriétés les plus pertinentes pour les applications ultérieures de la protéine évoluée soient prises en compte. Ainsi, une enzyme que l’on fait évoluer pour être très active avec un substrat modèle ne le sera peut-être pas autant si on l’utilise ultérieurement avec un autre substrat plus proche de la réalité du fonctionnement de cette enzyme, ou si on la fait fonctionner dans des conditions très différentes de celles qui ont présidé à sa sélection. La règle d’or implicite à tous les travaux d’évolution dirigée est donc : « You get what you select for »1!

Les améliorations observées à l’issue d’un cycle de mutation/sélection sont le plus souvent assez limitées, mais le processus peut être répété plusieurs fois, successivement, de sorte que les variants obtenus après plusieurs cycles d’évolution cumulent des mutations aux effets favorables. Il est également possible de tester de nouvelles combinaisons de mutations, en recombinant entre eux les gènes améliorés de première génération. Une méthode dite de brassage de gènes (DNA shuffling), développée par W. Stemmer en 1994, a eu de ce point de vue un rôle important. L’idée est de fragmenter une série de gènes issus d’un premier cycle d’évolution sélection, ce qui revient à isoler sur des petits fragments les mutations portées par ces gènes. Il s’agit ensuite de réassembler les fragments sélectionnés pour reconstituer des gènes entiers, de sorte qu’un grand nombre de nouvelles combinaisons de mutations puisse être ainsi obtenu. On observe que l’effet bénéfique de mutations indépendantes, par exemple pour améliorer la stabilité d’une protéine, sont souvent cumulatifs si bien qu’explorer de nouvelles combinaisons de mutations présélectionnées est un moyen très efficace pour obtenir des améliorations importantes de la propriété qu’il s’agit de faire évoluer.

Les contributions de Frances Arnold ont porté sur tous ces aspects : elles ont permis notamment d’élaborer de nouvelles méthodes de création de diversité génétique, ou de décrire des méthodes de cribles astucieuses d’activités enzymatiques améliorées. Mais l’essentiel de son activité a été consacré à l’évolution dirigée de nouvelles activités catalytiques chez des enzymes [2]. Il s’agit toujours de partir d’un enzyme naturel, souvent un cytochrome P450 ou une hémoprotéine, et de le faire évoluer pour qu’il catalyse une réaction nouvelle. Il apparaît en effet que créer un biocatalyseur nouveau à partir d’une protéine complétement dépourvue d’activité est le plus souvent inefficace. En revanche, les travaux de Frances Arnold ont contribué à montrer qu’il est fréquemment possible de réorienter, par évolution dirigée, le spectre d’activité d’un enzyme naturel en exaltant fortement une de ses activités secondaires, ou potentielles. Tout l’art est d’imaginer, à partir d’une connaissance détaillée du mécanisme d’enzymes existantes, quelles activités potentiellement nouvelles pourraient être recherchées, par exemple en modifiant le substrat ou les conditions d’utilisation. Cette approche est aussi retrouvée lors de l’évolution naturelle : il est considéré en effet comme probable que nombre d’enzymes soient apparus naturellement, non pas à partir de protéines précurseurs dénuées complètement d’activité, mais plutôt par spécialisation progressive de précurseurs ayant une activité catalytique primitive, éventuellement faible, ou relativement non spécifique (catalytic promiscuity). Des enzymes catalysant des réactions pour lesquelles il n’existe pas d’enzymes connus ont pu être ainsi développés en appliquant des pressions de sélection dans des conditions jamais rencontrées au cours de l’évolution naturelle. Par exemple, il a été possible de faire évoluer un cytochrome P450 catalysant la cyclopropanation des alcènes par transfert de carbène ou, plus récemment, des enzymes susceptibles de créer de nouvelles liaisons de type carbone-silicium ou carbone-bore, pour lesquels il n’existe pas d’équivalents biologiques [2].

Les enzymes améliorés, ou aux activités nouvelles, qui sont ainsi obtenus comportent un petit nombre de mutations par rapport à la séquence de départ et, étonnament, ces mutations ne sont en général pas regroupées dans une région critique de l’enzyme mais sont au contraire distribuées sur l’ensemble de la structure. Il est fréquent que les mécanismes par lesquels ces mutations améliorent l’activité recherchée restent difficiles à rationaliser, même a posteriori lorsque leurs positions dans la structure tridimensionnelle sont connues.

Le travail de Frances Arnold s’accompagne d’une réflexion sur le parallèle entre les processus d’évolutions naturelle et dirigée [3]. Tous deux peuvent être assimilés à une marche adaptative dans l’espace des séquences, ou encore à une trajectoire évolutive sur un paysage adaptatif (fitness landscape). Les résultats suggèrent globalement qu’une amélioration progressive et continue des performances est souvent possible mais qu’il est essentiel de choisir un bon point de départ et de disposer d’un crible efficace pour tester un grand nombre de séquences. Il est également essentiel de veiller à ce que la structure tridimensionnelle de la protéine conserve, tout au long de sa trajectoire évolutive, une stabilité suffisante lui permettant de former sa structure tridimensionnelle. Une déstabilisation importante conduit le plus souvent à une impasse évolutive.

La contribution de Frances Arnold au développement de l’évolution dirigée des protéines est remarquable, d’abord par son caractère pionnier. Elle a entrepris ses premiers travaux à une période où l’intuition commune était plutôt de considérer les enzymes comme ayant atteint une sorte de perfection au fil des millions d’années d’évolution. Il était donc assez audacieux de consacrer sa carrière à prétendre les améliorer. Cela l’était encore davantage d’y parvenir en adoptant des approches non calculatoires, que certains appelaient de la « conception irrationnelle »!

C’est également une carrière remarquable par sa constante productivité au plus haut niveau sur plus de 30 ans, qui est désormais aussi récompensée. S’il existe d’autres grands noms dans ce domaine, par exemple W. Stemmer ou D. Hilvert, il est certain que le nom de Frances Arnold vient immédiatement à l’esprit lorsque l’on songe à l’application de ces méthodes d’évolution artificielles aux enzymes.

Georges Smith : créateur de l’exposition sur phage ou l’essor des méthodes de biologie combinatoire

C’est pour sa contribution décisive à l’invention et au développement de l’exposition sur phage (ou phage display) que Georges Smith a été distingué. Cette méthode demeure, 30 ans après son invention, la méthode de loin la plus utilisée lorsqu’il s’agit de sélectionner un peptide ou une protéine capable d’interagir spécifiquement avec une cible (en général une protéine) et cela sans qu’aucune information a priori, en particulier structurale, ne soit requise.

Georges Smith a lui-même raconté dans plusieurs interviews la genèse de cette découverte. Les préoccupations initiales qui l’ont conduit à s’intéresser aux phages n’avaient en fait rien à voir avec l’évolution dirigée. Il s’intéressait aux bactériophages filamenteux, des virus infectant la bactérie Escherichia coli, par exemple le phage M13, simplement parce qu’ils contiennent de l’ADN simple brin et qu’ainsi, insérer un gène dans un de ces phages était une façon simple et efficace d’obtenir ce gène sous forme simple brin, ce qui était utile pour certaines analyses. Mais, il a alors réalisé que si un segment d’ADN codant une protéine (appelons-la X) quelconque est inséré de telle façon que celui-ci soit fusionné avec un des gènes du bactériophage codant une protéine particulière du phage appelée pIII, impliquée dans sa liaison à la bactérie, cela conduisait à ce que la protéine X soit exprimée, qu’elle demeure liée à la particule virale, sans que la viabilité du phage n’en soit affectée. La protéine étant exprimée à la surface du phage, elle peut être reconnue par un anticorps spécifique. Mais la caractéristique singulière d’un tel objet est que, en capturant la protéine, on capture aussi le virion sur lequel la protéine X est exprimée, et que ce virion contient l’information génétique codant cette protéine. G. Smith a alors réalisé que cette méthode permettrait de capturer efficacement, au sein d’une population contenant des millions de phages exposant des séquences quelconques, les très rares phages présentant une protéine particulière, dès lors que l’on dispose d’un anticorps spécifique de cette protéine. Le cœur de l’idée est ainsi de relier, physiquement, une protéine pouvant interagir avec la séquence d’ADN qui la code. Ce lien entre un objet ayant une capacité d’interaction et son gène permettait ainsi de trier des évènements de très basse fréquence (une séquence protéique ayant le pouvoir de se fixer sur une cible déterminée parmi un milliard, qui ne se fixent pas), puis de les amplifier considérablement, grâce à l’information génétique qu’ils contiennent simplement (par exemple, en infectant des bactéries avec ces phages).

C’est donc pour ses applications en tant que méthode de clonage, et pas pour ses applications actuelles, que la version initiale du phage display a été publiée dans la revue Science pour la première fois en 1985 [4]. Georges Smith raconte qu’il n’avait alors absolument pas conscience du potentiel de sa méthode et qu’il n’a franchi l’étape conceptuelle suivante qu’au cours d’une discussion informelle avec deux collègues chimistes rencontrés à la suite d’un séminaire qu’il avait été invité à donner. Ces chimistes lui décrivirent les bibliothèques de peptides synthétiques, composée d’une série de fragments chevauchant provenant de la séquence d’une protéine et utilisées alors pour identifier l’épitope d’un anticorps monoclonal. Une idée surgit lors de cette discussion : si on clonait devant la protéine du phage des séquences d’oligonucléotides codant 7 acides aminés complètement aléatoires, on pourrait réaliser une bibliothèque qui exposerait tous les peptides possibles et donc avoir ainsi une sorte de librairie équivalente aux bibliothèques de peptides. Mais une telle bibliothèque serait universelle au sens où elle pourrait servir à identifier les épitopes séquentiels (linéaires) de n’importe quel anticorps monoclonal, ou même de n’importe quelle protéine. Le saut conceptuel franchi à cette occasion est de remplacer dans la procédure de phage display ce qui était jusqu’alors des fragments d’ADN issus d’une banque génomique, donc de l’information biologique, par du pur hasard chimique sous forme de séquences d’oligonucléotides complétement aléatoires obtenues par chimie combinatoire. George Smith a rapidement testé l’idée puis constitué une banque de peptides aléatoires sur phages et montré qu’il était ainsi possible de sélectionner des peptides capables de se fixer sur un anticorps choisi a priori ; ce travail a été publié dans Science en 1990 [5]. Il a diffusé très librement la bibliothèque qu’il avait créée, sans barrière liée à son éventuelle application commerciale et cette diffusion ouverte a certainement contribué à l’adoption rapide de cette technologie, le phage display étant une technique relativement simple dès lors qu’on dispose d’une bibliothèque de qualité. Depuis, d’autres bibliothèques de peptides sur phage comportant diverses améliorations ont été créées et commercialisées. Elles permettent d’identifier rapidement les motifs peptidiques reconnus par un anticorps ou par toute autre protéine.

Les chercheurs issus des sciences des matériaux et des nanosciences ont eu l’idée de rechercher par phage display des peptides qui pourraient reconnaître des matériaux non biologiques, telles que des surfaces de semi-conducteurs, des nanoparticules métalliques, des polymères, des nanotubes de carbones, etc. Pour pratiquement tous les matériaux pour lesquels cela a été exploré, il a été possible de sélectionner des peptides susceptibles d’interagir spécifiquement… Comme pour les activités enzymatiques explorées par Frances Arnold, le message important de ces travaux est que ce n’est pas parce qu’une fonction n’existe pas dans la sphère biologique qu’elle est impossible à créer artificiellement ! Si on reconstitue un jeu évolutif avec les pressions de sélection qui n’existent pas dans la nature, on trouve des solutions qui n’avaient pas encore été explorées.

Bien qu’initialement réservées à l’exploration de peptides relativement courts (7 ou 12 acides aminés), les méthodes de phage display ont été assez rapidement améliorées de façon à être aussi utilisables avec des protéines, tout d’abord avec des anticorps. Mais la méthode a été appliquée avec succès à d’autres protéines utilisées comme ossatures de reconnaissance. On constitue pour cela une bibliothèque de protéines dont une partie de la surface est rendue hypervariable, puis on sélectionne par phage display à partir d’une bibliothèque les interacteurs spécifiques d’une cible choisie. Il est ainsi aujourd’hui possible de produire en quelques semaines une protéine artificielle se fixant sur n’importe quelle cible protéique avec une affinité et une spécificité élevée [6, 7]. Ces protéines artificielles spécifiques n’ont pas les inconvénients des architectures des anticorps : elles sont très stables, peu sensibles à l’agrégation, capables de se replier même en milieu réducteur, et constituent des outils très utiles pour des applications très diverses en biotechnologie (biosenseurs, outils d’interférence par protéine, chaperones de cristallisation, etc.).

D’autres méthodes de tri moléculaire adoptant le même principe que le phage display mais selon des modalités différentes ont été plus récemment développées. Les plus utilisées sont l’exposition sur ribosome ou ribosome display, dont l’efficacité a été démontrée en particulier par le groupe d’A. Plückthun (université de Zurich) [8], et le yeast display, ou exposition sur levure, développée par le groupe de D. Wittrup (au Massachusetts Institute of Technology à Boston) [9]. Par rapport au phage display, les sélections par ribosome display ont pour avantage de permettre de réaliser des sélections sur des bibliothèques encore plus diverses (typiquement de 1011 à 1012 séquences, soit 2 à 3 ordres de grandeur au-dessus de ce qu’il est possible d’obtenir sur phage, ce qui augmente les chances de trouver un interacteur de très haute affinité). Les méthodes d’exposition sur levure reposent sur le tri par cytométrie de flux de cellules individuelles. Si elles ne permettent pas d’explorer des bibliothèques aussi diverses que par phage ou ribosome display, elles permettent un tri quantitatif et un réglage fin du seuil de sélection et sont de ce fait particulièrement bien adaptées aux processus de maturation d’affinité par exemple lorsqu’il s’agit d’améliorer l’affinité ou la spécificité d’un anticorps existant.

Georges Smith est donc l’inventeur d’une méthode profondément innovante, aux applications nombreuses et aux prolongements très féconds.

Sir Greg Winter : un pionnier de l’ingénierie des protéines et de l’ingénierie des anticorps

Greg Winter a été distingué pour avoir développé l’application des méthodes d’exposition sur phage pour générer des anticorps humains spécifiques d’une cible choisie. De tels anticorps sont actuellement d’une grande importance pour leurs applications en thérapeutique.

Mais si c’est bien là une de ses contributions importantes, c’est un grand nom de l’ingénierie des protéines qui vient d’être récompensé. Greg Winter est à l’origine de plusieurs autres contributions pionnières, et son nom était revenu régulièrement depuis plusieurs années, comme possible Nobelisable. Dès le début des années 1980, Greg Winter a, parmi les tout premiers, perçu l’importance des méthodes de mutagénèse dirigée appliquée à l’étude des protéines. Ce sont les développements apportés dans son équipe qui ont permis les premières applications de la mutagénèse aux protéines. Il était déjà associé aux travaux à fort retentissement publiés sur ce sujet par l’équipe d’A. Ferscht au début des années 1980. Il s’est ensuite intéressé de près à l’ingénierie des anticorps. On rappelle que c’est dans son institution que G. Koehler et C. Milstein avaient inventé en 1975 les anticorps monoclonaux produits par les hybridomes, ce qui avait complétement bouleversé l’immunologie et plus généralement toute la biologie. Pourtant, même si l’application en thérapeutique humaine des anticorps issus d’hybridomes a été un temps envisagée, il est vite apparu que l’injection répétée d’anticorps de souris à un sujet humain déclenchait une réponse immunitaire anti-anticorps… Greg Winter s’est attaqué à ce problème avec les outils nouveaux de l’ingénierie des protéines. Il a en particulier montré qu’il était possible de transférer sur l’ossature d’un anticorps humain, les régions qui déterminent la complémentarité (ou CDR) d’un anticorps monoclonal de rongeur, et que cela permettait de transférer la spécificité de reconnaissance de cet anticorps et ainsi d’obtenir un anticorps « humanisé » [10, 11].

Lorsque les méthodes de phage display ont été publiées par G. Smith, il est vite apparu que si on parvenait à étendre ce principe à des banques d’anticorps, on pourrait alors sélectionner très efficacement des anticorps se fixant sur n’importe quelle cible. Le problème était de parvenir à exprimer des anticorps dans des bactéries, ce qui paraissait difficile de par la forte propension à l’agrégation de ces protéines et leur dépendance aux ponts disulfures. Mais l’équipe d’A. Plückthun, alors à Harvard, venait de publier une approche permettant d’exprimer efficacement des fragments d’anticorps fonctionnels dans le périplasme des bactéries.

Une compétition intense entre plusieurs grands centres de recherche, en particulier entre l’équipe de Greg Winter (Université de Cambridge, Royaume-Uni) et l’équipe de Richard Lerner (Scripps Clinic, La Jolla, États-Unis) s’est alors engagée. Le groupe de G. Winter est parvenu le premier à publier dans Nature, fin 1990 [12], qu’il était possible d’exprimer un fragment d’anticorps sur un phage, puis de l’isoler très efficacement parmi des millions d’autres en le capturant par fixation sur son antigène. Les travaux suivants ont permis de montrer qu’il était possible d’amplifier par PCR, à partir d’un échantillon de sang périphérique, les fragments variables d’anticorps, soit d’un animal immunisé, soit même d’un sujet humain, puis de reconstituer un répertoire très divers d’anticorps exprimés à la surface de bactériophage. Il était également possible de recréer des banques d’anticorps semi-synthétiques, ou même entièrement synthétiques, en reconstituant des gènes à partir d’oligonucléotides dégénérés aux positions hypervariables. Cela ouvrait la voie à la génération de fragments d’anticorps complétement humains de spécificité choisie [13]. Ces innovations ont été protégées par des brevets qui ont alors permis à G. Winter d’être associé à la création d’une compagnie (la société Cambridge Antibody Technology, CAT) qui a développé des anticorps issus de phage display pour des applications thérapeutiques. Cette compagnie a notamment isolé par cette technologie un blockbuster, l’adalimumab commercialisé par Abott puis Abbvie sous le nom de Humira. Cet anticorps, dirigé contre le tumor necrosis factor a (TNFa), a été utilisé pour traiter de très nombreux malades atteints de pathologies inflammatoires sévères. Il a atteint des chiffres de vente tout à fait exceptionnels (en 2016, plus de 16 milliards de dollars, soit le plus haut chiffre d’affaire annuel jamais réalisé par l’industrie pharmaceutique, toutes catégories de molécules confondues !).

On comprend que, sans l’ingénierie des protéines, aucun des anticorps qui sont actuellement utilisés en thérapeutique humaine avec le succès que l’on sait n’aurait pu être développé, et les contributions de Greg Winter aux innovations ayant permis ces développements ont été considérables.

Épilogue : et depuis… quoi de neuf ?

Les prix Nobel sont souvent attribués de longues années après que les travaux qui les motivent aient été publiés. Cela permet sans doute au comité Nobel d’avoir le recul pour voir au-delà de l’écume et des enthousiasmes d’un moment et ne retenir que des contributions réellement fécondes. Mais la description qui en est faite ci-dessus peut donner l’impression, fausse, que les choses n’ont guère évolué depuis le milieu des années 1990.

L’un des axes de recherche actuellement très actif vise à réaliser des expériences d’évolution dirigée rapidement et sur des populations très larges, et la meilleure solution pour cela pourrait bien être de travailler dans des micro-compartiments ou micro-gouttes réalisées par microfluidique. L’idée est que, plus il est possible d’examiner des collections larges de variants mutés, plus les chances de détecter des améliorations importantes augmentent. Et plutôt que de réaliser des tests dans des tubes ou des plaques multi-puits, on peut réduire considérablement le volume des échantillons analysés et augmenter leur nombre en travaillant dans ces microcompartiments produits en microfluidique. Les difficultés technologiques de ces approches restent nombreuses, mais leur potentiel est évident pour l’évolution d’enzymes où les méthodes de tri fondées sur l’activité ne permettent pas actuellement, en général, de tester des populations très vastes.

Une autre révolution scientifique dans un domaine proche, en cours depuis environ 10 ans, est le développement spectaculaire des méthodes de conception rationnelle de protéines in silico ou protein design. Le développement d’outils de modélisation moléculaire nouveaux et réellement adaptés à la conception de protéines nouvelles a permis de parvenir à des réalisations concrètes qui étaient complètement hors d’atteinte des approches classiques de modélisation. Ces méthodes ont, par exemple, permis de concevoir de nombreux nouveaux types de structure tertiaire stable, des architectures quaternaires de géométrie contrôlée, un peu comme des capsides virales, des protéines comportant des sites de fixation pour des zones précises de protéines cibles. Il s’agit encore de champs frontières : peu d’équipes sont actuellement capables de telles réalisations. Il est toutefois intéressant de noter que l’équipe qui est, de très loin, la plus en avance dans ce domaine (D. Baker, université de Washington, Seattle, États-Unis) utilise très souvent en parallèle des approches de design pur, des cribles de sélection typiques des approches d’évolution dirigée pour détecter au milieu de nombreuses protéines issues du design celles ayant les caractéristiques recherchées. Les progrès dans ce domaine auront, en réalité ont déjà, un impact tel que ce n’est pas prendre un grand risque que de citer le nom de David Baker comme celui de quelqu’un à qui on songe forcément comme l’un des probables lauréats du Nobel pour les années futures.

Liens d’intérêt

L’auteur déclare n’avoir aucun lien d’intérêt concernant les données publiées dans cet article.

thumbnail Figure 1.

Les méthodes développées par Frances Arnold permettent de reconstituer en laboratoire les processus d’évolution et de les appliquer à l’amélioration des propriétés d’enzymes. Le schéma général est de partir d’une protéine naturelle que l’on souhaite faire évoluer. Le gène « sauvage » (A) de cette protéine va être aléatoirement muté, par exemple par PCR (polymerase chain reaction) mutagène (B), cloné dans un vecteur d’expression, puis intégré dans des microorganismes. La population résultante (C) comportera un grand nombre de variants de la protéine d’origine. Un sous-ensemble de ces variants pourra être échantillonné dans des cultures individuelles (D) puis l’activité de l’enzyme produit par chacun de ces clones sera évaluée, par exemple par mesure de la variation d’absorbance ou de fluorescence (E) produite par l’activité de l’enzyme. Si l’on classe les variants selon leur performance relative (l’enzyme de départ a une activité relative de 1), on observe typiquement qu’une fraction importante des variants (entourés en rouge) comporte des mutations dont l’effet est défavorable mais qu’également une fraction, souvent plus faible (entourés en vert), comporte des mutations qui améliorent l’activité mesurée (F). Si ces améliorations sont faibles, elles peuvent être cumulées entre elles, si bien qu’après plusieurs cycles d’évolution, les améliorations obtenues peuvent être importantes.

thumbnail Figure 2.

L’exposition sur phage ou phage display est une puissante méthode de sélection moléculaire inventée par George Smith puis appliquée aux anticorps par Greg Winter. L’idée est d’avoir une très vaste population (typiquement 1 milliard ou plus) de protéines ou de peptides différents exposés à la surface de bactériophages (A). Ces bactériophages sont mis en contact avec une molécule cible (la sphère rouge) fixée sur un support (B). Les très rares protéines dont la séquence leur permet d’interagir avec la cible sont retenues tandis que les autres sont éliminées. Les phages portant ces protéines peuvent être alors amplifiés (C, D), puis utilisés pour déterminer les séquences des protéines capables de reconnaître la cible (D), et produire ces protéines sous forme recombinante (E). La méthode originellement décrites pour sélectionner des séquences courtes (des peptides) a pu être ensuite transposée aux protéines. Le coeur de l’idée est de fusionner (F) le gène (en rouge) de la protéine à exposer avec le gène d’une des protéine du phage, la protéine PIII. Les phages alors produits présentent la protéine (rouge) à leur surface, ce qui permet de les trier ; la particule virale intègre le gène correspondant, ce qui permet de les amplifier.


1

On obtient ce pour quoi on a sélectionné.

Références

  1. Kuchner O, Arnold FH. Directed evolution of enzyme catalysts. Trends Biotechnol 1997 ; 15 : 523–530. [CrossRef] [PubMed] [Google Scholar]
  2. Arnold FH. Directed evolution: bringing new chemistry to life. Angew Chem Int Ed Engl 2018 ; 57 : 4143–4148. [CrossRef] [PubMed] [Google Scholar]
  3. Romero PA, Arnold FH. Exploring protein fitness landscapes by directed evolution. Nat Rev Mol Cell Biol 2009 ; 10 : 866–876. [CrossRef] [PubMed] [Google Scholar]
  4. Smith GP. Filamentous fusion phage: novel expression vectors that display cloned antigens on the virion surface. Science 1985 ; 228 : 1315–1317. [Google Scholar]
  5. Scott JK, Smith GP. Searching for peptide ligands with an epitope library. Science 1990 ; 249 : 386–390. [Google Scholar]
  6. Binz HK, Amstutz P, Pluckthun A. Engineering novel binding proteins from nonimmunoglobulin domains. Nat Biotechnol 2005 ; 23 : 1257–1268. [CrossRef] [PubMed] [Google Scholar]
  7. Boersma YL, Pluckthun A. DARPins and other repeat protein scaffolds: advances in engineering and applications. Curr Opin Biotechnol 2011 ; 22 : 849–857. [Google Scholar]
  8. Zahnd C, Amstutz P, Pluckthun A. Ribosome display: selecting and evolving proteins in vitro that specifically bind to a target. Nat Methods 2007 ; 4 : 269–279. [CrossRef] [PubMed] [Google Scholar]
  9. Boder ET, Wittrup KD. Yeast surface display for directed evolution of protein expression, affinity, and stability. Methods Enzymol 2000 ; 328 : 430–444. [CrossRef] [PubMed] [Google Scholar]
  10. Riechmann L, Clark M, Waldmann H, Winter G. Reshaping human antibodies for therapy. Nature 1988 ; 332 : 323–327. [CrossRef] [PubMed] [Google Scholar]
  11. Verhoeyen M, Milstein C, Winter G. Reshaping human antibodies: grafting an antilysozyme activity. Science 1988 ; 239 : 1534–1536. [Google Scholar]
  12. McCafferty J, Griffiths AD, Winter G, Chiswell DJ. Phage antibodies: filamentous phage displaying antibody variable domains. Nature 1990 ; 348 : 552–554. [CrossRef] [PubMed] [Google Scholar]
  13. Winter G, Griffiths AD, Hawkins RE, Hoogenboom HR. Making antibodies by phage display technology. Annu Rev Immunol 1994 ; 12 : 433–455. [CrossRef] [PubMed] [Google Scholar]

Liste des figures

thumbnail Figure 1.

Les méthodes développées par Frances Arnold permettent de reconstituer en laboratoire les processus d’évolution et de les appliquer à l’amélioration des propriétés d’enzymes. Le schéma général est de partir d’une protéine naturelle que l’on souhaite faire évoluer. Le gène « sauvage » (A) de cette protéine va être aléatoirement muté, par exemple par PCR (polymerase chain reaction) mutagène (B), cloné dans un vecteur d’expression, puis intégré dans des microorganismes. La population résultante (C) comportera un grand nombre de variants de la protéine d’origine. Un sous-ensemble de ces variants pourra être échantillonné dans des cultures individuelles (D) puis l’activité de l’enzyme produit par chacun de ces clones sera évaluée, par exemple par mesure de la variation d’absorbance ou de fluorescence (E) produite par l’activité de l’enzyme. Si l’on classe les variants selon leur performance relative (l’enzyme de départ a une activité relative de 1), on observe typiquement qu’une fraction importante des variants (entourés en rouge) comporte des mutations dont l’effet est défavorable mais qu’également une fraction, souvent plus faible (entourés en vert), comporte des mutations qui améliorent l’activité mesurée (F). Si ces améliorations sont faibles, elles peuvent être cumulées entre elles, si bien qu’après plusieurs cycles d’évolution, les améliorations obtenues peuvent être importantes.

Dans le texte
thumbnail Figure 2.

L’exposition sur phage ou phage display est une puissante méthode de sélection moléculaire inventée par George Smith puis appliquée aux anticorps par Greg Winter. L’idée est d’avoir une très vaste population (typiquement 1 milliard ou plus) de protéines ou de peptides différents exposés à la surface de bactériophages (A). Ces bactériophages sont mis en contact avec une molécule cible (la sphère rouge) fixée sur un support (B). Les très rares protéines dont la séquence leur permet d’interagir avec la cible sont retenues tandis que les autres sont éliminées. Les phages portant ces protéines peuvent être alors amplifiés (C, D), puis utilisés pour déterminer les séquences des protéines capables de reconnaître la cible (D), et produire ces protéines sous forme recombinante (E). La méthode originellement décrites pour sélectionner des séquences courtes (des peptides) a pu être ensuite transposée aux protéines. Le coeur de l’idée est de fusionner (F) le gène (en rouge) de la protéine à exposer avec le gène d’une des protéine du phage, la protéine PIII. Les phages alors produits présentent la protéine (rouge) à leur surface, ce qui permet de les trier ; la particule virale intègre le gène correspondant, ce qui permet de les amplifier.

Dans le texte

Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.

Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.

Le chargement des statistiques peut être long.