1 Entwicklung des Genome-Editing

1.1 Gentherapie 1.0: Genaddition statt Genkorrektur

Die Idee, vererbbare Krankheiten durch eine Korrektur der ihnen zugrunde liegenden genetischen Defekte zu behandeln oder ihren Ausbruch im Idealfall sogar zu verhindern, wurde seit Beginn der 1960er-Jahre diskutiert, u. a. in Arbeiten der beiden NobelpreisträgerFootnote 1 Joshua Lederberg (Lederberg 1966) und Edward Tatum (Tatum 1966). Beide erwogen potenzielle Vor- und Nachteile sowohl der Keimbahnkorrektur als auch einer somatischen Gentherapie,Footnote 2 also der Behandlung betroffener Körperzellen. Dabei gingen sie von der Vision einer exakten Korrektur der fehlerhaften Erbinformation aus – ein Ansatz, der später als Genomchirurgie bezeichnet wurde, während man heute eher von Genome-Editing spricht. Auch wenn es sich angesichts des Fehlens der technischen Möglichkeiten ihrer UmsetzungFootnote 3 zunächst tatsächlich eher um eine theoretische Vision handelte, die nicht zuletzt aus philosophischer Sicht diskutiert wurde, war den Protagonisten bereits bewusst, dass sich durch die (schon damals rasante) Entwicklung der Molekularbiologie relativ bald die Möglichkeit ergeben würde, Gene gezielt zu modifizieren.

Allerdings dürfte wohl keiner von ihnen erwartet haben, dass es bereits im März 1970 zu einem ersten Versuch einer Gentherapie kommen würde, und noch dazu in Köln in Deutschland.Footnote 4 Dort unternahm der Pädiater Heinz Terheggen einen wagemutigen Versuch – er infizierte drei schwerstkranke Kinder, bei denen er einen genetisch bedingten StoffwechseldefektFootnote 5 diagnostiziert hatte, mit einem Virus, das das bei den Kindern fehlende Enzym produzieren sollte. Der amerikanische Biochemiker Stanfield Rogers hatte ihn darauf aufmerksam gemacht, dass das Shope-Papillom-VirusFootnote 6 über eine eigene Variante des bei den Kindern defekten Gens verfügt. Rogers hatte beobachtet, dass das virale Enzym in infizierten Kaninchen aktiv ist.Footnote 7 Zudem hatten sich bereits mehrere Labormitarbeiter mit dem Virus infiziert, ohne dass Krankheitssymptome aufgetreten waren, sodass das Risiko für die Kinder als gering eingeschätzt wurde. Das Therapieexperiment misslang – es kam nicht zu einer Besserung des Zustandes der Kinder (Terheggen et al. 1975), was kaum verwundern kann, da das Immunsystem der Kinder die Viren bestimmungsgerecht als Bedrohung wahrgenommen und eliminiert hat.

Auch wenn der Heilversuch weder einen therapeutischen Nutzen noch einen signifikanten Informationsgewinn brachte (Friedmann 1992), konnte ein solches selbst aus damaliger Sicht verfrühtes Vorgehen nicht ohne Konsequenzen bleiben. Tatsächlich kam es in der Folge zu einer breiten Diskussion von Chancen und Risiken der Gentherapie (Anderson 1972; Freese 1972; Friedmann und Roblin 1972). Die Frage gewann durch das Aufkommen der rekombinanten DNA-Technologie an Brisanz, sodass ein freiwilliges internationales Moratorium zu deren Nutzung verkündet wurde, das erst 1975 nach der bekannten Asilomar-Konferenz aufgehoben wurde (Fredrickson 1991). In der Folge wurden strenge Richtlinien für die Nutzung rekombinanter DNA sowie nationale Regulierungsbehörden wie z. B. das Recombinant DNA Advisory Committee (RAC) des National Institute of Health (NIH) in den USA etabliert.Footnote 8

Bei all seiner Fragwürdigkeit nutzte der Versuch von Terheggen und Kollegen schon 1970 einen Ansatz, der für Jahrzehnte das Grundprinzip der Gentherapie darstellen sollte. Da ihnen wie auch den nachfolgenden Generationen von Gentherapieforschern die Werkzeuge fehlten, um defekte Gene in lebenden Zellen tatsächlich zu korrigieren, griff man auf eine deutlich einfachere Alternative zurück: Man suchte nach Wegen, „gesunde Gene“ zu isolieren und diese in die Zellen einzubringen. Damit entfernte man sich zwar von der Vision, das Übel an seiner Wurzel zu packen und das Genom tatsächlich zu reparieren, eröffnete der Gentherapie zugleich aber völlig neue Anwendungsgebiete. Während die ursprüngliche Idee der Genkorrektur auf die Behandlung von (i. d. R. monogenen) Erbkrankheiten abzielte, kann der Ansatz der Genaddition deutlich mehr – z. B. können Zellen mit dort zuvor nicht vorhandenen Genen ausgestattet werden, die ihnen neue Funktionen und Fähigkeiten vermitteln. Dies mag auf den ersten Blick absurd erscheinen, führte aber mit der systematischen präklinischen (in den 1980er-Jahren) und klinischen (ab 1989) Entwicklung der Gentherapie sehr schnell dazu, dass Krebserkrankungen zur wichtigsten Indikation dieser neuen Therapieform wurden und bis heute blieben.Footnote 9 Ein sehr anschauliches Beispiel für das genannte Prinzip stellen die CAR-T-Zellen (siehe Harrer/Abken, Kap. 10) dar – hier werden Immunzellen mit speziell konstruierten, in der Natur nicht vorkommenden Rezeptoren ausgestattet, damit sie Tumorzellen besser erkennen und zerstören können. Tatsächlich beruhen alle bis zum heutigen Tag zugelassenen Gentherapien (siehe auch Einleitung, Kap. 2) darauf, dass Gene nicht repariert, sondern durch mithilfe geeigneter Vektoren (siehe Kap. 3, 4, 5, 6) eingebrachte, zusätzliche Kopien funktionell ersetzt werden.Footnote 10 Das Genome-Editing galt für viele Jahre als „heiliger Gral“ der Gentherapie – ein hehres, aber doch eher nicht erreichbares Ziel.

1.2 Genome-Editing: Aller Anfang war schwer

Aufbauend auf dem rapiden Fortschritt der Technik der rekombinanten DNA in den 1970er- und 1980er-Jahren wurden bald auch Methoden zum Einbringen zusätzlicher Gene in lebende Zellen (zunächst vor allem mithilfe viraler Vektoren, siehe Kap. 3 und 4) entwickelt und permanent optimiert. Wie aber sollte es gelingen, das in den einzelnen Zellen gut geschützte Genom zu editieren? Der nächstliegende Weg bestand darin, Mechanismen der DNA-Modifikation zu nutzen, die sowieso schon innerhalb der Zelle existieren. Unsere Zellen verfügen nämlich gleich über mehrere Reparatursysteme, um mögliche DNA-Schädigungen schnell und effizient zu korrigieren. Tatsächlich sind solche Schäden nicht etwa selten, sondern passieren ständig. So kommt es bei der Verdopplung der DNA im Zuge einer Zellteilung immer Mal wieder vor, dass ein falscher DNA-Baustein eingebaut wird. Dies wird dann durch entsprechende Sensoren in der Zelle erkannt und das falsche Nukleotid wird über spezielle Reparaturenzyme wieder ausgetauscht. Sehr häufig – z. B. in Hautzellen durch die energiereiche UV-Strahlung beim Sonnenbaden – kommt es zu Brüchen des DNA-Doppelstrangs. Solche Doppelstrangbrüche (DSB) müssen sofort repariert werden, da sie nicht mit einem Weiterleben der betroffenen Zelle vereinbar sind. Auch hierfür existieren in den Zellen spezielle Prozesse, die sich in homologe und nicht homologe Reparaturmechanismen unterteilen lassen.Footnote 11 Die sog. homologe Rekombination (HR/HDR)Footnote 12 wurde bereits in den 1940er-Jahren in Bakterien entdeckt. Ende der 1970er-Jahre gelang es, diesen Mechanismus zu nutzen, um Gene in Hefezellen auszutauschen, in den 1980er-Jahren dann auch zur gezielten Modifikation von Säugerzellgenomen.Footnote 13 Für eine klinische Anwendung waren die erreichten Effizienzen jedoch bei Weitem zu niedrig. Zudem funktionierte die („spontane“) HR/HDR am ehesten in embryonalen Zellen, was einer Anwendung beim Menschen aus einer Vielzahl von Gründen im Wege stand (zu rechtlichen und ethischen Fragen der genetischen Modifikation von Keimbahnzellen siehe Kap. 17 und 18). So schien es zunächst, als bliebe das Potenzial des Genome-Editing eher der Grundlagenforschung vorbehalten.

Um das Genome-Editing auch für die somatische Gentherapie klinisch nutzbar zu machen, mussten Wege gefunden werden, die Veränderungen im Genom gleichzeitig in einer sehr großen Zahl von Zellen vornehmen zu können.Footnote 14 Dazu sollte ein Trick helfen – statt auf spontane Reparaturprozesse in den Zellen zu warten, sollten diese gezielt z. B. durch die Induktion eines DSB mithilfe DNA-schneidender Enzyme (Nukleasen) genau an der zu reparierenden Stelle induziert werden (Rouet et al. 1994). Das Prinzip der sequenzspezifischen Induktion von DSB hatte man sich von der Natur abgeschaut – Bakterien z. B. verteidigen sich gegen Eindringlinge (z. B. Bakteriophagen)Footnote 15 mithilfe sog. Restriktionsenzyme – Nukleasen, die Sequenzen in den Phagen erkennen und deren Genom dort zerschneiden. Das erste Ziel auf dem Weg zum gezielten Genome-Editing bestand also darin, solche sequenzspezifischen Nukleasen zu entwickeln.Footnote 16 Die Möglichkeit dazu eröffnete sich mit der Entdeckung der sog. Zinkfingerproteine Mitte der 1980er-Jahre. Diese Proteine haben ihren Namen von je ein Zink-Ion enthaltenden, fingerähnlichen Strukturen, die eine sequenzspezifische DNA-Bindung vermitteln und dadurch verschiedene wichtige Prozesse der Genregulation, wie das Ablesen der mRNA, steuern. Jeder Zinkfinger bindet spezifisch an drei Nukleotide – um eine ausreichende Spezifität zu erlangen, müssen mehrere Zinkfinger hintereinandergeschaltet und dann mit einer halben Nuklease gekoppelt werden (ein Arm der Zinkfingernuklease, ZFN). Erst wenn beide Arme der ZFN unmittelbar nebeneinander binden, entsteht aus den beiden Hälften des Enzyms eine funktionelle Nuklease und der DSB wird induziert (siehe Abb. 7.1a). Die erste ZFN wurde 1996 publiziert (Kim et al. 1996). Da mit neu entwickelten Zinkfingern nahezu jede Zielsequenz angesteuert werden konnte, stellten die ZFN tatsächlich die ersten für fast das gesamte Genom nutzbaren Designernukleasen dar.Footnote 17 Allerdings war ihre Herstellung sehr aufwendig und teuer, sodass sie nur eine eingeschränkte Verbreitung in wenigen spezialisierten Laboren erfuhren. Nichtsdestotrotz basierte auf einer ZFN die allererste klinische Genome-Editing-Studie (siehe Abschn. 7.4).

Abb. 7.1
figure 1

Technische Grundlagen des Genome-Editing

(a) Designernukleasen/Genscheren: Designernukleasen bestehen zumeist aus zwei Komponenten: 1) (mindestens) einer DNA-Bindungsdomäne, die die Spezifität der Designernuklease für die Erkennungssequenz definiert und 2) einer Nukleasedomäne, die an der Erkennungssequenz einen Doppelstrangbruch setzt („schneidet“). Dargestellt sind die drei gebräuchlichsten Genscheren. Links: Zinkfingernukleasen (ZFN). Einzelne Zinkfinger (ZF) erkennen 3 Nukleotide. Durch das Koppeln einzelner ZF wird eine längere Erkennungssequenz bestimmt. Den eigentlichen Doppelstrangbruch („Schnitt“) setzt die Nuklease (z. B. Fok1). Diese wird nur bei einer Dimerisierung aktiv, d. h. wenn zwei Nukleasehälften aneinander binden. Bei TAL-Effektor-Nukleasen (TALEN, Mitte) erfolgt die Bindung der DNA über miteinander gekoppelte TALE-Monomere. Ein Monomer erkennt hierbei 1 Nukleotid. Der Schnitt erfolgt wie bei ZFN meist über eine Fok1-Nuklease. Bei CRISPR/Cas (rechts), wird die Bindung der DNA über eine RNA („guide RNA“) vermittelt. Damit das CRISPR/Cas9-System an die genomische DNA bindet, benötigt es direkt neben der Erkennungssequenz eine sog. PAM-site („protospacer adjacent motif“, rot dargestellt). Der Doppelstrangbruch wird durch die Nuklease Cas9 induziert. (b) Zelluläre Reparaturmechanismen: Nach Einfügen des Doppelstrangbruches werden die zellulären Reparaturmechanismen in Gang gesetzt. Die Reparatur kann z. B. entweder durch nicht homologe End-zu-End-Verknüpfung (NHEJ, links) erfolgen oder über die sog. Homologe Rekombination (HR/HDR, rechts). Beide Mechanismen sind hier nur sehr stark vereinfacht dargestellt. Beim fehlerhaften, aber schnelleren Weg des NHEJ werden die Enden miteinander „verklebt“, wobei an der Klebestelle einzelne Nukleotide hinzukommen („Insertionen“) oder verloren gehen („Deletionen“). Dies kann zu einem Funktionsverlust betroffener Gene („Knockout“) führen. Bei der HR/HDR verwendet die Zelle normalerweise das andere Chromosom als Reparaturvorlage (Matrize), um den betroffenen Bereich per Copy/Paste perfekt wiederherzustellen. Will man in die Schnittstelle gezielt z. B. ein neues Gen („Knockin“) oder einzelne Nukleotide einbauen, kann dies über eine mitgelieferte Matrize erfolgen. Damit der Copy-Paste-Mechanismus funktioniert, muss der einzubauende Bereich von sog. homologen Regionen flankiert werden, die perfekt mit der Zielregion übereinstimmen. Nachdruck aus Fehse/Abramowski-Mock 2021

Knapp 15 Jahre später wurde eine noch modularere Version von Designernukleasen, die TAL-Effektornukleasen (TALEN), entwickelt (siehe Abb. 7.1a). Auch die TALEN basierten auf natürlich vorkommenden, aus Bakterien isolierten DNA-bindenden Proteinen.Footnote 18 Letztere verfügen über in Reihe geschaltete Module, von denen jedes einzelne ein Nukleotid bindet – es handelt sich also um einen 1-zu-1-Code.Footnote 19 TALEN gewährleisteten nicht nur eine höhere Genauigkeit bei der DNA-Bindung, auch ihre Herstellung war deutlich einfacher. Damit schaffte es das Genome-Editing zu einer weltweiten Verbreitung, sodass Designernukleasen im Jahr 2011 vom renommierten Wissenschaftsjournal Nature Methods zur „Method of the Year“ (Methode des Jahres) gekürt wurde.

Den tatsächlichen Durchbruch für das Genome-Editing brachte jedoch erst ein bakterielles adaptives (lernendes) Immunsystem – CRISPR/CasFootnote 20. Entdeckt hatte eine japanische Gruppe CRISPR-Sequenzen schon 1987 (Ishino et al. 1987), aber erst die Analyse seiner Funktionsweise (Mojica et al. 2005; Barrangou et al. 2007) und schließlich die Entdeckung, dass sich die Grundkomponenten des Systems dazu nutzen lassen, DNA in lebenden Säugerzellen gezielt zu zerschneiden (Cong et al. 2013), etablierten eine völlig neue Art von Designernuklease (siehe Abb. 7.1a). Der entscheidende Unterschied der CRISPR-basierten Systeme gegenüber ZFN und TALEN besteht darin, dass die Erkennung der Zielsequenz über eine kurze guide-RNA (Leit-RNA, oder kurz gRNA) erfolgt, während die Nuklease (Cas9) immer gleich bleibt (Gasiunas et al. 2012; Jinek et al. 2012).Footnote 21 Statt jedes Mal ein neues Protein designen zu müssen, muss das Cas-Protein also nur mit einer einfach herzustellenden RNA ausgestattet werden, was die Herstellung von Wochen oder gar Monaten auf wenige Tage verkürzt und die Kosten überschaubar macht. Dies bietet eine Reihe relevanter Vorteile – z. B. lassen sich parallel gleich mehrere Designernukleasen herstellen und testen, sodass einzelne „Versager“ kein Problem darstellen. Auch können beide Elemente des Systems (die gRNA und das Cas-Protein) in vielfacher Weise modifiziert und getestet werden, um optimale Konfigurationen zu finden. Basierend darauf gibt es heute „High-Fidelity“-Varianten von Cas9, die deutlich seltener falsche Zielsequenzen erkennen, als dies mit dem ursprünglich aus Bakterien isolierten Protein der Fall war. Auch konnten mittlerweile tausende neue CRISPR/Cas-Nukleasen jenseits von Cas9 entdeckt werden, die oftmals auch in menschlichen Zellen funktionell sind. Damit erweitert sich das Arsenal an DNA-bindenden Proteinen und Genscheren, die unterschiedliche Eigenschaften haben. Schließlich gelang es, die ursprünglichen Nukleasen mit anderen Proteinen zu koppeln und so dem CRISPR/Cas-System völlig neue Funktionen zu verleihen. Dies wird im folgenden Abschnitt dargestellt.

2 Genome-Editing 2.0

Während das RNA-vermittelte Ansteuern und Schneiden von DNA-Sequenzen mit CRISPR/Cas effizient möglich ist, stellt es dennoch eine Herausforderung dar, eine DNA-Sequenz präzise zu verändern. Dies liegt an den DNA-Reparaturmechanismen der Zelle (siehe Abb. 7.1b). Wie oben beschrieben, wäre HDR nach Einbringen eines DSB für eine präzise DNA-Editierung nötig. Hierfür wird zudem neben dem DSB noch eine DNA-Vorlage benötigt, die die veränderte Sequenz enthält, die an der Stelle des DSB eingebaut werden soll (siehe Abb. 7.1b). Nun ergeben sich aber drei Herausforderungen, wenn man HDR zur präzisen Editierung nutzen möchte. Erstens ist diese vergleichsweise aufwendige Form der DNA-Reparatur in vielen Zellen gar nicht aktiv bzw. effizient. Zweitens kann die doppelsträngige DNS-Vorlage Toxizität induzieren. Für die Korrektur kleinerer Abschnitte bringt man daher einzelsträngige DNA (sog. ssDNA), die deutlich weniger toxisch ist, als Matrize in die Zellen ein. Drittens kann der DSB, selbst in Zellen mit aktiver HDR, immer auch zur Entstehung von Mutationen an der Schnittstelle führen. Dies liegt daran, dass HDR mit einem anderen Reparaturprozess (NHEJ)Footnote 22 konkurriert. NHEJ ist deutlich ungenauer – meist werden dabei Basen hinzugefügt oder herausgenommen, sodass sog. „Indels“ (Insertionen bzw. Deletionen) entstehen (siehe Abb. 7.1b). Oftmals kommt es durch diese Indels zu einer Verschiebung des Leserahmens, was man durchaus auch therapeutisch nutzen kann, um ein Gen auszuschalten. Allerdings ist diese Art von Mutationen nicht von Nutzen, wenn man ein Gen präzise editieren möchte (Wang und Doudna 2023; Anzalone et al. 2020).

Für präzise Modifikationen haben sich daher in den letzten 7 Jahren zwei weitere CRISPR-Methoden etabliert. Zunächst wurden 2016 Basen-Editoren (BEs) erstmals beschrieben. Hierbei handelt es sich um die Fusion einer Deaminase-DomäneFootnote 23 an ein Cas-Protein, das die DNA entweder gar nicht schneidetFootnote 24 oder nur einen der beiden DNA-Stränge schneidet (sog. Nickase). Auch hier wird das CRISPR-System genutzt, um mithilfe der gRNA ganz gezielt eine Stelle im Genom anzusteuern, woraufhin die DNA an jener Stelle aufgewickelt wird. Während der Zielstrang (target strand, oder kurz TS) der DNA an den Komplex aus gRNA und Cas-Protein gebunden ist, liegen Teile des zweiten DNA-Strangs (non-target strand, oder kurz NTS) nun frei (sog. „single-stranded DNA bubble“ oder „R-loop“). Diese freiliegenden Basen des NTS werden auf diese Weise der an das Cas-Protein gekoppelten Deaminase zugänglich gemacht. Man nutzt das CRISPR-System also letztlich, um ein zweites Protein mit einer spezifischen Funktion gezielt an eine bestimmte Stelle im Genom zu lenken. In der ersten Variante (Komor et al. 2016; Rees und Liu 2018) wurde hierzu eine Cytosindeaminase genutzt, die ein Cytosin in der DNA durch Abspaltung einer Aminogruppe zu einem Uracil deaminieren kann (siehe Fn. 24). Durch DNA-Reparaturprozesse, die teils ebenfalls gezielt beeinflusst werden können, resultiert aus der Deaminierung schließlich eine C-zu-T-Editierung, in der DNA-Sequenz steht jetzt also anstelle eines C ein T. Durch Nutzung anderer Deaminasen und/oder Modifikation der lokalen DNA-Reparaturprozesse wurden mittlerweile auch BEs entwickelt, die A zu G (Gaudelli et al. 2017), C zu G (Kurt et al. 2021) und A zu C (Chen et al. 2023) konvertieren können. Base-Editing funktioniert zuverlässig und ist relativ einfach zu nutzen, wenn man auf spezifische Eigenheiten achtet, wie das sog. Editing-Window. Hierbei handelt es sich um den Bereich des Nichtzielstrangs (NTS) der DNA, der für die Deaminase zugänglich ist. Nur hier kann Base-Editing stattfinden, allerdings variiert dieser Bereich je nach Cas-Protein, Deaminase und Fusionsarchitektur.

Trotz der Vielseitigkeit der BEs können nicht alle Punktmutationen durch diese Technologie realisiert werden. Zudem kann man nur einzelne Nukleotide verändern, aber keine komplexeren Editierungen vornehmen, z. B. Insertionen, Deletionen oder Kombinationen verschiedener Mutationsformen.

Um solche Edits zu ermöglichen, wurde eine weitere Klasse von Editoren entwickelt, die sog. Prime-Editoren (PEs) (Anzalone et al. 2019), die verschiedenste Arten von Mutationen einführen können. Auch die PEs basieren auf der Fusion eines weiteren Enzyms (einer reversen Transkriptase, RT) mit einem modifizierten Cas-Protein (einer Cas9-Nickase). Jedoch benötigt das Prime-Editing noch eine dritte Komponente – die „prime editing gRNA“ (pegRNA). Diese gRNA enthält zusätzliche Sequenzen am 3‘-Ende, in die man die gewünschte Editierung einprogrammieren kann. Die gRNA führt hier also nicht nur das Cas-Protein zum Ziel, sondern dient nun auch gleichzeitig als Vorlage für die Editierung selbst. Ähnlich wie bei den BEs wird das CRISPR-System genutzt, um den Editierungsapparat an eine bestimmte Stelle im Genom zu leiten. Dort wird ein Strang der DNA geschnitten, an den das 3‘-Ende der pegRNA bindet. Daraufhin schreibt die RT die im 3‘-Ende der pegRNA codierte Sequenz in den NTS der Ziel-DNA (in den sog. 3‘-flap). Wenn dieser veränderte DNA-Strang erfolgreich eingebaut wird, ist das Prime-Editing vollzogen (Anzalone et al. 2019). Die PE-Methode ist äußerst vielseitig und konnte mittlerweile auch auf die Einführung größerer Deletionen (Choi et al. 2022) und Insertionen (Yarnall et al. 2023; Anzalone et al. 2022) erweitert werden. Dies wurde ermöglicht durch die gleichzeitige Nutzung von zwei pegRNAs (sog. „dual-flap“-Ansatz) (Anzalone et al. 2022) und/oder den Einbau von Rekombinase-Erkennungsseiten durch PE, die dann im zweiten Schritt für die Integration von großen DNA-Cargos durch RekombinasenFootnote 25 genutzt werden können. Letzteres ist ein hochkomplexes System, da es der zusätzlichen Anlieferung einer Rekombinase und einer DNA-Vorlage bedarf (Anzalone et al. 2019; Yarnall et al. 2023; Anzalone et al. 2022).

3 Vor- und Nachteile der verschiedenen Methoden im Hinblick auf eine klinische Anwendung

BEs sind oftmals sehr effizient, wenn das zu mutierende Zielnukleotid im richtigen Bereich des Editing-Windows liegt. Jedoch können alle in diesem Fenster liegenden Zielbasen, also Cytosine oder Adenine (je nach BE) deaminiert werden, womit man oftmals unerwünschte Mutationen direkt neben der Zielbase (sog. Bystander-Mutationen) erzeugt. Ähnlich wie Cas-Nukleasen können auch BEs gRNA-abhängige Off-Target-Mutationen erzeugen (Kim et al. 2017). Eine weitere Limitation von BEs sind gRNA-unabhängige Off-Target-Effekte, wenn die Deaminase unabhängig von dem Cas-Protein und der gRNA andere Stellen im Genom (DNA) oder in transkribierten RNAs deaminiert (Zuo et al. 2019; Grünewald et al. 2019). Um dies zu verhindern, wurden inzwischen zahlreiche optimierte Varianten entwickelt. Zudem wurde erkannt, dass die Stärke und Dauer der Expression hierbei eine Rolle spielt. So nutzt man in der klinischen Erprobung aktuell eine relativ kurze Expression der BEs mittels mRNA/gRNA-Kombinationen, die durch Elektroporation (ex vivo) oder LNPs (in vivo) in die Zellen angeliefert werden. All diese Fortschritte haben es ermöglicht, dass Base-Editing zum heutigen Stand schon in ersten klinischen Studien angewendet werden konnte (Chiesa et al. 2023).

Ein Nachteil der PEs ist die Komplexität des Systems und die höhere Variabilität der Effizienz, je nach der Stelle im Genom, die angesteuert wird. Allerdings wurden hier bereits Methoden entwickelt, um z. B. die pegRNA stabiler zu machen (Nelson et al. 2022) oder durch gleichzeitige Modifikation von DNA-Reparaturmechanismen (Chen et al. 2021). Bei den PEs wurden bisher keine relevanten gRNA-unabhängigen Off-Target-Effekte beobachtet. Konventionelle gRNA/Cas-abhängige Off-Target-Effekte sind oft weniger ausgeprägt, da für die Editierung an der „falschen“ Stelle nicht nur die sog. „Spacer-Sequenz“,Footnote 26 sondern auch das 3‘-Ende „fehlgeleitet“ funktionieren müsste, was unwahrscheinlicher ist als eine reine Fehlbindung der gRNA über die Spacer-Sequenz und ein dadurch induzierter Doppelstrangbruch (siehe Abschn. 7.1.2).

Vergleicht man beide Systeme mit „klassischer“ Gentherapie, also z. B. lentiviraler Integration von Genen oder episomaler Expression von Genen via Adeno-assoziierten Viren (AAV), fallen große Unterschiede auf.

AAV-basierte Gentherapie bietet das Hinzufügen eines „gesunden“ Gens (sog. Genaddition), die je nach Zelltyp temporär (in sich teilenden Zellen) oder längerfristig (in sog. post-mitotische Zellen, die sich nicht mehr teilen) funktioniert. Es kann bei AAV-Behandlung zwar zu Integrationen kommen, diese sind aber relativ selten und zudem abhängig von der genutzten Dosis (siehe Jäschke/Büning, Kap. 4). Damit ist der nicht integrative Aspekt von AAV-Gentherapien besonders hervorzuheben gegenüber CRISPR-basierter Geneditierung.

Bei der retroviralen Gentherapie (siehe Morgan et al., Kap. 3) ist die Integration von Genen beabsichtigt, allerdings ist der Ort der Integration nicht programmierbar. Die halbzufällige Integration im Zellgenom kann zur unbeabsichtigten Hochregulierung oder Ausschaltung von Genen führen (sog. Insertionsmutagenese). In frühen Gentherapiestudien, bei denen sog. γ-retrovirale Vektoren (siehe Morgan et al., Kap. 3) zur Modifikation von Blutstammzellen benutzt worden waren, wurden bei mehreren Patienten einige Zeit nach der erfolgreichen Therapie Leukämien diagnostiziert. Diese Blutkrebserkrankungen, die zum Glück in der Mehrzahl der Betroffenen gut therapierbar waren, ließen sich auf die Aktivierung potenziell krebsauslösender Protoonkogene infolge einer solchen Insertionsmutagenese zurückführen. Inzwischen werden für die Modifikation von Blutstammzellen sicherheitsoptimierte lentivirale Vektoren benutzt, wodurch das Risiko einer Insertionsmutagenese deutlich verringert werden konnte.Footnote 27 Da die für die Immuntherapie (z. B. mit CAR-T-Zellen, siehe Harrer/Abken, Kap. 10) benutzten Lymphozyten wesentlich resistenter gegenüber einer Insertionsmutagenese sind (Newrzela et al. 2008), werden für ihre Genmodifikation beide Typen retroviraler Vektoren erfolgreich benutzt, ohne dass es bei vielen Tausend behandelter Patienten zu schweren Nebenwirkungen infolge der Insertion gekommen wäre.

Mit BEs kann man durch den gezielten Austausch von Basen Gene ausschalten oder reparieren, aber keine DNA integrieren. Mit Prime-Editoren können kleine DNA-Abschnitte integriert werden, aber nur in der Kombination mit Rekombinasen können gezielt große Abschnitte von DNA (wie ganze Gene) an der Zielstelle eingebaut werden. Diese Technik verursacht weniger Indel-Nebenprodukte im Gegensatz zu HDR-basierter „klassischer“ Geneditierung, bringt aber die Schwierigkeit der zusätzlichen Nutzung und Anlieferung einer Rekombinase und der dafür erforderlichen DNA-Vorlage mit sich.

Zudem sind sowohl BE- als auch PE-basierte Systeme ohnehin größer als reine Nukleasen, was die Anlieferung ins Zielgewebe erschweren kann. Wenn man die am besten entwickelte Technologie zur gezielten Anlieferung in Gewebe nutzt, AAV, müssen hierfür fast alle BEs und PEs auf zwei Teile aufgeteilt (duale AAVs) angeliefert werden, was mit sich bringt, dass nicht alle Zellen zwangsläufig beide Komponenten erhalten, sodass sich die Effizienz verringern kann (Levy et al. 2020; Davis et al. 2023).

Wie bei der klassischen Gentherapie stellt somit die Zustellung (Delivery) der GE-Komponenten in das Zielgewebe eine der wichtigsten Herausforderungen für das Genome-Editing dar. Da sich die Anforderungen an die Vektoren in vieler Hinsicht von denen für die klassische Gentherapie unterscheiden, ist Entwicklung optimaler Genfähren für das Genome-Editing ein eigenes neues Forschungsfeld (siehe auch Kap. 3, 4, 5, 6).

4 Klinische Anwendung des Genome-Editing

Auch wenn ihre Entwicklung sehr aufwendig war, waren es doch ZFN, die als erste klinisch eingesetzt wurden. Dies lag natürlich daran, dass sie gegenüber den folgenden Designerenzymen der 2. und 3. Generation mehr als 10 Jahre „Vorsprung“ hatten.

Die Überführung des Genome-Editing in die klinische Anwendung folgte dabei den für solche Studien geltenden Grundprinzipien – bei der ersten Testung einer neuen Therapie am Menschen muss das Risiko so gering wie möglich gehalten werden.Footnote 28 Zugleich sollte die Studie natürlich auch wenigstens einige prinzipielle Aussagen erbringen, d. h. das Genome-Editing musste möglichst einfach realisierbar und messbar sein. Da das Ausschalten von Genen per Genome-Editing deutlich einfacher und effizienter als die passgenaue Reparatur ist,Footnote 29 wurde mithilfe der ZFN das CCR5-Gen in T-Lymphozyten HIV-positiver Patienten zerstört (Tebas 2014). Das von diesem Gen codierte Protein (ein Chemokinrezeptor) dient dem HI-Virus als Co-Rezeptor, d. h. nach der Bindung an seinen eigentlichen Rezeptor benutzt HIV CCR5, um in die Zelle einzudringen. Fehlt CCR5 auf der Zelloberfläche der HIV-Zielzellen, kann das Virus die Zellen nicht infizieren.Footnote 30 Die klinische Studie wurde in den USA an der University of Pennsylvania mithilfe der US-Firma Sangamo durchgeführt. Die erhobenen Daten zeigten, dass das Genome-Editing in T-Lymphozyten der HIV-Patienten machbar und sicher war. Zugleich gab es immerhin Hinweise auf eine (wenn auch geringe) klinische Wirksamkeit auf die HIV-Infektion, was angesichts der vergleichsweise niedrigen Effizienzen des CCR5-Knockout auch nicht anders zu erwarten war. Insgesamt waren die Daten in jedem Fall sehr wichtig, nicht zuletzt angesichts des Umstands, dass die verwendete ZFN nicht nur weniger aktiv ist, sondern augenscheinlich auch zu mehr Fehlern (Off-Target-Schnitten) führt als modernere TALEN- und CRISPR/Cas-basierte Systeme. Die Firma Sangamo hat in der Folge noch mehrere Studien mit der von ihr patentierten CCR5-ZFN, sowohl zur Modifikation von T-Lymphozyten als auch von Blutstammzellen HIV-infizierter Patienten durchgeführt. Insgesamt verzeichnet das Portal clinicaltrials.gov (Zugriff am 10.06.2023) 15 klinische Studien mit dem Suchbegriff „Zinc finger nuclease“, fast alle durchgeführt von Sangamo (davon 9 bei HIV). Da es bei den HIV-Studien jedoch keine relevanten Erfolge im Hinblick auf die Eindämmung der Infektion gab und die Standard-HIV-Therapie immer besser wird, hat Sangamo diese Indikation inzwischen verlassen und konzentriert sich auf Therapien für andere Krankheiten, insbesondere verschiedene monogene Erbkrankheiten wie auch Krebserkrankungen.Footnote 31 Grundsätzlich werden heute aufgrund der oben angesprochenen Komplexität des Verfahrens und der zumeist geringeren Aktivität und Spezifität von ZFN kaum noch neue Enzyme dieses Typs entwickelt.

Bei der zweiten Generation der Designernukleasen, den TALEN, ging die Translation in die klinische Anwendung deutlich schneller als bei den ZFN – bereits 2015 wurde ein an Leukämie erkranktes kleines Mädchen in London mit CAR-T-Zellen (siehe Harrer/Abken, Kap. 10) von einem gesunden Spender behandelt (Qasim et al. 2017). Damit dies möglich war, wurden die Spender-T-Zellen (zusätzlich zum Einbringen des CARs) vor der Infusion mit verschiedenen TALEN so genetisch modifiziert, dass sie nicht sofort von der Patientin abgestoßen wurden und umgekehrt auch nicht das gesunde Gewebe des Mädchens angreifen konnten.Footnote 32 Die Behandlung des Mädchens, das zu diesem Zeitpunkt als unheilbar galt, war erfolgreich. Entsprechend ist es nicht verwunderlich, dass bis heute fast alle klinischen Studien mit TALEN genau dieser Idee folgen – der Generierung sog. „universeller“ CAR-T-Zellen, die jederzeit und sofort („off-the-shelf“) für die Behandlung von Krebspatienten zur Verfügung stehen. Allerdings galten auch die TALEN mit der Etablierung des CRISPR/Cas-Systems sehr schnell als überholte Technologie.Footnote 33

Schon ein Jahr nach den TALEN wurde der erste klinische Einsatz von „gecrisperten“ Zellen in China gemeldet (Cyranoski 2016). Obwohl der US-amerikanische Gentherapiepionier Carl June seinerzeit einen Wettlauf zwischen China und den USA als „Sputnik 2.0“ (ähnlich dem zwischen der Sowjetunion und den USA ins Weltall) prognostizierte, waren die Jahre danach von einer relativ langsamen Zunahme der Anzahl klinischer Studien mit CRISPR/Cas gekennzeichnet (Fehse und Abramowski-Mock 2018). Dies lässt sich wahrscheinlich zumindest zum Teil mit initialen Befunden zur Off-Target-Aktivität von CRISPR-Systemen erklären (Fu et al. 2013; Hsu et al. 2013; Cradick et al. 2013). Ein weiteres Hemmnis, insbesondere für die In-vivo-Applikation, könnten Immunreaktionen gegen die bakteriellen Cas9-Proteine darstellen (Charlesworth et al. 2019; Wagner et al. 2019). Die beiden ersten und noch heute am weitesten verbreiteten CRISPR/Cas-Systeme stammen aus Staphylokokken (S. aureus) und Streptokokken (S. pyogenes) – jeweils Bakterien, mit denen praktisch jeder Mensch im Laufe der Jahre in Kontakt kommt. Daher kann es nicht verwundern, dass in fast allen Probanden in entsprechenden Untersuchungen ausgeprägte vorbestehende Immunantworten gegen das Cas9-Protein gefunden wurden.Footnote 34 Über eine klinische Beeinträchtigung hierdurch in den aktuell laufenden Cas9 nutzenden Studien wurde bisher jedoch nicht berichtet.

Auf der Basis der beobachteten Einschränkungen wurde das CRISPR/Cas-System in den letzten Jahren permanent optimiert. Insbesondere konnte die Wahrscheinlichkeit von Off-Target-Schnitten durch neue hochspezifische Varianten drastisch gesenkt werden. Auch wurden neue Versionen des Genome-Editing etabliert, bei denen die Schnitte (bzw. Doppelstrangbrüche) im Genom gar nicht mehr notwendig sind (siehe Abschn. 7.2), sodass bestimmte NebenwirkungenFootnote 35 weitgehend ausgeschlossen werden können. Zudem gelang es in den letzten Jahren, immer bessere Genfähren für den Transport der Genome-Editing-Komponenten in unterschiedliche Zielzellen zu entwickeln, auch wenn es hier noch sehr viel Luft nach oben gibt.

Insgesamt haben die technischen Entwicklungen zu einem merklichen Anstieg der Zahl klinischer Studien mit CRISPR/Cas in den letzten Jahren geführt. Während sich Anfang 2018 nur 11 therapeutische Studien mit dem Stichwort „CRISPR“ bei clinicaltrials.gov finden ließen (Fehse und Abramowski-Mock 2018), sind es aktuell (10.06.2023) über 60.Footnote 36 Mehr als 50 Studien wurden in China (23) oder den USA (29) initiiert, wobei einige der US-Studien auch in anderen Ländern inkl. Deutschland laufen. Zudem ist wichtig festzuhalten, dass viele der Studien identische bzw. sehr ähnliche Ansätze, Zellprodukte bzw. CRISPR/Cas-Systeme benutzen,Footnote 37 sodass die Zahl tatsächlich getesteter unterschiedlicher Therapien eher im niedrigen zweistelligen Bereich liegt. In den meisten Fällen werden Blutzellen außerhalb des Körpers genetisch modifiziert und dann zurückgegebenen. Dieses Vorgehen hat eine Reihe entscheidender Vorteile: (i) Die Immunogenität des Cas9 spielt keine Rolle, da das bakterielle Protein gar nicht in den Körper gelangt. (ii) Die Zellen können vor der Rückgabe hinsichtlich der Effizienz des Genome-Editing, aber auch potenzieller Off-Target-Effekte untersucht werden. (iii) Es kann sichergestellt werden, dass das Genome-Editing ausschließlich in den gewünschten Zielzellen (also z. B. T-Lymphozyten) erfolgt.

Besonderes Aufsehen in Deutschland erregte eine Studie der Firmen CRISPR Therapeutics und Vertex zur genetischen Modifikation von Blutstammzellen von β-Thalassämie-Patienten, bei denen aufgrund eines Gendefekts eine Störung der Bildung roter Blutkörperchen vorliegt. Bei dem weltweit ersten Patienten, bei dem Anfang 2019 „gecrisperte“ Blutstammzellen zur Behandlung seiner β-Thalassämie benutzt wurden, handelte es sich um eine junge Frau aus Regensburg. Die Behandlung schlug an und der Zustand der Patientin verbesserte sich deutlich und wie wir inzwischen wissen auch nachhaltig. Der benutzte Ansatz eignet sich auch, um eine weitere Krankheit aus derselben GruppeFootnote 38 zu therapieren, die Sichelzellkrankheit (SCD). Vor der Patientin in Regensburg war der Ansatz nur an einer SCD-Patientin in den USA getestet worden (Frangoul et al. 2021). Inzwischen wurde eine ganze Reihe weiterer Patienten aus beiden Gruppen erfolgreich mit dem Genome-Editing-Ansatz behandelt, sodass die Firma eine Lizenz bei der europäischen und amerikanischen Arzneimittelbehörde beantragt hat.Footnote 39 Die zu erwartende Zulassung einer ersten auf Genome-Editing basierenden (Stammzell-)Gentherapie würde einen wichtigen Durchbruch für die Technologie darstellen. Die Indikationen β-Thalassämie und SCD haben insofern eine gewisse Brisanz, als dass dafür bereits eine Zulassung für eine vektorbasierte (lentivirale) Gentherapie besteht, die aber von dem Lizenzträger Bluebird Bio in Europa zurückgegeben wurde, weil man sich nicht mit den Kassen über eine adäquate Summe für die Kostenerstattung einigen konnte (vgl. auch Alex/König, Kap. 22), während die Gentherapie in den USA bereits kommerziell verfügbar ist. Hier bleibt abzusehen, welche der Therapien sich langfristig als die beste im Hinblick auf Wirksamkeit, Nebenwirkungen wie auch Preis-Leistungs-Verhältnis erweist – nicht zuletzt auch im Vergleich mit der Blutstammzelltransplantation von einem gesunden Spender. Aus theoretischer Sicht sprechen gerade im Hinblick auf die Langzeiteffekte einige Punkte für das Genome Editing – keine potenzielle Insertionsmutagenese bzw. Genabschaltung wie bei den lentiviralen Vektoren, weniger Toxizität als bei der allogenen SZT. Abzuwarten bleibt, ob sich bei längerer Nachbeobachtung Nebenwirkungen, z. B. infolge von Off-Target-Schnitten, manifestieren.

5 Schluss

Es lässt sich zusammenfassen, dass die klinische Translation von CRISPR/Cas-Systemen noch am Anfang steht, allerdings in den letzten Jahren rasante Fortschritte macht. Dass die Entwicklung länger dauert als z. B. in der Biotechnologie, lässt sich zu einem guten Teil mit der hohen Komplexität der Translation von Forschungsansätzen in klinische Studien im Bereich der Gentherapie erklären. Zugleich sind für die klinische Anwendung des Genome-Editing einige spezifische Herausforderungen (u. a. Delivery, potenzielle Immunogenität) zu meistern, auf die hier nur kurz eingegangen werden konnte.Footnote 40 Angesichts der offensichtlichen theoretischen Vorteile gegenüber der „klassischen“ Genaddition, wird es sehr spannend sein, ob die laufenden und zukünftige klinische Studien in diesem Bereich zu einem Paradigmenwechsel führen werden. Es ist davon auszugehen, dass das Genome-Editing die klassische Gentherapie nicht vollständig verdrängen wird, da sich bestimmte gentherapeutische Ansätze (z. B. onkolytische Viren) nur über Vektortechnologien realisieren lassen. Stattdessen dürften sich beide Technologien gemeinsam weiterentwickeln und gegenseitig befruchten, wie sich am Beispiel der universellen CAR-T-Zellen sehr gut illustrieren lässt.

Therapeutisches Genome-Editing in der Keimbahn ist nach der aktuellen Rechtslage in Deutschland bis auf weiteres ausgeschlossen (siehe Müller-Terpitz, Kap. 17). Angesichts des begrenzten Platzes haben wir uns im vorliegenden Kapitel daher nicht mit den technischen Besonderheiten, potenziellen Möglichkeiten und Risiken des Keimbahn-Genome-Editing auseinandergesetzt.Footnote 41 Mit der ethischen Bewertung setzt sich Schickl in Kap. 18 dieses Buches auseinander.