Geht es um die Vererbung beim Menschen, sind Stammbäume aufschlussreich. Thomas und Theresa Brennan aus Chicago brachten es auf elf Nachkommen, die sie jedes Jahr zu Ostern einheitlich ausstaffierten. Diese Aufnahme entstand beim Kirchgang 1954. Foto: Ullstein

In der Menge liegt
die Wahrheit

Von DIETHARDT TAUTZ
Geht es um die Vererbung beim Menschen, sind Stammbäume aufschlussreich. Thomas und Theresa Brennan aus Chicago brachten es auf elf Nachkommen, die sie jedes Jahr zu Ostern einheitlich ausstaffierten. Diese Aufnahme entstand beim Kirchgang 1954. Foto: Ullstein

14.06.2019 · Wie Vererbung geht, lernt man bereits in der Schule. Aber so einfach wie bei Erbsen ist das nur in Ausnahmefällen. Die quantitative Genetik hat in jüngster Zeit Erkenntnisse gewonnen, die alles auf den Kopf stellen. Das wird schon bald praktische Konsequenzen haben.

A ls vor einem halben Jahr bekannt wurde, dass es dem chinesischen Wissenschaftler He Jiankui gelungen sei, das Erbgut von Babys zu manipulieren, hielten viele das für eine Sensation. Aber abgesehen von dem damit verbundenen ethischen Tabubruch wäre dies kaum eine Meldung wert gewesen. Denn es steckt weder ein wissenschaftlicher Fortschritt in der angewandten Methode, noch hat die Keimbahnmanipulation beim Menschen einen erkennbaren Sinn. Doch abseits der Schlagzeilen findet derzeit in der Tat eine Revolution in der Genetik statt, die unser Verständnis der Vererbung grundsätzlich umkrempelt.

Gregor Johann Mendel, 1822-1884 Foto: Interfoto

Beim Stichwort Genetik fällt einem als Erstes Mendel ein. Die Mendelschen Gesetze werden schon früh in der Schule gelehrt, und für viele Schulabgänger bleiben sie der einzige Kontakt mit dem Thema überhaupt. Anhand von gelben und grünen Erbsen wird gezeigt, wie sich Merkmale vererben, wie es zur Mischung und wieder zur Aufspaltung kommen kann. Oft werden dann auch noch ein paar Beispiele beim Menschen behandelt, etwa angewachsene oder freie Ohrläppchen. Aber wenn die Schüler mehr wissen wollen, beispielsweise warum manche ihren Eltern sehr ähnlich sehen, andere aber weniger, bleibt Ratlosigkeit zurück. Die Mendelschen Gesetze sind darauf nicht anwendbar.

Für die allermeisten sichtbaren Ausprägungen von Organismen greifen stattdessen die Regeln der quantitativen Genetik. In ihren Grundzügen sind auch sie seit Mendels Zeiten bekannt. Sie haben aber die längste Zeit ein Schattendasein geführt und sind heute in der Regel nur den Tier- und Pflanzenzüchtern geläufig. Bei den quantitativen Genetikern herrscht die Statistik. Es gibt keine kategorischen Unterscheidungen, wie die zwischen grünen und gelben Erbsen, sondern nur kontinuierliche Verteilungen, wie zum Beispiel die Körpergröße. Das mathematische Werkzeug sind Korrelation und Regression, entwickelt vor mehr als hundert Jahren und inzwischen auch unverzichtbarer Bestandteil der Algorithmen der Künstlichen Intelligenz. Es sind Werkzeuge, mit denen man aus riesigen Datensätzen Muster destillieren kann. Und genau dies ist in den letzten Jahren in der quantitativen Genetik passiert. Die enormen technischen Fortschritte der Genomanalyse haben in den vergangenen zehn Jahren Datensätze hervorgebracht, aus denen völlig neue Erkenntnisse entstanden sind. Die Schockwellen, die davon ausgehen, kommen selbst bei den Fachleuten nur langsam an. Langgehegte Überzeugungen werden auf den Kopf gestellt, und es eröffnen sich völlig neue Möglichkeiten.

Thomas H. Morgan, 1866-1945 Foto: Pictures Alliance

Gut hundert Jahre lang hat die auf den Mendelschen Regeln beruhende Genetik unser Denken dominiert. Dies begann insbesondere mit der Forschung an der Fruchtfliege Drosophila. Die Genetiker um Thomas Morgan fanden heraus, dass man einzelnen Genen kategorische Eigenschaften zuordnen und diese isoliert untersuchen konnte. Die Methode der Wahl war die Mutagenese, bei der man die Funktion eines einzelnen Gens zerstörte und aus den Fehlentwicklungen im Organismus auf die Funktion schloss. Dazu war es aber nötig, mit Modellsystemen zu arbeiten, bei denen der gesamte Rest des Genoms frei von weiteren Varianten war. Dieser Forschungsansatz war außerordentlich erfolgreich und auch die Grundlage der Erfolge in der Molekularbiologie. Allerdings ist man mit diesem Ansatz der Frage, wie quantitative Merkmale entstehen und vererbt werden, nicht wirklich näher gekommen. Denn die genetischen Varianten, die zu quantitativen Veränderungen führen, wurden durch die Verwendung der Modellorganismen explizit ausgeschlossen.
Dazu kommt, dass die Genetik natürlicher Organismen nicht auf ausgeschalteten Genen, sondern auf Varianten von aktiven Genen beruht. Diese Varianten zu erfassen war allerdings lange Zeit sehr schwierig. Eine systematische Analyse ist erst seit kurzem möglich.

Ronald Fisher, 1890-1962 Foto: SPL

Den theoretischen Unterbau jedoch hatte der Populationsgenetiker Ronald Fisher bereits in den dreißiger Jahren des vergangenen Jahrhunderts geliefert. Er schlug zwei Modelle vor, wie man sich die Genetik quantitativer Merkmale vorstellen konnte. Das erste besagte, dass sie durch Kombination der Varianten einiger weniger Gene entstehen, das zweite nahm an, dass sehr viele Gene, jedes mit sehr kleinen Effekten, beteiligt sind. Das erste Modell kommt der Mendelschen Genetik nahe und wurde daher lange favorisiert. Das zweite Modell wurde eher als mathematische Idealvorstellung abgetan, kaum ein praktisch arbeitender Genetiker hat es ernst genommen. Und genau da setzt die Revolution an: Seit ein paar Jahren deuten alle Daten darauf hin, dass das zweite Modell die Realität viel besser abbildet als das erste.

Wie kam es dazu – und was bedeutet das letztlich? Auch wenn mehrere Entwicklungen zum gleichen Ergebnis geführt haben, war es vor allem die Untersuchung einer scheinbar einfachen Frage, die die tiefsten Einsichten geliefert hat: Die Frage nach der Vererblichkeit der Körpergröße des Menschen.

Sir Francis Galton, 1822-1911 Foto: Bridgeman

Ein Cousin von Darwin – Francis Galton – hat dazu den Anstoß gegeben. Er überlegte, wie er einen guten Datensatz zu einem vererblichen Merkmal bekommen konnte. Dazu schrieb er 1884 einen Wettbewerb aus: Die Familie, die ihm die besten Größen-Messwerte zusammen mit Geschlecht, Alter und Verwandtschaftsverhältnis schicken würde, sollte einen Preis bekommen. Und genauso, wie es auch heute passiert – sobald ein Preis winkt, sind die Leute bereit, ihre Daten abzuliefern. Galton bekam dadurch so viele Datensätze zusammen, dass er am Ende das Preisgeld aufteilen musste. Noch heute sind diese Daten besonders wertvoll, da die Familien damals viel größer waren. Er konnte damit nachweisen, dass sie einer statistischen Normalverteilung folgten, dem seither klassischen Muster eines quantitativen Merkmals. Aber vor allem konnte Galton zeigen, dass die Körpergröße vererblich ist. Große Eltern hatten größere Kinder als kleine Eltern. Das Muster war aber noch viel interessanter: Die Kinder kleiner Eltern waren im Durchschnitt etwas größer als die Eltern, bei Kindern großer Eltern war es umgekehrt. Francis Galton hatte damit einen zentralen statistischen Effekt entdeckt, die sogenannte Regression zum Mittelwert, die letztlich dazu führt, dass die statistische Verteilung aufrechterhalten wird. Tier- und Pflanzenzüchter versuchen seitdem durch Züchtung nur die Mittelwerte der Verteilungen zu verändern, die Verteilungen selbst bleiben in der Regel bestehen.

Mit den Mitteln der Genomik kann man mittlerweile für jedes einzelne Gen bestimmen, welchen Beitrag es zur Körpergröße liefert. Dazu braucht man nur möglichst viele Individuen, deren Körpergröße gemessen und gleichzeitig eine DNA-Probe entnommen wird. Dann wird analysiert, welche genetischen Varianten jedes Individuum besitzt und wie die Körpergröße mit jeder einzelnen dieser Varianten korreliert. Wenn sich eine Korrelation ergibt, fragt man, welchen Gesamtanteil diese Variante zur Körpergröße beisteuert. Was an sich ganz einfach klingt, war letztlich ein sehr großer Aufwand. Für mehrere hunderttausend Individuen mussten Millionen von Varianten durchmustert werden. Die Ergebnisse einer solchen genomweiten Assoziationsstudie (GWAS) werden in der Regel grafisch dargestellt.

Molekulare Überraschung: Wenige Abschnitte im Genom rufen deutliche Effekte hervor. Entscheidender für die Erblichkeit eines Merkmals ist das DNA-Fußvolk, das sich über alle Chromosomen verteilt. Das Beispiel zeigt den Einfluss des Erbguts auf die Durchblutung kleiner Gefäße. Grafik: F.A.Z.

Man erkennt eine Reihe von Spitzen, umgeben von einem wahren See von nur kleinen Effekten. Das könnte auf den ersten Blick bedeuten, dass es nur ein paar wenige Gene gibt, die einen starken Effekt auf die Größe haben, und dass man alles andere vernachlässigen könnte. Damit wäre eigentlich das erste obenerwähnte Modell bestätigt. Aber die Überraschung kam, als man fragte, welchen Anteil an der Vererbung diese Spitzen ausmachen. Die Körpergröße ist zu achtzig Prozent erblich (der Rest wird durch Umwelteinflüsse bedingt, was übrigens generell typisch für die Vererbung quantitativer Merkmale ist). Jede dieser Spitzen trägt aber weniger als ein Prozent zur Erblichkeit bei, insgesamt erklären sie weniger als zehn Prozent. Für kurze Zeit gab es daher unter den Genetikern ein neues Top-Thema: Die Frage, wie man die „fehlende Erblichkeit“ erklären könnte. Bis man anfing, auf der Basis von Fishers zweitem Modell nachzurechnen. Es stellte sich heraus, dass die gesamten kleinen Effekte in der Summe für die Vererbung viel wichtiger sind als die wenigen starken Effekte. Das ist letztlich überhaupt nicht mehr von den Mendelschen Regeln abgedeckt. Manche Genetiker unterstellen inzwischen sogar, dass letztlich alle Gene eines Genoms zu jedem Merkmal in unterschiedlichen Anteilen beitragen – ein sogenanntes „omnigenes“ Modell. Die einfachen Mendelschen Regeln gelten dann nur noch in wenigen Ausnahmefällen.

Diese Einsicht hat zunächst vor allem die Tier- und Pflanzenzüchter elektrisiert. Denn zumindest in ihren Zuchtlinien kann man jetzt eine sogenannte „genomische Vorhersage“ machen. Nehmen wir die Züchtung von Milchkühen als Beispiel. Züchter müssen hier Bullen auswählen, deren weibliche Nachkommen besonders viel Milch geben. Dies ist sehr aufwendig, da der Bulle selbst ja keine Milch gibt. Es müssen also erst einmal für viele Bullen viele Nachkommen geboren und erwachsen werden, bevor man die Milchleistung, die von einem bestimmten Bullen vererbt wird, bestimmen kann. Mit der Erkenntnis, dass viele Gene statistisch zur Milchleistung beitragen, wird das viel einfacher. Mit einer einfachen Korrelation zu bereits bekannten hochwertigen Bullen kann man jetzt für das frisch geborene Bullenkalb eine gute Vorhersage machen, welche Zuchtziele mit ihm zu erreichen sein werden. Dies vereinfacht und beschleunigt die Sache ungemein. Es macht inzwischen schon der Begriff „Präzisionszüchtung“ die Runde. Denn mit der genomischen Vorhersage kann nicht nur die Milchleistung optimiert werden, sondern es können auch unerwünschte Nebeneffekte züchterisch beeinflusst werden, beispielsweise solche, die das Tierwohl beeinträchtigen. Oder sogar die Menge an Methan reduziert werden, die bei der Verdauung produziert wird.

Mit den neuen Methoden wird auch bei Nutztieren eine viel präzisere Züchtung möglich. Foto: Anzenberger

In der Pflanzenzucht kann man sich jetzt wieder züchterisch vernachlässigten Kulturarten zuwenden, da man sie mit großer Effizienz verbessern kann. Dies ist zum Beispiel beim Weizen der Fall, bei dem die Zucht eher stagniert hatte. Es entstehen zunehmend große Versuchsfelder, über denen Drohnen mit Kameras fliegen, die den Züchtern die Merkmalsaaten liefern, die sie dann mit der genetischen Analyse verbinden können, um die nächste Generation zu kreuzen. Damit lassen sich Zuchtvarianten generieren, die für die unterschiedlichsten Klima- und Bodenbedingungen geeignet sind.

A uch für den Menschen haben die neuen Erkenntnisse wesentliche Auswirkungen. Patienten sollen mit ihren Krankheiten nicht mehr nach Kategorien klassifiziert, sondern als Individuen betrachtet werden. Denn dadurch, dass viele kleine genetische Effekte in der Summe wichtiger sein können als wenige große Effekte, kann es zu Kompensationen kommen, die Krankheitsbilder völlig verändern. Gute Ärzte wissen das ohnehin, aber auch sie müssen mit jedem Patienten erst Erfahrungen sammeln, um ihn einschätzen zu können. Mit der genomischen Analyse wird eine personalisierte Medizin möglich, die viel schneller Rückschlüsse auf die Besonderheiten eines Patienten erlauben würde. Die Kosten dafür sind schon jetzt kaum höher als etwa für eine Computertomographie. Und sie werden weiter sinken. Es sind bereits große Studien in Gang, die unter anderem darauf abzielen, bereits bei jungen Menschen mögliche Alterserkrankungen zu erkennen, um diesen so früh wie möglich vorbeugen zu können.

Auch die Pharmaindustrie wird sich neu aufstellen müssen. Wenn bisher nach neuen Medikamenten gesucht wurde, dann wurden zunächst sogenannte Schlüsselgene identifiziert, für die anschließend nach chemischen Wirkstoffen gefahndet wurde. Aber wenn die Effekte der vermuteten Schlüsselgene durch viele andere Genvarainten aufgehoben werden können, funktioniert dieses milliardenschwere Modell der Entwicklung von Medikamenten nicht mehr. Hier wird man vieles neu denken müssen.

In der Pflanzenzucht spielt quantitative Genetik seit eh und je eine wichtige Rolle. Foto: Adobestock

Ebenfalls umdenken müssen Molekular- und Entwicklungsbiologen. Es ist jetzt klar, dass der Ansatz, bei dem man immer nur einzelne Gene in einem genetisch homogenen Modellsystem analysiert hat, begrenzt ist. Für die Frage, wie Gene in ihrem Kontext wirken, müssen neue experimentelle Ansätze entwickelt werden. Wie ist es möglich, dass Zehntausende Genvarianten, die in jeder Generation neu zusammengewürfelt werden, am Ende einen präzise funktionsfähigen Organismus hervorbringen? Es ist zu erwarten, dass wir fundamental neue Theorien benötigen, um diese Frage zu beantworten.

Nicht zuletzt stehen die Evolutionsbiologen vor einer neuen Herausforderung. Denn auch diese waren bisher sehr stark auf den Effekt einzelner Gene fokussiert, deren Dynamik modelliert und untersucht wurde. Viele der bisherigen Konzepte müssen jetzt auf das neue Modell umgestellt werden, insbesondere wenn es um Anpassungen an die Umwelt geht. Nur mit solchen Ansätzen wird sich zum Beispiel vorhersagen lassen, wie verschiedene Arten auf den Klimawandel reagieren werden.

Und letztlich muss auch die Gesellschaft als Ganzes umdenken. Die quantitative Genetik lehrt uns, dass es keine genetischen Kategorien gibt, sondern nur Normalverteilungen von Merkmalen. Unser Denken wird aber hauptsächlich von Kategorien geprägt. Zum Beispiel verstehen wir gut, wie die Kategorien „männlich“ und „weiblich“ durch die Verteilung der X- und Y-Chromosomen nach Mendelschen Regeln zustande kommen. Für die Ausprägung der daraus resultierenden Geschlechtsmerkmale und der sexuellen Orientierung ist jedoch die quantitative Genetik zuständig. Da gibt es nicht mehr nur die Kategorie Mann oder Frau, sondern subtile Merkmalsverteilungen und Übergänge. Diese sind ganz normal und entstehen in jeder Generation neu. Wenn in den Schulen schon immer quantitative Genetik gelehrt worden wäre, hielte das jeder für eine Selbstverständlichkeit.

Ein Google Rechenzentrum in den Vereinigten Staaten Foto: Google

Pioniere wie Mendel und Galton haben zwar nicht an der Geschlechtsbestimmung gearbeitet. Aber sie repräsentieren auf ihre Weise die beiden Denkweisen der kategorischen und der kontinuierlichen Vererbung. Diese schließen sich nicht einmal gegenseitig aus, sie sind nur von der Betrachtung her unterschiedlich, im Prinzip vergleichbar mit der bekannten Welle-Teilchen-Dichotomie bei der Betrachtung von Elektronen.

Quantitative Genetik beruht auf unfassbar großen Datensätzen. Genetiker sammeln derzeit mehr Daten als Google und Facebook zusammen. In England ist in den vergangenen Jahren eine sogenannte Biobank aufgebaut worden. Dort sind bereits für eine halbe Million Personen aus einem Querschnitt der Bevölkerung persönliche und genetische Datensätze hinterlegt, mit Hunderttausenden genetischen Varianten pro Person. In anonymisierter Form werden diese Daten Wissenschaftlern zugänglich gemacht, als wesentliche Quelle, um eine personalisierte Medizin zu entwickeln.

Bald wird es weltweit viele Millionen solcher Datensätze geben. Nicht nur für den Menschen, sondern auch für Zuchttiere und -pflanzen. Diese Daten können nur mit Methoden der Künstlichen Intelligenz analysiert werden. Dies wird unsere Welt und unser Denken viel nachhaltiger verändern als alle Schlagzeilen über Designerbabys. Noch ist vieles davon Grundlagenforschung. Die DNA-Tests, die derzeit schon angeboten werden, können bestenfalls als vorläufig bezeichnet werden. Aber die Zuverlässigkeit und die Anwendungsmöglichkeiten werden in den nächsten Jahren schnell steigen.

Diethard Tautz, geb. 1957, ist Direktor am Max-Planck-Institut für Evolutionsbiologie in Plön.