Realien: Materialien von Anton Hafner (KZU Bülach)

 

Logo

Klassische Sprachen
Latein, Griechisch
KZU


Quelle:

NZZ Ressort Literatur und Kunst, 21. Juli 2001, Nr. 167, Seite 71

 

Lesen, Schreiben, Redigieren

Das Jahrhundert des Gens - eine Epoche mit ungewisser Zukunft

Von Hans-Jörg Rheinberger

Das vergangene Jahrhundert war - auch - das des wissenschaftlichen Zugriffs auf das «menschliche Erbgut». Das neue hat im Zeichen des verstärkten technischen Eingriffs in das Genom begonnen. - Unter der Hand aber wandelt sich die wissenschaftliche Einschätzung des «Gens»; es wird bereits von «Postgenomics» gesprochen.

Der österreichische Physiker Ludwig Boltzmann zögerte nicht, aus «innerster Überzeugung» das 19. Jahrhundert als das Jahrhundert Darwins zu bezeichnen. Wenn wir einmal bei den Lebenswissenschaften bleiben wollen, so gibt es zweifellos gute Gründe, das darauf folgende 20. Jahrhundert mit Evelyn Fox Keller das «Jahrhundert des Gens» zu nennen. Es wurde im Jahre 1900 mit einem dreifachen Fanfarenstoss eingeleitet, der «Wiederentdeckung» der Mendel'schen Gesetze durch die Botaniker Hugo de Vries in Amsterdam, Carl Correns in Tübingen und Erich Tschermak in Wien. Das Jahrhundert fand schliesslich seine Apotheose im Sommer 2000 mit der überstürzten Verkündigung des Abschlusses des Human Genome Project in Washington.

Der Augustinerpater Gregor Mendel hatte seine «Versuche über Pflanzen-Hybriden» 1865 einem kleinen Verein von Freunden der Naturforschung im mährischen Brünn vorgetragen. Die Tragweite seiner Kreuzungsexperimente mit Erbsensorten blieb seinen wissenschaftlichen Zeitgenossen zunächst weitgehend verborgen. Die Biologen und Agrar-Experimentatoren des ausgehenden 19. Jahrhunderts liessen sich erst einmal 35 Jahre Zeit, um auf Mendels Befunde zurückzukommen. Mit Verspätung avancierten sie schliesslich zum Ausgangspunkt einer neuen Wissenschaft, die im Jahre 1906 durch den englischen Biologen William Bateson den Namen «Genetik» erhielt. Die Repräsentanten des staatlich geförderten und von den National Institutes of Health koordinierten Humangenom-Projekts sowie seines privaten, von Craig Venter geleiteten Celera-Gegenstücks hingegen annoncierten, von der Politik auf höchster Ebene sekundiert, auf ihrer Pressekonferenz im Juni des letzten Jahres ein Ereignis, das bei etwas näherem Hinsehen noch gar nicht stattgefunden hatte: die Totalsequenzierung des menschlichen Genoms.

Was 1900 mit einer Verzögerung von mindestens einer Wissenschaftergeneration begann, endete 2000 mit einer Antizipation. Und noch bevor die Genomforscher von heute eine gesicherte Gesamt-Nukleotidabfolge einer menschlichen DNA vorweisen können - man hat sich auf die euphemistische Sprachregelung geeinigt, es handle sich bei dem veröffentlichten Ergebnis um eine «Arbeitssequenz» -, reden die Protagonisten bereits von Postgenomics und von Proteomics. Ein gewisser Trend zur Beschleunigung, um nicht zu sagen zur Überstürzung, der Ereignisse ist nicht von der Hand zu weisen. Die virtuelle Präsenz der Wissenschaft in den Medien ist dabei, der immer noch eher ungeschliffenen Prosa der Laborwirklichkeit davonzulaufen. Letzterer wird aber insofern Rechnung getragen, als im gleichen Atemzug betont wird, dass man erst jetzt endlich anfangen könne, die wirklich interessanten Fragen zu stellen.

«ERBANLAGEN»

Wissenschaft ist ein revisionistisches Unternehmen, vielleicht das etablierte Vorstellungen verändernde Unternehmen par excellence. Das vergessen wir oft, wenn über Wissenschaft gesprochen und damit gesichertes Wissen gemeint wird. Was heute als wissenschaftliche Wahrheit zählt, ist in der Regel nicht die wissenschaftliche Wahrheit von morgen, aber jede Wahrheit von heute stellt sich zumeist und gerne immer wieder als die jeweils eine und ganze dar. Obwohl wir seit fast hundert Jahren mit dem Ausdruck «Gen» leben, sollten wir uns klar machen, wie sehr sich die Bedeutung des Begriffs in diesem Zeitraum verändert hat.

Als Wilhelm Johannsen 1909 den Ausdruck «Gen» in die Literatur einführte und damit Mendels Rede von «Faktoren» und die weit verbreitete Rede von den Erbanlagen ersetzte, prägte er nicht einfach ein neues Wort für einen alten Begriff. Erstmals fasste der dänische Botaniker scharf den kategorischen Unterschied zwischen Genotyp und Phänotyp, zwischen den genetischen Elementen eines Lebewesens und seinen körperlichen Eigenschaften, die durch die genetische Ausstattung hervorgerufen oder mitbedingt werden. Die Unterscheidung von Genotyp und Phänotyp war vielleicht die folgenreichste Unterscheidung, welche die Vererbungswissenschaft zu Beginn des 20. Jahrhunderts hervorbrachte, jedenfalls war sie es, die es ermöglichte, die Genetik als Wissenschaft sui generis zu begründen. Denn damit war eine Kategorie von Objekten konstituiert, die unter der Rechtsprechung eines besonderen Wissens standen: eben des von nun an so bezeichneten genetischen Wissens.

Noch 1950, zum fünfzigsten Jahrestag der Wiederentdeckung der Mendel'schen Gesetze, sprach der renommierte Strahlengenetiker Herman J. Muller von unserem «bodenlosen Unwissen» darüber, was ein Gen zu einem Gen mache. «Noch kennen wir solche Dinge in der Chemie nicht», konstatierte er lapidar. Drei Jahre später wurde mit der Identifizierung der DNA-Struktur durch Francis Crick und James Watson endgültig die Ära der Molekularbiologie eingeleitet. Wo es um Forschung geht, ist Voraussicht meist nicht einmal Insidern vergönnt. Die physikalische Chemie hatte die klassische Genetik eingeholt. Es folgte das «goldene Jahrzehnt» der molekularen Genetik. Im Verlauf von zehn Jahren wurden die für die Umsetzung der genetischen Information in der Zelle entscheidenden Moleküle identifiziert, wurde die Rolle der Ribosomen bei der Proteinbiosynthese aufgeklärt und schliesslich der genetische Code entschlüsselt.

Das sogenannte molekularbiologische Dogma brachte das neue, molekularbiologische Weltbild auf einen denkbar einfachen Begriff, der im Slogan zum Ausdruck kam: DNA macht RNA, RNA macht Protein. «Information» wurde zum neuen Catchword. Die Reduktion der Gene auf eine Molekülklasse, deren Struktur zugleich den Mechanismus ihrer Verdopplung nahelegte, beendete romantische Träume über eine eigentümliche Qualität des Lebens jenseits von Physik und Chemie ebenso wie (zunächst einmal) die nach dem Zweiten Weltkrieg verbreiteten, vom sowjetischen Agronomen Lyssenko inspirierten Träume von der umweltbedingten, gezielten und dauerhaften Veränderung von Organismen durch äussere Einflüsse. Die genetische Information, das war die Botschaft der neuen molekularen Biologen, floss von der DNA zu den Proteinen und keinesfalls umgekehrt: Sie gelangte vom Kern ins Zytoplasma, aber nicht aus der Zelle in den Kern. Die Grundvorgänge der Verdopplung, der Umschreibung und der Übersetzung genetischer Information erwiesen sich als gesteuert durch das all diesen Vorgängen zugrunde liegende, denkbar einfache stereochemische Prinzip der Basenkomplementarität von Nukleinsäuren.

In den 1970er Jahren vollzog sich dann der erste Schub der neuen Biologie ins Technologische. Die von der Zelle selbst zur Verfügung gestellten und von Molekularbiologen bald isolierten und gereinigten Restriktions- und Ligationsenzyme erwiesen sich als molekulare Scheren und Nadeln, mit denen sich «rekombinante» DNA-Moleküle herstellen liessen - molekulare Chimären, die in Bakterien nach Belieben vermehrt werden konnten. Erschreckt über die möglichen Risiken des neuen Verfahrens - nicht zuletzt für sie selbst - riefen die beteiligten Wissenschafter Mitte der 1970er Jahre zu einem Treffen nach Asilomar und zu einem Moratorium auf. Dieses wurde bald in Sicherheitsverordnungen und Gesetze zum Umgang mit rekombinantem Genmaterial und gentechnisch veränderten Organismen umgesetzt, die den in Gang gesetzten Prozess des «genetic engineering» begleiteten, aber nicht aufhielten.

METAPHERN

Neue, elegante Verfahren der Sequenzierung und der Synthese von DNA, der gezielten Mutagenese sowie der Amplifizierung geringster Mengen genetischen Ausgangsmaterials führten in den späten 1970er und frühen 1980er Jahren zu einer ersten Welle der Gründung gentechnologischer Unternehmen, in denen sich auch Grundlagenforscher zu engagieren begannen. Einer von ihnen ist David Jackson, tätig beim amerikanischen Pharmakonzern DuPont Merck, ein Schüler von Nobelpreisträger James Watson, Mitentdecker der DNA-Doppelhelix, und von Nobelpreisträger Paul Berg, Mitbegründer der rekombinanten DNA-Technologie. Jackson brachte die Situation in einer Festschrift zum 40-Jahr-Jubiläum der Doppelhelix auf den Punkt: «Ich möchte behaupten, dass die Fähigkeit, die DNA zu lesen, zu schreiben und zu redigieren, etwas in der bisherigen Geschichte der Menschheit nicht Dagewesenes darstellt. Alles, was wir vorher zu tun in der Lage waren, ist, zwischen verschiedenen Genkombinationen zu wählen, welche uns die Mechanismen der Genetik zuspielten. Und obwohl wir leistungsfähige und ausgeklügelte Selektionsverfahren entwickelt haben, ist doch die Auswahl zwischen einer Gruppe von Alternativen, über die man so gut wie keine Kontrolle hat, ganz und gar nicht zu vergleichen mit der Fähigkeit, seinen eigenen Text zu schreiben und zu bearbeiten.» Und er fügte hinzu: «Die Fähigkeit, DNA zu schreiben und zu edieren, ist die Grundlage für synthetische und kreative Möglichkeiten in der Biologie, die bisher nicht existiert haben.»

Diese Schrift- und Textmetaphern sind heute allesamt in leistungsfähigen Technologien implementiert: das Lesen als automatisierte DNA-Analyse; das Schreiben als automatisierte DNA-Synthese; das Kopieren als automatisierte Polymerase-Kettenreaktion; das Redigieren als gezieltes Verändern von Genabschnitten durch Punktmutation, Deletion, Inversion, Duplikation von Nukleotiden. Und es sind genau diese Technologien, die schliesslich die Erforschung von ganzen Genomen in Gang gesetzt haben. Was 1985 noch als utopisches Ziel einiger Träumer erscheinen konnte, nämlich die rund drei Milliarden Basenpaare des menschlichen Genoms insgesamt im Rahmen eines grossen, weltweiten Projektes zu sequenzieren, gilt heute, nur fünfzehn Jahre später, als im Wesentlichen abgeschlossen. Schon werden Projekte, denen die DNA-Datenbanken von ganzen Bevölkerungsgruppen, ja ganzen Staaten zugrunde liegen sollen, wie etwa in Island und jetzt auch in Estland, mit grossem Aufwand angeschoben.

Nach Heidegger ist der Beginn der Neuzeit durch einen radikalen Bruch gekennzeichnet. Der Grundvorgang dieses Bruchs ist die Eroberung der Welt als Bild, verstanden als «Gebild des vorstellenden Herstellens». Wie Heidegger in seinem Aufsatz über «Die Zeit des Weltbildes» auseinandersetzt, wird diese Eroberung ausgefochten als ein Kampf von Weltanschauungen, in welchem der Mensch die «uneingeschränkte Gewalt der Berechnung, der Planung und der Züchtung aller Dinge» ins Spiel setzt. Das Weltbild der molekularen Genetik unserer Tage, das sich in diese Weltanschauungen einordnet, beruht auf zwei machtvollen Bildkreisen oder, mit dem Freiburger Philosophen zu sprechen, Gebilden des vorstellenden Herstellens.

Der erste ist der soeben beschriebene Kreis von Schriftbildern und verkörpert sich im Slogan vom Genom als Text und als Information, als «Buch des Lebens». Seiner Geschichte hat die kürzlich verstorbene amerikanische Wissenschaftshistorikerin Lily Kay ihr letztes Buch gewidmet («Who Wrote the Book of Life? A History of the Genetic Code». Stanford University Press, 2000). Der zweite Bildkreis ist der von Genen als Elementen, als Grundeinheiten, die für jeweils eine bestimmte körperliche oder geistige Eigenschaft der Lebewesen zuständig sind. In ihrer populären Gestalt nimmt diese Zuständigkeit die Form einer isomorphen Abbildung an: ein Gen für dieses Merkmal, ein Gen für jenes, einschliesslich solcher Eigenschaften wie Fettleibigkeit, Homosexualität, Musikalität, Kriminalität, Intelligenz. Das Gen entspricht somit dem Ideal einer analytischen Erklärung von den Teilen her.

«POSTGENOMICS»

In ihrem Buch «Das Jahrhundert des Gens» (deutsch im Campus-Verlag, 2001) kommt Evelyn Fox Keller in diesem Zusammenhang immer wieder auf eine Diskrepanz zurück. Einerseits hat mit den gegenwärtigen Genomprojekten der Begriff des «Gens», das man zuweilen auch als das «Atom des Biologen» bezeichnet hat, einen neuen Gipfelpunkt der Popularität erreicht. Das Reden über «das Gen für» hat in den letzten zwei Jahrzehnten geradezu inflationäre Ausmasse angenommen. Auf der anderen Seite, so Keller, ist der Begriff dabei, sich als ein wissenschaftlich bedeutungsvolles und vor allem operationales Konzept gerade an der Stelle aufzulösen, wo die Wissenschafter ihre Arbeit tun: nämlich im Labor. Als Beispiel sei hier ein Mechanismus angeführt, der auf der Ebene der RNA-Transkripte angesiedelt ist und der als «Messenger-RNA-Editing» bezeichnet wird. Der Vorgang ist längst nicht mehr nur eine Kuriosität, die sich auf exotische Organismen wie Trypanosomen beschränkt. Dabei wird das ursprüngliche Transkript nicht nur zerschnitten und neu zusammengefügt wie beim Spleissen der Gene höherer Organismen, sondern es werden mit Hilfe verschiedener Leit-RNA-Moleküle und Enzyme einzelne Nukleotide systematisch ausgeschnitten und ersetzt, bevor die Boten-RNA zur Übersetzung gelangt. Damit geht die ursprüngliche Komplementarität zur DNA verloren, an der die RNA transkribiert wurde. - Was ist also ein Gen?

Auf der Ebene der Translation, beim letzten Schritt in der Umsetzung der genetischen Information von der DNA zum Protein, geht es mit den Problemen weiter. Hier gibt es zum Beispiel sogenannte «obligatorische» Verschiebungen des Leserasters. Wenn diese Sprünge im Ablesen der Boten-RNA bei der Proteinsynthese nicht erfolgen, entsteht ein nichtfunktionales Polypeptid. Schliesslich gibt es nicht nur ein Spleissen von RNA, sondern auch ein Spleissen von Proteinen: Das ursprüngliche Übersetzungsprodukt wird dabei zerschnitten und neu zusammengesetzt. Vor einigen Jahren wurde sogar ein Fall von sogenannter «Trans-Translation» bekannt, bei dem ein Protein auf der Basis zweier Messenger-RNA-Moleküle zusammengesetzt wird. Der französische Molekularbiologe François Gros hat in diesem Zusammenhang von der Explosion des Gens - «le gène éclaté» - gesprochen. Die therapeutische Schere, meint Keller, die sich heute zwischen dem Potenzial genetischer Diagnosen und der Dürftigkeit gentherapeutischer Ergebnisse auftut, lege eben Zeugnis ab für die Komplexität des dynamischen Regelwerkes, das sich zwischen die genetische Ausstattung eines Lebewesens und seine organismischen Äusserungen schiebt. Das Genom ist nach Keller selbst ein dynamisches Gebilde, das mit «epigenetischen» Mechanismen ebenso wechselwirkt wie mit den zeitlichen Schwingungen des Stoffwechsels und ontogenetischen Entwicklungsverläufen. Die Frage, was zuerst kommt, ergibt insofern nicht allzu viel Sinn. Keller sieht im Begriff des Gens heute eher ein Hemmnis für das Verständnis biologischer Zusammenhänge, mindestens aber ein Hemmnis für das Verständnis des Laien, den es jedenfalls ebenso oft irreführt, wie es ihn informiert.

In der Tat hat das Gen der heutigen Genomforschung nicht mehr viel gemein mit der abstrakten Entität Johannsens, ja nicht einmal mehr mit dem so schön einfachen Gen des molekularbiologischen Dogmas der 1950er Jahre. Auch wenn das Gen als Leitbegriff nicht aufgegeben zu werden braucht, so sollte es doch nicht nur unter Wissenschaftern bleiben, sondern es sollte auch in der öffentlichen Diskussion klargestellt werden, dass die Vorstellung der molekularen Genetik von den Einheiten der Vererbung hochkomplex geworden ist und dass es demnach auch keine einfachen Lösungen für komplex bedingte genetische Krankheiten geben wird. Dass man Bescheid weiss, wenn man nur die Sequenz hat, ist jedenfalls im engeren Kreis der Scientific Community kein oft gehörtes Argument mehr. Postgenomik, Proteomik sind die neuen Schlagwörter, die deutlich machen sollen, was besonnenen Biologen, auch Molekularbiologen, eigentlich immer schon klar war - dass der Teufel im Detail steckt.

Nun ist es nicht das erste Mal in der Geschichte der Biologie, dass Forscher proklamiert haben, die Zeit sei gekommen, um reduktionistische Sichtweisen endgültig zu überwinden und Leben sowie Lebewesen als Ganze in den Blick zu nehmen. Die romantische Naturforschung tat es mit der ganzen Emphase, die ihr gegen die Attitüde der «Zergliederung» zu Beginn des 19. Jahrhunderts zur Verfügung stand. Nach einem langen szientistischen Zwischenspiel waren einigen holistisch gesinnten Biologen zu Beginn des 20. Jahrhunderts die experimentelle Entwicklungsmechanik und die eben aus der Taufe gehobene Transmissionsgenetik der Dorn im Auge, den es zu ziehen galt. Das gerade angebrochene 21. Jahrhundert verspricht uns nun, mit der geballten Macht der Genomforschung über diese hinauszustreben, kaum dass die Genomik als solche massiv in Gang gekommen ist.

Evelyn Fox Keller lässt uns mit einem Gefühl der Aufregung, aber auch der Verantwortung gegenüber einem kommenden Jahrhundert biologischer Forschung zurück, von dem sie hofft, es werde auf ein erweitertes Verständnis der Dynamik der Individualentwicklung und der Evolution gerichtet sein. Wie wird man es dereinst nennen? Es soll auf ein Verständnis des Organismus in seiner Ganzheit verpflichtet sein, jenseits aller groben Reduktion auf einfache genetische Mechanistik. Das Ganze soll erneut in den Blick genommen werden. Die Ironie und vielleicht auch das Neue an der Geschichte bestehen diesmal darin, dass es ausgerechnet die offen reduktionistischen Strategien der klassischen Molekularbiologie und der aus ihr hervorgehenden Gentechnologie waren, die man heute als einen obligatorischen Durchgangspunkt ansehen kann auf dem Weg zu einer zukünftigen, vielleicht mehr systemischen Sichtweise. Keller ist davon überzeugt, dass Projekte wie das Humangenomprojekt - und andere gemeinschaftliche Sequenzierungsprojekte wie das zum Hefegenom und das erst kürzlich vollendete Arabidopsis-Projekt, das erste komplett sequenzierte Pflanzengenom - keineswegs die Hoffnung auf einfache Lösungen erfüllt haben, schon gar nicht die Hoffnung auf einfache Kuren für genetisch bedingte Krankheiten. Sie haben unsere Vorstellung von diesen angeblich einfachen Lösungen vielmehr völlig verändert und dabei das klassische genzentrierte Bild, das die Wissenschaft über einen Grossteil des vergangenen Jahrhunderts trug, massiv unterminiert.

DEMUT

Wir stehen heute an einem Punkt, so Keller, «wo der Erfolg uns Demut lehren» sollte. Wir wissen viel, aber wir verstehen immer noch wenig von den Komplexitäten der Entwicklung und Evolution. Man sollte es sich deswegen angelegen sein lassen, Phantasmen über zukünftige gezielte Eingriffe in das Erbgut nachfolgender Menschengenerationen keinen Vorschub zu leisten. Die langfristigen Folgen solcher Eingriffe - wenn sie denn technisch eines Tages möglich wären - sind nach allem, was wir heute über die Entwicklung und die Evolution von Lebewesen, insbesondere vom Homo sapiens, wissen, unabsehbar. Phantasien über Desktop-Engineering von Nachwuchs und die Züchtung neuer Menschenarten, wie sie etwa der Princeton-Physiker Freeman Dyson feilbietet, sind Ausdruck einer Haltung, die man nicht nur mit einem Kopfschütteln begleiten darf. Sie sind in ihrer ganzen Übertriebenheit nicht untypisch für die Geisteshaltung eines Teils der internationalen akademisch-ökonomischen Elite.

Es bleibt zu hoffen, dass Demut und nicht wissenschaftliche Überheblichkeit die Richtschnur für die Mehrzahl derjenigen sein wird - Grundlagenforscher, Gentechnologen, Unternehmer im neuen Biobusiness, nicht zuletzt die Bioethiker -, die die Genindustrie und die Genmedizin mit ihren guten Ratschlägen ins neue Jahrhundert begleiten. Worte wie diejenigen des Nobelpreisträgers James Watson - «Wenn wir nicht selbst Gott spielen, wer soll es denn sonst tun?» - gehören gewiss nicht zu den demütigen Äusserungen, die man sich von denen wünschen würde, die sich der genetischen Forschung verschrieben haben. Um es mit Erwin Chargaff zu sagen: «Gewisse Sachen tut man einfach nicht.» Die Grenzen, um die heute gerungen wird, sind nicht von den Wissenschaftern festzulegen. Sie kann und muss der Gesetzgeber ziehen.

 

 


Zurück zur Seite "Philosophie und Naturwissenschaften"

Zurück zur Seite "Texte zur Philosophie"

Zurück zur Seite "Arbeitsmaterial"