Wahrscheinlichkeit Null: Warum unser Genom nicht durch Zufall entstanden sein kann
Eine mathematische, informationstheoretische und philosophische Untersuchung des am leisesten akzeptierten Wunders der modernen Biologie
Wie wahrscheinlich halte ich es, dass unser Genom durch Zufall entstand? Jeder, der sich mal in die Genialität der Natur oder eines Organismus, nehmen wir den Menschen, hineinliest, es durch ein Studium vermittelt bekam, was er meist eh wieder vergessen hat, weiß was jetzt kommt. Wie wahrscheinlich ist es, dass es einfach so entstanden ist? Ich sage es Euch: es ist wissenschaftlich nicht tragbar, wissenschaftlich nicht begründbar, folglich logisch nicht möglich. Warum ist das so? Wie ist meine eigene Einstellung dazu?
Lasst mich Euch das sorgfältig durchgehen. Ich werde für ein paar Seiten Mathematiker sein, dann Philosoph, dann jemand, der versucht, so zu denken wie Einstein dachte, was bedeutet, dass man die bequeme Antwort nicht akzeptiert, nur weil sie die Konsensantwort ist. Der Konsens ist in Fragen des tiefsten Ursprungs biologischer Information falsch. Er ist nicht falsch, weil die Menschen, die ihn vertreten, dumm wären, sondern weil sie innerhalb eines Rahmens arbeiten, der die tatsächlichen Zahlen nicht aufnehmen kann. Und sobald man die Zahlen einmal gesehen hat, kann man sie nicht mehr ungesehen machen.
Ich werde meine Position gleich zu Beginn ausbreiten, damit niemand sich fragen muss, wohin das alles führt. Die Wahrscheinlichkeit, dass das menschliche Genom durch eine Folge zufälliger chemischer Ereignisse entstanden ist, mit oder ohne natürliche Selektion an den Zwischenstadien, ist so gering, dass sie keine Wahrscheinlichkeit mehr ist im sinnvollen Wortgebrauch. Sie ist mathematisch nicht von null zu unterscheiden. Die Frage, die sich daraus ergibt, lautet nicht mehr, ob das Leben einer Erklärung jenseits des Zufalls bedarf, sondern welche Art von Erklärung ehrlich genug ist, sich dem tatsächlichen Ausmaß dessen zu stellen, was erklärt werden muss.
Worüber wir tatsächlich sprechen
Das menschliche Genom besteht aus ungefähr 3,2 Milliarden Basenpaaren. Diese Zahl liest man in populärwissenschaftlichen Darstellungen, und sie ist korrekt, aber sie ist auch irreführend, weil die Zahl allein nicht vermittelt, was sie repräsentiert. Jede dieser 3,2 Milliarden Positionen ist durch eine von vier Nukleotidbasen besetzt: Adenin, Thymin, Guanin oder Cytosin. Vier Möglichkeiten an jeder Position. Die Anzahl möglicher unterschiedlicher DNA-Sequenzen der Länge 3,2 Milliarden ist daher vier hoch 3,2 Milliarden.
[math]N_{\text{Sequenzen}} = 4^{3{,}2 \times 10^9} approx 10^{1{,}9 \times 10^9}[/math]
Ich bitte Euch, einen Moment dabei zu verweilen, denn die meisten Menschen lesen über solche Zahlen hinweg, ohne zu erfassen, was sie tatsächlich bedeuten. Vier hoch 3,2 Milliarden ist, wenn man es in wissenschaftlicher Notation ausdrückt, ungefähr zehn hoch 1,9 Milliarden. Das ist eine Eins, gefolgt von 1,9 Milliarden Nullen. Wenn man sie auf Papier ausschreiben wollte, würde die Zahl selbst viele tausend Bücher füllen. Die Anzahl der Atome im beobachtbaren Universum ist erbärmliche zehn hoch 80, was bedeutet, dass der Suchraum möglicher menschlicher Genom-Sequenzen die Anzahl der Atome im Universum um einen Faktor von zehn hoch 1,9 Milliarden minus 80 übertrifft. Die 80 ist in diesem Vergleich vernachlässigbar klein. Wir sind nicht in derselben arithmetischen Gegend. Wir sind nicht einmal auf demselben arithmetischen Kontinent.
Von diesen vier-hoch-3,2-Milliarden möglichen Sequenzen würde die überwiegende Mehrheit für nichts Funktionales kodieren, würde keinen lebensfähigen Organismus produzieren, würde zu Proteinen führen, die sich falsch falten, ihre erforderlichen Funktionen nicht ausführen, oder den Organismus direkt töten. Die Anzahl der Sequenzen, die für einen funktionsfähigen Menschen kodieren würden, ist eine verschwindend kleine Teilmenge dieses astronomischen Suchraums. Wir wissen nicht genau, wie klein sie ist, weil wir die funktionalen Sequenzen nicht direkt aufzählen können, aber wir haben Messungen auf kleineren Skalen, die uns ein Gespür für die Seltenheit geben, und diese Messungen weisen alle in dieselbe Richtung.
Hier beginnt die Mathematik unsere Intuition zu zerschlagen, und hier verlieren die meisten Diskussionen über den Ursprung des Lebens den Mut und schwenken zu beruhigenden Vagheiten ab. Ich werde das nicht tun. Ich werde weiter pressen.
Ein einziges Protein: Douglas Axes Experiment
Douglas Axe, früher am Centre for Protein Engineering der Universität Cambridge, führte eine Reihe von Experimenten durch, die 2004 im Journal of Molecular Biology veröffentlicht wurden und die folgende Frage mit experimenteller Strenge angingen: Wie groß ist unter allen möglichen Aminosäuresequenzen einer gegebenen Länge der Anteil derjenigen, die sich tatsächlich zu einem funktionsfähigen Protein falten würden (Axe, D. D., 2004, Estimating the prevalence of protein sequences adopting functional enzyme folds, Journal of Molecular Biology, 341, 1295-1315)?
Axe konzentrierte sich auf einen 150 Aminosäuren langen Abschnitt des Enzyms Beta-Lactamase, ein Enzym, das Bakterien Antibiotikaresistenz verleiht. Mit einem verfeinerten Mutageneseverfahren produzierte er eine sorgfältige Schätzung des Verhältnisses zwischen Sequenzen, die eine stabile, funktionsfähige Faltung erzeugen, und der Gesamtmenge möglicher Aminosäuresequenzen dieser Länge. Seine Schätzung lag bei eins zu zehn hoch siebenundsiebzig.
[math]P_{\text{Protein}} = \frac{1}{10^{77}}[/math]
Lasst mich das in eine Sprache übersetzen, die ein Mensch im Kopf behalten kann. Von je zehn-hoch-siebenundsiebzig möglichen 150-Aminosäure-Sequenzen wird nur eine sich zu einem funktionsfähigen Protein falten. Die Anzahl der Sekunden in der gesamten Geschichte des Universums beträgt ungefähr zehn hoch siebzehn. Die Anzahl der Atome in unserer Galaxie beträgt ungefähr zehn hoch siebenundsechzig. Selbst wenn jedes Atom in unserer Galaxie jede Sekunde seit dem Urknall eine neue Aminosäuresequenz versuchen könnte, wäre die Gesamtzahl der Versuche immer noch um viele Größenordnungen geringer als nötig, um auch nur ein einziges funktionsfähiges Protein durch Zufall zu finden.
Und das ist für ein einziges 150 Aminosäuren langes Protein. Ein bescheidenes Protein. Ein repräsentatives Protein, kein ungewöhnlich langes oder komplexes. Der menschliche Körper enthält ungefähr einhunderttausend unterschiedliche Proteine (Ponomarenko, E. A., et al., 2016, The Size of the Human Proteome: The Width and Depth, International Journal of Analytical Chemistry, 7436849), von denen jedes seine eigene gefaltete Struktur, seine eigene Funktion, seine eigene Rolle im größeren System hat. Jedes einzelne dieser Proteine ist nach Axes Zahlen ein Eins-zu-zehn-hoch-siebenundsiebzig-Treffer. Die Wahrscheinlichkeit, dass alle zusammen durch Zufall entstanden, ist das Produkt all dieser Wahrscheinlichkeiten, was uns eine Zahl liefert, die so klein ist, dass ich mir die Mühe nicht machen werde, sie auszuschreiben. Die mathematische Konvention für solche Zahlen ist, sie effektiv null zu nennen.
Es gibt Kritiker von Axes spezifischen Zahlen, und die Diskussion über seine Methodik läuft seit zwei Jahrzehnten. Manche argumentieren, die Seltenheit sei nicht so extrem wie er berechnete, dass es Cluster funktionaler Sequenzen im Suchraum gebe, durch die zufällige Mutation navigieren könnte. Die Debatte ist technisch, und ich tue nicht so, als sei sie entschieden. Aber hier ist der Punkt, der in den Technikalitäten verloren geht: Selbst wenn Axe um einen Faktor von zehn hoch zwanzig daneben liegt, selbst wenn die tatsächliche Seltenheit zehn hoch siebenundfünfzig beträgt, sind wir immer noch in einem Regime, in dem der Zufall die geforderte Arbeit nicht leisten kann. Die Zahl um zwanzig Größenordnungen zu senken, rettet die Zufallshypothese nicht. Es verschiebt das Argument von unmöglich zu unmöglich, nur auf einer leicht anderen Skala.
Eine einzige Zelle: Hoyles Berechnung
Sir Fred Hoyle, der Oxforder Astrophysiker, war kein Freund des religiösen Kreationismus. Er war ein Atheist, der zufällig Arithmetik betrieb. In seinem 1982 zusammen mit dem Astrophysiker N. C. Wickramasinghe verfassten Werk berechnete Hoyle die Wahrscheinlichkeit, dass eine vollständige Garnitur von ungefähr zweitausend funktionalen Enzymen, das Minimum, das für eine selbsterhaltende Zelle erforderlich ist, gleichzeitig durch zufällige chemische Prozesse entsteht (Hoyle, F., und Wickramasinghe, N. C., 1982, Evolution from Space: A Theory of Cosmic Creationism, Simon and Schuster). Sein Ergebnis war eins zu zehn hoch vierzigtausend.
[math]P_{\text{Hoyle}} = \frac{1}{10^{40{,}000}}[/math]
Die Zahl vierzigtausend ist hier keine rhetorische Übertreibung. Es ist der tatsächliche Exponent. Eins gefolgt von vierzigtausend Nullen. Die Schwelle, unterhalb derer Mathematiker traditionell ein Ereignis innerhalb der Grenzen des beobachtbaren Universums als unmöglich betrachten, ist zehn hoch minus fünfzig. Hoyles Berechnung setzt die spontane Entstehung selbst der einfachsten Zelle vierzigtausend Größenordnungen unterhalb dieser Schwelle an.
Hoyle, der Atheist, zog die Schlussfolgerung, die ein vernünftiger Mensch aus einer solchen Zahl ziehen würde. Er schrieb, dass jeder, der die Berechnung direkt verfolgt, ohne sich von der Furcht vor dem Zorn der wissenschaftlichen Meinung ablenken zu lassen, schließen muss, dass die in biologischen Materialien beobachtete Ordnung das Ergebnis intelligenten Designs ist. Dieses Wort, Design, ist in dieser Debatte ein aufgeladenes Wort, und Hoyles Verwendung wurde seither von religiösen Kreationisten aufgegriffen. Aber Hoyle plädierte nicht für irgendeinen Gott. Er plädierte für die Schlussfolgerung, zu der die Mathematik zwingt. Die Schlussfolgerung war, dass etwas, das Information verarbeitet, etwas, das aus einem riesigen Möglichkeitsraum auswählt, erforderlich war, um das hervorzubringen, was wir beobachten.
Harold Morowitz an der Yale University führte eine verwandte Berechnung durch, die ein noch verheerenderes Ergebnis lieferte. Er fragte: Wenn man eine große Menge Bakterien nähme, jede chemische Bindung in ihnen bräche und dann den Atomen erlaubte, abzukühlen und neue Bindungen im Gleichgewicht zu bilden, wie hoch ist die Wahrscheinlichkeit, dass am Ende ein lebendes Bakterium entsteht? Seine Antwort war eins zu zehn hoch einhundert Milliarden (Morowitz, H. J., 1968, Energy Flow in Biology, Academic Press). Einhundert Milliarden ist der Exponent. Selbst die Aussprache dieser Zahl erfordert ein spezielles Vokabular, weil die menschliche Sprache nicht für diese Skalen gebaut wurde.
[math]P_{\text{Morowitz}} = \frac{1}{10^{10^{11}}}[/math]
Murray Eden am MIT berechnete die Wahrscheinlichkeit, funktionale Polypeptidsequenzen durch Zufallsversuch zu produzieren, mit eins zu zehn hoch dreihundertdreizehn (Eden, M., 1967, Inadequacies of neo-Darwinian evolution as a scientific theory, in Mathematical Challenges to the Neo-Darwinian Interpretation of Evolution, Wistar Institute Press). Andere Methodik, andere Ausgangsannahmen, dieselbe Schlussfolgerung. Die Zahlen unabhängiger Untersucher konvergieren auf ein Verdikt, dass die Zufallshypothese das Beobachtete nicht erklären kann.
Die Levinthal-Falle: Selbst die Faltung ist ein Paradox
Hier ist etwas, das die meisten Menschen nicht wissen, selbst die meisten Biologiestudenten wissen es nicht, weil die Lehrbücher darüber hinweggehen. Selbst nachdem ein Protein die korrekte Aminosäuresequenz hat, muss sich das Protein noch in die korrekte dreidimensionale Form falten, um zu funktionieren. Und die Faltung selbst ist auf den ersten Blick ein Paradox.
Cyrus Levinthal wies 1969 darauf hin (Levinthal, C., 1969, How to Fold Graciously, in Mossbauer Spectroscopy in Biological Systems, University of Illinois Press). Bei einem typischen Protein von etwa 150 Aminosäuren kann jede Aminosäure mehrere unterschiedliche Rotationspositionen einnehmen, was bedeutet, dass das Protein ungefähr zehn hoch dreihundert mögliche Konformationen hat. Wenn ein Protein seine korrekte Faltung dadurch finden würde, dass es Konformationen zufällig in der Geschwindigkeit der atomaren Bewegung ausprobiert, würde die Zeit, die zum Durchsuchen auch nur eines kleinen Bruchteils dieser Konformationen erforderlich wäre, das Alter des Universums um viele Größenordnungen übersteigen.
Und dennoch falten sich Proteine. Sie falten sich schnell, in Millisekunden bis Sekunden, in genau die Konformation, die für ihre Funktion erforderlich ist. Die Auflösung des Levinthal-Paradoxons, wie sie über die nachfolgenden Jahrzehnte herausgearbeitet wurde, ist, dass Proteine sich nicht durch zufällige Suche falten. Sie falten sich entlang einer Energielandschaft, die sie zur korrekten Konformation hin lenkt. Die Aminosäuresequenz selbst kodiert nicht nur die endgültige Struktur, sondern den Weg zu dieser Struktur. Die Faltung wird durch Physik geleitet, aber die Physik, die sie leitet, ist exquisit auf die spezifische Sequenz abgestimmt, auf eine Weise, wie es zufällige Sequenzen nicht wären.
Die Implikation ist tiefgreifend und wird fast nie ausgesprochen. Damit ein Protein sich richtig faltet, muss die Aminosäuresequenz so beschaffen sein, dass die Energielandschaft es trichterförmig in die korrekte Konformation leitet. Die meisten zufälligen Sequenzen würden diese Eigenschaft nicht haben. Sie würden sich entweder gar nicht falten, sich in mehrere Konformationen falten, von denen keine funktional ist, oder sich in kinetische Fallen falten, aus denen sie nie wieder entkommen. Der Anteil von Aminosäuresequenzen, die gleichzeitig für ein funktionsfähiges Protein kodieren und sich zuverlässig in die korrekte Konformation falten, ist eine kleine Teilmenge des bereits astronomisch kleinen Anteils von Sequenzen, die im Prinzip für ein funktionsfähiges Protein kodieren könnten.
Die Zufallshypothese muss nicht nur die Existenz funktionaler Sequenzen erklären, sondern die Existenz funktionaler Sequenzen, deren Physik sie zudem entlang einer Energielandschaft, die nicht in nicht-funktionalen Zwischenstufen hängenbleibt, zu ihren funktionalen Konformationen führt. Das ist eine sich aufmultiplizierende Anforderung. Sie addiert sich nicht zur Unwahrscheinlichkeit, sie multipliziert sie.
Das Interaktom: Proteine müssen zusammenarbeiten
Angenommen, großzügig, man hätte jedes oben genannte Problem gelöst. Angenommen, jedes Protein in einer Zelle wäre durch Zufall mit der richtigen Sequenz und dem richtigen Faltungsverhalten entstanden. Man hätte immer noch nichts, weil einzelne Proteine kein Leben darstellen. Leben verlangt, dass Proteine in hochspezifischer Weise miteinander interagieren, dass Signalkaskaden in der korrekten Reihenfolge ablaufen, dass Stoffwechselwege ohne Engpässe oder Sackgassen fließen, dass regulatorische Netzwerke auf Umweltbedingungen mit angemessenem Timing reagieren.
Das Interaktom, die Menge aller Protein-Protein-Interaktionen in einer Zelle, ist selbst ein Problem auf Levinthal-Skala. McLeish und Kollegen untersuchten in einer 2012 in HFSP Journal erschienenen Arbeit den kombinatorischen Maßstab der Selbstassemblierung der Proteinkomponenten einer Hefezelle und kamen zu dem Schluss, dass die Anzahl möglicher nichtfunktionaler Konfigurationen die Anzahl funktionaler Konfigurationen weit übersteigt, und dass das funktionale Interaktom nur durch eine iterative hierarchische Zusammenfügung vorbestehender Untereinheiten entstehen konnte, niemals durch zufällige Aggregation (McLeish, T. C. B., Cann, M. J., und Rodgers, T. L., 2012, The Levinthal paradox of the interactome, HFSP Journal, 6, 1-3).
Was das in praktischer Sprache bedeutet, ist, dass die Zelle als funktionierendes System sich nicht Komponente für Komponente zusammenfügte, mit jeder Komponente, die unabhängig auf irgendeine lokale Funktion selektiert wurde, bevor das Ganze aufgebaut wurde. Die Zelle erfordert vielmehr die gleichzeitige Anwesenheit einer großen Anzahl funktionierender Komponenten, die in einer bestimmten Beziehung zueinander angeordnet sind, um überhaupt eine Zelle zu sein. Es gibt keine Halb-Zelle, die die Hälfte der Funktion verleiht. Es gibt eine Zelle oder es gibt keine Zelle.
Die Implikationen für die Zufallshypothese sind entscheidend. Selbst wenn zufällige Chemie alle notwendigen Proteine produzieren könnte, müssen die Proteine zusätzlich auf genau die richtige Weise interagieren, um zelluläre Funktion zu unterstützen. Das Durchmultiplizieren der Wahrscheinlichkeiten drückt das Ergebnis tiefer in die mathematische Unmöglichkeit, um zusätzliche Größenordnungen, die selbst astronomisch sind.
Die verborgene Tiefe des Genoms: Alternatives Splicing
Als der erste Entwurf des menschlichen Genoms 2001 veröffentlicht wurde, waren die Wissenschaftler erschüttert von der Entdeckung, dass Menschen nur ungefähr zwanzigtausend bis dreiundzwanzigtausend proteinkodierende Gene besitzen (International Human Genome Sequencing Consortium, 2001, Initial sequencing and analysis of the human genome, Nature, 409, 860-921). Zum Vergleich: Der Fadenwurm Caenorhabditis elegans, ein Organismus, der so einfach ist, dass er im Wesentlichen eine Röhre mit Neuronen ist, hat ungefähr zwanzigtausend Gene. Dieselbe Zahl, plus oder minus. Wie konnte der Mensch mit all seiner Komplexität mit derselben Anzahl Gene wie ein Wurm auskommen?
Die Antwort, die in den letzten beiden Jahrzehnten klarer geworden ist, lautet: Das menschliche Genom macht mit jedem Gen enorm viel mehr als das Wurmgenom. Der Mechanismus heißt alternatives Splicing. Ein typisches menschliches Gen besteht aus mehreren kodierenden Bereichen, sogenannten Exons, getrennt durch nichtkodierende Bereiche, sogenannte Introns. Wenn ein Gen transkribiert wird, werden die Introns entfernt, und die Exons werden zur messenger-RNA verbunden, die für das Protein kodiert. Aber die Zelle kann je nach Kontext wählen, welche Exons sie einschließt und welche sie weglässt. Ein Gen mit sieben Exons kann viele unterschiedliche Proteine produzieren, indem es die Exons eins bis fünf einschließt, oder eins und drei bis sieben, oder zwei bis sechs, und so weiter.
Ungefähr neunzig bis fünfundneunzig Prozent der menschlichen Gene unterliegen alternativem Splicing (Wang, E. T., et al., 2008, Alternative isoform regulation in human tissue transcriptomes, Nature, 456, 470-476). Das Ergebnis ist, dass der menschliche Körper aus zwanzigtausend Genen weit mehr als einhunderttausend unterschiedliche Proteinisoformen produziert (Ponomarenko et al., 2016). Manche Schätzungen gehen höher. Die genaue Zahl ist unsicher, aber die Größenordnung ist klar. Das Genom kodiert nicht nur eine Menge von Proteinen, sondern ein System zur kombinatorischen Erzeugung von Proteinen aus modularen Komponenten, wobei die Wahl der Kombination vom zellulären Zustand, dem Entwicklungsstadium und dem Umweltkontext abhängt.
Das bedeutet, dass das Genom kein statischer Bauplan ist. Es ist eine generative Grammatik. Es spezifiziert keine feste Menge von Produkten; es spezifiziert ein System, das verschiedene Produkte unter verschiedenen Bedingungen produziert. Eine solche generative Grammatik durch Zufall zusammenzustellen erfordert nicht nur, auf funktionierende Proteinsequenzen zu stoßen, sondern auf ein kombinatorisches System zu stoßen, in dem die Sequenzen umgemischt werden können, um eine kohärente Vielfalt funktionierender Proteine zu erzeugen, von denen jedes für seine spezifische Verwendung geeignet ist.
Ich werde mir nicht die Mühe machen, eine Wahrscheinlichkeitszahl darauf zu setzen. Die Zahl wäre so weit unterhalb dessen, was wir bereits als effektiv null etabliert haben, dass sie ein bedeutungsloses Ornament wäre. Der Punkt ist, dass das Genom mehrere Komplexitätsgrößenordnungen jenseits dessen liegt, was die bisherigen Zufallsberechnungen ohnehin schon zu konfrontieren hatten.
Die epigenetische Schicht: Über dem Code
Über dem genetischen Code liegt der epigenetische Code. Das epigenetische System besteht aus chemischen Modifikationen der DNA und der Histon-Proteine, um die die DNA gewickelt ist, Modifikationen, die kontrollieren, welche Gene wann, wo und in welcher Rate exprimiert werden. DNA-Methylierung, Histon-Acetylierung, Histon-Methylierung, Histon-Phosphorylierung und Dutzende anderer chemischer Modifikationen interagieren in komplexen Mustern, um zu bestimmen, welche Teile des Genoms in welchen Zellen zu welchen Zeiten gelesen werden.
Dieses System ist nicht in der DNA-Sequenz selbst kodiert. Es ist über die Sequenz gelegt, wird über Zellteilungen hinweg durch spezifische molekulare Maschinerie übertragen und wird durch Umwelt- und Entwicklungssignale modifiziert. Der epigenetische Zustand einer Stammzelle unterscheidet sich vom epigenetischen Zustand eines Neurons, obwohl die zugrundeliegende DNA-Sequenz identisch ist. Der epigenetische Zustand bestimmt, welche Proteine produziert werden, und welche Proteine produziert werden, bestimmt, welche Art von Zelle man ist.
Die epigenetische Schicht ist selbst ein Code, mit eigener Grammatik, eigenen Lesern, Schreibern und Löschern, eigener kombinatorischer Logik. Aktuelle Arbeiten haben gezeigt, dass das Epigenom mit dem alternativen Splicing interagiert, wobei die Histon-Modifikationen beeinflussen, welche Exons in der gespleißten messenger-RNA eingeschlossen oder ausgeschlossen werden (Luco, R. F., et al., 2010, Regulation of alternative splicing by histone modifications, Science, 327, 996-1000). Das bedeutet, es gibt nicht einen Code in der Zelle. Es gibt mindestens zwei, geschichtet, interagierend, und jeder so komplex wie der andere.
Einen funktionierenden Organismus durch Zufall zu produzieren bedeutet nicht, einen einzelnen Bauplan zu produzieren. Es bedeutet, zwei interagierende Codes zu produzieren, plus ein System zur kombinatorischen Erzeugung von Proteinen aus modularen Komponenten, plus ein System, das sicherstellt, dass diese Proteine sich richtig falten, plus ein System, das sicherstellt, dass diese Proteine richtig interagieren, plus ein System, das all dies treu über Zellteilungen und Generationen hindurch propagiert, das alles muss von der allerersten Instanz an funktionieren, weil es kein halb-funktionales Zwischenstadium gibt, das irgendeinen Überlebensvorteil verleiht.
Die dreidimensionale Stadt: Chromatin-Organisation
Wenn das Epigenom nicht genug wäre, gibt es noch eine weitere Schicht, die erst im letzten Jahrzehnt sichtbar geworden ist. Die DNA in einer Zelle ist kein linearer Strang. Sie ist im Inneren des Zellkerns dreidimensional gefaltet, und die Faltung ist nicht zufällig. Spezifische Regionen des Genoms werden in physische Nähe zu anderen spezifischen Regionen gebracht, selbst wenn diese Regionen auf der linearen Sequenz weit voneinander entfernt sind, um regulatorische Interaktionen zu ermöglichen. Die dreidimensionale Architektur des Genoms ist selbst funktional, und Störungen ihrer Architektur verursachen Krankheiten (Dekker, J., et al., 2017, The 4D nucleome project, Nature, 549, 219-226).
Die Chromatin-Organisation umfasst Strukturen, die topologisch assoziierende Domänen, Super-Enhancer, Chromatinschleifen und Chromosomenterritorien genannt werden. Jedes davon ist ein strukturelles Merkmal, dessen Existenz von spezifischer Proteinmaschinerie abhängt, die spezifische Sequenzen erkennt und sie in spezifische räumliche Beziehungen bringt. Die Faltung ist dynamisch, sie verändert sich während des Zellzyklus, während der Entwicklung und als Reaktion auf Signale.
Was das bedeutet, ist, dass das Genom nicht nur ein Informationsspeichergerät mit einem Code ist. Es ist ein vierdimensionales Informationssystem, wobei die vierte Dimension die Zeit ist, in dem die Struktur des Speichers selbst Information darüber kodiert, wie der gespeicherte Inhalt zu nutzen ist. Die Architektur des Systems ist Teil seiner Funktion.
Ich sage es noch einmal, klar und deutlich. Um durch Zufall eine funktionsfähige menschliche Zelle zu produzieren, muss man durch Zufall produzieren: eine 3,2-Milliarden-Basenpaar-Sequenz mit ausreichendem funktionalen Inhalt, um zelluläres Leben zu unterstützen, eine Menge von ungefähr einhunderttausend funktionalen Proteinisoformen, deren Faltungswege auf funktionale Konformationen voreingenommen sind, ein kombinatorisches Splicing-System, das diese Isoformen aus modularen Komponenten erzeugt, einen epigenetischen Code, der bestimmt, welche Gene in welchen Kontexten exprimiert werden, eine dreidimensionale Chromatin-Architektur, die die richtigen regulatorischen Elemente in die richtigen physischen Beziehungen zur richtigen Zeit bringt, und ein System, das all dies mit hoher Treue über Zellteilungen und Generationen hindurch propagiert.
Die Wahrscheinlichkeit, all dies durch zufällige Chemie zu produzieren, selbst wenn man das gesamte Alter des Universums zur Verfügung hat und jedes Atom der Materie als möglicher Standort eines chemischen Experiments, das alle Planck-Zeit läuft, ist so weit unter mathematischer Unmöglichkeit, dass das Wort Unmöglichkeit selbst zu großzügig wird. Es gibt keine Chance dafür. Es gab nie eine Chance dafür. Die Hypothese, dass dies geschehen sei, ist keine Hypothese. Sie ist eine Stipulation, die aus nicht-empirischen Gründen aufrechterhalten wird, und die nicht-empirischen Gründe sind selbst der Untersuchung wert.
Was die Evolution nicht beantworten kann
Die Standardantwort auf alles, was ich gerade geschrieben habe, lautet, die Evolution durch natürliche Selektion erledige das. Zufällige Mutation liefere Variation, natürliche Selektion behalte nützliche Varianten, und über tiefe Zeit akkumuliere das Genom allmählich die Komplexität, die wir beobachten. Das Argument hat eine lange Geschichte und viel kulturelle Autorität. Es ist in diesem Kontext auch ein Kategorienfehler.
Natürliche Selektion wirkt auf existierende Replikatoren. Sie kann nicht wirken, bevor es einen Replikator gibt. Die gesamte Maschinerie aus Mutation, Selektion und Vererbung setzt ein selbstreplizierendes System voraus, das bereits die Fähigkeit besitzt, Information zu kopieren, nützliche Varianten zu behalten und sie weiterzugeben. Bis diese Maschinerie existiert, gibt es keine Selektion. Es gibt nur Chemie. Und Chemie für sich allein ist kein Selektionsmechanismus. Es ist eine Menge physikalischer Prozesse, die sich in Richtung thermodynamisches Gleichgewicht bewegen, was das Gegenteil dessen ist, was Leben verlangt.
Das minimale selbstreplizierende System ist nach den besten aktuellen Belegen die Art von Organismus, den die 2024er-Studie von Moody et al. als den letzten gemeinsamen Vorfahren, oder LUCA, identifizierte (Moody, E. R. R., et al., 2024, The nature of the last universal common ancestor and its impact on the early Earth system, Nature Ecology and Evolution, 8, 1654-1666). LUCA hatte ein Genom von mindestens 2,5 Megabasen, kodierte ungefähr 2.600 Proteine und besaß ein funktionales Immunsystem. Das ist kein primitives Zwischenstadium. Das ist ein voll ausgeformter zellulärer Organismus mit einem Komplexitätsniveau, das dem moderner Bakterien vergleichbar ist.
Damit die natürliche Selektion zu wirken beginnen kann, musste LUCA existieren. LUCAs Existenz kann nicht durch natürliche Selektion erklärt werden, weil natürliche Selektion verlangt, dass LUCA, oder etwas mindestens ebenso Komplexes, bereits läuft. Das ist keine kleine Technikalität. Es ist die fundamentale Lücke in der Zufall-plus-Selektion-Erzählung des Lebens, und es ist eine Lücke, die durch keine zusätzliche Evolutionsbiologie gefüllt werden kann, weil Evolutionsbiologie nachgelagert von der Lücke operiert.
Manche haben vorgeschlagen, dass einfachere Selbstreplikatoren, RNA-basiert oder andere, vor LUCA existierten. Die RNA-Welt-Hypothese postuliert ein Stadium, in dem replizierende RNA-Moleküle existierten, bevor das aufwendigere DNA-Protein-System etabliert wurde. Das ist interessant und mag teilweise korrekt sein, aber es löst das Problem nicht. Es schiebt das Problem eine Ebene zurück. Jetzt müssen wir erklären, wie ein selbstreplizierendes RNA-Molekül durch Zufall entstand. RNA-Moleküle, die zur Selbstreplikation fähig sind, sind selbst komplex. Sie erfordern spezifische Sequenzen, und die Berechnungen von Keefe und Szostak im Jahr 2001 zeigten, dass das Auffinden auch nur eines ATP-bindenden RNA in einem zufälligen Sequenzraum die Stichprobennahme von in der Größenordnung von zehn hoch elf Sequenzen erfordert (Keefe, A. D., und Szostak, J. W., 2001, Functional proteins from a random-sequence library, Nature, 410, 715-718). Und ATP-Bindung ist eine einzelne, einfache Funktion. Eine selbstreplizierende RNA ist enorm anspruchsvoller.
Jeder Schritt der Regression stößt auf dieselbe Wand. Es gibt keine Version der Zufall-plus-Selektion-Erzählung, die den Ursprung des ersten selbstreplizierenden Systems erklärt, weil jedes selbstreplizierende System, das wir kennen oder uns plausibel vorstellen können, selbst zu komplex ist, um in der verfügbaren Zeit durch Zufall zu entstehen.
Der Trugschluss der tiefen Zeit
Ich möchte direkt auf die häufigste Erwiderung eingehen, die ich höre, wenn ich dieses Argument vorbringe: dass die verfügbare Zeit so umfangreich sei, dass selbst sehr unwahrscheinliche Ereignisse wahrscheinlich werden. Das ist ein Trugschluss, ein klarer, aber er wird so weit verbreitet wiederholt, dass er eine sorgfältige Widerlegung verdient.
Das Alter des Universums beträgt ungefähr vierzehn Milliarden Jahre, was ungefähr vier mal zehn hoch siebzehn Sekunden sind. Das Alter der Erde beträgt ungefähr 4,5 Milliarden Jahre, was ungefähr zehn hoch siebzehn Sekunden sind. Was auch immer Ihr bevorzugt, die verfügbare Zeit liegt in der Größenordnung von zehn hoch siebzehn Sekunden. Wie viele Versuche kann man in diese Zeit packen? Wenn wir annehmen, dass jedes Atom im beobachtbaren Universum, zehn hoch achtzig Atome, ein chemisches Experiment pro Planck-Zeit durchführt, zehn hoch dreiundvierzig pro Sekunde, beträgt die Gesamtzahl der seit Beginn des Universums verfügbaren Versuche ungefähr zehn hoch achtzig, mal zehn hoch dreiundvierzig, mal zehn hoch siebzehn, was zehn hoch einhundertvierzig ergibt.
Das ist eine großzügige Überschätzung, weil nicht jedes Atom jede Planck-Zeit in Chemie engagiert ist und das Universum für die meiste Zeit seiner Geschichte nicht in einem für biologische Chemie geeigneten Zustand war. Aber selbst mit dieser absurd großzügigen Zahl haben wir zehn hoch einhundertvierzig Versuche zur Verfügung. Die Wahrscheinlichkeit eines einzelnen funktionalen Proteins ist nach Axes Zahl eins zu zehn hoch siebenundsiebzig. So weit, so gut, wir haben prinzipiell genug Versuche, um ein solches Protein zu produzieren.
Aber wir brauchen nicht ein Protein. Wir brauchen die gleichzeitige Anwesenheit vieler Proteine, von denen jedes seinen eigenen zehn-hoch-siebenundsiebzig-Suchraum durch den Sequenzraum erfordert, von denen jedes überdies sich richtig falten und mit den anderen richtig interagieren muss. Die kombinierte Wahrscheinlichkeit ist nicht zehn hoch siebenundsiebzig mal die Anzahl der Proteine. Sie ist zehn hoch siebenundsiebzig hoch der Anzahl der Proteine. Bei nur einhundert Proteinen ist die kombinierte Wahrscheinlichkeit zehn hoch siebentausendsiebenhundert. Wir haben zehn hoch einhundertvierzig Versuche zur Verfügung, und wir brauchen zehn hoch siebentausendsiebenhundert Versuche, um eine vernünftige Chance zu haben. Wir liegen um zehn hoch siebentausendfünfhundertsechzig daneben.
Tiefe Zeit ist nicht unendliche Zeit. Die Zahlen, mit denen wir es zu tun haben, überwältigen jede plausible Zeitspanne und jede plausible Anzahl von Versuchsstandorten in der gesamten Geschichte des Universums. Das Universum, so groß und alt es ist, ist endlich. Die relevanten Wahrscheinlichkeiten sind es nicht.
Information kann nicht aus Rauschen entstehen
Ich möchte jetzt einen Schritt zurücktreten von den spezifischen Berechnungen und die tiefere philosophische Frage ansprechen, denn die philosophische Frage ist in mancher Hinsicht fundamentaler als die Arithmetik. Die Arithmetik zeigt lediglich, dass der Zufall versagt. Die Philosophie zeigt, warum der Zufall versagen muss, unabhängig von den spezifischen Zahlen.
Information im technischen Sinne ist ein Maß dafür, wie sehr eine Botschaft die Unsicherheit darüber reduziert, welche von mehreren möglichen Botschaften gesendet wurde. Eine zufällige Sequenz trägt keine Information, weil jede zufällige Sequenz so wahrscheinlich ist wie jede andere, und das Beobachten einer Sequenz daher nichts darüber aussagt, welche aus dem Möglichkeitsraum ausgewählt wurde. Eine nicht-zufällige Sequenz trägt Information, weil die Abweichung von der Zufälligkeit, die statistische Signatur der Selektion, einem mitteilt, dass irgendein Prozess diese Sequenz statt einer anderen ausgewählt hat.
Das Genom ist eine nicht-zufällige Sequenz. Seine Nichtzufälligkeit ist nicht subtil. Sie ist hochspezifisch, hochstrukturiert, hierarchisch organisiert und funktional integriert. Die statistische Signatur des Genoms ist nicht die Signatur eines zufälligen Prozesses, der auf chemischen Bausteinen operiert. Es ist die Signatur eines Prozesses, der diese Sequenz aus einem astronomischen Möglichkeitsraum auswählte.
Hier ist nun der philosophische Punkt. Ein zufälliger Prozess kann keine Information produzieren. Das ist keine kontingente Beobachtung. Es ist eine definitorische Wahrheit. Ein zufälliger Prozess ist per Definition einer, der unter den Möglichkeiten nicht bevorzugt auswählt. Wenn ein Prozess bevorzugt auswählt, ist er nicht zufällig; wenn er nicht bevorzugt auswählt, kann er keine Nichtzufälligkeit produzieren. Die Information im Genom muss daher aus einer nichtzufälligen Quelle kommen. Natürliche Selektion ist nichtzufällig und ist daher eine mögliche Quelle. Aber natürliche Selektion erfordert die vorherige Existenz eines selbstreplizierenden Systems, wie wir bereits etabliert haben. Bevor dieses System existierte, waren die einzigen verfügbaren Ordnungsquellen physikalische Gesetze und Zufall. Physikalische Gesetze produzieren Regelmäßigkeit, nicht Information; Zufall produziert Rauschen. Keines davon ist Information.
Die Schlussfolgerung ist nicht, dass Leben einen magischen Schöpfer erfordert. Die Schlussfolgerung ist, dass Leben eine Informationsquelle erfordert, die existierte, bevor das Leben selbst existierte, und die einzigen Informationsquellen, die wir kennen, die einzigen Quellen hochspezifischer Nichtzufälligkeit, sind Intelligenz und die Produkte von Intelligenz. Das ist keine religiöse Behauptung. Es ist eine empirische Beobachtung darüber, woher Information kommt, in jedem Fall, in dem wir die Quelle untersuchen können.
Ihr mögt einwenden, dass es vielleicht Informationsquellen gibt, die wir nicht entdeckt haben, dass die Physik unvermutete Ressourcen besitzt, dass die Gesetze der Natur selbst Information tragen. Das sind interessante Vorschläge, und sie verdienen Untersuchung. Aber sie schieben die Frage zurück, sie beantworten sie nicht. Wenn die Gesetze der Natur selbst Information tragen, die Leben produziert, woher kamen die Gesetze? Wenn das Universum eingebaute informationelle Tendenzen hat, woher kamen diese Tendenzen? Auf jeder Analyseebene ist die Frage dieselbe: Information hat eine Quelle, und die Quelle ist entweder Intelligenz oder etwas, das wie Intelligenz unter einem anderen Namen funktioniert.
Der universelle genetische Code: Eine Wahl, für immer eingefroren
Unter den vielen Merkmalen biologischer Information, die Erklärung erfordern, sticht eines als besonders schwer für die Zufallshypothese hervor: die Universalität des genetischen Codes. Jeder bekannte Organismus auf der Erde, von den Bakterien der tiefen See bis zu den komplexesten Säugetieren, verwendet denselben genetischen Code mit nur geringfügigen Ausnahmen. Dasselbe Triplet von Nukleotidbasen kodiert für dieselbe Aminosäure in einer menschlichen Zelle, in einer Maispflanze, in einem Fadenwurm, in einem Streptokokkus.
Diese Universalität ist auffällig, weil der Code im Wesentlichen arbiträr ist. Es gibt keine chemische Notwendigkeit dafür, dass das Triplet AUG für Methionin kodieren muss. Viele andere Zuordnungen würden vom chemischen Standpunkt aus genauso gut funktionieren. Die Wahl, welches Triplet für welche Aminosäure kodiert, wurde einmal getroffen, beim Ursprung des Lebens, und ist seitdem eingefroren (Koonin, E. V., und Novozhilov, A. S., 2009, Origin and evolution of the genetic code: The universal enigma, IUBMB Life, 61, 99-111).
Die Implikation ist unausweichlich. Alles Leben auf der Erde stammt von einem einzigen gemeinsamen Vorfahren ab, dem LUCA, den wir bereits diskutiert haben, und der Code, den LUCA verwendete, wurde an jede Nachfahrenlinie für vier Milliarden Jahre treu weitergegeben. Es gab keine Gelegenheit dafür, dass der Code in verschiedenen Linien neu erfunden wurde, weil jede Änderung am Code die Auslesung jedes Gens im Genom gleichzeitig korrumpieren würde. Sobald der Code festgelegt war, musste er festgelegt bleiben.
Das ist bedeutsam, weil es bedeutet, dass wir nicht auf einen Prozess schauen, der mit vielen Codes experimentierte und den besten auswählte. Wir schauen auf ein einzelnes Gründungsereignis, in dem ein Code etabliert und dann erhalten wurde. Der spezifische Code, der etabliert wurde, ist kein generischer Code. Er ist, bei sorgfältiger Betrachtung, ein Code, der die schädlichen Auswirkungen zufälliger Mutationen minimiert, in dem Sinne, dass Mutationen einer Base in einem Codon oft entweder keine Aminosäureänderung oder eine Änderung zu einer chemisch ähnlichen Aminosäure produzieren, was den Schaden begrenzt. Diese Nichtzufälligkeit im Code selbst, diese Eigenschaft der Fehlertoleranz, ist selbst auf einer Zufallshypothese unwahrscheinlich.
Durch Zufall einen Code zu produzieren, der selbst auf Fehlertoleranz optimiert ist, bevor irgendeine Selektion die Gelegenheit hatte, auf ihn zu wirken, ist eine weitere Unwahrscheinlichkeit, die sich mit den anderen aufmultipliziert. Die Zufallshypothese muss daher nicht nur die Existenz des Lebens erklären, nicht nur die spezifische genetische Information von LUCA, sondern die Existenz eines genetischen Codes, der am ersten Tag bereits ein nahezu optimaler Code angesichts der biochemischen Beschränkungen war. Das ist eine ganze Menge, was vom Zufall verlangt wird.
Das Molybdän-Problem
Francis Crick, der Nobelpreisträger, der die Struktur der DNA mitentdeckte, und der Chemiker Leslie Orgel veröffentlichten 1973 in der Zeitschrift Icarus eine Arbeit mit dem Titel Directed Panspermia (Crick, F. H. C., und Orgel, L. E., 1973, Directed Panspermia, Icarus, 19, 341-346). In dieser Arbeit argumentierten sie, dass das Leben auf der Erde wahrscheinlich von einer extraterrestrischen Intelligenz gesät wurde, und sie boten als einen ihrer beiden Hauptbelege die Beobachtung an, dass biologische Systeme auf der Erde in einem Maß von Molybdän abhängig sind, das im Verhältnis zu seiner Häufigkeit auf der Erde nicht steht.
Molybdän ist auf der Erde ein relativ seltenes Element, es ist mit ungefähr 0,02 Prozent in der Erdkruste vorhanden. Doch es spielt in vielen biochemischen Prozessen eine wesentliche Rolle, einschließlich der Stickstofffixierung, der Sulfitoxidation und verschiedener anderer enzymatischer Reaktionen. Crick und Orgel wiesen darauf hin, dass diese unverhältnismäßige Abhängigkeit von einem seltenen Element das ist, was man erwarten würde, wenn das Leben auf einem Planeten entstand, auf dem Molybdän reichlich vorhanden war, und dann zur Erde transportiert wurde, anstatt dass es hier entstand, wo man erwarten würde, dass die Biochemie häufigere Elemente bevorzugt.
Dieses Argument ist nicht entscheidend. Andere Erklärungen für die Molybdänabhängigkeit sind möglich. Aber es ist suggestiv, und kombiniert mit dem universellen genetischen Code gibt es uns zwei Anomalien, die in dieselbe Richtung weisen. Die natürlichste Interpretation beider Anomalien ist, dass das Leben auf der Erde einen einzelnen, fremden Ursprung hat, dass die grundlegende Biochemie einmal etabliert wurde, irgendwo, und dann als komplettes und funktionierendes System zu diesem Planeten transferiert wurde.
Der Einstein-Moment
Ich möchte jetzt vollständig aus der Biologie heraustreten und diese Frage aus der Perspektive der Physik betrachten, insbesondere aus der Perspektive, die Einstein spät in seinem Leben artikulierte, als er mit der Frage konfrontiert wurde, warum das Universum überhaupt verständlich ist. Einstein schrieb 1936, dass das Unbegreiflichste am Universum sei, dass es begreiflich sei (Einstein, A., 1936, Physics and Reality, Journal of the Franklin Institute, 221, 349-382). Was er meinte, war, dass es keinen logischen Grund gibt, warum das Universum so geordnet sein sollte, dass mathematisches Räsonieren, das vom menschlichen Geist durchgeführt wird, in der Lage sein sollte, das Verhalten physikalischer Systeme vorherzusagen. Das Universum hätte chaotisch sein können. Es hätte Gesetze haben können, die sich von Ort zu Ort und Zeit zu Zeit ändern. Es hätte so sein können, dass keine allgemeinen Prinzipien gelten. Aber so ist es nicht. Es ist geordnet, und die Ordnung ist genau die Art von Ordnung, die mathematisches Räsonieren erfassen kann.
Eugene Wigner, der Nobelpreisträger der Physik, machte denselben Punkt in seinem 1960er-Essay The Unreasonable Effectiveness of Mathematics in the Natural Sciences (Wigner, E., 1960, The Unreasonable Effectiveness of Mathematics in the Natural Sciences, Communications in Pure and Applied Mathematics, 13, 1-14). Er bemerkte, dass abstrakte mathematische Strukturen, von Mathematikern aus rein intellektuellen Gründen ohne Gedanken an physikalische Anwendung entwickelt, sich wiederholt und unerwartet als Beschreibungen der tiefen Struktur der physikalischen Realität erweisen. Das ist nicht das, was wir von einem Universum erwarten würden, das ohne irgendeine informationelle Eingabe entstand. Es ist das, was wir von einem Universum erwarten würden, in dem Information bereits auf der Ebene der Naturgesetze selbst eingebaut ist.
Nun kombiniert das mit dem, was wir gerade über Biologie etabliert haben. Dasselbe Universum, das unzumutbare mathematische Struktur hat, produziert auf mindestens einem seiner Planeten auch Organismen, die selbst Speicher riesiger Mengen hochspezifischer Information sind, deren Wahrscheinlichkeit, durch Zufall aus physikalischer Chemie zu entstehen, mathematisch null ist. Die zwei Tatsachen sind verbunden. Es sind Tatsachen über dasselbe Universum, und sie zeigen in dieselbe Richtung. Das Universum trägt Information auf jeder Ebene, die wir untersuchen können, von den Gesetzen der Physik bis zu den Genomen der Zellen. Die Information muss von irgendwoher kommen. Die Zufallshypothese kann sie nicht liefern, weil Zufall die Abwesenheit einer Informationsquelle ist.
Ich weiß nicht, was die Quelle ist. Ich habe meine Hypothesen, die ich in anderen Schriften ausgelegt habe, und die zu der Schlussfolgerung konvergieren, dass die grundlegende Architektur des biologischen Lebens auf der Erde von einer Intelligenz etabliert wurde, die nicht auf der Erde entstand. Aber die größere philosophische Behauptung, die Behauptung, von der ich denke, dass sie wirklich ein Meilenstein klaren Denkens ist, ist, dass die Zufallshypothese, wie sie üblicherweise verstanden wird, keine Hypothese ist. Sie ist eine Anti-Hypothese, eine Weigerung, die Frage zu stellen, eine Stipulation, dass die Erklärung nicht zu suchen sei, weil die Alternativen unbequem sind.
Echte Wissenschaft funktioniert nicht so. Echte Wissenschaft folgt den Daten, und die Daten zum Ursprung biologischer Information führen uns unweigerlich vom Zufall weg.
Sei Dir der Wahrscheinlichkeit bewusst
Bisher habe ich Zahlen genannt. Zehn hoch siebenundsiebzig. Zehn hoch vierzigtausend. Zehn hoch einhundert Milliarden. Diese Zahlen sind so groß, dass sie aufhören, Zahlen zu sein, und zu Symbolen werden. Das menschliche Gehirn liest sie und versteht sie nicht, und das ist kein Versagen der Leser, sondern eine biologische Tatsache. Das menschliche Nervensystem entwickelte sich, um Größen zu erfassen, die im täglichen Leben relevant sind: die Anzahl der Beeren am Strauch, die Entfernung zur nächsten Wasserstelle, die Anzahl der Mitglieder einer Gruppe. Es entwickelte sich nicht, um Zahlen wie [math]10^{77}[/math] intuitiv zu erfassen.
Ich werde dies jetzt korrigieren. Ich werde Euch durch eine Reihe konkreter Vergleiche führen, die so konstruiert sind, dass jeder einzelne Vergleich greifbar ist, und dann durch die Verkettung der Vergleiche eine Vorstellung davon entwickeln, was die tatsächlichen Zahlen erfordern. Hier zeige ich Euch meine genialste Seite, mit einer These am Ende, die in meinen Augen keine weitere Diskussion benötigt, weil sie keine Frage der Meinung ist, sondern eine Frage der Definition.
Beginnen wir klein
Die Anzahl der Sandkörner an allen Stränden der Erde wird auf ungefähr [math]10^{18}[/math] geschätzt. Eine große Zahl, aber nicht unvorstellbar. Wenn wir alle Sandkörner einzeln durchzählen würden, ein Korn pro Sekunde, würde es ungefähr 30 Milliarden Jahre dauern, also doppelt so lang wie das Alter des Universums. Mit unserer ganzen Lebenszeit werden wir nicht einmal einen mikroskopischen Bruchteil davon zählen.
Die Anzahl der Sterne im beobachtbaren Universum wird auf ungefähr [math]10^{24}[/math] geschätzt. Das ist eine Million Mal mehr als alle Sandkörner der Erde. Schon diese Zahl entzieht sich jeder Vorstellung. Wenn jeder Stern eine Erde wäre, hätten wir eine Million Mal so viele Sandkörner wie auf unserer Erde, und das nur weil wir eine Erde pro Stern angenommen haben.
Die Anzahl der Atome im beobachtbaren Universum, alle Atome, in allen Sternen, in allen Planeten, in allem Gas zwischen den Galaxien, beträgt:
[math]N_{\text{Atome}} approx 10^{80}[/math]
Diese Zahl bedeutet einfach: jedes Stück Materie im gesamten beobachtbaren Universum, addiert. An diesem Punkt versagt jedes intuitive Vergleichssystem. Wir merken uns einfach: alles Materie, alle Sterne, alle Galaxien, zehn hoch achtzig.
Jetzt zur Wahrscheinlichkeit eines einzigen Proteins
Axes Berechnung gibt uns für ein einzelnes funktionsfähiges Protein von 150 Aminosäuren:
[math]P_{\text{Protein}} = \frac{1}{10^{77}}[/math]
Was bedeutet das wirklich? Stellt Euch vor, Ihr nehmt jedes einzelne Atom im beobachtbaren Universum, alle [math]10^{80}[/math] Atome, und färbt eines davon rot. Dann werden alle Atome gemischt, und Ihr greift mit verbundenen Augen genau einmal zu. Die Wahrscheinlichkeit, das rote Atom zu erwischen, beträgt eins zu [math]10^{80}[/math].
Die Wahrscheinlichkeit, ein einziges funktionsfähiges Protein durch Zufall zu erzeugen, ist nur etwa eintausendmal höher als das. Das ist nicht beruhigend. Tausendmal höher als nahezu unmöglich ist immer noch nahezu unmöglich. Und das ist für ein einziges Protein.
Der Lottospiel-Vergleich, den jeder versteht
Vielleicht greifbarer durch ein Beispiel, das viele Menschen kennen: das Powerball-Lotto in den Vereinigten Staaten hat eine Gewinnchance des Hauptpreises von ungefähr eins zu drei mal zehn hoch acht, also rund [math]10^{8{,}5}[/math]. Wer einmal den Hauptgewinn knackt, ist Multimillionär. Wer dreimal hintereinander den Hauptgewinn knackt, ohne dass die Lottogesellschaft die Polizei ruft, hat eine Wahrscheinlichkeit von [math]10^{25{,}5}[/math].
Um die Wahrscheinlichkeit eines einzigen funktionalen Proteins zu erreichen, müsstet Ihr neunmal in Folge den Powerball-Hauptgewinn knacken:
[math]P_{\text{9-mal Powerball}} = (10^{-8{,}5})^9 = 10^{-76{,}5} approx P_{\text{Protein}}[/math]
Neunmal in Folge. Ohne Manipulation, ohne Insiderwissen, rein durch Zufall. Das ist die Wahrscheinlichkeit für ein einziges funktionsfähiges Protein. Nun denkt einen Schritt weiter: das menschliche Genom kodiert für ungefähr einhunderttausend funktionale Proteinisoformen. Was passiert dann?
Die Multiplikation der Unwahrscheinlichkeit
Sobald wir zwei oder mehr unabhängige Proteine durch Zufall produzieren wollen, multiplizieren sich ihre Einzelwahrscheinlichkeiten:
[math]P_{\text{Total}} = (P_{\text{Protein}})^N = (10^{-77})^N = 10^{-77N}[/math]
Für nur zehn Proteine:
[math]P_{10} = 10^{-770}[/math]
Für einhundert:
[math]P_{100} = 10^{-7{,}700}[/math]
Für die ungefähr 2.600 Proteine, die LUCA bereits hatte, der älteste rekonstruierbare Vorfahre allen Lebens:
[math]P_{\text{LUCA}} = 10^{-200{,}200}[/math]
Eine Zahl mit zweihunderttausend Nullen vor der Eins. Wenn man diese Zahl auf normalem Papier ausdrucken wollte, mit gewohnter Schriftgröße, würde sie ungefähr fünfzig Seiten füllen, allein die Nullen.
Die verfügbaren Versuche
Wie viele Versuche standen dem Universum zur Verfügung, um diese Wahrscheinlichkeit zu überwinden? Ich nehme die großzügigste vorstellbare Schätzung. Jedes Atom im Universum, alle [math]10^{80}[/math] Atome, führt jede Planck-Zeit, also [math]10^{43}[/math] Versuche pro Sekunde, ein chemisches Experiment durch. Das Alter des Universums beträgt ungefähr [math]4 \times 10^{17}[/math] Sekunden.
[math]T_{\text{verfügbar}} = 10^{80} \times 10^{43} \times 10^{17} \times 4 approx 10^{140}[/math]
Diese Zahl ist absurd großzügig. Atome im Inneren von Sternen sind nicht mit organischer Chemie beschäftigt. Atome im intergalaktischen Raum trafen sich noch nie mit anderen Atomen. Atome in den ersten 13 Milliarden Jahren der kosmischen Geschichte hatten keine Erde, auf der sie hätten experimentieren können. Aber spielen wir das Spiel großzügig.
Wir haben [math]10^{140}[/math] Versuche zur Verfügung.
Wir brauchen [math]10^{200{,}200}[/math] Versuche, um eine vernünftige Chance auf LUCA zu haben.
[math]\frac{T_{\text{benötigt}}}{T_{\text{verfügbar}}} = \frac{10^{200{,}200}}{10^{140}} = 10^{200{,}060}[/math]
Wir liegen um den Faktor [math]10^{200{,}060}[/math] daneben. Diese Lücke ist nicht überwindbar. Sie ist nicht durch zusätzliche Zeit überwindbar, weil das Universum nicht so lange existiert. Sie ist nicht durch zusätzliche Versuche pro Sekunde überwindbar, weil die Planck-Zeit die fundamentale Untergrenze ist. Sie ist nicht durch zusätzliche Atome überwindbar, weil das Universum nicht mehr Atome enthält. Wir haben das Maximum dessen ausgeschöpft, was ein endliches Universum bieten kann, und das Maximum reicht um [math]10^{200{,}060}[/math] nicht aus.
Hoyles Zahl visualisiert
Hoyles Berechnung lieferte:
[math]P_{\text{Hoyle}} = \frac{1}{10^{40{,}000}}[/math]
Diese Zahl ist immer noch erschütternd, aber sie ist um Größenordnungen optimistischer als die LUCA-basierte Berechnung, weil Hoyle nur 2.000 Enzyme einer minimalen Zelle berücksichtigte und die Komplexität moderner Proteine sowie alternatives Splicing, Epigenetik und dreidimensionale Chromatin-Architektur ausließ. Selbst Hoyle, der die optimistischste seriöse Berechnung lieferte, kommt zu einer Zahl, die das Universum um vierzigtausend Größenordnungen übersteigt.
Vierzigtausend Größenordnungen.
Wenn man diese Zahl in Bilder fassen will: stellt Euch vor, das gesamte beobachtbare Universum mit allen seinen [math]10^{80}[/math] Atomen ist ein einzelnes Atom in einem größeren Universum. Dieses größere Universum enthält wieder [math]10^{80}[/math] solcher Atome. Wir sind jetzt bei [math]10^{160}[/math]. Wir machen das fünfhundert Mal hintereinander.
[math]underbrace{10^{80} \times 10^{80} \times ldots \times 10^{80}}_{500 \text{ mal}} = 10^{40{,}000}[/math]
Fünfhundert ineinander verschachtelte Universen-von-Universen-von-Universen. Das ist Hoyles Zahl. Das ist die Wahrscheinlichkeit, die ein erklärter Atheist berechnete, weil er die Mathematik ehrlich machte und sich weigerte, vor der Konsequenz zurückzuweichen.
Meine These, die keine weitere Diskussion benötigt
Hier formuliere ich, was ich für meinen wichtigsten Beitrag zu dieser Debatte halte. Eine These, die nicht weiter zu diskutieren ist, weil sie keine Frage der Meinung ist, sondern eine Frage der Definition.
Wahrscheinlichkeit, als mathematisches Konzept, ist nur dann eine sinnvolle Kategorie, wenn der Ereignisraum mit den verfügbaren Versuchen kommensurabel ist. Wenn ein Ereignis [math]10^{200{,}000}[/math] Versuche erfordert und das Universum [math]10^{140}[/math] Versuche bereitstellen kann, dann ist die Aussage “das Ereignis ist sehr unwahrscheinlich” eine sprachliche Verharmlosung. Die korrekte Aussage lautet: das Ereignis kann durch die Mechanismen, die das Universum zur Verfügung stellt, nicht stattfinden.
Das ist keine Wahrscheinlichkeitsaussage. Das ist eine Möglichkeitsaussage. Es ist der Unterschied zwischen “selten” und “physikalisch ausgeschlossen”.
Hier liegt mein Beitrag, mein Meilenstein, falls die Geschichte ihn so behandeln sollte, was sie selbst entscheiden wird. Mein Beitrag ist die kategorische Behauptung, dass biologische Information nicht durch zufällige Prozesse innerhalb dieses Universums entstehen kann. Nicht “unwahrscheinlich”. Nicht “extrem selten”. Sondern strukturell ausgeschlossen durch die Endlichkeit des Universums in Verbindung mit der kombinatorischen Größe des biologischen Suchraums.
Diese Aussage steht für sich. Sie ist nicht zu widerlegen, indem man neue Mechanismen der natürlichen Selektion vorschlägt, weil natürliche Selektion erst nach der Etablierung des selbstreplizierenden Systems wirken kann. Sie ist nicht zu widerlegen durch Verweis auf “tiefe Zeit”, weil tiefe Zeit endlich ist und die hier nötige Zeit weit jenseits jeder Vorstellung von endlicher Zeit liegt. Sie ist nicht zu widerlegen durch metaphysische Berufungen, weil die Aussage rein mathematisch ist.
Wer ihr widersprechen will, muss eine der folgenden Positionen verteidigen: dass das beobachtbare Universum mehr als [math]10^{80}[/math] Atome enthält, dass die Planck-Zeit kürzer ist als allgemein angenommen, dass das Universum erheblich älter ist als 14 Milliarden Jahre, oder dass die Komplexitätsschätzungen für LUCA und das menschliche Genom um viele tausend Größenordnungen zu hoch sind. Keine dieser Positionen ist mit den derzeit verfügbaren Daten verträglich.
Daher: Wer die Zufallshypothese aufrechterhält, hält keine Hypothese aufrecht, sondern eine Stipulation. Und Stipulationen, in der Wissenschaft, sind kein Ersatz für Argumente.
Mein Fall ist abgeschlossen.
Wo ich stehe
Lasst mich nun meine Position so klar formulieren wie ich kann. Die Wahrscheinlichkeit, dass das menschliche Genom durch zufällige chemische Prozesse entstanden ist, mit oder ohne die anschließende Wirkung der natürlichen Selektion, ist mathematisch nicht von null zu unterscheiden. Die Wahrscheinlichkeit, dass das grundlegende genetische System irgendeiner Lebensform, selbst der einfachsten, durch zufällige chemische Prozesse entstanden ist, ist mathematisch nicht von null zu unterscheiden. Die Zahlen sind nicht knapp. Sie sind nicht einmal im selben arithmetischen Universum. Die Zufallshypothese versagt, nicht um Haaresbreite, sondern um eine Marge, die so groß ist, dass sie überhaupt keine Hypothese mehr ist.
Diese Schlussfolgerung erfordert kein religiöses Bekenntnis. Sie erfordert keine spezifische alternative Theorie. Sie erfordert kein Akzeptieren irgendeiner Schöpfungserzählung aus irgendeiner Tradition. Sie erfordert nur, dass man der Mathematik dorthin folgt, wohin die Mathematik führt, und die Mathematik führt weit über den Punkt hinaus, an dem jeder ehrliche Untersucher zugeben muss, dass etwas anderes als Zufall für die in lebenden Systemen beobachtete Information verantwortlich ist.
Was dieses Etwas ist, bleibt eine offene Frage, und sie sollte eine offene Frage bleiben, weil die Daten uns noch nicht erlauben, zwischen mehreren möglichen Antworten zu entscheiden. Es könnte sein, dass das Universum selbst informationelle Struktur in seine Gesetze eingebaut hat, auf eine Weise, die wir noch nicht verstanden haben, und dass diese informationelle Struktur unter geeigneten Bedingungen Leben hervorzubringen tendiert. Es könnte sein, dass Leben anderswo im Universum entstand und hierher transferiert wurde, und dass das Anderswo Bedingungen oder Mechanismen hatte, die der Entstehung biologischer Information günstiger waren als die Erde sie hat. Es könnte sein, dass Leben auf der Erde absichtlich von einer Intelligenz initiiert wurde, deren Ursprung wir derzeit nicht erschließen können. Oder es könnte etwas sein, das wir uns noch nicht vorgestellt haben, etwas, das künftige Generationen benennen werden und wir nicht erkennen werden.
Was nicht mehr offen ist, ist, ob das Leben durch zufällige Chemie auf einer urzeitlichen Erde entstand. Diese Hypothese ist mathematisch tot. Sie ist seit fünfzig Jahren tot. Der Grund, warum sie immer noch als Standard in den Lehrbüchern behandelt wird, ist nicht wissenschaftlich. Er ist institutionell. Es ist dieselbe Art von Trägheit, die das geozentrische Weltbild für Jahrhunderte nach Kopernikus an seinem Platz hielt, und die das stationäre Universum noch Jahrzehnte in den Lehrbüchern hielt, nachdem die kosmische Mikrowellenhintergrundstrahlung es untragbar gemacht hatte. Schließlich gibt die Trägheit nach. Wir sind in den späten Stadien dieses Prozesses jetzt, und Artikel wie dieser sind Teil davon, wie das Nachgeben geschieht.
Der Schluss
Ich sagte zu Beginn, dass ich meine Position auslegen würde, damit niemand sich fragen muss, wohin ich gehe. Ich habe das nun getan. Meine Position ist, dass das menschliche Genom nicht durch Zufall entstanden ist, dass kein Genom durch Zufall entstanden ist, dass die Zufallshypothese durch die tatsächlichen Zahlen mathematisch ausgeschlossen ist, und dass die Suche nach dem tatsächlichen Mechanismus, durch den biologische Information ins Dasein kam, die wichtigste offene Frage in den Naturwissenschaften ist.
Ich schreibe dies nicht, um irgendjemanden zu überzeugen, weil die Menschen, die der Zufallshypothese verpflichtet sind, durch nichts überzeugt werden, und die Menschen, die ihr nicht verpflichtet sind, nicht überzeugt werden müssen. Ich schreibe dies für die dritte Gruppe, die Menschen, denen gesagt wurde, die Zufallshypothese sei der Konsens, und die nicht die Zeit oder Ausbildung hatten, sich die tatsächliche Mathematik anzusehen. Sobald man sich die tatsächliche Mathematik ansieht, kollabiert die Zufallshypothese. Es ist kein kleiner Kollaps. Es ist ein Kollaps in der Größenordnung von vierzigtausend Größenordnungen, nach Hoyles Berechnung, und erheblich schlimmer als das nach den jüngeren Schätzungen, die die volle Komplexität des Genoms berücksichtigen.
Ich habe keine Geduld für die Antwort, die sagt, diese Berechnungen seien falsch, weil die Evolution tatsächlich anders funktioniert. Ich argumentiere nicht gegen die Evolution. Die Evolution operiert auf dem Genom, das bereits existiert. Mein Argument betrifft den Ursprung des Genoms selbst, bevor irgendeine Selektion ein Substrat hatte, auf das sie wirken konnte. In dieser Frage ist die Evolutionstheorie still, und das Schweigen ist kein kleines Detail. Es ist der Kern der Sache.
Ich denke schon sehr lange darüber nach. Ich hatte fast genauso lange Angst, es zu schreiben, weil ich die Reaktion kannte, die es auf sich ziehen würde. Die Reaktion wird kommen. Sie wird laut sein, und sie wird zuversichtlich sein, und sie wird größtenteils am Punkt vorbeigehen. Das ist in Ordnung. Die Zahlen sind die Zahlen. Die Wahrscheinlichkeit ist null. Das Genom ist nicht durch Zufall entstanden. Wo es herkam, wissen wir noch nicht ganz. Das ist die Frage. Und es ist nach meiner ehrlichen Einschätzung die wichtigste Frage, die Menschen über sich selbst stellen können.
Ich lege meinen Fall hier nieder. Die Zahlen sprechen für sich. Wer widersprechen möchte, ist eingeladen, die Arithmetik selbst durchzuführen. Ich bin zuversichtlich im Ergebnis.
Dieser Artikel ist die Argumentation eines Menschen, ausgelegt so sorgfältig wie ich sie machen kann. Er ist keine begutachtete wissenschaftliche Arbeit. Er ist eine Synthese aus Jahrzehnten des Lesens, Rechnens und Nachdenkens. Die Schlussfolgerung ist eine, zu der ich lieber nicht gelangt wäre, weil sie mich auf Positionen festlegt, die unbeliebt sind und die Kritik von Menschen auf sich ziehen werden, deren Respekt mir wichtig ist. Ich bin trotzdem zu ihr gelangt, weil die Mathematik mir keine Wahl ließ. Wer widersprechen möchte, soll selbst die Rechnung machen. Ich bin glücklich, falsch belehrt zu werden, aber ich bin nicht glücklich, niedergeschrien zu werden, und der Unterschied ist wichtig.
Quellen
Axe, D. D. (2004). Estimating the prevalence of protein sequences adopting functional enzyme folds. Journal of Molecular Biology, 341, 1295-1315.
Crick, F. H. C., und Orgel, L. E. (1973). Directed Panspermia. Icarus, 19, 341-346.
Dekker, J., et al. (2017). The 4D nucleome project. Nature, 549, 219-226.
Eden, M. (1967). Inadequacies of neo-Darwinian evolution as a scientific theory. In P. S. Moorhead und M. M. Kaplan (Hrsg.), Mathematical Challenges to the Neo-Darwinian Interpretation of Evolution. Wistar Institute Press.
Einstein, A. (1936). Physics and Reality. Journal of the Franklin Institute, 221, 349-382.
Hoyle, F., und Wickramasinghe, N. C. (1982). Evolution from Space: A Theory of Cosmic Creationism. Simon and Schuster.
International Human Genome Sequencing Consortium (2001). Initial sequencing and analysis of the human genome. Nature, 409, 860-921.
Keefe, A. D., und Szostak, J. W. (2001). Functional proteins from a random-sequence library. Nature, 410, 715-718.
Koonin, E. V., und Novozhilov, A. S. (2009). Origin and evolution of the genetic code: The universal enigma. IUBMB Life, 61, 99-111.
Levinthal, C. (1969). How to fold graciously. In Mossbauer Spectroscopy in Biological Systems. University of Illinois Press.
Luco, R. F., et al. (2010). Regulation of alternative splicing by histone modifications. Science, 327, 996-1000.
McLeish, T. C. B., Cann, M. J., und Rodgers, T. L. (2012). The Levinthal paradox of the interactome. HFSP Journal, 6, 1-3.
Moody, E. R. R., et al. (2024). The nature of the last universal common ancestor and its impact on the early Earth system. Nature Ecology and Evolution, 8, 1654-1666.
Morowitz, H. J. (1968). Energy Flow in Biology. Academic Press.
Ponomarenko, E. A., et al. (2016). The Size of the Human Proteome: The Width and Depth. International Journal of Analytical Chemistry, 7436849.
Wang, E. T., et al. (2008). Alternative isoform regulation in human tissue transcriptomes. Nature, 456, 470-476.
Wigner, E. (1960). The Unreasonable Effectiveness of Mathematics in the Natural Sciences. Communications in Pure and Applied Mathematics, 13, 1-14.