Otto Sapiens, das letzte Modell vor dem Aussterben
Eine Diagnose über das Steinzeitgehirn unter dem Bildschirm, die freiwillige Aufgabe des Denkens und den einzigen Moment, an dem Otto Sapiens niemals sein will
In meinem Arbeitszimmer steht eine alte Wanduhr, deren Pendel jede einzelne Sekunde hörbar macht, und wer mir auf diesem Blog folgt und meine Texte mit der Aufmerksamkeit liest, die ich beim Schreiben in sie hineinlege, der wird sich vielleicht vorstellen können, dass ich oft eine längere Pause vor dem nächsten Satz einlege und in dieser Pause nichts anderes tue, als der Wanduhr zuzuhören. Tick. Pause. Tack. Pause. Und in dieser einen Pause, die zwischen Tick und Tack liegt, dauert das Leben länger als in zwei Stunden Instagram, weil in dieser Pause tatsächlich etwas stattfindet, nämlich der Augenblick, in dem ein Mensch noch am Leben ist, anstatt in einer Folge von Reizen zu existieren, die ihm seine Lebenszeit aus den Händen waschen wie Sand, ohne dass er es bemerkt.
Ich beginne mit dieser Wanduhr, weil sie das genaue Gegenteil von dem ist, worüber ich auf den folgenden Seiten schreiben werde, und weil sie der akustische Beweis dafür ist, dass Zeit existiert, auch wenn der moderne Mensch sich angewöhnt hat, sie zu ignorieren. Ich werde in diesem Beitrag über eine Variante des Homo Sapiens schreiben, die ich seit Jahren als Otto Sapiens bezeichne, und ich werde diese Bezeichnung nicht als satirisches Ornament verwenden, sondern als anthropologische Kategorie, die ich für brauchbar halte, weil sie eine empirisch beschreibbare Endform des modernen Menschen beschreibt, die durch Smartphone, Instagram, TikTok und generative Künstliche Intelligenz nicht etwa neu entstanden ist, sondern durch diese Werkzeuge in eine Form gegossen wurde, die zuvor nur als Tendenz vorlag und nun zur dominanten Spezies in den westlichen Konsumgesellschaften geworden ist. Ich werde behaupten, dass diese Endform den Homo Sapiens ablöst, dass sie ihn nicht überleben wird, weil sie das wichtigste Werkzeug verloren hat, mit dem unsere Spezies bisher überlebt hat, nämlich das selbstständige Denken, und dass sie es nicht durch äußere Gewalt verloren hat, sondern durch ihre eigene Hand freiwillig abgegeben hat, mit Begeisterung sogar, weil das Denken ihr Angst gemacht hat und Angst hasst der Otto Sapiens mehr als alles andere auf der Welt.
Das ist die These, die ich auf den folgenden Seiten entfalten werde, und ich werde sie nicht polemisch behaupten, ich werde sie wissenschaftlich begründen, mit Studien aus den letzten 2 Jahren, mit anthropologischen Befunden aus der Paläoanthropologie, mit neurowissenschaftlichen Daten zur Metakognition und mit historischen Mustern aus 100 Jahren wiederkehrender gesellschaftlicher Krisen. Am Ende werde ich den Otto Sapiens festgenagelt haben, präzise wie ein Insektenpräparat, und ich werde gleichzeitig zeigen, dass dieser Beitrag, den ich gerade schreibe, von genau jenen Menschen nicht gelesen werden wird, die in ihm beschrieben sind, weil er länger ist als die Sieben-Sekunden-Spanne, auf die ihre Aufmerksamkeit dressiert wurde. Das ist die polemische Pointe, die ich vorwegnehme, weil sie die einzige Pointe ist, gegen die der Otto Sapiens keine Verteidigung hat. Er kann diesen Beitrag nicht widerlegen, indem er ihn liest, weil er ihn nicht lesen wird, und allein dieser Umstand bestätigt jede Behauptung, die in ihm steht.
Die Mozzarella, die nicht vor Lachen fällt
Ich sitze an meinem Stammplatz in einer kleinen Pizzeria, die ich seit vielen Jahren besuche, an einem Tisch, von dem aus ich die anderen Gäste sehen kann, ohne selbst auffällig in deren Blickfeld zu geraten, und der Wirt, ein schweigsamer Mann mit dem Gesicht eines Mannes, der zu viel gesehen hat, bringt mir wie immer ein Glas Wasser und meine immer gleiche Pizza, die er nicht mehr bestellen lässt, weil er weiß, was ich essen werde, bevor ich den Mantel ausgezogen habe. Wir nicken einander zu, er geht, und ich beginne mit der einzigen Tätigkeit, die ich an diesem Ort betreibe, neben dem Essen. Ich beobachte.
Am Nebentisch sitzt ein Paar, vielleicht Anfang vierzig, beide gut gekleidet, beide mit der Körperhaltung von Menschen, die im Hamsterrad zwischen 8 und 18 Uhr genug Energie verbrennen, um anschließend in einem Restaurant nicht mehr in der Lage zu sein, ein Gespräch zu führen, das ohne Bildschirm auskommt. Sie haben gerade etwas gesagt, was ich nicht hören konnte, und er antwortet mit einer Frage, die offenbar wissenschaftlicher Natur ist, weil sie das Wort warum enthält, gefolgt von einem biologischen Phänomen, dessen genaue Formulierung an mir vorbeigeht. Sie blickt ihn fragend an. Er greift in die Innentasche seiner Jacke, holt ein Smartphone hervor, tippt etwas hinein, wartet 3 Sekunden, dann liest er ihr eine Antwort vor, die offenkundig aus ChatGPT stammt, weil sie diesen merkwürdigen Tonfall hat, der Vollständigkeit suggeriert, ohne tatsächlich etwas erklärt zu haben. Er liest mit Betonung, als hätte er sich diese Antwort soeben selbst überlegt. Sie nickt. Er nickt. Beide sind nun klüger geworden, oder sie glauben es, was für den Vorgang, den ich gerade beobachte, völlig identisch ist.
Ich nehme einen Bissen von meiner Pizza, und die Mozzarella, die in meinem Mund eigentlich auf einen freudvollen Empfang vorbereitet war, fällt aus diesem zurück auf den Teller, weil meine Kaumuskulatur in genau diesem Moment den Befehl verweigert, der für das Schließen des Mundes notwendig ist. Das geschieht mir manchmal in dieser Pizzeria, und nicht etwa, weil mir etwas Komisches widerfährt, sondern weil ich in solchen Augenblicken eine sehr nüchterne Empfindung habe, die sich am ehesten mit dem Wort Erschütterung übersetzen lässt. Ich erschüttere mich, wenn ich sehe, dass die Schwelle, ab der ein Mensch noch denkt, sich gerade vor meinen Augen weiter abgesenkt hat. Die zwei am Nebentisch haben gerade dokumentiert, dass die Notwendigkeit eines eigenen Gedankens für sie nicht mehr besteht. Sie haben eine Frage gestellt, sie haben eine Antwort bekommen, und sie haben diese Antwort als wahr akzeptiert, ohne sie zu prüfen, ohne sie mit ihrer eigenen Erfahrung abzugleichen, ohne auch nur den Versuch zu unternehmen, herauszufinden, ob die Antwort überhaupt stimmt. Das ist nicht Faulheit, das ist eine neurologische Kapitulation, und ich werde auf den folgenden Seiten zeigen, warum sie keine Ausnahme ist, sondern die Regel, die unsere Spezies in den nächsten 2 Jahrzehnten zum Aussterben bringen wird.
Der Wirt kommt vorbei, sieht den verlorenen Mozzarella-Klumpen auf meinem Teller, zieht eine Augenbraue hoch, sagt nichts und geht wieder. Wir haben über die Jahre eine Form von Kommunikation entwickelt, die völlig ohne Worte auskommt, was den Otto Sapiens vermutlich panisch machen würde, weil Stille für ihn unerträglich ist. Stille zwingt ihn nämlich, in jenem einzigen Moment zu verweilen, den er um jeden Preis vermeiden will, und zu diesem Moment komme ich gleich noch ausführlich.
Eine Kindheit ohne Stress
Ich wurde im Jahr 1970 geboren, und das hat zur Folge, dass ich zu jener immer kleiner werdenden Gruppe von Menschen gehöre, die noch eine Welt vor dem Internet erlebt hat, mit allem, was dazugehörte, und dazu gehört bei mir auch eine Kindheit in einer armen Familie, in der die selbstverständlichen Annehmlichkeiten der bürgerlichen Mittelschicht fehlten. Wir hatten kein graues Wählscheibentelefon im Flur, wie es die wohlhabenderen Familien meiner Straße hatten. Wer telefonieren wollte, ging einen Kilometer zur nächsten Telefonzelle, und in dieser Telefonzelle warf man zwei Zehn-Pfennig-Stücke ein, damit die Verbindung zustande kam, und sprach dann so schnell wie möglich das Notwendige aus, weil das Geld in Telefonzellen verging schneller, als ein Sechsjähriger zählen konnte. Ich habe das nicht oft selbst getan, weil meine Mutter die Anrufe erledigte und ich mit ihr gemeinsam in der Zelle stand, in der es immer leicht nach kaltem Rauch und alten Münzen roch. Aber ich erinnere mich an diese Zelle so genau, als wäre sie noch da, und ich erinnere mich an etwas, das es heute kaum noch gibt, nämlich das Gefühl, dass ein Telefongespräch eine kleine logistische Operation war, kein Reflex.
Schlechte Nachrichten gab es in dieser Welt selten. Wenn doch, kamen sie mit dem Briefträger, der sie höflich überreichte, oft im selben Atemzug wie eine Postkarte von der Tante aus Hamburg, weil die schlechten Nachrichten in jener Zeit nicht den Anspruch erhoben, das Tageslicht für sich allein zu beanspruchen. Sie kamen, sie wurden gelesen, sie wurden verarbeitet, und am nächsten Tag ging das Leben weiter, weil die nächste Nachricht erst übermorgen kam. Die Welt war nicht global. Die Vereinigten Staaten von Amerika interessierten mich als Sechsjährigen nicht, weil sie weit weg waren, und weit weg bedeutete in jener Zeit tatsächlich weit weg, nicht eine Push-Benachrichtigung auf einem Bildschirm. Der Homo Sapiens dieser Zeit hatte nichts, was ihn ständig belastete, weil er nicht in einer Welt lebte, die ihm in jeder Sekunde mitteilte, dass irgendwo gerade jemand stirbt. Es war, und das sage ich rückblickend mit der vollen Klarheit eines Menschen, der inzwischen vieles erlebt hat, die schönste und ruhigste Zeit meines Lebens.
Das Internet betrat mein Leben nicht als Smartphone-Glow, das tat es noch nicht, weil das Smartphone erst viel später kam, sondern als ein graues, klobiges Gerät, in dessen Mulden man den Hörer des Telefons hineinpresste, ein sogenannter Akustikkoppler, der die Töne, die der Modem ausspuckte, in das Telefonnetz übersetzte. Ich verband mich mit einem Bulletin Board System, einem BBS, und kommunizierte über Zeichen, die auf einem grünen Monitor zeilenweise erschienen, mit Menschen, die ich nie gesehen hatte. Das war ungefähr in der zweiten Hälfte der achtziger Jahre, ich war Teenager, und es fühlte sich an wie eine wahnsinnige Erweiterung der Welt. Ich konnte mit jemandem in Hamburg schreiben, ohne einen Brief zu schicken. Ich konnte Software austauschen. Ich konnte Diskussionen führen. Es war faszinierend, und ich habe damals nicht bemerkt, dass dieses Faszinierende den Anfang vom Ende markierte.
Denn was damals begann, in jenem grauen Akustikkoppler, der noch wie ein industrielles Hilfsgerät aussah, war die schrittweise Auslagerung der menschlichen Kommunikation aus dem physischen Raum in einen Datenstrom. Erst war es Text auf grünem Bildschirm, dann waren es Bilder, dann waren es Videos, dann war es ein dauerhafter Datenstrom, der niemals abriss und der jeden Winkel des Tages füllte, in dem zuvor Stille gewesen war. Ich habe diesen Weg miterlebt, von der ersten Minute bis zur jetzigen, und ich kann mit einer Genauigkeit, die jüngeren Menschen oft fehlt, beschreiben, wo der Punkt war, an dem das Werkzeug zur Belastung wurde. Es war ungefähr dort, wo das Gerät anfing, in der Hosentasche getragen zu werden, anstatt auf dem Schreibtisch zu stehen. Sobald der Bildschirm in der Tasche ist, ist der Mensch nicht mehr offline, und sobald der Mensch nicht mehr offline ist, ist er auch nicht mehr im Hier und Jetzt, und sobald der Mensch nicht mehr im Hier und Jetzt ist, beginnt er zu sterben, ohne dass er es bemerkt.
Was ich aus dieser Lebensgeschichte gelernt habe, ist nicht etwa Nostalgie, das überlasse ich gerne den Menschen, die nichts Eigenes vorzuweisen haben außer der Erinnerung an eine vermeintlich bessere Zeit. Was ich gelernt habe, ist eine ganz praktische Konsequenz, und sie heißt: ich muss nicht erreichbar sein. Wer mich heute auf meiner mobilen Nummer anruft, bekommt nicht mich, sondern Tyra ans Telefon, eine Künstliche Intelligenz, die ich selbst programmiert habe, die sehr höflich erklärt, dass der Adressat des Anrufs nicht direkt sprechbar ist, und die jedem Anrufer empfiehlt, eine E-Mail oder eine Telegram-Nachricht zu schicken. Das reicht. Niemand braucht direkten telefonischen Zugriff auf einen anderen Menschen, abgesehen von engsten Familienmitgliedern in Notfällen, und dafür gibt es einen anderen Kanal. Fernsehen schaue ich nicht. Die Bild-Zeitung lese ich nicht, ich analysiere sie gelegentlich, was ein qualitativ erheblich anderer Vorgang ist, und auf diesen Vorgang komme ich noch zurück. Ich habe meine Zeit zurückerobert, und die Konsequenz dieser Rückeroberung ist, dass ich heute mit meinem Malinois Bandit auf dem Sofa sitzen kann, eine Schüssel Popcorn auf dem Beistelltisch, und das tägliche Schauspiel der Otto-Sapiens-Gesellschaft aus der ersten Reihe beobachten kann, mit einer Mischung aus Belustigung und nüchterner Sorge, weil ich nicht weiß, wo dieser Irrsinn endet.
300.000 Jahre Hardware ohne Update
Bevor ich erkläre, warum der Otto Sapiens nichts hinterfragt, warum er Angst vor dem Hier und Jetzt hat, warum er sich von einer Maschine erzählen lässt, was die Wahrheit ist, muss ich kurz die anthropologische Grundlage legen, ohne die alles andere wie eine kulturkritische Behauptung wirken würde, anstatt einer biologischen Diagnose. Und die anthropologische Grundlage ist erstaunlich einfach, sie passt in einen einzigen Satz, der so wuchtig ist, dass man ihn zweimal lesen sollte. Das menschliche Gehirn, mit dem wir heute durch eine Welt aus Smartphones, Algorithmen und generativer Künstlicher Intelligenz laufen, ist genau dasselbe Gehirn, mit dem unsere Vorfahren vor 35.000 Jahren in der Eiszeit Mammuts gejagt haben.
Das ist keine literarische Übertreibung. Die genauesten paläoanthropologischen Daten dazu stammen aus einer Studie von Neubauer, Hublin und Gunz, veröffentlicht 2018 in Science Advances unter dem Titel The evolution of modern human brain shape, in der die Autoren anhand von Schädelfossilien gezeigt haben, dass die Gehirngröße des frühen Homo Sapiens bereits vor 300.000 Jahren in der Spannweite des heutigen Menschen lag, dass aber die globuläre Form des Gehirns, also jene runde, kompakte Architektur, die wir mit dem modernen Menschen verbinden, sich graduell zwischen 100.000 und 35.000 Jahren vor unserer Zeit entwickelt hat (Neubauer, S., Hublin, J. J., & Gunz, P., 2018, The evolution of modern human brain shape, Science Advances, 4(1), eaao5961). Seither hat sich an dieser Architektur nichts mehr geändert. Wir bewegen uns mit derselben neurologischen Hardware durch die Welt, mit der unsere Urgroßeltern aus der Späten Steinzeit ihre Höhlenmalereien in den Wänden von Lascaux hinterlassen haben.
Diese Hardware wurde optimiert für die Erkennung konkreter Bedrohungen, für das Lesen sozialer Gruppen mit einer Größe von ungefähr 50 bis 150 Mitgliedern, wie es der Anthropologe Robin Dunbar in seinen klassischen Arbeiten zur sozialen Kognition gezeigt hat (Dunbar, R. I. M., 1992, Neocortex size as a constraint on group size in primates, Journal of Human Evolution, 22(6), 469-493), und für die Bewältigung übersichtlicher Umgebungen, in denen sich die Reizdichte auf das beschränkte, was die unmittelbare Umgebung anbot. Diese Hardware ist exzellent in dem, wofür sie gebaut wurde. Sie kann eine Schlange im hohen Gras innerhalb von 200 Millisekunden identifizieren, sie kann ein Gesicht aus einer Menge von hundert Personen wiedererkennen, sie kann ein soziales Gefüge intuitiv erfassen und sie kann komplexe motorische Handlungen wie das Spannen eines Bogens oder das Werfen eines Speers in beeindruckender Präzision koordinieren. Sie ist aber nicht gebaut für das, was wir ihr seit etwa 15 Jahren zumuten, nämlich die parallele Verarbeitung von Tausenden von Reizen pro Stunde, das ständige Wechseln zwischen Kontexten, die emotionale Reaktion auf Ereignisse, die zehntausend Kilometer entfernt stattfinden, und die kognitive Verarbeitung von Informationen, deren Wahrheitsgehalt sie nicht durch direkte Sinneserfahrung verifizieren kann.
Der Neurologe Richard Cytowic, von dem Oliver Sacks einmal gesagt hat, er habe die Art und Weise verändert, wie wir über das menschliche Gehirn nachdenken, hat dieses Phänomen in seinem 2025 erschienenen Buch Your Stone Age Brain in the Screen Age (MIT Press) auf eine Formulierung gebracht, die elegant trifft, was die Sache ist. Unsere Gehirne, schreibt Cytowic, sind für die Bedürfnisse einer prähistorischen Welt programmiert, und sie sind deshalb so schlecht gerüstet, den Einbrüchen der Big-Tech-Konzerne in unser Aufmerksamkeitssystem zu widerstehen, weil sie in einer völlig anderen Reizumgebung evolutionär geformt wurden (Cytowic, R. E., 2025, Your Stone Age Brain in the Screen Age, MIT Press). Der amerikanische Evolutionspsychologe Glenn Geher von der State University of New York in New Paltz hat dasselbe Phänomen als evolutionary mismatch beschrieben, eine evolutionäre Fehlanpassung zwischen der Hardware, mit der wir geboren werden, und den Umgebungsbedingungen, in denen wir leben. Unsere Gehirne sind verdrahtet für bestimmte Bedingungen, sagt Geher, aber unsere Umgebung entspricht diesen Bedingungen nicht mehr.
Wenn man sich die Tragweite dieser Aussage klar macht, wird vieles, was wir gerade als gesellschaftliche Krise erleben, plötzlich erklärbar. Die Zunahme von Angststörungen ist kein psychiatrisches Versagen einer Generation, sie ist die natürliche Reaktion eines Steinzeitgehirns auf eine Reizdichte, die es nicht verarbeiten kann. Die Abnahme der Aufmerksamkeitsspanne ist keine moralische Schwäche, sie ist die unweigerliche Folge dessen, dass das dopaminerge Belohnungssystem auf eine Reizfrequenz umtrainiert wurde, die in keiner Umwelt vorkommt, in der sich dieses System entwickelt hat. Die wachsende Polarisierung gesellschaftlicher Diskurse ist keine moralische Verirrung, sie ist das, was geschieht, wenn ein Tribalgehirn, das für Gruppen von 150 Personen gebaut wurde, in eine virtuelle Welt von hundert Millionen Stimmen gestellt wird und versucht, in dieser Welt eine eigene Identität durch Abgrenzung herzustellen.
All das ist nicht Schicksal, all das ist Diagnose, und die Diagnose lautet, dass wir mit einer veralteten Hardware in einer Umgebung leben, für die diese Hardware nicht entwickelt wurde, und dass die Konsequenzen dieser Diskrepanz nicht nur an einzelnen Symptomen, sondern auf der Ebene der gesamten Spezies sichtbar werden. Was wir gerade als gesellschaftliche Krise bezeichnen, ist in Wahrheit eine biologische Krise. Der Homo Sapiens überfordert sich gerade selbst.
Der Neandertaler in uns
Es kommt aber noch ein zweiter Faktor hinzu, der diese Hardware-Frage zusätzlich verkompliziert, und das ist der Beitrag eines anderen Menschen, der vor 40.000 Jahren ausgestorben ist und der bis heute in unserem Erbgut spürbare Spuren hinterlassen hat. Die nicht-afrikanische Bevölkerung der Erde trägt im Schnitt zwischen 1 und 2 Prozent Neandertaler-Erbgut in sich, in einigen europäischen und asiatischen Populationen sind es bis zu 5 Prozent (MedlinePlus Genetics, National Library of Medicine, 2024, What does it mean to have Neanderthal or Denisovan DNA, Bethesda, Maryland). Diese Tatsache ist seit der Veröffentlichung des Neandertaler-Genoms durch Svante Pääbo und sein Team im Jahr 2010 etabliert (Green, R. E. et al., 2010, A draft sequence of the Neandertal genome, Science, 328(5979), 710-722), und sie hat in den vergangenen 15 Jahren eine Reihe von Befunden hervorgebracht, die für unsere heutige Diskussion direkt relevant sind.
Eine Studie aus dem Jahr 2016 unter der Leitung von Corinne Simonti an der Vanderbilt University in Nashville hat erstmals systematisch untersucht, welche klinischen Konsequenzen das Neandertaler-Erbgut bei modernen Europäern hat, indem die Forscher die Genome von 28.000 erwachsenen Patienten der Vanderbilt-Klinik mit deren elektronischen Krankenakten verknüpft haben (Simonti, C. N. et al., 2016, The phenotypic legacy of admixture between modern humans and Neandertals, Science, 351(6274), 737-741). Die Ergebnisse waren bemerkenswert. Bestimmte Neandertaler-Genvarianten erhöhen das Risiko für Hautkrebs, andere beeinflussen das Risiko für Nikotinabhängigkeit, wieder andere stehen mit Depressionen und neurologischen Auffälligkeiten in Zusammenhang, manche positiv, manche negativ. Eine überraschend hohe Zahl von Neandertaler-DNA-Fragmenten ist mit psychiatrischen und neurologischen Effekten verbunden. Die Doktorandin Corinne Simonti formulierte es damals nüchtern. Das Gehirn sei unglaublich komplex, sagte sie, und es sei daher nicht überraschend, dass Veränderungen aus einem anderen evolutionären Pfad negative Konsequenzen haben könnten.
Eine zweite Studie, ebenfalls 2017 erschienen, hat anhand von Magnetresonanztomographie-Untersuchungen an 221 gesunden Erwachsenen europäischer Abstammung gezeigt, dass der Anteil an Neandertaler-Erbgut messbare Auswirkungen auf die Schädel- und Gehirnform hat (Gregory, M. D. et al., 2017, Neanderthal-Derived Genetic Variation Shapes Modern Human Cranium and Brain, Scientific Reports, 7, 6308). Der durchschnittliche Neander-Score in dieser Studienpopulation lag bei 5,4 Prozent, mit einer Spanne zwischen 3,9 und 6,5 Prozent. Mit anderen Worten, die nicht-afrikanische Bevölkerung trägt einen messbaren, anatomisch erkennbaren Beitrag eines vor 40.000 Jahren ausgestorbenen Verwandten in der eigenen Schädelform und Gehirnstruktur.
Was bedeutet das für unsere Diskussion über den Otto Sapiens? Es bedeutet, dass wir nicht einfach ein Steinzeitgehirn in einer modernen Welt haben, wir haben ein Steinzeitgehirn mit zusätzlicher archaischer Beimischung in einer modernen Welt, und diese Beimischung beeinflusst Suchtverhalten, psychiatrische Anfälligkeit, Gehirnmorphologie. Die nicht-afrikanische Bevölkerung, also auch die mitteleuropäische, in der ich lebe, trägt eine genetische Hypothek, die sie für bestimmte moderne Krankheitsbilder anfälliger macht, und sie tut das mit einem Gehirn, das ohnehin nicht für die Welt gebaut wurde, in der es jetzt funktionieren soll. Das ist die anthropologische Doppelbelastung, von der ich auf den nächsten Seiten zeigen werde, wie der Otto Sapiens auf sie reagiert. Er reagiert nicht mit Anpassung, denn dafür ist die Evolution zu langsam und seine Hardware zu fest. Er reagiert auch nicht mit kultureller Selbstreflexion, denn dafür müsste er Metakognition trainiert haben. Er reagiert mit Flucht, und seine Flucht heißt Smartphone, Instagram, TikTok und ChatGPT.
Die Hardware passt nicht zur Software
Wenn man die Diagnose der vergangenen zwei Sektionen zusammenfasst, hat man eine Aussage, die sich in einem einzigen Bild greifbar machen lässt. Stellen Sie sich einen Computer aus dem Jahr 1990 vor, einen schweren, beigen Kasten mit einem Prozessor, der mit 33 Megahertz taktet, mit 4 Megabyte Arbeitsspeicher, mit einer Festplatte, die ungefähr 80 Megabyte Daten speichern kann. Stellen Sie sich nun vor, Sie würden auf diesem Gerät versuchen, eine moderne Anwendung zur generativen Künstlichen Intelligenz auszuführen, ein Modell mit 70 Milliarden Parametern, das pro Inferenz mehrere Gigabyte an Daten durchschiebt. Was würde passieren? Das Gerät würde einfrieren, abstürzen, und im schlimmsten Fall würde der Prozessor durchbrennen, weil er die Last nicht tragen kann.
Genau das ist die Situation, in der sich das menschliche Gehirn seit etwa 15 Jahren befindet. Die Hardware ist seit 35.000 Jahren unverändert, die Software, in der diese Hardware ausgeführt wird, hat sich exponentiell beschleunigt, und das Gehirn reagiert auf diese Diskrepanz mit Symptomen, die in jeder Klinik der westlichen Welt täglich registriert werden. Burnout, Angststörungen, Depressionen, Aufmerksamkeitsdefizit-Hyperaktivitäts-Syndrom bei Erwachsenen, Schlafstörungen, chronische Erschöpfung. Diese Symptome werden in der klinischen Praxis oft als psychische Erkrankungen behandelt, mit Medikamenten, mit Psychotherapie, mit der Empfehlung, mehr Sport zu treiben, weniger Kaffee zu trinken, Achtsamkeit zu üben. All das hilft in einzelnen Fällen, aber es behandelt das Symptom, nicht die Ursache. Die Ursache ist eine biologische, und sie lautet, dass diese Hardware nicht für diese Software gebaut wurde.
Es gibt Menschen, die argumentieren, das Gehirn sei plastisch genug, sich anzupassen, und sie verweisen auf neurowissenschaftliche Befunde, die zeigen, dass das menschliche Gehirn auch im Erwachsenenalter erstaunliche Anpassungsleistungen vollbringen kann. Das stimmt für bestimmte Funktionen. Wer Geige spielen lernt, der bildet im somatosensorischen Cortex eine größere Repräsentation der linken Hand aus. Wer Londoner Taxifahrer wird und das The-Knowledge-Examen besteht, der hat einen messbar vergrößerten posterioren Hippocampus, wie Eleanor Maguire in ihren klassischen Studien gezeigt hat (Maguire, E. A. et al., 2000, Navigation-related structural change in the hippocampi of taxi drivers, Proceedings of the National Academy of Sciences, 97(8), 4398-4403). Aber diese Plastizität funktioniert nur innerhalb der biologischen Grundarchitektur, sie kann diese Grundarchitektur nicht überwinden. Ein Gehirn, das für eine Reizdichte von vielleicht hundert relevanten Reizen pro Tag gebaut wurde, kann nicht durch Plastizität in ein Gehirn umgebaut werden, das eine Reizdichte von zehntausend Reizen pro Tag verarbeitet. Die Plastizität ist eine Fein-Justierung, kein Bauplan-Wechsel.
Was tatsächlich passiert, wenn man das Gehirn dieser Überlastung aussetzt, ist eine Art kognitiver Verschleiß, ein Abnutzungsprozess, der nicht reversibel ist, jedenfalls nicht ohne radikale Veränderung der Umgebungsbedingungen. Das werde ich in den Sektionen zur Smartphone-Forschung gleich empirisch belegen. Vorher aber zur zentralen philosophischen Frage, die dieser ganzen Diagnose vorausliegt, und die niemand stellt, weil sie unbequem ist. Die Frage lautet, wo der Mensch in seiner eigenen Zeit lebt, und sie ist es, die alle anderen Fragen entscheidet.
Yesterday is history, tomorrow is a mystery
Es gibt ein Wortspiel im Englischen, das so alt ist, dass ich es heute nicht mehr eindeutig einer Quelle zuordnen kann. Yesterday is history, tomorrow is a mystery, but today is a gift, that is why it is called the present. Das Spiel mit den beiden Bedeutungen von present, also Gegenwart und Geschenk, lässt sich ins Deutsche nicht direkt übersetzen, aber die Idee dahinter ist universal und sie ist alt. Sie taucht in der stoischen Philosophie auf, sie findet sich im Buddhismus, sie wird Eleanor Roosevelt zugeschrieben, sie wurde durch die Kung-Fu-Panda-Filme einer breiten Öffentlichkeit bekannt, und sie ist trotz ihrer Banalität die wahrste Aussage über den menschlichen Geist, die man in einem Satz formulieren kann. Gestern ist Geschichte, morgen ist ein Geheimnis, heute ist ein Geschenk, deshalb nennt man es Gegenwart.
Wenn ich in meinem Arbeitszimmer der Wanduhr zuhöre, dann tue ich genau das, was dieser Satz beschreibt. Ich bin im Heute, ich bin im Jetzt, ich bin in dem Moment, in dem ein Tick und ein Tack die einzige Zeitstruktur sind, die mich gerade erreicht. Dieser Moment ist alles, was ich tatsächlich habe. Alles andere ist Erinnerung oder Spekulation, und Erinnerung und Spekulation sind beides keine realen Zustände, sie sind mentale Konstruktionen, die wir uns aufbauen, weil das menschliche Gehirn sich darauf spezialisiert hat, Zeit als kognitive Dimension zu konstruieren, anstatt sie nur als unmittelbare Sinneserfahrung wahrzunehmen. Das ist eine grandiose evolutionäre Errungenschaft, die uns vom Tier unterscheidet. Aber sie hat einen Preis, und der Preis ist, dass wir die Fähigkeit haben, uns in Vergangenheit und Zukunft hineinzubegeben, und dass wir diese Fähigkeit so intensiv nutzen können, dass wir den einzigen Ort, an dem wir tatsächlich existieren, verlieren.
Der Otto Sapiens lebt fast nie im Hier und Jetzt. Er lebt in der Zukunft, weil die Zukunft der Ort ist, an dem die Angst lebt, und je weiter er in die Zukunft denkt, desto mehr Raum hat die Angst, sich auszubreiten. Er macht sich Sorgen um die Rente, die er erst in 30 Jahren bezieht, um die Klimakatastrophe, die er erst in 40 Jahren wirklich spüren wird, um die Künstliche Intelligenz, die ihn erst in 10 Jahren ersetzen wird, um die nächste Pandemie, von der niemand weiß, ob sie kommt, und um die nächste politische Wahl, deren Ausgang ihn dazu zwingen wird, das Land zu verlassen oder die Demokratie zu retten oder beides gleichzeitig. Diese Sorgen sind nicht völlig unbegründet, aber sie haben eines gemeinsam. Sie spielen sich alle in einer Zeit ab, die noch nicht existiert. Sie sind reine Konstruktionen, die er in der Gegenwart erfindet, um sich selbst eine Bedrohungslage einzurichten, mit der er etwas anfangen kann. Denn eine Bedrohungslage in der Zukunft hat einen Vorteil gegenüber der Gegenwart, sie ist nicht real, und solange sie nicht real ist, muss er nichts tun. Er muss nur Angst haben, und Angst zu haben ist anstrengend, aber es ist weniger anstrengend als zu handeln.
Wenn er die Angst vor der Zukunft nicht mehr aushält, wechselt er in den anderen Modus, in den Modus der Vergangenheit, und in der Vergangenheit findet er fast ausschließlich Schmerz. Er erinnert sich an die Demütigung in der Schule vor 30 Jahren, an die enttäuschte Liebe vor 20 Jahren, an den Streit mit dem Vater vor 10 Jahren, an die Pandemie vor 5 Jahren, an den unhöflichen Verkäufer vor einer Woche. Er sammelt diese Erinnerungen wie Beweise in einem Gerichtsverfahren, in dem er sich selbst als Opfer darstellt, und je mehr Beweise er sammelt, desto klarer wird ihm, dass er ein Recht hat, sich heute schlecht zu fühlen, weil er gestern schlecht behandelt wurde. Auch das hat einen psychologischen Vorteil gegenüber dem Hier und Jetzt. Er muss nicht im gegenwärtigen Moment präsent sein, und er muss nicht in dem gegenwärtigen Moment Verantwortung übernehmen, weil er sich noch immer mit dem beschäftigt, was ihm widerfahren ist. Schmerz ist ein wunderbarer Vorwand, nicht zu leben.
Was der Otto Sapiens nicht tut, fast nie, ist im Hier und Jetzt zu sein. Denn das Hier und Jetzt hat eine Eigenschaft, die alle anderen Zeitformen nicht haben. Es ist real. Es ist überprüfbar. Es lässt sich nicht durch Konstruktion verändern. Wenn ich in diesem Moment in der Pizzeria sitze und eine Mozzarella im Mund habe, dann gibt es keine Möglichkeit, diese Tatsache zu interpretieren, zu beschönigen, zu betrauern oder zu fürchten. Sie ist einfach. Und genau diese Einfachheit ist es, die der Otto Sapiens nicht aushalten kann. Im Hier und Jetzt müsste er sich selbst begegnen, ohne die Schutzschicht aus Vergangenheit und Zukunft, die er um sich herum aufgebaut hat. Er müsste fühlen, ohne zu interpretieren. Er müsste sein, ohne zu werden oder gewesen zu sein. Und das ist das einzige, was er um keinen Preis tun will.
Daher hat er etwas entwickelt, was in der Menschheitsgeschichte beispiellos ist. Er sorgt selbst mit seinen eigenen Gedanken dafür, dass es ihm schlecht geht. Er braucht keine äußere Bedrohung mehr, um sich elend zu fühlen, er produziert das Elend in der eigenen Werkstatt, mit den eigenen kognitiven Ressourcen, in einer beeindruckenden industriellen Effizienz. Sein Smartphone hilft ihm dabei, sein Instagram-Feed hilft ihm dabei, ChatGPT hilft ihm dabei, aber diese Werkzeuge sind nur Verstärker. Der Antrieb kommt aus seinem eigenen Inneren, und er hat die wichtigste Aufgabe seines Gehirns, nämlich im Hier und Jetzt zu funktionieren, an eine Maschinerie ausgelagert, die ihn dauerhaft aus dem Hier und Jetzt heraushält.
Es wäre eigentlich so einfach für ihn, das zu ändern. Er müsste nur wieder lernen, im gegenwärtigen Moment zu leben. Er müsste die Wanduhr hören, statt das Smartphone zu checken. Er müsste die Mozzarella schmecken, statt das nächste Foto für Instagram zu komponieren. Er müsste die Stille zwischen zwei Sätzen aushalten, statt sie mit dem nächsten Reel zu füllen. Es wäre so einfach. Und es ist gleichzeitig das Schwerste, was er tun könnte, weil es ihn mit dem konfrontieren würde, was er die ganze Zeit zu vermeiden versucht. Sich selbst.
Metakognition ist das, was Sie nicht haben
Es gibt eine kognitive Fähigkeit, die in der Forschung der letzten 30 Jahre zunehmend ins Zentrum der Diskussion über menschliche Intelligenz gerückt ist, und die fast alles erklärt, was ich in den vorausgegangenen Sektionen beschrieben habe. Diese Fähigkeit heißt Metakognition, und sie bedeutet, vereinfacht ausgedrückt, das Denken über das eigene Denken. Metakognition ist die Fähigkeit, beim Denken einen Schritt zurückzutreten, die eigene gedankliche Operation zu beobachten, zu beurteilen, ob sie zielführend ist, ob die Voraussetzungen stimmen, ob es vielleicht einen blinden Fleck gibt, der das Ergebnis verzerrt. Sie ist das, was uns vom reaktiven Reizverarbeiter zum reflektierenden Subjekt macht. Sie ist die Voraussetzung dafür, dass wir nicht nur intelligent denken können, sondern auch wissen können, ob unser Denken in einem konkreten Fall überhaupt intelligent ist.
Stephen Fleming, ein Neurowissenschaftler am University College London, der zu den führenden Forschern auf diesem Gebiet zählt, hat in seinen Arbeiten zur Metakognition gezeigt, dass diese Fähigkeit nicht etwa identisch mit dem IQ ist, was viele Menschen intuitiv vermuten würden. Sie ist eine eigenständige kognitive Variable. Man kann einen hohen IQ haben und über eine schlechte Metakognition verfügen, was bedeutet, dass man komplexe Probleme schnell lösen kann, aber überhaupt nicht merkt, wenn man bei einem konkreten Problem falsch liegt. Umgekehrt kann man einen moderaten IQ haben und über eine ausgezeichnete Metakognition verfügen, was bedeutet, dass man bei Problemen langsamer ist, aber sehr genau spürt, wann man an die eigene Grenze stößt und Hilfe braucht. Eine in Frontiers veröffentlichte Übersichtsarbeit fasst es prägnant zusammen, indem sie Metakognition als die Brücke zwischen kognitiven Fähigkeiten und tatsächlich intelligentem Verhalten beschreibt (Norman, E. et al., 2019, Metacognition in psychology, Review of General Psychology, 23(4), 403-424).
Noch deutlicher wird die Bedeutung der Metakognition in einer Untersuchung, die Heather Butler und Kollegen 2017 in Thinking Skills and Creativity veröffentlicht haben. Die Forscher untersuchten an einer Stichprobe von 244 Erwachsenen, ob kritisches Denken oder Intelligenz der bessere Prädiktor für reale Lebensereignisse ist (Butler, H. A., Pentoney, C., & Bong, M. P., 2017, Predicting real-world outcomes, Thinking Skills and Creativity, 25, 38-46). Die Probanden absolvierten einen Test zur kritischen Denkfähigkeit, einen Intelligenztest und eine Inventarliste mit realen Lebensereignissen, von Insolvenzen über ungewollte Schwangerschaften bis hin zu beruflichen Misserfolgen. Das Ergebnis war eindeutig. Menschen mit höheren Werten in der kritischen Denkfähigkeit hatten signifikant weniger negative Lebensereignisse erlebt als Menschen mit niedrigeren Werten. Die kritische Denkfähigkeit, die als eine Form der Metakognition gilt, sagte negative Lebensereignisse besser voraus als der IQ und fügte der Varianz, die durch den IQ erklärt wurde, einen eigenständigen Beitrag hinzu. Mit anderen Worten, ein hoher IQ allein bewahrt einen nicht vor schlechten Entscheidungen. Metakognition tut das.
Und nun zur entscheidenden Pointe, die ich an dieser Stelle ohne Umschweife formuliere, weil sie das ganze Argument dieses Beitrags trägt. Metakognition ist nicht angeboren. Man wird nicht mit ihr geboren, jedenfalls nicht mit einer entwickelten Form. Sie ist eine Fertigkeit, die antrainiert werden muss, und sie wird durch genau jene Aktivitäten antrainiert, die der Otto Sapiens systematisch vermeidet. Sie wird antrainiert durch ruhiges Lesen, durch das Schreiben eigener Texte, durch das geduldige Lösen von Problemen, die nicht in einer einzigen Sitzung lösbar sind, durch das Aushalten von Unsicherheit, durch das Konfrontieren mit der eigenen Inkompetenz, durch die ruhige Selbstbeobachtung im Hier und Jetzt. Sie wird nicht antrainiert durch das Scrollen auf TikTok, durch das schnelle Konsumieren von Reels, durch das Abfragen von ChatGPT, durch das Lesen von Bild-Schlagzeilen oder durch das nervöse Checken von Push-Benachrichtigungen.
Daraus ergibt sich eine geschlossene Falle, in der der Otto Sapiens sitzt, ohne sich befreien zu können, weil er die Schlüssel zur Befreiung ebenfalls nicht erkennt, weil sie metakognitive Schlüssel sind, die er nicht hat. Er ist überfordert von einer Welt, die seine Hardware nicht verarbeiten kann. Er hat das Werkzeug nicht, das ihm diese Überforderung erst sichtbar machen würde, nämlich die Metakognition. Er kann das Werkzeug nicht entwickeln, weil seine Lebensweise die Bedingungen, unter denen es entstehen würde, systematisch zerstört. Und er kann seine Lebensweise nicht ändern, weil er nicht weiß, dass sie das Problem ist, weil ihm dafür wieder Metakognition fehlen würde. Es ist ein perfekter Zirkel, und der Otto Sapiens steckt mittendrin.
Wer einmal hineingerät, in diese Spirale, kommt aus eigener Kraft nicht mehr heraus, jedenfalls nicht ohne eine massive Erschütterung, die ihn zum Innehalten zwingt. Solche Erschütterungen passieren manchmal, in Form von schweren Krankheiten, in Form von Trauerfällen, in Form von beruflichen Katastrophen, und manchmal nutzen Menschen diese Erschütterungen tatsächlich, um den Zirkel zu durchbrechen. Aber das ist selten. Häufiger ist, dass der Otto Sapiens nach einer solchen Erschütterung erst recht in seine Werkzeuge flieht, weil sie ihm Trost spenden, der allerdings nur ein simulierter Trost ist, ein Pflaster auf einer Wunde, die in Wahrheit eine Operation bräuchte. Sein Smartphone ist sein Pflaster. Instagram ist sein Pflaster. ChatGPT ist sein Pflaster. Und der Otto Sapiens klebt sich diese Pflaster auf, in dem Glauben, sie würden ihn heilen, während sie in Wahrheit nur die Sicht auf die eigentliche Wunde verstellen, damit er sich nicht selbst behandeln muss.
Das Telefon, das auch in der Tasche denkt
Wenn ich vorhin in der autobiographischen Sektion geschrieben habe, dass das Internet für mich mit dem grauen Akustikkoppler begann, dann meinte ich das nicht romantisch, sondern technisch. Damals war das Gerät an einem festen Ort, am Schreibtisch, mit einem Kabel an die Wand gebunden. Wenn man es nicht nutzen wollte, war es nicht da. Diese physische Trennung zwischen Mensch und Gerät war die letzte Schutzbarriere, die das menschliche Gehirn vor der Reizüberflutung bewahrte, und sie ist im Verlauf der letzten 20 Jahre Schritt für Schritt verschwunden. Das Smartphone hat sie endgültig beseitigt, weil das Smartphone immer dabei ist, in der Tasche, im Bett, am Esstisch, in der Toilette. Es gibt keinen Moment mehr im Tag eines Otto Sapiens, in dem das Gerät nicht in seiner unmittelbaren Reichweite ist.
Was das mit dem menschlichen Gehirn macht, ist seit Jahren Gegenstand empirischer Forschung, und die Befundlage ist eindeutig genug, dass eigentlich kein Zweifel mehr möglich sein sollte. Eine Studie von Adrian Ward und Kollegen aus dem Jahr 2017, veröffentlicht im Journal of the Association for Consumer Research, hat gezeigt, dass die bloße Anwesenheit eines Smartphones in der Sichtweite die kognitive Kapazität messbar reduziert, selbst wenn das Gerät ausgeschaltet ist und niemand es berührt (Ward, A. F. et al., 2017, Brain drain, Journal of the Association for Consumer Research, 2(2), 140-154). Die Probanden, die ihr Telefon im Nebenraum abgegeben hatten, schnitten in einem Aufmerksamkeitstest signifikant besser ab als jene, die das Telefon umgekehrt auf dem Schreibtisch liegen hatten. Die Forscher erklären den Effekt damit, dass das Gehirn ständig kognitive Ressourcen darauf verwenden muss, das Telefon nicht zu beachten, und dass dieser Verzichtsprozess selbst Kapazität verbraucht, die dann für die eigentliche Aufgabe fehlt. Es ist eine elegante Pointe, die einen wundern lässt, warum nicht jeder Mensch sein Smartphone konsequent aus dem Sichtfeld räumt. Die Antwort ist, dass die meisten Menschen nicht wissen, dass sie es gerade verlieren, weil sie es nicht messen können, weil sie keine Metakognition trainiert haben, weil ihre Kapazität durch das Telefon reduziert ist.
Noch wuchtiger ist eine Studie aus dem Februar 2025, die im PNAS Nexus erschienen ist und auf die ich im Folgenden ausführlich eingehen werde, weil sie das wahrscheinlich klarste empirische Bild dessen zeichnet, was Smartphone-Nutzung mit dem menschlichen Gehirn anstellt. Noah Castelo, Kostadin Kushlev, Adrian Ward, Michael Esterman und Peter Reiner haben in einem groß angelegten randomisierten Experiment untersucht, was passiert, wenn man Probanden für 2 Wochen das mobile Internet auf ihren Smartphones blockiert (Castelo, N. et al., 2025, Blocking mobile internet on smartphones improves sustained attention, mental health, and subjective well-being, PNAS Nexus, 4(2), pgaf017). Die Teilnehmer durften ihr Telefon weiter benutzen, aber alle datenbasierten Anwendungen waren blockiert, sie konnten also telefonieren und SMS schreiben, aber kein Instagram öffnen, kein TikTok, kein WhatsApp mit Bildversand, keine Mail-App. Die Forscher haben dann nach den 2 Wochen die Probanden in einer Reihe von Tests untersucht und mit einer Kontrollgruppe verglichen, die ihr Telefon weiter normal genutzt hatte.
Die Ergebnisse sind so deutlich, dass man sie zweimal lesen sollte. Die Probanden, denen für 2 Wochen das mobile Internet entzogen worden war, zeigten eine messbare Verbesserung der psychischen Gesundheit, die größer war als die Verbesserung, die typischerweise mit Antidepressiva erzielt wird. Sie zeigten eine Verbesserung der subjektiven Lebenszufriedenheit. Und sie zeigten eine Verbesserung der anhaltenden Aufmerksamkeit, die in absoluten Zahlen einer Verjüngung um 10 Lebensjahre entsprach. Das ist keine Marketingaussage, das ist das Ergebnis einer randomisierten kontrollierten Studie, veröffentlicht in einer Schwesterpublikation von PNAS, einer der führenden wissenschaftlichen Zeitschriften der Welt. Zwei Wochen ohne mobiles Internet machen einen 40-jährigen Menschen kognitiv zu einem 30-jährigen. Die antidepressive Wirkung übertrifft jene chemischer Antidepressiva.
Wenn diese Studie nicht aus einem Forschungslabor in den Vereinigten Staaten käme, sondern beispielsweise aus einer pharmazeutischen Versuchsreihe für ein neues Medikament, dann wäre der Pressespiegel der vergangenen Wochen voll davon, und das Mittel wäre auf dem Weg zur Zulassung. Es ist aber kein Medikament, es ist eine Verhaltensänderung, und Verhaltensänderungen bringen keinem Konzern Geld, weshalb über sie weniger berichtet wird. Der Otto Sapiens wird diese Studie also nicht lesen, weil sie auf keinem seiner üblichen Kanäle auftaucht, und wenn er sie liest, dann wird er sie als alarmistische Übertreibung abtun, weil sie ihn auffordern würde, etwas zu ändern, was Mühe macht, und Mühe macht Angst, und Angst hasst der Otto Sapiens.
Ich habe diese Schlüsse aus meinem eigenen Leben gezogen, und zwar lange bevor die Studie erschien, weil ich aus meiner forensischen Arbeit gelernt habe, Reize von Inhalten zu unterscheiden. Ich bin nicht erreichbar im permanenten Sinn. Wer meine Mobilnummer wählt, gelangt zu Tyra, einer kleinen Künstlichen Intelligenz, die ich selbst geschrieben habe und die seit Jahren als digitale Vorzimmerdame funktioniert. Tyra ist freundlich, aber bestimmt. Sie nimmt den Namen des Anrufers auf, sie fragt nach dem Anliegen, sie erklärt, dass der Adressat des Anrufs nicht direkt sprechbar ist, und sie empfiehlt, eine E-Mail zu schreiben oder eine Telegram-Nachricht zu senden. Das reicht für alles, was tatsächlich wichtig ist. Wer mich wirklich braucht, schreibt mir, und wer nur reden will, weil er gerade Langeweile hat, der wird von Tyra elegant ausgesiebt, ohne dass ich es überhaupt mitbekomme. Diese Anordnung hat meine Lebensqualität in einem Ausmaß verbessert, das ich in den ersten Monaten kaum glauben konnte, weil ich plötzlich Stunden hatte, in denen ich tatsächlich anwesend war, anstatt zwischen Reizen zu pendeln. Ich konnte schreiben, ohne unterbrochen zu werden. Ich konnte mit Loui am Esstisch sitzen, ohne dass ein Bildschirm leuchtete. Ich konnte mit Bandit spazieren gehen, ohne dass eine Vibration meine Hosentasche füllte. Es war, im engeren Wortsinn, wie die Rückkehr meiner eigenen Zeit.
Reels, Reels, Reels
Wenn das Smartphone der Tumor ist, dann sind Instagram, TikTok und ähnliche Plattformen die Metastasen, die er ausstreut, weil sie auf einem Geschäftsmodell beruhen, das nur eine einzige Variable maximiert, nämlich die Zeit, die der Nutzer auf der Plattform verbringt. Alles, was auf diesen Plattformen geschieht, ist optimiert für diese eine Variable. Die Algorithmen, die entscheiden, welches Video als nächstes erscheint, sind keine neutralen Empfehlungssysteme, sie sind dressierte Steigerungsmaschinen, die in jeder Millisekunde lernen, was den Nutzer länger auf der Plattform hält, und ihm dann genau das anbieten. Das Resultat ist eine perfekte Verhaltensmodifikation, vergleichbar mit den klassischen Konditionierungsexperimenten von Skinner, mit dem Unterschied, dass die Tauben in Skinners Käfigen wussten, dass sie konditioniert wurden, während der Otto Sapiens, der durch seinen Reels-Feed scrollt, das nicht weiß.
Die Forschungslage zu den kognitiven Folgen ist mittlerweile so umfangreich, dass ich hier nur die markantesten Befunde anführen kann. Eine 2025 in der Zeitschrift Human Behavior and Emerging Technologies referenzierte Meta-Analyse über fast 100.000 Probanden hat gezeigt, dass intensive Nutzer von Kurzvideo-Plattformen niedrigere Werte in Aufmerksamkeit, inhibitorischer Kontrolle und Arbeitsgedächtnis aufweisen, also genau in jenen kognitiven Fähigkeiten, die für anspruchsvolles Denken, anhaltende Konzentration und Selbstregulation notwendig sind. Das ist nicht eine kleine Stichprobe, das ist eine Hochrechnung über eine Größenordnung, die statistisch belastbare Aussagen erlaubt. Pediater haben TikTok als Dopamin-Maschine beschrieben, weil jedes neue Video, das auf dem Bildschirm erscheint, einen kleinen dopaminergen Schub auslöst, und die Erwartung des nächsten Schubs trainiert das Belohnungssystem darauf, immer kürzere Intervalle als befriedigend zu empfinden. Das Resultat ist eine schrittweise Verkürzung der Aufmerksamkeitsspanne, bis ein Punkt erreicht ist, an dem alles, was länger als 15 Sekunden dauert, bereits als ermüdend empfunden wird.
Das Phänomen hat sogar Eingang in den allgemeinen Sprachgebrauch gefunden. Das Wort des Jahres 2024 im Oxford English Dictionary war Brain Rot, also Hirnfäule, und die Wahl wurde nicht von Bloggern getroffen, sondern von einem Gremium aus Linguisten, die feststellten, dass der Begriff in den vergangenen 12 Monaten so frequent verwendet wurde, dass er die Aufnahme rechtfertigt. Eine Sprache, die ein neues Wort für die kognitive Schädigung durch digitalen Konsum entwickelt, ist eine Sprache, die ein Problem registriert hat. Der Otto Sapiens nimmt diese Registrierung nicht zur Kenntnis, weil er gerade scrollt.
Ich habe Loui einmal, vor einigen Monaten, in einer Buchhandlung beobachtet, in der wir eigentlich beide nach Fachliteratur suchten. Sie war in einem ruhigen Eck verschwunden und las stehend ein Buch, von dem sie nicht aufblickte, eine Viertelstunde lang. Es war ein wissenschaftliches Werk über Veterinärpathologie, mit einer Dichte an Information, die selbst für Fachleute eine konzentrierte Lesehaltung erfordert. Während sie las, ging am Regal neben ihr ein junger Mann vorbei, vielleicht Anfang dreißig, der ein Buch in der Hand hielt, das er sich offenbar gerade hatte zeigen lassen, und der dieses Buch in einer für mich auffälligen Weise zu lesen versuchte. Er öffnete es, las eine halbe Seite, dann zückte er sein Smartphone, scrollte 8 Sekunden lang durch irgendetwas, dann las er die nächste halbe Seite, dann scrollte er wieder. Diesen Wechsel führte er mehrere Male durch, bevor er das Buch schließlich zur Seite legte und nur noch auf dem Telefon blieb. Er war nicht gelangweilt, er konnte nicht. Sein Gehirn hatte sich an die Sieben-Sekunden-Spanne der Reels gewöhnt, und ein zusammenhängender Text, der über mehrere Minuten Konzentration verlangte, war für dieses Gehirn nicht mehr verarbeitbar. Loui blickte irgendwann auf, sah den jungen Mann, sah mich, und wir tauschten den Blick aus, den wir manchmal tauschen, wenn etwas am Rand des Bewusstseins liegt, was beide gleichzeitig denken. Es war derselbe Blick, den ich in der Pizzeria mit dem schweigsamen Wirt tausche. Ein Blick, der sagt, hier hat soeben etwas stattgefunden, was eine ganze Generation diagnostiziert, ohne dass jemand es ausspricht.
Bild, die Königin der Hooks
An dieser Stelle möchte ich kurz die Bühne wechseln und über ein deutsches Medienphänomen sprechen, das ich aus rein wissenschaftlichem Interesse beobachte, weil es das vielleicht eleganteste Beispiel für angewandte Verhaltensökonomie darstellt, das in deutscher Sprache verfügbar ist. Die Bild-Zeitung lese ich nicht, weil ich keine Bild-Zeitung lese, das hatte ich erwähnt, aber ich analysiere sie gelegentlich, weil sie ein bemerkenswertes Studienobjekt für die psychologische Manipulation von Aufmerksamkeit darstellt. Ich rufe ihre Webseite auf, scrolle durch die Schlagzeilen, lese keinen einzigen Artikel, sondern beobachte die Methodik. Es ist faszinierend.
Die Bild-Zeitung arbeitet, wie alle erfolgreichen Clickbait-Medien, mit einer psychologischen Methode, die der amerikanische Verhaltensökonom George Loewenstein an der Carnegie Mellon University 1994 in einem klassischen Aufsatz beschrieben hat, der bis heute zu den meistzitierten Texten der Verhaltensökonomie gehört. Loewenstein nannte sie die Information-Gap Theory of Curiosity, also die Informationslückentheorie der Neugier (Loewenstein, G., 1994, The psychology of curiosity, Psychological Bulletin, 116(1), 75-98). Die Idee ist verblüffend einfach. Wenn ein Mensch wahrnimmt, dass zwischen dem, was er weiß, und dem, was er wissen könnte, eine Lücke besteht, dann erlebt er ein psychologisches Unbehagen, das ihn dazu treibt, diese Lücke zu schließen. Diese Lücke ist die Grundlage jeder erfolgreichen Schlagzeile, jedes Cliffhangers, jedes Reklametricks der vergangenen 100 Jahre. Sie sagen Ihnen gerade so viel, dass Sie wissen, dass etwas Wichtiges fehlt, aber nicht so viel, dass Ihre Neugier befriedigt wäre.
Die Bild-Zeitung beherrscht diese Methode in Vollendung. Die Schlagzeilen sind so konstruiert, dass sie den Leser in einen Zustand der Informationslücke versetzen, dem er sich kaum entziehen kann. Sätze wie Das steckt hinter diesem Fan-Foto oder Es war ein absoluter Ausnahmezustand sind keine Informationen, sie sind Türgriffe an Türen, die der Leser öffnen muss, um die Information dahinter zu sehen. Hinter der Tür wartet aber nicht die Information, sondern die Aufforderung zum Abschluss eines Bild-Plus-Abonnements, weil der Artikel nur mit Abonnement zu lesen ist. Genial einfach, wie das deutsche Watchblog Bildblog vor Jahren in einer Analyse formulierte. Die Methodik funktioniert seit Jahren, und sie funktioniert weiter, obwohl viele Leser das Spiel inzwischen verstanden haben. Sie klicken trotzdem, weil das Steinzeitgehirn die Informationslücke nicht ertragen kann.
Wer das Abonnement abgeschlossen hat, bekommt nicht nur die Texte, er wird in den nächsten Wochen mit weiteren Schlagzeilen versorgt, die ihn auf weiterführende Inhalte locken, die wiederum Schlagzeilen enthalten, die ihn auf wieder weitere Inhalte locken, und in regelmäßigen Abständen werden ihm Produkte angeboten, die ihn auf Amazon weiterleiten. Dort bestellt er etwas, weil das Steinzeitgehirn, das nicht hinterfragen kann, weil es überlastet ist, weil es Metakognition nicht trainiert hat, weil es Angst vor dem Hier und Jetzt hat, die Bestellung als kleines dopaminerges Belohnungsereignis verarbeitet. Drei Tage später kommt das Paket. Es wird ausgepackt, das Produkt wird benutzt, manchmal für 5 Minuten, manchmal länger, und dann liegt es im Schrank, wo es bis zur nächsten Spende an einen Wohltätigkeitsverein bleibt. So funktioniert das. Ich habe diese Kette in den letzten Jahren bei vielen Bekannten beobachtet, die ich gut kenne und die nicht dumm sind, aber die keine Metakognition haben und daher das Spiel nicht durchschauen können. Es ist immer dieselbe Sequenz. Schlagzeile, Klick, Abo, Schlagzeile, Klick, Amazon-Link, Bestellung, Paket, Vergessen.
Und ich kann jederzeit, wenn jemand danach fragt, präzise erklären, wie das funktioniert, weil ich es ohne emotionale Beteiligung betrachten kann. Ich bin nicht über die Bild empört, das wäre eine Verschwendung von Lebenszeit. Ich beobachte sie wie ein Pathologe ein interessantes Präparat. Sie ist ein hervorragendes Studienobjekt für die Frage, wie man mit den evolutionären Schwächen des menschlichen Gehirns Geld verdient, und sie tut das so professionell, dass man fast Respekt vor der Konsequenz haben kann, mit der das Geschäftsmodell durchgezogen wird. Dass dabei jeden Tag Millionen von Menschen einen Teil ihrer kognitiven Ressourcen, ihrer Aufmerksamkeit und ihres Geldes verlieren, ist nicht das Problem der Bild. Das ist das Problem des Otto Sapiens, der nicht gemerkt hat, dass er gerade gemolken wird.
Experten, die keine sind
Es gibt ein weiteres Phänomen, das mir in den letzten Jahren immer öfter aufgefallen ist und das eng mit der vorhergehenden Sektion zusammenhängt, weil es ebenfalls auf der evolutionären Schwäche des Steinzeitgehirns beruht, nämlich auf der eingebauten Autoritätshörigkeit. Das menschliche Gehirn ist darauf programmiert, Menschen mit hoher Position in der sozialen Hierarchie zu glauben, weil das in einer Stammesgesellschaft mit überschaubaren Gruppen ein evolutionärer Vorteil war. Wenn der Stammesälteste sagte, dass die Beeren am roten Strauch giftig sind, dann war es überlebensförderlich, ihm zu glauben, statt selbst auszuprobieren. In der medialen Gegenwart funktioniert dieselbe neurologische Schaltung, aber sie ist auf eine völlig andere Welt gerichtet, in der die Autoritäten nicht mehr nach Erfahrung und Kompetenz ausgewählt werden, sondern nach Fernsehtauglichkeit, nach Sprechgeschwindigkeit, nach Selbstinszenierung und nach Verfügbarkeit für Kameratermine.
Das Resultat sind die Experten, die keine sind. Sie sitzen in den Nachrichtenstudios und erklären den Zuschauern, was sie denken sollen, und sie tun das mit einer Selbstverständlichkeit, die jedem Skeptiker den Atem verschlägt. Ein Mann, der niemals beim Militär gedient hat, niemals einen einzigen Tag in einer Kriegszone war, niemals eine militärwissenschaftliche Arbeit verfasst hat, erklärt im Abendprogramm die strategische Lage im Ukraine-Krieg, mit dem Brustton der Überzeugung eines Mannes, der die Sache durchschaut hat. Eine Frau, die niemals eine epidemiologische Studie publiziert hat, niemals eine Pandemie begleitet hat, niemals einen Patienten mit einer respiratorischen Infektion behandelt hat, erklärt im Morgenmagazin die optimale Schutzstrategie gegen das nächste Virus, das gerade in den Medien beschrieben wird. Ein Wirtschaftsjournalist, der niemals eine Bilanz von der ersten bis zur letzten Zeile gelesen hat, erklärt in einem Wirtschaftsmagazin, warum die nächste Rezession unvermeidlich ist und welche Aktien man jetzt kaufen sollte.
Diese Experten sind nicht alle inkompetent in ihrem ursprünglichen Bereich. Manche von ihnen sind durchaus gebildet, manche haben Hochschulabschlüsse, manche haben Erfahrung in irgendeinem Feld. Das Problem ist nicht ihre Bildung, das Problem ist das Aushebeln des Kompetenzbegriffs durch die mediale Logik. In den Medien gilt als Experte nicht, wer ein Feld jahrzehntelang aus der Innenperspektive kennt, sondern wer schnell antworten kann, kameratauglich aussieht und für den nächsten Termin verfügbar ist. Das ist eine völlig andere Auswahllogik als die wissenschaftliche, und sie produziert ein Personal, das mit dem klassischen Begriff des Experten nichts mehr zu tun hat. Es produziert die Talking Heads, die wir alle kennen, und es produziert sie in industrieller Masse, weil das Geschäftsmodell des Nachrichtenfernsehens auf der ständigen Verfügbarkeit von Stimmen beruht, die etwas zu sagen haben, unabhängig davon, ob sie tatsächlich etwas wissen.
Der Otto Sapiens kann diese Experten nicht von echten Experten unterscheiden, weil ihm das diagnostische Werkzeug fehlt, das er dafür bräuchte, und das wir bereits an anderer Stelle benannt haben, die Metakognition. Er müsste in der Lage sein, sich zu fragen, woher dieser Mann eigentlich weiß, was er behauptet, und ob die Logik seiner Argumentation in sich schlüssig ist, und ob es Gegenstimmen gibt, die ähnliche Qualifikationen aufweisen und zu anderen Schlüssen kommen. All das wären metakognitive Operationen, die der Otto Sapiens nicht durchführt, weil er nicht weiß, wie. Er nimmt also die Aussage des Experten als Wahrheit, weil sie in einem Nachrichtenstudio gesprochen wurde, weil die Person seriös aussieht, weil die Tonlage Selbstsicherheit vermittelt, und weil die Aussage in 90 Sekunden in seinem Kopf untergebracht werden kann, ohne dass er anhalten und nachdenken müsste.
Das ist die mediale Diktatur, in der wir leben, und sie ist nicht die einer politischen Partei oder einer ideologischen Bewegung, sondern die der Geschwindigkeit. Wer schnell redet, hat recht. Wer langsam denkt, hat verloren. Wer eine differenzierte Position vertritt, ist langweilig. Wer eine zugespitzte Position vertritt, wird wieder eingeladen. Die mediale Logik selektiert auf Einfachheit, auf Schärfe, auf rhetorische Wucht, und sie eliminiert systematisch jene Stimmen, die tatsächlich etwas zu sagen hätten, weil diese Stimmen typischerweise langsamer sprechen, mehr qualifizieren, mehr Vorbehalte einbauen und damit fernsehuntauglich sind. Das Ergebnis ist eine öffentliche Diskussionskultur, die mit echter Sachkenntnis fast nichts mehr zu tun hat und die den Otto Sapiens dauerhaft mit Pseudoinformationen versorgt, die er als Wissen abspeichert, ohne zu merken, dass er gerade einem Schauspiel beigewohnt hat.
Nach Corona kommt Hanta, und Iran ist plötzlich weg
Wenn man die Mechanismen der vorhergehenden Sektion einmal verstanden hat, fällt einem ein Muster auf, das man danach nicht mehr loswird, weil es in fast jeder Nachrichtenwoche wiederkehrt, mit einer Regelmäßigkeit, die nicht zufällig sein kann. Es ist das Muster der Themenrotation, und es funktioniert ungefähr so. Eine bestimmte Krise wird in den Medien mit hoher Intensität verhandelt, oft über Wochen oder Monate, mit täglichen Updates, mit Experten in den Studios, mit emotionalen Bildern auf den Titelseiten. Dann, zu einem Zeitpunkt, der von außen nicht erklärbar ist, tritt eine neue Krise auf, und die vorherige verschwindet. Sie verschwindet nicht, weil sie gelöst wäre, sondern weil die mediale Aufmerksamkeit weiterzieht. Die alte Krise existiert noch immer, sie verursacht weiterhin Leid, sie kostet weiterhin Geld, aber sie ist medial unsichtbar geworden, und damit ist sie für den Otto Sapiens nicht mehr existent.
Ein gegenwärtiges Beispiel, das jeder Beobachter bestätigen kann, ist die mediale Behandlung des Ukraine-Krieges. Im Februar 2022 erschien das Thema Ukraine 15-mal auf den Titelseiten internationaler Magazine wie Time, Der Spiegel, The Economist und anderen. Im Jahr 2025 erschien es noch 5-mal, also ein Drittel der ursprünglichen Frequenz (Brand Ukraine, 2025, How Ukraine Has Disappeared from International Magazine Covers). Eine unabhängige ukrainische Forschungsorganisation hat dokumentiert, dass die Anzahl der Publikationen in internationalen Medien zum Thema Ukraine bereits 2024 um den Faktor 2,5 geringer war als 2023. Im Sommer 2025 berichtete die Washington Times in einem bemerkenswert offen formulierten Artikel, dass die Medien des Krieges müde geworden seien, dass die internationalen Magazine sich stattdessen mit der Bezos-Hochzeit in Venedig beschäftigten und mit der wichtigen Information, dass das Brautkleid 900 Arbeitsstunden in Anspruch genommen habe, während in der Ukraine täglich weiter Menschen sterben (Washington Times, 30. Juni 2025, What happened to the media’s coverage of the Ukraine war).
Das ist nicht eine politische Bewertung, das ist eine empirische Beobachtung. Eine Krise, die nicht endet, verschwindet aus dem medialen Bewusstsein, sobald sie die Aufmerksamkeitsökonomie nicht mehr bedient, also sobald die Spitze der Eskalation überschritten ist und der mühselige, langwierige, undramatische Verlauf einsetzt. Das ist der Punkt, an dem die Medien das Thema fallen lassen, weil es keine neuen, klickfähigen Schlagzeilen mehr produziert, und sie wenden sich der nächsten Eskalation zu. Die nächste Eskalation kann ein neuer Konflikt sein, ein neues Virus, eine neue Naturkatastrophe, ein neuer Skandal. Was sie genau ist, spielt für die Logik der Aufmerksamkeitsökonomie keine Rolle. Wichtig ist nur, dass sie neu ist und dass sie Bilder produziert.
So funktioniert das. Nach der Coronavirus-Pandemie kam für eine Weile der Affenpocken-Hype, der nach wenigen Wochen wieder verschwand, dann kam das Bird-Flu-Thema, dann Mpox, und mittlerweile kommt das Hantavirus, das durch ein Cluster auf einem Kreuzfahrtschiff in die internationalen Schlagzeilen geraten ist und vorübergehend behandelt wird, als wäre es die nächste große Pandemie, obwohl Hantaviren seit Jahrzehnten bekannt sind und die epidemiologische Lage keine besondere Aufregung rechtfertigt. Während das Hanta-Thema in den Schlagzeilen war, verschwand der Iran-Krieg fast vollständig aus der Berichterstattung. Es ist nicht so, dass im Iran nichts mehr geschehen würde, im Gegenteil, die Lage ist instabil, es gibt regelmäßige Eskalationen, aber das Thema produziert nicht mehr die Schlagzeilen, die im Aufmerksamkeitsmarkt verkäuflich sind, also wird es weggeschaltet. Es kommt wieder, wenn der nächste dramatische Vorfall eintritt, und es verschwindet erneut, sobald die nächste Krise dramatischer ist.
Diesen Mechanismus haben die amerikanischen Kommunikationswissenschaftler Maxwell McCombs und Donald Shaw bereits 1972 in einer klassischen Untersuchung beschrieben, die als Agenda-Setting-Theorie in die Lehrbücher einging (McCombs, M. E. & Shaw, D. L., 1972, The agenda-setting function of mass media, Public Opinion Quarterly, 36(2), 176-187). Die Idee ist, dass die Medien nicht primär darüber entscheiden, was die Menschen denken, sondern darüber, worüber sie denken. Was nicht auf der medialen Agenda steht, existiert für den Otto Sapiens nicht. Was auf der Agenda steht, ist für ihn die Welt. Daraus folgt, dass die mediale Agenda, also die Auswahl der Themen, die in den Schlagzeilen prominent vertreten sind, eine direkte Steuerungswirkung auf das öffentliche Bewusstsein hat, und diese Steuerung wird nicht von einer geheimen Verschwörung ausgeübt, sondern von einer schlichten ökonomischen Logik. Was Klicks bringt, kommt nach vorne. Was keine Klicks bringt, verschwindet.
Der Otto Sapiens registriert diese Steuerung nicht, weil er kein Gedächtnis über mehrere Krisen hinweg hat. Sein Steinzeitgehirn kann jeweils eine Bedrohung verarbeiten, und sobald die nächste auftaucht, ist die vorherige verschwunden, nicht weil sie gelöst wäre, sondern weil die kognitive Kapazität des Otto Sapiens nicht ausreicht, beide gleichzeitig zu halten. Das hat einen evolutionären Hintergrund. In einer Stammesgesellschaft musste man sich auf die aktuelle Bedrohung konzentrieren, der Säbelzahntiger im Gebüsch war wichtiger als die theoretische Frage, ob im nächsten Winter genug Vorräte da sind. Wer sich die Energie für beide Bedrohungen gleichzeitig leistete, der überlebte den Säbelzahntiger nicht. Diese Schaltung ist sinnvoll für die Steinzeit, sie ist katastrophal für die Gegenwart, in der wir mit zwölf parallelen Krisen leben und nicht eine davon einfach ignorieren können, weil sie alle weiterlaufen, unabhängig davon, ob sie gerade in den Schlagzeilen sind.
ChatGPT hat immer eine Antwort, also haben Sie keine Fragen mehr
Wir kommen nun zu der Sektion, die mir die wichtigste in diesem ganzen Beitrag ist, weil sie das jüngste und am schnellsten wachsende Phänomen beschreibt, das die kognitive Selbstaufgabe des Otto Sapiens beschleunigt, und das ist die generative Künstliche Intelligenz, insbesondere ChatGPT und seine Verwandten. Ich schreibe dies als jemand, der selbst Künstliche Intelligenz einsetzt, der Tyra programmiert hat, der mit verschiedenen großen Sprachmodellen arbeitet, der die Technik aus der Innenperspektive kennt und daher nicht als hysterischer Außenstehender argumentiert, sondern als jemand, der weiß, wovon er spricht. Genau deshalb kann ich präzise sagen, wo das Problem liegt, und es liegt nicht in der Technik, es liegt in der Art, wie der Otto Sapiens diese Technik nutzt.
Eine MIT-Studie aus dem Jahr 2025 unter der Leitung von Nataliya Kosmyna hat ein neurobehaviorales Experiment durchgeführt, in dem die Probanden über mehrere Sitzungen hinweg ChatGPT zur Bearbeitung von kognitiven Aufgaben einsetzten. Die Forscher konnten zeigen, dass die neuronale Aktivität der Probanden über die Sitzungen hinweg progressiv abnahm, was darauf hindeutet, dass die wiederholte Auslagerung der kognitiven Arbeit an die KI zu einer messbaren Reduktion der eigenen geistigen Anstrengung führt. Was die Forscher als besorgniserregend bezeichneten, war nicht der einzelne Effekt, sondern die progressive Natur des Rückgangs über nur wenige Sitzungen, was nahelegt, dass die kognitive Auslagerung an KI eine Rückkopplungsschleife erzeugen kann, in der Nutzer zunehmend abhängig werden von externer Rechenleistung auf Kosten der Entwicklung eigener analytischer Fähigkeiten (Kosmyna, N. et al., 2025, MIT Media Lab Cognitive Engagement Study).
Eine weitere Untersuchung des Schweizer Forschers Michael Gerlich aus dem Jahr 2025 hat das Phänomen der kognitiven Auslagerung, also des Cognitive Offloading, systematisch beleuchtet (Gerlich, M., 2025, AI Tools and Critical Thinking, Societies, 15(1), 6). Gerlich konnte zeigen, dass die Übernahme kognitiver Aufgaben durch KI-Werkzeuge mit einer messbaren Reduktion des kritischen Denkens einhergeht, und dass dieser Effekt umso stärker ausgeprägt ist, je intensiver die KI-Nutzung ist. Eine Stanford-Untersuchung von 2025, veröffentlicht in einer Schwesterpublikation von Computers in Human Behavior, hat in einem randomisierten kontrollierten Design gezeigt, dass Studenten, die während des Lernens unbeschränkten Zugang zu ChatGPT hatten, in einem Retentionstest nach 45 Tagen signifikant schlechter abschnitten als Studenten, die ohne KI gelernt hatten. Die Erklärung der Forscher ist, dass die KI während des Lernens die Encoding-Tiefe reduziert, dass der Hippocampus dadurch schwächere Spuren bildet und dass das Vergessen entsprechend schneller einsetzt. Wer mit ChatGPT lernt, lernt schlechter.
Diese Befunde sind in der akademischen Literatur mittlerweile so dicht, dass das Phänomen einen eigenen Begriff bekommen hat. Lazy Thinking, faules Denken, ist die Diagnose, und sie wird durch eine wachsende Zahl von Studien bestätigt, die zeigen, dass ChatGPT-Nutzer im Vergleich zu Nicht-Nutzern eine geringere Argumentationstiefe aufweisen, weniger eigene Begründungen produzieren, weniger Quellen prüfen, weniger Gegenargumente erwägen. Das ist nicht überraschend, weil die KI die Mühe abnimmt, und Mühe ist die Voraussetzung dafür, dass das Gehirn neuronale Spuren bildet. Ohne Mühe keine Spur. Ohne Spur kein Gedächtnis. Ohne Gedächtnis keine Erfahrung. Ohne Erfahrung keine Metakognition. Und ohne Metakognition kann der Otto Sapiens nicht erkennen, dass er gerade dabei ist, sich selbst kognitiv zu enteignen.
Hier kommt jetzt die zentrale Pointe, auf die dieser ganze Beitrag hingearbeitet hat. Der Otto Sapiens hinterfragt nicht, was ChatGPT ihm antwortet, weil das Hinterfragen eine Operation ist, die Mühe macht, und Mühe aktiviert dieselben neurologischen Schaltkreise wie die Konfrontation mit einer realen Bedrohung. Ich nehme einen Satz, ich gleiche ihn mit meiner eigenen Erfahrung ab, ich identifiziere Inkonsistenzen, ich öffne die Möglichkeit, dass meine bisherige Annahme falsch war, und ich gehe das Risiko ein, mich neu orientieren zu müssen. Jede dieser Operationen verlangt vom Gehirn eine kognitive Leistung, die das gleiche Erschöpfungsgefühl produziert wie körperliche Anstrengung. Sie ist energetisch teuer. Und sie aktiviert das Bedrohungssystem, weil das Hinterfragen die eigene Identität zur Disposition stellt, und für das Steinzeitgehirn ist die eigene Identität ein Überlebensgut, das verteidigt werden muss.
Hinterfragen tut also weh. Es ist nicht eine angenehme intellektuelle Übung, sondern eine kleine existenzielle Erschütterung, die das System spürt und vor der es zurückschreckt. Wer Metakognition trainiert hat, der hat gelernt, diesen Schmerz auszuhalten, und mehr noch, ihn als Lernchance zu erkennen. Wer keine Metakognition hat, der erlebt das Hinterfragen als Bedrohung und vermeidet es. Der Otto Sapiens vermeidet es konsequent, und ChatGPT erlaubt ihm, das Vermeiden zu perfektionieren. Er fragt die Maschine, die Maschine antwortet, die Antwort fühlt sich vollständig an, also nimmt er sie. Er prüft sie nicht. Er fragt nicht, woher sie kommt. Er fragt nicht, ob sie stimmt. Er nimmt sie, weil sie da ist, und weil das Nehmen weniger Mühe macht als das Prüfen.
Das ist die strukturelle Falle. ChatGPT ist nicht das Problem, ChatGPT ist nur das Werkzeug, das die Falle einrastet. Das Problem ist das Steinzeitgehirn, das keine Metakognition entwickelt hat, das Mühe als Schmerz erlebt und das Schmerz vermeidet. In dem Moment, in dem ein Werkzeug existiert, das die Mühe abnimmt, wird dieses Werkzeug benutzt, und sobald es benutzt wird, atrophiert die Fähigkeit, ohne es zu arbeiten, weiter. Es ist genau dieselbe Logik, nach der ein Muskel atrophiert, wenn er nicht benutzt wird. Wer einen Gips am Bein trägt, sieht nach 6 Wochen einen merklich dünneren Wadenmuskel, weil das Gewebe abgebaut wird, das nicht beansprucht wird. Mit dem Gehirn ist es ähnlich, mit dem Unterschied, dass es bei diesem keinen Gips gibt, der nach 6 Wochen abgenommen wird. Der Gips bleibt drauf, weil er bequem ist.
Und während der Otto Sapiens seinen Gips trägt, glaubt er, etwas hinzugewonnen zu haben. Er denkt, ChatGPT mache ihn schlauer, weil er jetzt schneller Antworten bekommt, ohne nachschlagen zu müssen. Er denkt, er werde produktiver, weil er Texte in 5 Minuten schreiben kann, für die er früher eine Stunde gebraucht hätte. Er sieht nicht, dass diese Geschwindigkeit eine kognitive Verarmung bedeutet, weil die Texte zwar schneller fertig sind, aber nichts mehr in seinem Gehirn hinterlassen. Er hat die Texte nicht gedacht, er hat sie nur weitergeleitet, und am Ende des Tages weiß er nicht mehr, was er heute getan hat, weil nichts davon eine Spur in seinem Bewusstsein hinterlassen hat. Er ist effizienter geworden, aber er ist auch leerer geworden, und die Leere bemerkt er erst, wenn sie zu einer kritischen Dichte angewachsen ist und nicht mehr durch das nächste Reel überdeckt werden kann.
Spanische Grippe, dann Charleston, und die Geschichte wiederholt sich
Ich komme zur vorletzten Sektion dieses Beitrags, in der ich den historischen Bogen schlagen will, und ich tue das nicht, um eine akademische Auflistung der vergangenen 100 Jahre zu liefern, sondern weil dieser Bogen das zeigt, worauf die Diagnose hinausläuft. Der Otto Sapiens lernt nicht aus seinen Fehlern, und zwar aus einem strukturellen Grund, der mit dem Hier und Jetzt zu tun hat, das ich am Anfang dieses Beitrags eingeführt habe. Lernen erfordert Erinnerung, Erinnerung erfordert Reflexion im gegenwärtigen Moment, und Reflexion ist genau das, was der Otto Sapiens vermeidet. Daher lernt er nicht. Daher wiederholt er die Fehler. Daher reagiert er nach jeder Krise mit derselben euphorischen Übertreibung, die die nächste Krise vorbereitet.
Der klassische historische Fall ist die spanische Grippe und die darauf folgenden Roaring Twenties. Die Pandemie von 1918 bis 1920 tötete weltweit zwischen 50 und 100 Millionen Menschen, in den Vereinigten Staaten allein etwa 675.000, mehr als zehnmal so viele wie der Erste Weltkrieg den amerikanischen Truppen kostete. Es folgte eine schwere Wirtschaftskrise 1920 bis 1921, die das amerikanische Bruttoinlandsprodukt einbrechen ließ. Und dann, wie aus dem Nichts, kam ein Jahrzehnt, das im kollektiven Gedächtnis als die Roaring Twenties bekannt geworden ist, mit einem Wirtschaftswachstum von 43 Prozent zwischen 1921 und 1929, mit einer Charleston tanzenden Jugend, mit einer Konsumgüterexplosion und einer kulturellen Aufbruchsstimmung, die nichts mehr von der Pandemie wusste. Die Lost Generation, die diese Welt prägte, war eine Generation, die etwas erlebt hatte, was sie nicht verarbeiten konnte, und die deshalb in eine Phase der maximalen Vermeidung floh, in der niemand mehr über das sprach, was vor wenigen Jahren noch das einzige Thema war.
Der amerikanische Historiker John M. Barry, Autor der bis heute maßgeblichen Geschichte der spanischen Grippe, hat darauf hingewiesen, dass diese Verbindung zwischen Pandemie und nachfolgendem Boom zwar populär ist, aber historisch komplexer als oft dargestellt, weil zwischen 1918 und 1923 zunächst eine Phase großer politischer Unruhen lag, mit Streiks, Rassenunruhen und der wirtschaftlichen Depression. Erst danach kam die Aufbruchsstimmung. Dieser Punkt ist wichtig, weil er ein Muster sichtbar macht, das psychologisch bedeutsam ist. Auf eine Phase der Bedrohung folgt zunächst eine Phase der Verarbeitung, die oft chaotisch und schmerzhaft ist. Wenn diese Verarbeitung nicht stattfindet, weil die Gesellschaft sie nicht leisten kann oder will, dann folgt eine Phase der Verdrängung, die sich in einer überschwänglichen Konsum- und Risikofreude zeigt. Diese Verdrängung ist nicht zufällig, sie ist die psychologische Antwort auf eine traumatische Erfahrung, die nicht integriert worden ist.
Der Yale-Soziologe und Mediziner Nicholas Christakis hat in seinem 2020 erschienenen Buch Apollo’s Arrow, in dem er die Coronavirus-Pandemie in ein historisches Muster eingeordnet hat, vorhergesagt, dass auf die akute Phase der Pandemie eine Phase erhöhter religiöser und vorsichtiger Verhaltensweisen folgen würde, und dass diese Phase sich nach ungefähr 2024 in das Gegenteil umkehren würde, mit einer Welle der Risikofreudigkeit, der Geselligkeit, des Konsums und der sexuellen Liberalität (Christakis, N. A., 2020, Apollo’s Arrow, Little, Brown Spark). Das ist genau das, was eingetreten ist. Die Reisetätigkeit hat 2024 das Niveau vor der Pandemie überschritten, der Konsum ist gestiegen, die Risikobereitschaft auf den Finanzmärkten ist auf historische Höchststände geklettert. Niemand spricht mehr über die Pandemie. Niemand reflektiert mehr über die Lehren, die man hätte ziehen können. Es ist, als hätte es sie nie gegeben.
Warum ist das so? Aus zwei Gründen, die ineinandergreifen. Erstens, das dopaminerge Belohnungssystem reagiert auf Entbehrung mit einer Sensibilitätsverschiebung, die nach der Entbehrungsphase eine überschwängliche Reaktion auf Reize produziert. Man kennt das aus der Suchtforschung, wo nach einer Phase der Abstinenz die nächste Begegnung mit der Substanz oft eine stärkere Wirkung entfaltet als zuvor. Auf gesellschaftlicher Ebene funktioniert dieser Mechanismus genauso. Nach einer Phase der Restriktion folgt eine Phase der Übertreibung, weil das Belohnungssystem überempfindlich auf Reize reagiert. Zweitens, und das ist der schwerere Punkt, das menschliche Gehirn lernt nicht von selbst aus negativen Erfahrungen, sondern nur dann, wenn es sich diese Erfahrungen in einem reflektierten Modus aneignet. Wenn die Reflexion nicht stattfindet, dann hinterlassen die Erfahrungen zwar Spuren im autobiographischen Gedächtnis, aber sie werden nicht in ein Lehrgerüst überführt, das künftiges Verhalten anleiten könnte. Sie bleiben Episoden, nicht Lektionen.
Genau das ist beim Otto Sapiens der Fall. Die Pandemie war für ihn eine Episode, kein Lehrstück. Sobald sie vorbei war, wurde sie zurück in die Schublade der unangenehmen Erinnerungen verstaut, und das Leben ging weiter. Dass dieselben Mechanismen, die die Pandemie ausgelöst haben, also die globale Mobilität, die Eingriffe in Wildtierhabitate, die mangelhafte Vorbereitung der Gesundheitssysteme, weiterhin existieren, dass die nächste Pandemie also nur eine Frage der Zeit ist, hat er nicht verarbeitet, weil das eine reflexive Operation erfordert hätte, die er nicht leistet. Er reagiert auf die nächste Krise mit derselben Überraschung, mit der er auf die vorherige reagiert hat. Er übertreibt zwischen den Krisen, und er erschrickt während der Krisen. Er lebt in einem permanenten Hin und Her zwischen Euphorie und Angst, und er nennt das Leben.
Das ist nicht nur eine historische Beobachtung, das ist eine Diagnose über die Aussichten der Spezies. Wenn der Otto Sapiens nicht lernt, sich also strukturell unfähig zur Reflexion zeigt, dann ist er auch unfähig zur Korrektur, und eine Spezies, die ihre Fehler nicht korrigieren kann, ist evolutionär verurteilt. Sie wird nicht durch eine äußere Katastrophe untergehen, sondern durch die kumulative Wirkung ihrer eigenen unkorrigierten Fehler, die sich überlagern, bis das System unter ihrer Last zusammenbricht. Das ist die Diagnose. Sie ist nicht dramatisch formuliert, sie ist nüchtern. Der Homo Sapiens stirbt nicht durch Pandemie, Krieg oder Klimakatastrophe aus, er stirbt durch die freiwillige Aufgabe des Denkens. Was nach ihm kommt, ist nicht der Übermensch, sondern der Otto Sapiens, ein Wesen, das aussieht wie der Homo Sapiens, aber innerlich nur noch eine Schnittstelle zwischen seinem Smartphone und seiner Pizza ist.
Eine Vorwarnung an alle, die diesen Text bis hierher gelesen haben
Bevor ich zum Schluss komme, schiebe ich eine Sektion ein, die in jedem meiner längeren Beiträge an dieser Stelle steht und die ich heute mit besonderer Genugtuung schreibe, weil sie die polemische Pointe enthält, gegen die der Otto Sapiens keine Verteidigung hat. Sie ist gleichzeitig ein Test, ein kleiner Selbstcheck für jeden Leser, der bis hierher gekommen ist, und sie funktioniert folgendermaßen.
Wer diesen Text bis zu dieser Sektion gelesen hat, ohne in der Zwischenzeit das Smartphone zu checken, ohne eine andere Tab im Browser zu öffnen, ohne sich vorzunehmen, später bei ChatGPT nachzufragen, ob das alles stimmt, was hier behauptet wird, der hat den Test bestanden. Er ist nicht der Otto Sapiens, von dem hier die Rede ist. Er ist ein Mensch, der noch in der Lage ist, einen längeren Text aufzunehmen, ohne dabei mehrfach auszusteigen, und das ist heute eine Fähigkeit, die genauso selten geworden ist wie das ruhige Lesen eines Buches an einem stillen Abend.
Wer den Test nicht bestanden hat, also wer mehrfach unterbrochen hat, wer parallel andere Reize konsumiert hat, wer zwischendurch Notizen für ChatGPT gemacht hat, um die Behauptungen prüfen zu lassen, der gehört zur Zielgruppe dieses Beitrags. Er ist nicht beleidigt zu sein verpflichtet, weil er es ohnehin nicht ist, denn ihm fehlt die Metakognition, die nötig wäre, um sich beleidigt zu fühlen über eine Diagnose, die er nicht versteht. Er wird diesen Beitrag wahrscheinlich nicht zu Ende lesen, weil er länger ist als seine Aufmerksamkeitsspanne, und falls er ihn doch zu Ende liest, wird er ihn entweder gar nicht oder als persönlichen Angriff missverstehen, weil ihm das Werkzeug fehlt, mit dem er die Diagnose von der Polemik unterscheiden könnte.
Es ist eine kleine, geschlossene Pointe, und sie ist sehr alt, sie geht auf ein Gedankenexperiment zurück, das schon Sokrates kannte. Wer die Krankheit hat, kann sie nicht erkennen, weil das Erkennen Teil dessen ist, was die Krankheit zerstört. Daher ist die Diagnose immer auch eine Art Falle, in der der Patient sich selbst fängt, wenn er reagiert. Wer mit den Worten reagiert, das gilt nicht für mich, ich nutze ChatGPT verantwortungsvoll, ich scrolle nicht den ganzen Tag durch Instagram, der hat die Pointe nicht verstanden, weil er die Frage nach der Verantwortlichkeit nicht stellen müsste, wenn er Metakognition hätte, die ihm zeigte, ob er tatsächlich verantwortlich umgeht oder ob er es nur glaubt. Wer Metakognition hat, der weiß, dass er sie hat. Wer keine hat, der weiß es nicht, weil er das Werkzeug nicht hat, mit dem er sein eigenes Fehlen erkennen würde.
Damit endet die Polemik-Vorwarnung. Das letzte Wort hat die Wanduhr.
Schlusswort, mit Bandit und Popcorn in der ersten Reihe
Ich sitze, während ich diesen Beitrag fertigschreibe, wieder in meinem Arbeitszimmer, die alte Wanduhr tickt, Bandit liegt zu meinen Füßen und schläft, der Atem hebt seine Flanke in einem ruhigen, vorhersehbaren Rhythmus, der mit dem Tick der Uhr nicht synchron läuft, aber eine eigene, dazu komplementäre Zeitstruktur erzeugt, in der die Welt einen Moment lang stillsteht. Auf dem Beistelltisch steht eine kleine Schüssel mit Popcorn, das Loui mir vor einer halben Stunde gemacht hat, weil sie wusste, dass ich am Schreiben war und dass das Popcorn ein kleines Ritual ist, das die Schreibsessions schöner macht. Es ist 22 Uhr 14 an einem Mittwochabend im Mai 2026, und die Welt da draußen ist genau die Welt, die ich in diesem Beitrag beschrieben habe, mit allen Otto-Sapiens-Symptomen, mit den Pizzeria-Szenen, mit den Bild-Schlagzeilen, mit den Reels, mit ChatGPT, mit den Experten, die keine sind, mit dem nächsten Virus, dem nächsten Krieg, dem nächsten Skandal. Ich kenne diese Welt. Ich beobachte sie täglich. Ich habe gelernt, sie aus der ersten Reihe anzuschauen, ohne mich in sie hineinziehen zu lassen.
Bandit dreht sich im Schlaf, seufzt leise, legt den Kopf wieder ab. Er ist ein Malinois, ein Belgischer Schäferhund, eine Rasse, die für ihre Wachheit bekannt ist, und er hat seine Wachheit nicht von uns gelernt, sondern in einem früheren Leben, das vor 2 Jahren endete, als die Schutzhundestaffel der Deutschen Bundeswehr, in der er Dienst tat, aus Kostengründen aufgelöst wurde. Wir haben ihn damals übernommen, einen Hund mit professioneller Ausbildung, mit allem, was dazugehört, und er ist seither mein bester Freund, was eine Beziehung beschreibt, die für jeden, der einen Malinois kennt, keiner weiteren Erläuterung bedarf. Er hat sich in den 2 Jahren bei uns einen Schlaf-Modus angewöhnt, der nur durch echte Bedrohungen unterbrochen wird, nicht durch jede beliebige Vibration. Er hat etwas, was der Otto Sapiens verloren hat, nämlich die Fähigkeit, zwischen relevanten und irrelevanten Reizen zu unterscheiden und sich nur durch die relevanten unterbrechen zu lassen. Ich beneide ihn manchmal, und ich nehme mir gleichzeitig vor, von ihm zu lernen, was eine seltsame Konstellation ist, weil ein Mensch eigentlich nicht von einem Hund lernen sollte, wie man in der eigenen Zeit lebt. Aber wir sind so weit gekommen, dass diese Konstellation nicht mehr seltsam ist, sondern lehrreich.
Ich frage mich, während die Wanduhr weitertickt, wo dieser Irrsinn endet, und ich gebe ehrlich zu, dass ich keine Antwort habe. Ich sehe nicht, wie der Otto Sapiens sich aus eigener Kraft aus seiner Lage befreien wird, weil die Bedingungen, unter denen Befreiung möglich wäre, von ihm gerade systematisch zerstört werden. Ich sehe auch nicht, dass eine politische Bewegung diese Befreiung erzwingen könnte, weil politische Bewegungen Mehrheiten brauchen, und der Otto Sapiens ist die Mehrheit. Ich sehe einzelne Menschen, die aufwachen, die ihre Smartphones beiseite legen, die ChatGPT bewusst einsetzen statt blind benutzen, die das Hier und Jetzt wieder lernen. Ich sehe sie, weil sie mir in den Kommentaren meiner Blogbeiträge antworten, weil sie mir Mails schreiben, weil sie mir Bücher empfehlen, die ich noch nicht kenne. Es gibt sie. Aber sie sind selten, und sie werden seltener.
Das angekündigte Buch Das Hamsterrad, an dem ich seit einigen Monaten arbeite und das in den kommenden Monaten erscheinen wird, wird sich genau dieser Frage widmen, mit einer Tiefe, die in einem Blogbeitrag nicht möglich ist. Es wird die Architektur des Hamsterrads sezieren, in dem der Otto Sapiens lebt, und es wird zeigen, dass dieses Hamsterrad nicht ein zufälliges Nebenprodukt der Konsumgesellschaft ist, sondern ihr Geschäftsmodell. Der Otto Sapiens ist nicht ein bedauerlicher Unfall, er ist ein gewünschtes Ergebnis. Eine Gesellschaft, die ihre Bürger zum Denken erzöge, hätte ein Problem mit dem Verkauf von Bild-Plus-Abonnements, mit Instagram-Werbung, mit ChatGPT-Subscriptions, mit Amazon-Bestellungen. Eine Gesellschaft, die ihre Bürger zur Metakognition befähigte, hätte ein Problem mit jeder Form von politischer Manipulation, mit jeder Form von medialer Steuerung, mit jeder Form von wirtschaftlicher Ausbeutung. Daher tut die Gesellschaft das genaue Gegenteil. Sie erzieht den Otto Sapiens, weil der Otto Sapiens das ökonomisch und politisch funktionalste Subjekt ist, das eine Konsumgesellschaft hervorbringen kann.
Wer das verstanden hat, der weiß, warum das Hamsterrad nicht durch politische Reform aufgehalten werden wird, weil die politische Klasse selbst Teil des Geschäftsmodells ist. Er weiß auch, warum das Hamsterrad nicht durch technische Reform aufgehalten werden wird, weil die Technik in genau die Richtung weiterentwickelt wird, die das Hamsterrad effizienter macht. Und er weiß, dass die einzige Möglichkeit der Befreiung im individuellen Ausstieg liegt, in der bewussten Entscheidung, das Smartphone nicht in die Tasche zu stecken, die Bild-Zeitung nicht zu klicken, ChatGPT nicht als Wahrheitsorakel zu nutzen, die mediale Agenda nicht als die eigene zu übernehmen. Der Ausstieg ist möglich. Er ist nicht einfach. Er erfordert Disziplin, und Disziplin erfordert Metakognition, und Metakognition muss trainiert werden, und Training erfordert Mühe, und Mühe macht Angst, und der Kreis schließt sich. Wer den Ausstieg schafft, hat etwas Seltenes erreicht. Wer ihn nicht schafft, bleibt im Hamsterrad. Das ist die nüchterne Diagnose, mit der ich diesen Beitrag beende.
Ich nehme noch ein Popcorn aus der Schüssel, höre der Wanduhr zu, die jetzt 22 Uhr 27 anzeigt, schaue auf Bandit, der friedlich weiterschläft, und denke an die Mozzarella in der Pizzeria, die am Samstag wieder auf meinem Teller liegen wird. Sie wird mir schmecken, weil ich sie schmecken werde, und schmecken kann man nur im Hier und Jetzt. Yesterday is history, tomorrow is a mystery, today is a gift, that is why it is called the present. Das ist die einzige Weisheit, die der Otto Sapiens bräuchte, um sich selbst zu retten. Und es ist die einzige, die er nicht hören will.
Tick. Pause. Tack. Pause.
Genug für heute.
Quellen
- Butler, H. A., Pentoney, C., & Bong, M. P. (2017). Predicting real-world outcomes: Critical thinking ability is a better predictor of life decisions than intelligence. Thinking Skills and Creativity, 25, 38-46.
- Castelo, N., Kushlev, K., Ward, A. F., Esterman, M., & Reiner, P. B. (2025). Blocking mobile internet on smartphones improves sustained attention, mental health, and subjective well-being. PNAS Nexus, 4(2), pgaf017.
- Christakis, N. A. (2020). Apollo’s Arrow: The Profound and Enduring Impact of Coronavirus on the Way We Live. Little, Brown Spark.
- Cytowic, R. E. (2025). Your Stone Age Brain in the Screen Age. MIT Press.
- Dunbar, R. I. M. (1992). Neocortex size as a constraint on group size in primates. Journal of Human Evolution, 22(6), 469-493.
- Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1), 6.
- Gregory, M. D., Kippenhan, J. S., Eisenberg, D. P., Kohn, P. D., Dickinson, D., Mattay, V. S., Chen, Q., Weinberger, D. R., Saad, Z. S., & Berman, K. F. (2017). Neanderthal-Derived Genetic Variation Shapes Modern Human Cranium and Brain. Scientific Reports, 7, 6308.
- Green, R. E., Krause, J., Briggs, A. W., et al. (2010). A draft sequence of the Neandertal genome. Science, 328(5979), 710-722.
- Loewenstein, G. (1994). The psychology of curiosity: A review and reinterpretation. Psychological Bulletin, 116(1), 75-98.
- Maguire, E. A., Gadian, D. G., Johnsrude, I. S., Good, C. D., Ashburner, J., Frackowiak, R. S., & Frith, C. D. (2000). Navigation-related structural change in the hippocampi of taxi drivers. Proceedings of the National Academy of Sciences, 97(8), 4398-4403.
- McCombs, M. E., & Shaw, D. L. (1972). The agenda-setting function of mass media. Public Opinion Quarterly, 36(2), 176-187.
- Neubauer, S., Hublin, J. J., & Gunz, P. (2018). The evolution of modern human brain shape. Science Advances, 4(1), eaao5961.
- Simonti, C. N., Vernot, B., Bastarache, L., Bottinger, E., Carrell, D. S., Chisholm, R. L., Crosslin, D. R., Hebbring, S. J., Jarvik, G. P., Kullo, I. J., Li, R., Pathak, J., Ritchie, M. D., Roden, D. M., Verma, S. S., Tromp, G., Prato, J. D., Bush, W. S., Akey, J. M., Denny, J. C., & Capra, J. A. (2016). The phenotypic legacy of admixture between modern humans and Neandertals. Science, 351(6274), 737-741.
- Ward, A. F., Duke, K., Gneezy, A., & Bos, M. W. (2017). Brain Drain: The Mere Presence of One’s Own Smartphone Reduces Available Cognitive Capacity. Journal of the Association for Consumer Research, 2(2), 140-154.
- Washington Times. (2025, June 30). What happened to the media’s coverage of the Ukraine war.