Anzeige

Wissenschaft im Datennebel

Das wusste unser Lehrer aber besser

Von Marco Wehr
 - 22:18
Nur errechnet, nicht erdacht: fraktale Struktur Bild: Picture-Alliance, F.A.Z.

Ein echter Denker weiß, wie man einen perfekten Spickzettel schreibt“: Gunther Hoske war am Wilhelm-Dörpfeld-Gymnasium in Wuppertal eine Legende. Als der Lehrer auf dem Bahnsteig des Elberfelder Bahnhofs, vom Schlag getroffen, tot zusammenbrach, standen an unserer Schule die Uhren still. Hoske sprach zehn Sprachen und war in Leipzig Assistent von Ernst Bloch gewesen, bevor er in den Westen kam. Wer das Glück hatte, von dem freundlichen Mann in Philosophie unterrichtet zu werden, zehrte davon ein Leben lang.

Anzeige

Besonders die Spickzettellektion war eindrücklich: Für ernsthafte Denker gebe es keine schwierigere, anspruchsvollere Aufgabe, als einen Wust von Informationen auf die essentiellen hin zu verdichten. Das Wesentliche vom Unwesentlichen zu scheiden, Wissen immer weiter zu komprimieren, bis man es gedanklich fest in der Hand hält, um dann im Umkehrverfahren den gesammelten Stoff aus dem Kondensat wieder zu entfalten, war nach Hoske die Königsdisziplin des Denkens. Wie wahr! Wenn sich Goethe für die Länge seines Briefes bei Schiller entschuldigte, weil er zu wenig Zeit fand, sich kurz zu fassen, dann schlug er in dieselbe Kerbe. Alles Denken ist Verdichten.

Vor dem Tod das Gehirn einlesen

Auch in den Naturwissenschaften und in der Mathematik war dieser Standpunkt ein unbestrittener Allgemeinplatz: kein Physiker, der nicht von einem ehrwürdigen Schauer ergriffen wird, wenn er die Maxwellschen Gleichungen betrachtet - nur vier Formeln, die die gesamte nicht-relativistische Elektrodynamik beschreiben: Radiowellen, die durch den Äther jagen, Turbinen, die Strom erzeugen, der Hufeisenmagnet in der Hand des neugierigen Kindes, das Eisenspäne auf dem Papier bewegt. Das gesammelte Panoptikum elektromagnetischer Phänomene ist in den magisch anmutenden Gleichungen geronnen. Und kein Mathematiker, der sich nicht am nur wenige Zeilen langen Euklidschen Beweis erfreut, der zeigt, dass es unendlich viele Primzahlen gibt.

Elementare Prinzipien zu finden, eine beinahe unüberschaubare Gesamtheit beobachtbarer Phänomene aus wenigen, überschaubaren Gesetzen zu entwickeln war lange Inbegriff gedanklicher Eleganz und Schönheit. Aber jetzt mehren sich kritische Stimmen. Das traditionelle Wechselspiel von theoretischer Spekulation und harten experimentellen Fakten, das die wissenschaftliche Revolution erst möglich machte, wird für einige Apologeten des digitalen Wandels zum alten Hut. Unsere Zeit hat ihre eigenen Propheten. Und die verkünden Erstaunliches: Chris Anderson, der ehemalige Chefredakteur des Magazins „Wired“, hat öffentlichkeitswirksam den „Tod der Theorie“ ausgerufen: Verdichtende Erkenntnis sei von gestern, das Wechselspiel von Induktion und Deduktion habe ausgedient, heute reichten gigantische Datenwolken und von ungeheurer Rechenpower angetriebenes algorithmisches Durchforsten, um Korrelationen herauszudestillieren. Das Magazin „Wired“ ist oft für phantastische, aber nicht immer sorgfältig begründete Spekulation zu haben. Unlängst wurde ernsthaft erörtert, wie man sein Gehirn vor dem Tod ins Netz einlesen kann, um dort als digitaler Wiedergänger ewig weiterzuexistieren – das World Wide Web als virtueller Garten Eden. Aber auch ernsthaftere Zeitgenossen wie der Informatiker und Mathematiker Stephen Wolfram, den man in Princeton lange für den neuen Einstein hielt, sprechen von einer „new kind of science“.

Anzeige

Die lästige Widerständigkeit des Wirklichen

Aber nicht nur die Theorie wird gemeuchelt, auch dem ehrwürdigen Experiment, der tragenden Säule wissenschaftlicher Erkenntnis, geht es an den Kragen. So wird Galileo Galilei zum Totenwächter einer aus der Mode gekommenen Methode. Ein begehbares Labor, mit echten Messinstrumenten, halten einige Vordenker unserer Zeit für einen Anachronismus. Wissenschaftliches Beobachten erscheint den Bilderstürmern viel zu umständlich. Heute wird lieber mit Großrechnern simuliert. Gabriele Gramelsberger, die ein Buch über den Wandel der Wissenschaft im Zeitalter des Computers geschrieben hat, spricht euphorisch von „In-silicio-Experimentalsystemen“. Virtualität und Realität werden gleichbedeutend, verschwimmen in der nebulösen „Virealität“.

Doch manchmal ist es vorteilhaft, die Bedeutung lateinischer Wörter, die sich im Szenekauderwelsch verbergen, zu kennen. Im Wort „Simulation“ steckt schließlich das lateinische Verb „simulare“, das „ähnlich machen“ bedeutet. „Ähnlich machen“ zu was? Da kommt die lästige Widerständigkeit des Wirklichen zur Hintertür doch wieder herein, die seriöse Wissenschaft zu einem so zeitraubenden und anstrengenden Unterfangen macht.

Eine schon lange schwelende Entwicklung

Soll eine Simulation nämlich auch nur den geringsten Erkenntniswert besitzen, dann muss sich unzweideutig zeigen lassen, dass es eine nachprüfbare Beziehung zwischen Simulationsergebnissen und tatsächlichen Messungen gibt. Da aber viele Simulationen die Auseinandersetzung mit der Wirklichkeit scheuen, hilflos in der Luft baumeln und einen Erkenntniswert nur heucheln, wäre es eigentlich angebracht, Worte wie „Simulation“ und „Experiment“ in diesem Zusammenhang mit anderen, ebenfalls gebräuchlichen Konnotationen zu versehen. Eine „Simulation“ kann man ja auch als „Vortäuschung“ auffassen und ein „Experiment“ als „Wagnis“. Damit wären viele Simulationen Vortäuschungen, die das Wagnis eingehen, bedeutungslos zu sein.

Hier berühren wir einen schmerzhaften Punkt: Ist es möglich, dass wir in einer Zeit leben, in der das Wissen, was Erkenntnis von Vermutungen unterscheidet, zunehmend verlorengeht? Dann wären wir definitiv in einer intellektuellen Krise. Wahrscheinlich führt an dieser Einsicht kein Weg vorbei. Die Symptome sind allerdings nicht neu. Was wir heute sehen, ist nur das sichtbarste Zeichen einer schon lange schwelenden Entwicklung. Schon seit Jahrzehnten unterscheiden sich nämlich viele wissenschaftliche „Theorien“ grundlegend von der zitierten Maxwellschen Theorie der Elektrodynamik. Sie sind selten sorgsam durchwirkt, haben häufig etwas Nebulös-Wolkiges, gleichen eher rasch zusammengeklatschten Konglomeraten, die aber trotzdem von den Medien als wissenschaftliche Revolutionen gefeiert werden.

Bevor die Theorie aus dem Ruder lief

Hinzu kommt seit ein paar Jahren ein neues Phänomen, das die Lage völlig unübersichtlich macht: Die beinahe beliebig große Verfügbarkeit von Speicherplatz scheint die intellektuelle Tugend des Verdichtens überflüssig zu machen. Langwieriges Nachdenken wird lieber schnell rechnenden Algorithmen übertragen, die aber nicht klüger sind als ihre Entwickler.

Beginnen wir mit den „Theorien“, die als weltbewegende Umbrüche gefeiert wurden. Es sei an die Informationstheorie erinnert, die Katastrophentheorie, die Theorie der Künstlichen Intelligenz, Artifical Life, die Komplexitätstheorie, die Theorie der Kritizität und an die Chaostheorie: All diesen Welterklärungsentwürfen war gemeinsam, dass sie wie die Silvesterraketen in den Erkenntnishimmel schossen, um dort, nach kurzem Lichterschein, zu verglühen. Warum nur? Tatsächlich gab es im Zentrum der Theorien seriöse Fragestellungen, die ursprünglich einen engumgrenzten Geltungsbereich betrafen. Aber dieser beschränkte Geltungsbereich wurde dann über die Maßen aufgeblasen. So entstanden in kürzester Zeit riesige luftig-assoziierte Wissenswolken, in denen sich nur wenige ernsthafte Kondensationskeime verbargen.

Betrachten wir nur die Chaostheorie. Hier begann alles mit bemerkenswerten Phänomenen, bevor die Theorie aus dem Ruder lief. In ihrem Zentrum stand die verblüffende Einsicht, dass ausgerechnet Systeme, die früher als Inbegriff von Stabilität und Vorhersagbarkeit galten, von einem bestimmten Moment an nicht mehr prognostizierbar sind. Das gilt etwa für unser Planetensystem oder das Billardspiel, wenn die Kugeln ohne Reibung laufen würden. Stammvater der Theorie ist der französische Mathematiker Henri Poincaré, einer der letzten Universalisten der Mathematik, der Ende des neunzehnten Jahrhunderts bewies, dass noch nicht einmal ein extrem vereinfachtes Planetensystem aus nur drei Körpern langfristig berechenbar ist.

Kleinste Änderungen mit größten Auswirkungen

Ursache der Nichtvorhersehbarkeit scheinbar einfacher physikalischer Systeme, die auf dem Papier durch deterministische Differentialgleichungen beschrieben werden, sind Messungenauigkeiten, die sich mit rasender Geschwindigkeit vergrößern. Diese Ungenauigkeiten betreffen die Startbedingungen der untersuchten Systeme, aber auch den Einfluss von Störungen. Nehmen wir ein idealisiertes reibungsfreies Billardspiel: Wenn es nicht möglich ist, alle Orte der Kugeln und deren Impulse mit beliebiger Genauigkeit zu messen und man außerdem Störungen, wie einen Windhauch, nicht exakt quantifizieren kann, dann lassen sich schon nach relativ kurzer Zeit keine genauen Angaben über die Dynamik der Kugeln machen.

Dass sich selbst einfachste Systeme unserem prognostischen Zugriff entziehen können, ist eine grundlegende Erkenntnis. Und die Chaostheorie hat noch weitere Verdienste: Der Meteorologe Edward Lorenz stieß auf das „computational chaos“. Durch eine Zufallsentdeckung wurde er darauf aufmerksam, dass bei der Berechnung bestimmter, nichtlinearer Differentialgleichungen, wie sie in der Meteorologie vorkommen, der Computer zu völlig verschiedenen Ergebnissen kommt, je nachdem, wie zum Beispiel im Computer intern gerundet wird. Dieses „computational chaos“ macht Simulationen komplizierter Prozesse zu einer Herkulesaufgabe. Egal, ob es sich um Klimasimulationen handelt oder um aufwendige Berechnungen in den Wirtschaftswissenschaften – das Zusammenspiel von mathematischem Modell, Diskretisierung und Algorithmisierung sowie der Implementierung des speziellen Algorithmus mittels einer speziellen Software und dem Einfluss der Hardware des Computers ist eine delikate Angelegenheit. Kleinste Änderungen können auch hier größte Auswirkungen haben.

Im Kern eine zahlenmystische Konstruktion

Das sind, in wenigen Worten, wichtige Einsichten, die wir der Chaostheorie verdanken. Dann allerdings entwickelte sie eine verhängnisvolle Dynamik: Plötzlich war das Chaos überall! Mathematische Konstrukte wie die seltsamen Attraktoren tauchten im Gehirn auf und machten den freien Willen möglich oder bei Bedarf auch die Kreativität, und überall trieb das Apfelmännchen sein Unwesen.

Doch auch im Kernbereich der Theorie, die eigentlich streng wissenschaftlich sein sollte, passierten gravierende Fehler, die gerade nicht von wissenschaftlichen Laien gemacht wurden, sondern von Spezialisten: Zahlen wurden hier zu Gründen, die etwas bewirken. Angeblich verdankten sich erratische Bahnkurven von Teilchen dem Umstand, dass deren Anfangsbedingungen durch irrationale Zahlen beschrieben werden. Da irrationale Zahlen unendlich lang sind, würde das aber bedeuten, dass sich die Anfangsbedingungen prinzipiell mit unendlicher Genauigkeit messen lassen müssten - eine nicht laut ausgesprochene Forderung, die zuerst einmal mit der Quantenmechanik kollidiert; ein Unsinn, auf den Max Born schon vor sechzig Jahren hingewiesen hat. Noch maßgeblicher ist aber der elementare Kategorienfehler, der hier sichtbar wird: Zahlen gehören nämlich zur symbolischen Beschreibungsebene und sind keine kausalen Gründe, die etwas bewirken und damit physikalisches Verhalten bedingen. Wenn man sagen würde, dass ein Tisch wie ein „T“ aussehen muss, da in dem Wort „Tisch“ ein „T“ vorkommt, dann merkt jeder schnell, dass an dieser Argumentation etwas nicht stimmt. In der Chaostheorie ist dieser Fehler nicht so offensichtlich, aber trotzdem vorhanden. Deshalb ist sie in ihrem Kern eine zahlenmystische Konstruktion im Geiste des Pythagoras.

Wenn sich Ansichten zur Lehrmeinung verdichten

Wie kommt es nun, dass wissenschaftliche Modetheorien einen anderen erkenntnistheoretischen Status haben als etwa Quantenmechanik, Relativitätstheorie oder Elektrodynamik? Bleiben wir bei der Chaostheorie: Bei dieser zeigt sich, dass Trugschlüsse dadurch entstanden, indem unterschiedlichste Forschungsgebiete hektisch und unreflektiert miteinander vermengt wurden, so dass der Überblick schnell verloren ging. Klassische Mechanik, Elektrodynamik, Analysis, Komplexitätstheorie, Metamathematik, Theoretische Informatik, Stochastik, Biologie, Neurowissenschaften und Philosophie vermischten sich in ihr zu einer undurchsichtigen Melange.

Die Gründe für die Entstehung eines solchen „semantischen Konglomerats“ muss man in den veränderten Kommunikationsstrukturen der wissenschaftlichen Gemeinschaft suchen, die auch auf das individuelle Verhalten der Wissenschaftler zurückwirken. Früher wurden Theorien von einem überschaubaren Kreis von Forschern entwickelt, die sich persönlich kannten und die Theorie in großem Umfang überschauten. Das ist heute anders. Hat das Interesse einen kritischen Punkt überschritten, entstehen diese in einem weltumspannenden Kommunikationsnetz mit lawinenartiger Geschwindigkeit. Einzelne Forscher sind schon nach kürzester Zeit nicht mehr in der Lage, die „Theorie“ in Gänze zu überschauen. In einem vom Publikationsfieber getriebenen Arbeitsalltag werden deshalb zwangsläufig Ergebnisse im guten Glauben für die eigene Arbeit übernommen. Deren Plausibilität verdankt sich weniger einer eigenständigen Reflexion als vielmehr einem Mehrheitsvotum von Forschern, die in der wissenschaftlichen Gemeinschaft etabliert sind. Bei der Verwendung der Ergebnisse schwingt die Hoffnung mit, dass sich zumindest eine der Koryphäen die Mühe gemacht hat, die leichtfertig übernommenen Vermutungen zu hinterfragen. Aber auch Autoren der „high ranking journals“ vervielfältigen arglos Ansichten, ohne sie selbst hinreichend geprüft zu haben. Werden diese an exponierter Stelle oft genug wiederholt, verdichten sie sich zur verbindlichen Lehrmeinung. Die Elaborate laufen dann völlig aus dem Ruder, wenn sie von den Medien entdeckt werden und zu einer weltanschaulichen Sensation aufgeblasen werden. Es entsteht ein rückgekoppeltes System, das mit ehrlicher Erkenntnissuche nichts mehr zu tun hat.

Eine zusätzliche Dimension des Erkenntnisproblems

Die Medien brauchen den Experten, die Experten freuen sich über die Aufmerksamkeit der Medien, die den eigenen Forschungsgegenstand ins helle Licht rücken. Welcher Forscher, der beim anstrengenden Einwerben von Forschungsmitteln auch immer Wissenschaftsmanager in eigener Sache ist, widersteht der Versuchung, einen großen Ballon aufzublasen? Und so wird der eigene Forschungsgegenstand schnell zu einer Theorie für Alles und Jedes: Je nach Bedarf lässt sich der freie Wille „erklären“, das Bewusstsein, das Nahen eines Herzinfarkts und das Börsengeschehen, Erdbebenprognosen liegen in greifbarer Nähe, die Erklärung des Klimas ebenfalls und, und, und. Wenn dann die Luft aus dem Ballon entweicht, wechselt die wissenschaftliche Karawane, von der Öffentlichkeit unbemerkt, den Forschungsgegenstand und zieht heimlich weiter zur nächsten Sensation.

Das betrifft selbstverständlich nicht alle Bereiche der Wissenschaft, aber einige. Und leider sind es gerade die spekulativen, nicht sauber gearbeiteten Theorien, die eine besondere mediale Aufmerksamkeit erfahren, womit den Heerscharen von Wissenschaftlern unrecht getan wird, die ordentlich arbeiten und denen wir echten Fortschritt zu verdanken haben. Aber das ist nicht alles. Heute ist die Situation noch unübersichtlicher geworden. Die obengenannten Theorien ließen sich wenigstens noch in Büchern nachlesen; mit wissenschaftstheoretischen Erkenntniswerkzeugen bewaffnet, konnte man ihnen zu Leibe rücken. Das ist jetzt nicht mehr ohne weiteres möglich. Die genannten wissenschaftstheoretischen Mängel bleiben zwar virulent, aber durch die Verfügbarkeit von gigantischen Massenspeichern bekommt das Erkenntnisproblem noch eine zusätzliche Dimension: Die Datenmengen, die analysiert werden sollen, sind so riesig, dass der Computer zunehmend an die Stelle der Wissenschaftler tritt, mit Konsequenzen, die im Moment noch niemand abschätzen kann.

Eine Forderung aus der Welt der Labore

Der Computer in den Wissenschaften ist nämlich immer Fluch und Segen zugleich. Die Zahlenfresser sind ein Segen, da sie Berechnungen möglich machen, die Menschen mit der Hand niemals ausführen könnten. Das hat sich seit den Tagen Johannes Keplers nicht geändert, der jahrelang an seinen Planetenbahnen rechnete, bis ihn sein Tübinger Freund Wilhelm Schickardt mit einer Rechenmaschine beglückte.

Ein Fluch aber sind Computer, weil sie es extrem erschweren, die Relevanz einer Berechnung verlässlich zu beurteilen. In gewisser Weise kann man einen Hochleistungsrechner als eine Art Black Box begreifen, bei der auch der Klügste nicht mit Sicherheit zu beurteilen weiß, in welcher Weise die verschiedenen Verarbeitungsebenen ineinandergreifen und was das für Konsequenzen hat. Die Beziehung von mathematischem Modell, dessen diskretisierter Form, der zur Anwendung gelangenden Soft- und Hardware ist komplex und kann in der Summe ein ehernes wissenschaftliches Prinzip unterminieren: das der transsubjektiven Überprüfbarkeit. Dieser Begriff ist eine Forderung aus der Welt der Labore. Dort bedeutet es, dass verschiedene Wissenschaftler mit identisch funktionierenden, normierten Messinstrumenten in der Lage sein sollten, Experimente zu wiederholen und deren Ergebnisse zu bestätigen. Von diesen kristallinen Normierungsbedingungen sind Simulationswissenschaftler noch weit entfernt.

Meisterschaft und Eleganz

Deshalb ist es nicht ausgeschlossen, dass verschiedene Großrechner bei identischen Fragestellungen zu verschiedenen Ergebnissen kommen. Wer hat dann recht? Das ist eine Frage, die nicht so einfach zu beantworten ist. In seiner ganzen Wucht traf der Black-Box-Charakter der Maschine die reine Mathematik, die bis heute angeschlagen ist, weil noch nicht einmal mehr klar ist, was eine mathematische Wahrheit ist. Das ist ein Brand im Maschinenhaus der reinsten aller Wissenschaften.

Der Stein des Anstoßes war der Computerbeweis des Vierfarbenproblems von Kenneth Appel und Wolfgang Haken. In mehr als 1200 Stunden Rechenzeit zeigten die beiden Wissenschaftler, dass immer vier Farben reichen, um jede beliebige Landkarte so zu kolorieren, dass nie zwei Länder mit der gleichen Farbe eine gemeinsame Grenze haben. Leider verstieß der Computerbeweis gegen ein wichtiges Prinzip der Mathematik: Ein Beweis sollte immer so aufgebaut sein, dass ein kundiger Spezialist in der Lage ist, ihm zu folgen und seine Folgerichtigkeit zu beurteilen. Das ist aber in dem Augenblick, in dem ein Großrechner zum Einsatz kommt, in menschlichen Zeitspannen nicht mehr möglich. Aus diesem Grund wird der Beweis von Puristen vehement abgelehnt. Eine Entscheidung steht bis zum heutigen Tage aus. Doch völlig unabhängig von der Tatsache, dass der Computer in bestimmten Dimensionen kaum zu hinterfragen ist, gibt es eine weitere Tendenz, die uns nachdenklich stimmen muss. Es wächst die Gefahr, dass mittels der Großrechner trotz aller Fortschrittseuphorie ein altertümliches Wissenschaftsverständnis wiederbelebt wird.

„Schläft ein Lied in allen Dingen, die da träumen fort und fort, und die Welt fängt an zu singen, triffst Du nur das Zauberwort.“ Egal, ob in diesem Gedicht von Joseph von Eichendorff, in einem japanischen Haiku, in den Maxwellschen Gleichungen der Physik, im mathematischen Beweis, im gekonnten Aphorismus, auch bei der Entwicklung eines Computeralgorithmus: Meisterschaft und Eleganz zeigen sich immer dort, wo mit größter gedanklicher Mühe das Wesentliche vom Unwesentlichen getrennt wird, wo Erkenntnis zur dichtesten Form gerinnt und sich kaleidoskopische Fülle ableiten lässt.

Was unterscheidet eine valide Theorie von einer spekulativen?

Genau das besagt die Spickzettellektion von Gunther Hoske. Wie weit von diesem seit Jahrtausenden bewährten Denkideal ist die jetzt so gepriesene „Korrelationsmathematik“ entfernt, mit der Algorithmen die Myriaden im Internet gespeicherten Daten sklavisch nach Zusammenhängen durchforsten. Sicher, wenn Kinder viel Eis essen, gibt es viele Waldbrände. Aber Eis essende Kinder sind nicht die Ursachen von Feuersbrünsten. Sonst verwechselte man eine Korrelation mit einer kausalen Beziehung, was auch manchmal vorkommt. Wenn man in Rechnung stellt, dass Kinder bei Hitze durstig sind und nach Abkühlung lechzen und dieselbe Hitze Holz trocken und entzündlich macht, kommt man der Sache näher. Die Interpretation von Korrelationen und das Bemühen, sie in eine kausale Beziehung zu bringen, sind also nach wie vor Domänen des denkenden Menschen. Dieser darf sich natürlich des Computers als Zuarbeiters bedienen; aber die gedankliche Arbeit, die geleistet werden muss, um Daten zu Erkenntnis zu kondensieren, ist dieselbe wie vor hundert Jahren. In diesem Sinne gibt es weder einen Tod der Theorie noch eine neue „kind of science“; es ist fahrlässig, den Prozess der Erkenntnis aus der Hand zu geben.

Aus diesem Grund warnte Frank Schirrmacher 2010 vor der „systematischen Selbstentmächtigung moderner Gesellschaften durch mathematische Modelle“. Sein Aufhänger war der Ausbruch des isländischen Vulkans Eyjafjallajökull. Für mehrere Tage gab es im Bereich der „Wolke“ keinen Flugverkehr mehr. Das Problem? Die Wolke war lange ein digitales Konstrukt und verdankte sich weniger konkret vorgenommener Messungen. Sie war das Ergebnis einer britischen Simulation, bei der zumindest in den ersten Tagen nicht so richtig klar war, ob diese mit den realen Gegebenheiten übereinstimmte. Der digitale Prophet sprach, und ein großer Teil des Luftverkehrs stand still. „Plötzlich sind wir alle Zuschauer“, stellte Schirrmacher konsterniert fest.

Dem kann man nur zustimmen: Das Wissen darüber, was eine valide Theorie von einer spekulativen unterscheidet, erodiert in den Wissenschaften seit längerem. Der Erkenntniswert komplexer Simulationen ist in vielen Fällen fragwürdig, was gerne verschwiegen wird. Jetzt bahnt sich zu allem Überfluss noch an, dass der denkende Forscher durch die Maschine ersetzt werden soll. Dabei ist das exakte Gegenteil richtig: Die Tugenden menschlichen, verdichtenden Denkens sind dringlicher denn je und definitiv der einzige Garant, in der riesigen Wissenswolke nicht völlig die Orientierung zu verlieren.

Marco Wehr ist Physiker und Philosoph. Er arbeitet zu Fragen der Voraussagbarkeit. Zuletzt erschien von ihm „Kleine Kinder sind große Lehrer: Das Genie der frühen Jahre (Archiv der Zukunft - Flugschriften)“ (2014).

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenErnst BlochGalileo Galilei

Anzeige