<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Literatur rechnen

Lektüre im Computerzeitalter

Von Gerhard Lauer
 - 13:34

Literatur ist zum Lesen da, denkt man, zum gründlichen Lesen zumal, gerade wenn es sich um gute Literatur handelt. Für das gründliche Lesen hat der amerikanische Dichter, Literatur- und Agrartheoretiker John Crown Ransom 1937 in seinem Essay „Criticism, Inc.“ die eingängige Formel vom close reading gefunden. „Dichtes Lesen“ meint die detaillierte Analyse der Worte, syntaktischen Verbindungen und semantischen Vieldeutigkeiten Satz für Satz, Absatz für Absatz. Virtuosen im Fach wie Jacques Derrida bringen es mit dieser Methode des gründlichen Lesens schon einmal auf achtzig Seiten, um nur das Wort „yes“ in James Joyces Roman „Ulysses“ zu interpretieren.

Das Verfahren des dichten, textnahen Lesens ist wohl fast so alt wie das Lesen von Literatur. Schon in der Apostelgeschichte, im achten Kapitel, wird berichtet, wie Philippus den äthiopischen Kämmerer zum Christentum bekehrt, indem er ihm einen Abschnitt aus dem Buch Jesaja auslegt. Mehr als diesen einen Abschnitt gründlich ausgelegt zu haben scheint es nicht gebraucht zu haben, um von der neuen Wahrheit des Christentums zu überzeugen. Man sieht: Literatur, besonders heilige Literatur, braucht gründliche Leser. Sie führt zur Wahrheit.

Vom Lesen zum Rechnen

Dass man Literatur auch rechnen kann, muss vor dem Hintergrund dieser Tradition geradezu als Häresie erscheinen. Und doch geht es derzeit um diesen öffentlich wenig wahrgenommenen Paradigmenwechsel vom Lesen zum Rechnen der Literatur. Das ist viel für geisteswissenschaftliche Fächer wie die Literaturwissenschaft, die sich oft genug eher unter die Künste denn unter die Wissenschaften zählt. Die mit der Literatur rechnen, argumentieren für ihr Unterfangen wie Franco Moretti im Jahr 2000 in einem Beitrag für die „New Left Review“. Dort überlegte er, wie überhaupt eine Geschichte der Weltliteratur geschrieben werden könne. Niemand kann alles lesen, schon gar nicht in allen Sprachen. Immer mehr lesen sei zwar gut, aber kaum die Lösung für den Literaturhistoriker, der wie der Komparatist Moretti eine Geschichte der Weltliteratur schreiben will.

„Literaturgeschichte“, so Moretti, „wird bald schon etwas anderes sein als das, was sie jetzt ist. Sie wird eine Literaturgeschichte aus zweiter Hand werden, ein Patchwork aus der Forschung anderer ohne eine einzelne direkte Textlektüre. Das ist ein ambitioniertes Unternehmen - und derzeit mehr denn je; aber die Ambition ist jetzt direkt proportional zum Abstand vom Text. Je ambitionierter das Projekt ist, desto größer muss der Abstand sein.“ Distant reading statt close reading ist das Stichwort, mit dem Moretti und nicht nur er eine ganze Tradition literaturwissenschaftlichen Arbeitens auf den Kopf stellt oder auf die Füße und dafür plädiert, viel, viel mehr Bücher in den Blick zu nehmen. Denn das „distanzierte Lesen“ der sehr vielen Texte rückt auch alle diejenige Literatur wieder in den Blick des Faches, die es geradezu notorisch vernachlässigt hat, die nicht nur bildungsbürgerlich beglaubigte Literatur jenseits des Kanons, die dem Fach Literaturwissenschaft über die Pflege des seltenen Sinns verlorengegangen ist. Wie aber kann man dieses Meer erkunden, wenn die Menge der Bücher jede Lesezeit übersteigt?

Kulturelle Gesetzmäßigkeiten

Die Antwort ist: mit dem Computer. Computer können lesen, nur ist ihr Lesen genau genommen ein Rechnen. Distant reading meint eine distanzierte, weil auf große Korpora statt auf Einzelwerke ausgerichtete Erschließung der Literatur, die statistische Methoden statt Interpretation, informationstechnische Suchen statt Einzellektüre und mathematische Modellierungen statt Kulturtheorien nicht scheut. In einem programmatischen Beitrag fragt der Altphilologe Gregory Crane, ob die Untersuchung von, sagen wir, einer Million Bücher ein methodisch sinnvolles Unterfangen sein könne („What do you do with a million books?“ in: D-Lib Magazine 12/3, 2006, http://www.dlib.org/dlib/march06/crane/03crane.html). Seine Antwort ist die seiner eigenen Arbeit: Ja, die Untersuchung von einer Million Bücher sei jetzt möglich geworden, weil wir durch den Computer erstmals über die Möglichkeit verfügen, sinnvolle Antwort aus den großen Schatzhäusern des menschlichen Wissens zu gewinnen, ohne dabei nur auf die wenigen hochkanonischen Titel zurückzugreifen.

Von den ersten Schriftzeugnissen bis zu den riesigen Textmengen der Gegenwart gewinnen Philologen ein gewaltiges Untersuchungsfeld, das bis vor kurzem methodisch nicht erschlossen werden konnte, weil eine solche Menge von einer Million Büchern und mehr nicht überzeugend untersucht werden konnte. Dazu werden heute computergestützte Korpuserschließungen mit biologischen Modellen genetischer Abstammungsverhältnisse verknüpft, wie es etwa Adrian C. Barbrook, Christopher J. Howe, Norman Blake und Peter Robinson anhand der mehr als achtzig Überlieferungsvarianten von Chaucers „Canterbury Tales“ getan haben, um eine Phylogenetik der komplexen Überlieferungslage nur dieser Erzählungen zu erstellen.

Längst sind vor allem die Sprachwissenschaftler viel weiter als die Literaturwissenschaftler gegangen und haben beispielsweise die Entwicklung des Lexikons einer Sprache wie die des Englischen über Millionen von Worten und Hunderte von Jahren hinweg untersucht, um herauszufinden, welche Gesetzmäßigkeiten die lexikalische Evolution der indo-europäischen Sprachgeschichte antreibt. In solchen und anderen Untersuchungen geht es um nicht weniger als um Gesetzmäßigkeiten der kulturellen Evolution. Wer aber von Gesetzmäßigkeiten in kulturellen Dingen spricht, der verlässt die Aufteilung der wissenschaftlichen Welt in die „zwei Kulturen“, hier die auf Verstehen ausgerichteten Geisteswissenschaften, dort die nomothetischen Naturwissenschaften.

In der Petabyte-Epoche

Die „Digital Humanities“, wie diese rechnenden Geisteswissenschaften genannt werden, scheren sich nicht um solche Grenzpfähle. Kein Zufall, dass solche Aufsätze in Zeitschriften wie „Nature“ oder „Science“ erscheinen und selbstverständlich Statistik und mathematische Modelle nutzen. Eine um methodische und theoretische Lagerbildung unbekümmerte Wissenschaft wird hier sichtbar. Für sie gilt, was der Chefredakteur des Technologie-Magazins „Wired“, Chris Anderson, als das „Ende der Theorie“ bezeichnet hat (“The End of Theory: The Data Deluge Makes the Scientific Method Obsolete“, in: Wired, 23. Juni 2008, http://www.wired.com/science/discoveries/magazine/16-07/pb_theory). Angesichts riesiger Datenmengen kommt es nicht mehr auf die Hypothesen und Modelle, sondern auf die schiere Korrelation unvorstellbarer Datengrößen an, aus denen die Computer Muster herauszulesen vermögen, die keine Wissenschaft bisher herauszufinden vermocht hat. Daten alleine sind ab einer Größe von mehr als einer Billiarde Byte, mehr als einem Petabyte also, etwas qualitativ anderes. Die Theorien sind von den Daten überholt. Sie sind selbst die Mikroskope der Forschung geworden

Das ist natürlich übertrieben, schaut man in den Alltag der Entwicklung von computergestützten Verfahren, um Wissen aus großen Textmengen zu gewinnen oder formale Auszeichnungssprachen zu schreiben, mit denen erst große Korpora maschinenlesbar werden, um hier nur bei den geisteswissenschaftlichen Problemen zu bleiben. Da ist noch viel von Hand zu machen, um die Maschinen erst anzulernen, ist umständlich das bisher gewonnene Wissen um Literatur in computerlesbare Sprachen zu übersetzen. Doch immer geht es dabei um Datenmengen, die nicht aus erster Hand gelesen werden können, um ein distanziertes Lesen. „Wie man eine Million Bücher nicht liest“, ist eines der jüngsten Positionspapiere um den Digitalen Humanisten John Unsworth überschrieben (Tanya Clement u. a. , „How Not to Read a Million Books“; http://www3.isrl.illinois.edu/~unsworth/hownot2read.html).

Lesen mit dem Blick auf Regelmäßigkeiten

Nur Computer sind die zukünftigen Leser, die Millionen Bücher distanziert lesen, verblüffenderweise so, dass sie dabei etwas entdecken können, was wir beim „dichten Lesen“ so nicht erkennen können. Das können Regelmäßigkeiten in der Entwicklung von Erzählweisen sein, zum Beispiel die Entwicklung der Innendarstellung von Figuren, wenn man dazu Tausende von englischen mit deutschen und französischen Texten vergleicht und die dort gefundenen Muster wiederum mit den ganz anderen Literaturen Indiens oder Japans übereinanderlegt und dann erst sieht, ob es gemeinsame Regularitäten gibt. Oder es sind Regelmäßigkeiten in der Herausbildung des Theaters oder des lyrischen Sprechens, die man entdecken kann, wie man sie derzeit schon für die Evolution von Sprachen ermittelt. Die Verbreitung von Büchern selbst kann jetzt mit den Ausbreitungsmustern von Keramiken oder von Krankheiten verglichen werden, wenn man dazu nur eine hinreichend große Zahl an Befunden und groß genug bemessene Zeiträume wählt.

Das alles hat als Forschungsidee gerade angefangen, Wirklichkeit zu werden, und verspricht, andere Blicke auf die Geschichte des Menschen und seiner Ausdrucksformen zu ermöglichen, als sie bisher möglich waren. An die Nachbarschaft mit den Computern müssen wir uns als Leser erst gewöhnen. - Um nicht missverstanden zu werden: Der Computer löst uns nicht als Leser ab, die Mühe wie die Freude des dichten Lesens werden weiterhin zu einer vernünftigen Geisteswissenschaft gehören. Aber dieses dichte Lesen durch Verfahren des distanzierten Lesens der Kultur zu verstärken ist mehr als nur vielversprechend. Am Ende geht es vielleicht nicht um die Bekehrung zur Wahrheit, sondern nur um die Vorläufigkeit aller wissenschaftlichen Erkenntnis gerade angesichts von Millionen von Büchern.

Gerhard Lauer lehrt Deutsche Philologie an der Georg-August-Universität Göttingen.

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenJacques DerridaJames JoyceComputer