Digitale Informationsspeicher

Im Meer der Daten

Von Stephan Finsterbusch, Carsten Knop
26.10.2012
, 15:30
Das Rechenzentrum von Google in Georgia
Die Menschen produzieren immer mehr Daten, die immer schneller abgerufen werden. Darüber freut sich die IT und nennt das Phänomen: Big Data.
ANZEIGE

Plötzlich sind riesige Rechenzentren en vogue. Der amerikanische Internetkonzern Google hat vielleicht auch deshalb seine über die Welt verteilten Computerfarmen jüngst fotografisch ganz edel in Szene setzen lassen - und so ein hübscheres Gesicht bekommen. In der Gemeinde Biere wiederum, südlich von Sachsen-Anhalts Landeshauptstadt Magdeburg gelegen, hat in dieser Woche der Bau von Deutschlands größtem und modernstem Rechenzentrum begonnen. Bauherr ist T-Systems: „Das Dynamic Data Center Magdeburg/Biere“ soll im Frühjahr 2014 seinen Betrieb aufnehmen. Die Wirtschaftsförderer in Sachsen-Anhalt sind begeistert.

ANZEIGE

Was passiert da gerade? Die Menschen produzieren immer mehr Daten. Und das tun sie immer seltener an ihren stationären Personalcomputern und immer häufiger mobil. Beide Phänomene führen dazu, dass immer mehr Daten an zentralen Orten vorgehalten werden müssen, worin der Boom der Rechenzentren seinen Grund hat. Das lässt sich gut mit Zahlen illustrieren und bleibt doch fast unvorstellbar. In das soziale Netzwerk Facebook zum Beispiel werden täglich im Rhythmus von 20 Minuten 2,7 Millionen Bilder eingestellt. Schon im Jahr 2010 wurden insgesamt 700 Milliarden Videos auf Youtube abgespielt.

Jeder Klick hinterlässt Informationen

Zudem erhöht sich die Geschwindigkeit, in der Daten verarbeitet, analysiert und abgerufen werden. Denn das geschieht nicht mehr, wie früher einmal, im Wochen- oder Monatsrhythmus, sondern immer häufiger in Echtzeit. Zuletzt stammen diese Daten nicht mehr aus irgendwelchen strukturierten Tabellenkalkulationsprogrammen wie Excel, sondern sind vollkommen unstrukturiert. Denn sie entstehen durch die Kommunikation in sozialen Netzwerken wie Facebook oder Twitter, aber auch durch die „Unterhaltung“ von Computern untereinander im sogenannten „Internet der Dinge“.

Mit der Digitalisierung klassischer Industrien haben Unternehmen wie Siemens, General Electric, Audi oder Toyota ihre Kreativ-, Produktions- und Vertriebsprozesse ihre Produktivität im Durchschnitt um 5 bis 6 Prozent gesteigert. Das heißt aber auch, dass nun bei jeder noch so kleinen Bewegung einer Maschine, mit jedem Arbeitsschritt, mit jedem neuen Fertigungsteil Daten genutzt werden und neue Daten anfallen. Auch jeder Klick eines Kunden beim Einkauf im Internet bei Amazon, im iTunes-Laden von Apple, im internetbasierten Reisebüro von Expedia oder bei den jeweiligen Wettbewerbern hinterlässt eine Fülle von Informationen, die richtig verarbeitet werden will, soll die Ware zum richtigen Preis zur gewünschten Zeit an der passenden Stelle sein.

Anschlusskabel in einem Rechenzentrum in Deutschland
Anschlusskabel in einem Rechenzentrum in Deutschland Bild: ZB

So werden in diesem Jahr überall auf der Welt von Privatpersonen, Unternehmen, Institutionen oder staatlichen Organisationen Daten gesammelt, zu deren Speicherung man die Kapazität von fast 60 Milliarden Tabletcomputern benötigen würde. Aufeinandergestapelt ergäben diese Geräte eine Mauer mit einer Höhe von 31 Metern und einer Länge von 4000 Kilometern. Das ist die Hälfte der Großen Mauer in China. Hinzu kommt, dass heute lediglich 15 Prozent der Daten strukturiert sind, rund 85 Prozent aber unstrukturiert.

ANZEIGE

Das wurde soeben in einer Studie von TNS Infratest ermittelt - gefördert vom frischen Rechenzentrums-Bauherrn T-Systems. Der Sinn der Botschaft ist klar: Für die Anbieter von Informationstechnologie soll das alles zum nächsten Wachstumsturbo werden. Die „Cloud“, also die Verlagerung von Computeranwendungen in Rechenzentren, ist längst unternehmerischer Alltag. Was jetzt kommt, heißt „Big Data“. Gemeint ist damit der möglichst effiziente Umgang mit zentral gespeicherten, unstrukturierten Daten und ihre Analyse in Echtzeit.

ANZEIGE

„Alles mit allem kombinieren“

Marc van Zadelhoff, der für Strategie und Produktmanagement zuständige Vizepräsident der Sicherheitssparte von IBM, beschreibt das Ausmaß der Herausforderung so: „Wir reden hier von Datensätzen in Größenordnungen von Petabytes.“ Das ist eine Zahl, die sich aus sechzehn einzelnen Ziffern zusammensetzt. In Bits und Bytes gemessen, entspricht das einer Datenmenge, die dem Volumen einer ordentlichen Universitätsbibliothek gleichkommt. „Und durch das Internet jagen heute jede Sekunde mehr Daten, als dort vor 20 Jahren insgesamt gespeichert waren“, schreiben Andrew McAffee und Erik Brynjolfsson in einem Aufsatz für den „Harvard Business Manager“.

Deshalb liebt zum Beispiel Jim Goodnight Zahlen über alles, er mag sie stapel-, haufen- und bergeweise. Er hat in jungen Jahren nicht nur Mathematik studiert und es später zum Professor für Statistik gebracht. Er gründete mit zwei Partnern auch ein Unternehmen, nannte es SAS Institute und hat sich Mitte der siebziger Jahre an die Erforschung praktischer Methoden, Wege und Möglichkeiten für die Auswertung der Datenberge gemacht.

„Heute würde man sagen: Big Data“, sagt Goodnight. „Ganz vereinfacht gesprochen, haben wir die Daten in den Computern nicht vertikal, sondern horizontal angeordnet. So haben wir eine ganz andere Verfügbarkeit. Alles liegt vor Ihnen ausgebreitet da; das gibt Ihnen den großen Überblick; und Sie können mit einer guten Software sofort alles mit allem kombinieren, in Beziehung setzen und daraus Schlussfolgerungen ableiten“, sagt Goodnight.

ANZEIGE

Neue Geschäftschancen und Berufsbilder

Das ist wichtig, denn der amerikanische Einzelhandelskonzern Wal-Mart zum Beispiel sammelt nach Schätzungen in jeder Stunde mehr Daten aus den Transaktionen seiner Kunden in den Tausenden von Einkaufszentren, als 50 Millionen Schränke an Akten fassen könnten. Die Sears Holding steuert die Kundenwerbung ihrer Marken über die blitzschnelle Verarbeitung von Einkaufs- und Verkaufsdaten. Vor Big Data dauerte es acht Wochen, bis eine personalisierte Werbeplattform erstellt wurde.

Heute ist es nach Angaben von Peter Shelley, Technikvorstand von Sears, kaum noch eine Woche. „Ziel muss es sein, dass die Händler in dem Moment wissen müssen, was der Kunde will, wenn er den Laden betritt“, sagt Chuck Hollis, einer der Technik-Vorausdenker beim amerikanischen Hersteller von Speicherrechnern EMC. Entsprechend individuell könne der Kunde dann bedient werden.

Eine andere Big-Data-Anwendung könnte so aussehen: Banken bewahren für die Kunden virtuell sämtliche Quittungen und Kaufbelege auf, da sie die zugrunde liegende Finanztransaktion ja ohnehin speichern. Zudem könnten sie auf der Basis ihres „Wissens“ Empfehlungen zur Optimierung der privaten Haushaltsführung geben oder auch den im regionalen Kundenvergleich günstigsten Stromversorger heraussuchen. In jedem Fall eröffnet Big Data völlig neue Geschäftschancen und wohl auch Berufsbilder für entsprechende Daten-Analysten.

ANZEIGE

Daten nutzbar machen und auswerten

Eine anderes Beispiel für eine Big-Data-Lösung: Der Windanlagenhersteller Vestas kann nun im Vorfeld von Projektplanungen schon in wenigen Stunden für einen bestimmten Standort berechnen, wie viel Energie in den nächsten Jahrzehnten dort erzeugt werden wird, wie hoch der Ertrag ist und wie schnell die Anlage sich rechnet. Das ist ganz im Sinne des Prinzips von Goodnight: „Daten zu sammeln ist die eine Seite, doch diese gesammelten Daten auch nutzbar zu machen und sie auszuwerten ein ganz andere.“

Dafür sind besondere Computerprogramme notwendig. Sie werden im Wortschatz der Programmierer oft auch „Business Analytics“ genannt. Und parallel zum Wachstum der jedes Jahr gesammelten, gespeicherten und auszuwertenden Daten wird der Umsatz mit entsprechender Bearbeitungssoftware nach der Erwartung von Marktforschern in den kommenden fünf Jahren wohl um jeweils mehr als 10 Prozent klettern.

Für diese Dynamik gibt es auch Belege in Deutschland. So haben sich Ingenieure der deutschen SAP AG vor zwei Jahren darangemacht, ein Projekt des Forschungszentrums HPI in Potsdam in der Praxis zu erproben. Sie ordneten Daten im Umfang von mittlerweile 100 Terabyte in einer neuartigen Datenbank so an, dass sie Tausendmal schneller zu verarbeiten waren als bisher. Sie tauften ihr Vorhaben Hana, brachten es im vergangenen Jahr auf den Markt und verzeichnen seitdem eine stetig wachsende Nachfrage.

SAP nahm sich vor, im ersten Jahr 100 Millionen Euro damit umzusetzen, im zweiten 200 und wird nun wohl mit rund 320 Millionen Euro durchs Ziel kommen. Mittlerweile arbeiten die deutschen Software-Ingenieure mit den Kollegen von IBM daran, eine Datenmenge von 250 Terabyte auf einmal zu verarbeiten, oder mit anderen Worten: binnen eines Wimpernschlags Millionen Bücher lesen. „Wir stehen hier wirklich vor einer Zeitenwende“, hatte Hasso Plattner, Sponsor des HPI, Gründer und Aufsichtsratsvorsitzender von SAP, gesagt. Und auch das zweite große deutsche Software-Haus, die Software AG in Darmstadt, hat inzwischen mit ihrem Produkt „Terracotta“ einen Big-Data-Hoffnungsträger im Programm.

ANZEIGE

Am Anfang steht somit die Erkenntnis, dass die Daten der Kunden der wichtigste Rohstoff von Unternehmen geworden sind. Das gilt längst nicht nur für Google oder Facebook, sondern auch für den Mittelständler von nebenan. Um den Rohstoff zu fördern, braucht man eine neue Generation von Datenbankprogrammen, die schnell mit unstrukturierten Daten umgehen kann. Von diesem Geschäft wollen viele profitieren; deshalb brauchten die Marketingstrategen der Branche ein neues Schlagwort. Es heißt Big Data.

Wer es hört, denkt in der Informationstechnologie an das große Geld. Bis zum Jahr 2016 soll der Markt ein Volumen von knapp 16 Milliarden Euro erreichen. Und es scheint, dass von diesem Geld tatsächlich auch die Kunden der IT-Branche profitieren können - wenn es gelingt, alle Bedenken zum Datenschutz auszuräumen. Aber das ist der Stoff für eine ganz andere Geschichte.

Quelle: F.A.Z.
Stephan Finsterbusch  - Portraitaufnahme für das Blaue Buch "Die Redaktion stellt sich vor" der Frankfurter Allgemeinen Zeitung
Stephan Finsterbusch
Redakteur in der Wirtschaft.
Twitter
Autorenporträt / Knop, Carsten
Carsten Knop
Herausgeber.
Twitter
  Zur Startseite
Verlagsangebot
Verlagsangebot
ANZEIGE