Die Debatte: Demoskopie

Meinungsforscher in der Krise?

Von Rebecca Winkels
 - 16:28
zur Bildergalerie

Die Ergebnisse von Meinungsumfragen waren zuletzt nicht immer belastbar: Das Ergebnis der Präsidentschaftswahl in den den Vereinigten Staaten hat viele Menschen ebenso überrascht wie das Brexit-Votum in Großbritannien. Das Wahlverhalten großer Bevölkerungsgruppen wurde falsch eingeschätzt. Liegt das an der Unberechenbarkeit der Wählerinnen und Wähler? Oder an der Methodik der Wahlforscher? Steckt die Meinungsforschung gar in einer Krise? Oder ist sie vielmehr mächtiger als viele vermuten und kann Wahlen beeinflussen – auch die bevorstehende Bundestagswahl? Die Vielfalt der verfügbaren persönlichen Daten verändert die Umfragemethoden. Über diesen Wandel, über die Macht der Meinungsforschung und die Unsicherheit von Wahlprognosen im Hinblick auf die Bundestagswahl diskutieren am morgigen Donnerstag ab 19 Uhr drei Expertinnen und Experten bei „Die Debatte“ in der Berliner Charité (Der Eintritt ins Medizinihistorische Museum/Hörsaalruine ist frei).

„Meinungsforschung wird es immer geben, weil sie Teil des demokratischen Prozesses ist und auch die Politik an Meinungsforschung interessiert ist“, sagt Dr. Yvonne Schroth von der Forschungsgruppe Wahlen e.V im Interview für „Die Debatte“. Trotzdem sieht sich die Disziplin in Zeiten zunehmender Digitalisierung und veränderten Kommunikationsverhaltens vor großen Herausforderungen und an einem Wendepunkt. „Wahlumfragen über das Internet können in Zukunft eine gute Alternative zu (Telefon-) Interviews sein, da sie möglicherweise einen größeren Teil der potenziellen Wähler erreichen“, sagt Dr. Marcus Groß, Statistiker bei INWT Statistics. Dafür spricht auch, dass die Unternehmen, die Umfragen online betreiben, wie YouGov, Civey und Projekte wie das German Internet Panel, derzeit zunehmen.

Allerdings haben auch die Onlineumfragen noch einige Hürden zu überwinden. „Wenn man Onlineumfragen macht, ist es ein ganz anderer Ansatz. Man hat keine Zufallsauswahl der Teilnehmer, sondern die Panels rekrutieren sich in der Regel selbst“, sagt Yvonne Schroth: Da entstehe dann ein „verzerrtes Sample von Leuten, die im Internet aktiv und sich freiwillig an Umfragen beteiligen.“ Solche Umfragen seien „nicht repräsentativ“.

Ein Blick in die Vergangenheit

Die schlechtere Erreichbarkeit und die Tatsache, dass es schwieriger wird, eine zufällige Stichprobe zusammenzustellen, stellen sowohl die Online- als auch die Offline-Umfrageinstitute vor erhebliche Probleme. Eine mögliche Lösung: Die stärkere Einbindung von weiteren Daten.

Tatsächlich gibt es in Deutschland immer mehr Projekte aus dem Bereich der Wahlforschung, die diesen Ansatz verfolgen. Vorbild für die meisten Projekte dieser Art sind die Vereinigten Staaten, wo der Statistiker Nate Silver in den vergangenen Jahren eine Methode namens „Poll-Pooling“ etabliert hat und seitdem mit Erfolg für Wahlprognosen einsetzt. Bei den Präsidentschaftswahlen 2008 und 2012 gelang es ihm so, den Gewinner in nahezu allen 50 Bundesstaaten korrekt vorherzusagen. Und auch wenn er bei der Trump-Wahl im November 2016 daneben lag, war das auf der von ihm gegründeten Plattform Fivethirtyeight.com veröffentlichte Modell doch eines der wenigen, das Trump signifikante Chancen einräumte, zu gewinnen.

An dieser Methode orientieren sich auch Marcus Groß und seine Kollegen von INWT Statistics: „Wir kombinieren und gewichten alle verfügbaren Wahlumfragen zu einer Gesamtprognose. Damit geben wir selbst eine langfristige Prognose für die Bundestagswahl ab, indem wir kurzfristige und langfristige Trends zusammenbringen.“ Ein Grund für dieses Modell: Empirisch hat sich gezeigt, dass der Effekt von politischen Ereignissen auf die Stimmung der Wähler mittel- bis langfristig wieder etwas nachlässt. Solche Effekte versuchen die Statistiker mit Langzeitdaten aufzufangen. Insgesamt sollen die Prognosen so genauer werden. Einen ähnlichen Weg geht das Projekt Signal & Rauschen, das in seine Analysemodelle sowohl die Ergebnisse aktueller Umfragen, als auch Daten über die Wahlen der vergangenen 20 Jahre einfließen lässt.

Auch das Prognosemodell des Projekts Zweitstimme.org bezieht verschiedene Komponenten mit ein: eine strukturelle und eine Umfragekomponente. Strukturelle Komponenten sind dabei beispielsweise das Abschneiden von Parteien bei vergangenen Wahlen, historische Umfragedaten und Informationen darüber, ob eine Partei den Kanzler stellt oder stellte. Kombiniert werden diese Daten dann mit aktuellen Umfragewerten verschiedener Institute. „Aus diesen Werten errechnen wir dann statistische Wahrscheinlichkeiten und können so sagen, welche Wahlausgänge wie wahrscheinlich sind“, sagt Dr. Simon Munzert von der Humboldt-Universität Berlin, einer der Wissenschaftler, die das Projekt ins Leben gerufen haben.

Ohne Umfragen funktionieren allerdings auch diese Projekte nicht. „Die Zukunft der Meinungsforschung sehe ich nach wie vor darin, Leute direkt zu fragen“, sagt Munzert. Das sei einfach „nach wie vor der direkteste Weg zu erfahren, wie sich die Wählerinnen und Wähler letztlich an der Urne entscheiden werden.“ Allerdings müssten vor allem bei den Onlineumfragen, die künftig zunehmen werden, die „Verzerrungen, die wir uns einkaufen, wieder herausgerechnet werden“. Gemeint sind Verzerrungen, die entstehen, weil man online seine Stichprobe nicht einfach zufällig erzeugen kann.

Die Debatte: Demoskopie
Herr Dr. Munzert, wie beeinflussen Umfragen den Ausgang der Wahl?
© Die Debatte, Die Debatte

Gelingen könnte dies mit dem der sogenannten „Multilevel Regression with Post-Stratification“ (MRP): „Die Idee dabei ist, dass man bestimmte Eigenschaften der Befragten erfasst, wie das Alter, das Geschlecht und bisherige Wahlentscheidungen und dann diese Faktoren nutzt, um die Fehler, die man sich in die Stichprobe holt, wieder zu korrigieren. Anstelle eine von vorne herein qualitativ möglichst hochwertige Stichprobe zu ziehen, werden stattdessen mehr, aber dafür auch günstigere Online-Interviews erhoben. Dann wird mit statistischen Methoden versucht, diese Daten im Nachhinein „repräsentativ“ zu machen, indem Verteilungen dieser Eigenschaften in der Stichprobe mit Verteilungen in der Wahlbevölkerung, die zum Beispiel Wahltagsbefragungen entnommen werden können, zusammengebracht werden. Man nutzt also anfänglich unrepräsentative, aber dafür viele Daten, um unterschiedliche Wählertypen, die in der Wählerschaft zu finden sind, auch im der Befragung abzubilden“, sagt Munzert. Ein solches Vorgehen ist vor allem dann nützlich, wenn auch lokale Wahlausgänge vorhergesagt werden sollen – zum Beispiel in Wahlkreisen oder, wie in den Vereinigten Staaten, in Bundesstaaten. Mithilfe dieses Ansatzes sagte so auch ein Forscherteam von YouGov UK im Mai diesen Jahres als einziges den für viele überraschenden Ausgang der Unterhauswahlen in Großbritannien voraus.

Mit dem vor allem in der Öffentlichkeit derzeit heiß diskutierten Thema „Big Data“ hat diese Art der Datenerfassung allerdings wenig zu tun. „Wir nutzen im Wesentlichen die Wahlumfragen aller wichtigen Umfrageinstitute der vergangenen 20 Jahre sowie natürlich die Ergebnisse der Bundestagswahlen. Insofern ist unsere Wahlprognose nicht im eigentlichen Sinne dem Feld Big Data zuzuordnen“, sagt Groß.

Big Data spielt (noch) keine Rolle

Generell spielt Big Data in Deutschland derzeit noch eine untergeordnete Rolle, wenn es um Umfragen und Meinungsforschung geht. Einer der Hauptgründe: die strengen Datenschutzrichtlinien hierzulande. Auf Grund dieser ist es den Umfrageinstituten schlicht und einfach unmöglich, personenbezogene Daten aus Social Media-Netzwerken in einem dafür nötigen Ausmaß zu sammeln, zu speichern und auszuwerten.

„Zum anderen ist es aus unserer Sicht fraglich, ob derzeit mit Big Data wirklich eine bessere Prognose als mit herkömmlichen Umfragen erstellt werden kann, oder ob mit solchen Daten etwa bestimmte Persönlichkeitsmuster identifiziert werden können“, sagt Marcus Groß. Vor allem auch, weil in Deutschland die Sozialen Medien noch nicht in dem Maße genutzt werden, wie beispielsweise in den Vereinigten Staaten oder Großbritannien. Hierzulande überwiegen trotz aller Veränderungen immer noch klassische Informationsquellen.

Eine Ausnahme bildet das Startup Echobox, welches die Medienpräsenz von Parteien oder Personen analysiert und mit Hilfe dieser Daten versucht, eine Wahlprognose zu erstellen. In diesem Jahr erstmals auch für die Wahlen in Deutschland. Das Londoner Digital-Startup setzt auf die Analyse von Echtzeitdaten von Millionen Internetnutzern und errechnet, wie viele Klicks Artikel zu den einzelnen Kandidaten oder Parteien bekommen. Dafür werden die fünf wichtigsten Parteien und ihre Spitzenkandidaten berücksichtigt.

Bislang ein Einzelfall und zumindest, wenn man Yvonne Schroth glaubt, wird das auch künftig so bleiben: „Big Data und Social Media spielt in bestimmten Sparten der Meinungsforschung eine große Rolle. Für uns, die wir konkret auf Wahlforschung zielen, hat das wenig Mehrwert“, sagt sie: „Ich sehe nicht, wie man über Social Media oder Big Data einen Mehrwert an Qualität bekommen kann.“ Auch Simon Munzert sieht den Nutzen von Social Media in der Wahlforschung nicht: „Es nutzt mir schlicht und einfach nichts, wenn ich Social-Media-Daten sammeln kann, die mir dann aber nichts über den Wähler sagen. Und über die Nutzer selbst sagen uns diese Daten bisher eher wenig. Deshalb sehe ich nicht, dass sie uns künftig weiterhelfen in unseren Modellen“.

Der Wahlkampf als Sonderfall

Im Wahlkampf dagegen spielen Big Data und Social Media dennoch eine wachsende Rolle. In den Fokus des öffentlichen Interesses ist das Thema durch die Wahl Donald Trumps zum Präsidenten seines Landes gerückt. Wenige Wochen nach der Wahl behauptete die Datenanalysefirma Cambridge Analytica, den Wahlkampf mit Hilfe der Auswertung von personenbezogenen Daten aus dem Internet und der Beeinflussung bestimmter Wählergruppen entscheidend bestimmt zu haben. „Aus wissenschaftlicher Perspektive ist allerdings völlig unklar, was genau da gemacht wurde und was der Einfluss tatsächlich war“, sagt Simon Munzert. Studien zeigen zudem, dass selbst unentschlossene Wähler nur selten kurz vor einer Wahl noch etwas komplett anderes wählen als in vorherigen Wahlen, weshalb Munzert dem Potenzial für solche Beeinflussungen eher kritisch gegenübersteht.

Probiert wird es dennoch: So ist es unbestritten, dass Wahlkämpfer auch hier in Deutschland verstärkt auf Social Media Dienste setzen, um bestimmte Wählergruppen zu erreichen und gezielt anzusprechen. Allerdings steht Deutschland in diesem Bereich – erneut aufgrund strenger Datenschutzregelungen – noch am Anfang der Entwicklung.

Ein Problem für die Zukunft der Wahlforschung sieht Munzert nicht: „Wir haben ja kein Problem damit, wenn sich Meinungen ändern. Das wollen wir ja messen. Problematisch wird es nur, wenn sich diese Meinungsänderung nicht in den Umfragen niederschlägt”, sagt er. „Das ist das Grundproblem und dem kann man mit mehr Datenerfassung aus meiner Sicht entgegenwirken. Deshalb sehe ich dort eher die Zukunft der Wahlforschung als im Bereich von Social Media.“

Projekt „Die Debatte“

„Die Debatte“ (www.die-debatte.org) ist ein gemeinsames Projekt von Wissenschaft im Dialog (WiD), dem Science Media Center Germany (SMC) sowie der TU Braunschweig. Die Frankfurter Allgemeine Zeitung mit ihrer Online-Plattform FAZ.NET unterstützt das Projekt als Medienpartner. „Die Debatte„ bietet in unterschiedlichen Abständen zu aktuellen Themen aus verschiedensten Bereichen der Wissenschaft verständliche Informationen. Mit kurzen Hintergrundtexten, Infografiken, Interviews und Videos macht „Die Debatte“ wissenschaftliche Erkenntnisse verfügbar und unterschiedliche Perspektiven sichtbar. Gespräche mit renommierten Wissenschaftlerinnen und Wissenschaftlern erlauben einen tieferen Einblick in die jeweilige aktuelle Forschung. Besonders spannend sind die Live-Debatten. Dabei diskutieren Expertinnen und Experten aus der Wissenschaft live über wissenschaftliche Fakten und wie diese in der Gesellschaft wahrgenommen werden. Alle Interessierten sind eingeladen – vor Ort oder im Livestream.

Quelle: FAZ.NET / Die Debatte
  Zur Startseite