GastbeitragMarktforschung: Zeit für das Ende des Datendogmas

Ein Mann zeigt mit dem Finger auf ein auf dem Tisch liegendes Blatt Papier
Was sind die Daten der Markforschung wert, wenn die Erhebungsmethoden zweifelhaft sindGetty Images

Marktforschungsinstitute in Deutschland verfälschen oder erfinden in großem Stil Umfrageergebnisse – das hat gerade der „Spiegel“ aufgedeckt. Vielen Ergebnissen, so das Magazin, sei nicht zu trauen. Mitarbeiter der Institute erzählen von den Bedingungen eines Alltags, in dem methodisch sorgfältige Arbeit fast unmöglich ist: Projektbudgets und Honorare sind niedrig, der Zeitdruck immens, die Anforderungen an das Profil der Befragten hoch.

Wenn ein Institut sehr viel Aufwand in die Suche nach Mitgliedern einer sehr kleinen Zielgruppe stecken muss und ihnen aber nur einen Fragebogen vorlegen soll, auf dem ein paar Sachen anzukreuzen sind, sei die Versuchung groß, diese Kreuzchen selbst zu setzen. Der „Spiegel“ belegt die entsprechenden Praktiken mit Ausschnitten aus internen E-Mails. Offenbar liegen dem Magazin viele inkriminierende Aussagen vor.

In der Branche herrscht Verunsicherung. Die Vorwürfe wiegen schwer, der Ruf steht auf dem Spiel.

Dabei ist es doch legitim, mehr über Verbraucher und Zielgruppen wissen zu wollen. Unternehmen, Verbände und die öffentliche Hand können ihre Strategie und ihre Kommunikation optimieren, indem sie sich auf tatsächliche Bedürfnisse einstellen. Und wer soll ihnen Einblicke in diese Bedürfnisse geben, wenn nicht die Marktforschung?

Trotzdem muss sich ganz offensichtlich etwas ändern. Nur wo?

Der „Spiegel“ bemüht sich darum, einseitige Schuldzuweisungen zu vermeiden, selbst wenn er von „Betrug“ seitens der Marktforscher spricht. Denn klar wird: Marktforscher tricksen zwar, doch haben ihre Auftraggeber mindestens ebenso oft ziemlich verquere Vorstellungen davon, was Marktforschung kann.

Zeit also, mit drei Annahmen aufzuräumen, die den Boden für dubiose Praktiken bereitet haben – und übrigens auch in anderen Wirtschaftszweigen verbreitet sind.

  • Erste falsche Annahme: „Alles, was es irgendwo auf der Welt gibt, kann als isolierter Gegenstand analysiert und quantifiziert werden.“ Ein Beispiel: Wenn ich wissen will, was die Hauptstadt der Schweiz ist, frage ich keinen Marktforscher. Bei dieser Frage geht es nicht um Mehrheiten, sondern um Wissen. Nun werden Marktforscher sagen, dass sie solche Fragen ohnehin nicht stellen. Das mag sein, aber die Einstellung, die den Befragungsmethoden zugrunde liegt, ist trotzdem eine ähnliche: Viele Forschungsprojekte tun so, als wäre alles da draußen ein isoliertes Faktum, das sich datenförmig erfassen ließe. Als wären die New-Work-Präferenzen der Generation Z so etwas wie die Information über den Namen der Schweizer Hauptstadt. Was dabei verloren geht: der Blick für Kontexte, Handlungsspielräume. Für Komplexität. Also letztlich für genau jene Situationen, in denen ein Unternehmen oder eine öffentliche Institution ansetzen kann.
  • Zweite falsche Annahme: „Es gibt Daten zu allem.“ Im Rausch von Big Data hat sich eine totale Datenerwartung breitgemacht. Als müsste man nur auf einen Knopf drücken, und dann wären Daten zu allen Fragen da. Das stimmt nicht, denn Daten sind nur dann da, wenn sie jemand erhoben hat. Wenn sich jemand entschlossen hat, Antworten auf eine bestimmte Frage zu suchen. Es ist quasi unmöglich festzustellen, auf welcher Basis Frauenärzte sich für ein bestimmtes Zeitschriftenabo entscheiden, wenn diese Umfrage noch niemand durchgeführt hat. Alles andere sind Gedankenexperimente mit Korrelationen. Oder jemand muss diese Daten eben erst erheben, und das ist umso langwieriger und auch schwieriger, je kleiner die Zielgruppe oder je komplexer die Frage ist. Viele Aspekte der Wirklichkeit sperren sich aktiv dagegen, datenförmig erfasst zu werden.
  • Damit sind wir bei der dritten falschen Annahme: „Mit den Daten liegt uns die Realität vor, die wir untersuchen wollen.“ Daten sind zwar wirklich da, aber sie sind nicht die untersuchte Wirklichkeit, sondern eine ganz bestimmte Form der Abbildung dieser Wirklichkeit. Diese Einsicht setzt sich inzwischen durch, aber nur sehr langsam. Zum Beispiel weil sich herumspricht, dass Algorithmen auch nur so objektiv sind wie die Leute, die sie programmiert haben. Das gleiche gilt für Daten der Marktforschung. Was der Auftraggeber bekommt, hängt von den Werten der Interviewer oder von der Haltung der Autoren von Interviewfragen ab. Ich kann jede Frage so oder so stellen, und wenn ich anders frage, frage ich etwas anderes. Wenn ich nach Werten frage, das aber wertegesteuert – und womöglich unbewusst wertegesteuert – tue, sehe ich die Werte meiner Zielgruppe so, wie meine Wertebrille das zulässt.

Die Welt besteht nicht aus Daten. Daten sind formulierte Welt. Diese Formulierungen muss ich interpretieren können, und dazu brauche ich genau die Kontexte, die in der quantifizierenden Forschung oft nicht mitgeliefert werden.

Die aktuellen Enthüllungen über Marktforschungsinstitute – über Vorfälle und Praktiken und über ihre Auftragslage – können ein Anlass zum Umdenken sein. Hin zu Methoden, die die Komplexität der Welt besser berücksichtigen und gerade dadurch die Bedürfnisse der Auftraggeber besser erfüllen. Phänomenologisch fundierte Tiefeninterviews, semiautomatische Diskursanalysen, hermeneutische Verfahren der (Bewegt-)Bildanalyse und andere Methoden, ausgeführt von multidisziplinären und idealerweise auch interkulturellen Projektteams mit Respekt vor der Vielfalt konkreter Lebenswirklichkeiten – und gleichzeitig mit einem Auge auf der Gestaltbarkeit genau dieser Wirklichkeiten – stehen als Alternativen zum Fragebogen bereit.

Umsonst sind sie allerdings nicht zu haben.