- marktforschung.de
- Marktforschung
- Neuroforschung und Big Data sind zentrale Herausforderungen der Zukunft
Prof. Dr. Georg Felser, Hochschule-Harz Neuroforschung und Big Data sind zentrale Herausforderungen der Zukunft

Prof. Dr. Georg Felser, Hochschuldozent der Markt- und Konsumpsychologie (Bild: Georg Felser).
Wenn ich an die Marktforschung von morgen denke, fallen mir zwei Punkte ein, die mich auch selbst beschäftigen und wo ich spannende, aber auch sehr herausfordernde Auseinandersetzungen erwarte. Die beiden Punkte sind die Neuroforschung und Big Data.
Die Neuroforschung - hält sie, was sie verspricht?
Die Neuroforschung ist populär geworden, während gleichzeitig aus anderen Richtungen der Psychologie auch das Interesse an unbewusstem Verhalten wieder neu erwacht ist. Solch ein Interesse hängt ja meistens mit Fortschritten in der Forschungsmethodik zusammen. In der Neuroforschung waren das die bildgebenden Verfahren in der Psychologie, die Entwicklung von robusteren Methoden bei der Reaktionszeitmessung oder beim Priming.
Das waren sehr vielversprechende Entwicklungen, die von Marketing und Marktforschung intensiv aufgegriffen wurden. Aus heutiger Sicht werden wohl manche sagen, sie waren eher „viel versprechend“ als vielversprechend. Hier würde ich gerne dagegenhalten und davor warnen, das Kind mit dem Bade auszuschütten. Dass die Neuroforschung nicht gehalten hat, was man sich von ihr versprochen hat, war glaub ich abzusehen. Das liegt nicht nur daran, dass die Erwartungen zu hochgeschraubt und die Versprechungen zu vollmundig waren. Ich denke, das Problem geht auch ganz wesentlich darauf zurück, dass viele das Potential der Neuroforschung so verstanden haben, als könne sie die Psychologie auf lange Sicht ersetzen. Das ist meiner Ansicht nach ein sehr schädlicher Irrglaube.
Wenn Neuroforschung mehr sein will als die Wissenschaft von Neuronen, wird sie immer von der Psychologie abhängen.
Denn all die Phänomene über die man gern aus der Neuro-Perspektive eine Antwort geben würde, z.B. Entscheiden, Erinnern, für wahr halten, Bewerten und so weiter, sind eben keine Tätigkeiten des Gehirns. Und sie werden auch nicht dazu, indem man einfach behauptet, das Gehirn entscheide, wo man früher gesagt hat, es sei der Mensch. So eine Redeweise ist einfach nur Blödsinn. Das Gehirn führt unzählige Tätigkeiten aus, Gehirnprozesse eben. Aber „Entscheiden“ gehört sicher nicht dazu.
Psychologie in der "Replikationskrise"
Ich denke, die Fragen nach psychologischen Phänomenen sind nach wie vor am besten bei der Psychologie aufgehoben. Nur steckt leider auch die in einer Krise, in einer „Replikationskrise“ nämlich. Die letzten Jahre haben das Fach sehr dafür sensibilisiert, dass Befunde, sofern man aus denen Folgerungen ziehen und sie anwenden will, robust sein sollten. Das gilt aber anscheinend nur von einem Teil der Erkenntnisse der letzten Jahrzehnte. Gerade die spannenden und von der Markt- und Meinungsforschung gern aufgegriffenen Phänomene der unbewussten Verhaltenssteuerung sind betroffen und müssen teilweise neu überprüft werden.
Wie oben schon gesagt: Ich will hier davor warnen, angesichts einer durchaus angebrachten Skepsis das enorme Potential, das in diesen Zugängen liegt, außer Acht zu lassen. Ich bin davon überzeugt, dass ein Großteil unseres Verhaltens als Konsumentinnen und Konsumenten automatisch und unbewusst gesteuert wird, dass es viele Schlüssel zu diesen Verhaltenskomponenten gibt und dass wir die auch in der Hand halten – auch wenn in der Vergangenheit nicht alle gepasst haben.
Big Data - Stichprobenverzerrungen sind unvermeidlich
Das führt uns zu meinem zweiten Punkt, nämlich einen, der ebenfalls von sich in Anspruch nimmt, Konsumverhalten vorherzusagen – allerdings ganz ohne den Anspruch von Psychologie und Neuroforschung: Big Data. Als Psychologe empfinde ich selbstverständlich den Anspruch vieler Big Data-Anhänger, nur noch auf Basis von Korrelationen und ohne jegliche Theorie korrekte Verhaltensvorhersagen zu machen, als Provokation. Und wenn dieser Anspruch tatsächlich eingelöst werden könnte, wäre das auch für die Marktforschung ein tiefer Einschnitt.
So scheinen bereits wenige „Likes“ zu genügen, damit Algorithmen Entscheidungen der Nutzerinnen und Nutzer besser vorhersagen können als durch bloßes Raten möglich wäre. Damit wird ein Mikrotargeting möglich, Konsumentscheidungen können auf Individuums-Ebene beeinflusst werden.
Allerdings darf man bei diesem Vorgehen nicht erwarten, dass die interessierende Zielgruppe ausgeschöpft wird. Stichprobenverzerrungen sind unvermeidlich (und bei der Nutzung von Big Data wohl auch schon „eingepreist“). Repräsentativität – in der Marktforschung normalerweise ein wichtiges Qualitätsmerkmal – wird gar nicht erst angestrebt.
Die Erkenntnis, dass man die Ausprägung der Nutzerinnen und Nutzer auf den Big Five Persönlichkeitsmerkmalen aus ihrem Internetverhalten ablesen kann, bedeutet ja im Umkehrschluss, dass man auf bestimmten Kanälen in sozialen Netzwerken eben auch nur bestimmte Menschen antrifft und keineswegs einen repräsentativen Querschnitt der Bevölkerung. Und daran wird sich auch dann nichts ändern, wenn irgendwann einmal alle Lebensfunktionen online ablaufen und alle Welt schnelles Internet hat. Es wird ja auch in Zukunft gelten, dass eben nicht alle, sondern nur bestimmte Menschen mit bestimmten Eigenschaften bestimmte Funktionen im Internet nutzen.
Zudem bedeuten Big Data vor allem einmal Big Waste. Wie kann man den unbrauchbaren Datenmüll von den nützlichen Daten unterscheiden?
Jedenfalls ist Datenqualität bei Big Data-Analysen durchaus ein Thema, und der Verzicht auf Theorie macht diese Aufgabe selbstverständlich nicht leichter.
Big Data-Analysen vs. Experimente
Die von Big Data-Anhängern (z.B. Anderson, 2008) vorgetragene „End of theory“ und die Behauptung „correlation is enough“ würden unser Verständnis von Wissenschaft erheblich reduzieren. Wissenschaft erhielte eine rein reaktive Rolle. Was das bedeutet, zeigt sich zum Beispiel, wenn man sich klar macht, was das Gegenteil von „Big Data-Analysen“ ist, nämlich Experimente. Wer wissenschaftliche Experimente durchführt, prüft Annahmen nicht nur in existierenden Daten, sondern in Umwelten, die proaktiv eigens zur Erkenntnisgewinnung geschaffen wurden. So praktische Dinge wie Impfstoffe würden in einem theoriefreien Ansatz wohl eher nicht – oder wenigstens erst nach sehr langer Zeit – entwickelt.
Das Hauptargument, sich auf Big Data-Analysen zu verlassen, ist simpel: Weil’s funktioniert. Weil man allenfalls einfache Hypothesen braucht, aber keine Theorien, um zu einer einigermaßen korrekten Vorhersage zu kommen, ob in einer bestimmten Population diese oder jene Serie ankommen, diese oder jene Partei gewählt oder dieses oder jenes Produkt gekauft wird.
Verzicht auf Theorie
Wie sieht es aber aus, wenn man – ohne Theorie – Erkenntnisse aus dem einen Kontext auf den anderen übertragen möchte? Diese Frage können wir uns leicht beantworten, wenn wir uns eine Problemlösung vor Augen führen, die viele von uns ziemlich theoriefrei praktizieren, eben weil sie funktioniert: Wenn der Rechner mal nicht so will wie wir, dann sind wir oft schon damit erfolgreich, dass wir ihn einmal herunter- und dann wieder hochfahren. Wie gesagt: Die meisten von uns tun das wohl, ohne zu wissen, warum das sinnvoll ist und was sie konkret durch dieses Vorgehen beheben. Darum kommt auch niemand auf die Idee, wenn das Auto mal nicht funktioniert, einfach noch mal aus- und danach wieder einzusteigen. Will sagen: Der Verzicht auf Theorie, bedeutet auch den Verzicht auf Übertragbarkeit.
Big Data in unsicheren Umwelten
Die Grenzen von Big Data-Analysen zeigen sich besonders stark in unsicheren Umwelten, in den Dinge nicht mit Sicherheit, sondern nur mit bestimmten Wahrscheinlichkeiten passieren. Besonders eindrucksvoll hat sich das ja in der Corona-Pandemie gezeigt, die kein Mensch und kein Algorithmus vorgesagt hat. Hier war die Flexibilität des theoriegeleiteten, wissenschaftlichen Vorgehens deutlich im Vorteil, und das nicht nur bei den Entwicklungen von Impfstoffen.
In unsicheren Umwelten bewähren sich oft Prognosen auf der Grundlage einfacher Faustregeln besser als Algorithmen. Das liegt daran, dass Faustregeln sich auf wenige Informationen konzentrieren. Wenn diese wenigen Informationen auch die relevanten sind, dann kann die Anwendung der Faustregel auch erfolgreich sein. Theorien sind hierfür ein unschätzbarer Vorteil, denn Modelle und Theorien zu haben bedeutet ja, sich auf das Wichtige zu konzentrieren und Irrelevantes auszublenden. Algorithmen streben eine solche Unterscheidung nicht an, sie versuchen vielmehr alles zu verwerten, was nützlich aussieht und den Datenfit verbessert.
Insgesamt ist natürlich der Erfolg von Big Data-Analysen beeindruckend und kann nicht ignoriert werden. Der Anspruch, mit diesem Ansatz Theorie und Wissenschaft abzulösen, ist aber vermutlich unsinnig. Ebenso unsinnig wäre es freilich, auf die Vorteile von Big Data zu verzichten. Einem Kollegen verdanke ich die Analogie zwischen Big Data mit dem Rückspiegel im Auto. Niemand behauptet, das Autofahren bestehe im Wesentlichen in der Nutzung des Rückspiegels, aber genauso wenig würde man empfehlen, ohne den Rückspiegel zu fahren.
Über die Person
Prof. Dr. Georg Felser (Jahrgang 1965) studierte Psychologie und Philosophie an der Universität Trier. Nach seiner Promotion in Trier arbeitete er von 1999 bis 2001 an der Martin-Luther-Universität Halle-Wittenberg. 2001 folgte er dem Ruf an die Hochschule Harz, wo er im deutschlandweit ersten Studiengang „Wirtschaftspsychologie“ die die Markt- und Konsumpsychologie vertritt.
Von 1993 bis 1999 lehrte Georg Felser Werbe- und Konsumentenpsychologie im Studiengang Grafik und Design an der... mehr
Kommentare (1)
Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.
Anmelden