Der Marktforscher als Wissensaggregator Wie die Sekundärmarktforschung zum „Stiefkind“ geworden ist

Christian Halemba

Von Christian Halemba, selbstständiger Marktforscher und Interim Manager

Bereits im Begriff „sekundär“ liegt die Anmutung der Zweitklassigkeit: Nicht genau auf eine Fragestellung zugeschnitten, nicht aktuell, nicht exklusiv, der Primärforschung unterlegen, die scheinbar als Königsdisziplin daherkommt. 

Früher war es sehr mühselig, an Sekundärdaten zu gelangen: Die meisten ordentlichen Studien waren im Eigentum der Auftraggeber und nicht veröffentlicht.

Die Daten der amtlichen Statistik waren und sind bis heute nicht immer hilfreich: Veraltet, nach Kriterien untergliedert, die dem Wandel in Wirtschaft und Gesellschaft nicht gerecht werden. Bestenfalls Daten aus der Bevölkerungsstatistik lassen sich zur Bestimmungen für Grundgesamtheiten und als Eckdaten für Gewichtungen verwenden. 

Publikationen in der Presse waren/sind nicht wirklich verlässlich, denn viele Journalisten und Redakteure stehen mit Zahlen schon seit jeher auf Kriegsfuß.

So waren Erkenntnisse auf Basis von Sekundärquellen oberflächlich, bereits bekannt oder trafen gar nicht den Kern der Ursprungsfragestellung.

Hinzu kamen „menschliche“ Faktoren: Das Standing betrieblicher Mafo-Abteilungen in der Szene korrelierte mit deren Budgets. Die großen Budgethalter wurden von den Instituten hofiert und Primärforschung beflügelt. Mit Sekundärmarktforschung konnte man keine Lorbeeren ernten, weder im Kollegenkreis noch bei den internen Kunden.     

Diese Situation hat viele Jahre lang zum Bild des „Stiefkindes“ beigetragen.

Was heute anders ist

Im letzten Jahrzehnt haben sich mehrere Dinge deutlich verändert: 

„We live in an era where 90% of all data that has ever existed has been created in the past two years. This explosion in the volume, variety and velocity of data certainly means we indeed live in an increasingly quantified world “(Research World, Dez. 2014).

Die Menge an Daten ist explosionsartig angestiegen. So werden Datenmengen inzwischen in „Zettabyte“ = 1 Milliarde Terrabyte gemessen.

Außerdem setzt sich die Einsicht durch, in-house Daten gleichberechtigt in die Analyse einzubeziehen:

  • zum einen Data Warehouse Analysen, um aus vorhandenen Kundendaten die Informationssubstanz zu nutzen. In den umfangreichen Datenpools der Unternehmen schlummern viele Daten, die über das Verhalten der Kunden Auskunft geben: Wo gab es im Rahmen der Customer Journey Kontakte? Wie sind sie abgelaufen? Wo hat man sich informiert, wo gekauft, wo beschwert und warum?
  • zum anderen Crowd Sourcing, um das Wissen vieler Fachleute zu nutzen. In den Unternehmen gibt es viele Experten, die heterogen zusammengesetzt und ergänzt um externe (Lieferanten, Dienstleiter, etc.) ein brauchbares Bild über künftige Entwicklungen (Launches, Marktanteile, Absatz, etc.) abgeben können. Früher nannte man das Expertengespräche oder Delphi Methode. Ergänzt durch Software Algorithmen erreichen solche Prognosen verblüffende Ergebnisse.  

Seit Google herrschen zudem paradiesische Zeiten. Die Auffindbarkeit von Quellen/Daten/Studien/Analysen ist radikal einfacher geworden. Der mühselige Weg zu Bibliotheken, das Ackern durch Branchenreports hat ein Ende. 

Die vielen zusätzlichen Möglichkeiten, Daten in ein Marktforschungsprojekt einzubeziehen stellen zunächst willkommene Alternativen/Ergänzungen dar, eröffnen aber auch neue Fragen. 

Nach der Definition ist Sekundärmarktforschung „die Aufbereitung und Auswertung bereits vorhandenen Datenmaterials, das nicht für den konkreten Untersuchungszweck erhoben worden ist“ (Gablers Wirtschaftslexikon).

Aber wie soll man die Quellen einordnen, deren Daten quasi „automatisch“ anfallen ohne sich um einen Untersuchungszweck zu scheren?

  • Sind Verhaltensdaten aus der digitalen Welt Primär- oder Sekundärdaten?
  • Sind Kommentare aus Foren/Blogs Primär- oder Sekundärdaten?
  • Sind Trouble Tickets aus dem Data Warehouse Primär- oder Sekundärdaten?
  • Ist das Wissen in den Köpfen vieler Fachleute als Primär- oder Sekundärdaten einzuordnen? 

Chancen für die Marktforschung

Man sieht an diesen Beispielen, dass das alte Schema (primär vs. sekundär) nicht mehr zeitgemäß ist. Deshalb sollte man sich von dieser Trennung verabschieden. 

Wichtiger ist, die Vielzahl an Einzelinformationen aus den unterschiedlichsten Quellen zu sichten, zu selektieren, zu analysieren und zu verdichten.
Hierin liegt eine große Chance für die Marktforscher, denn sie verfügen über Erfahrung und Kriterien zur Bewertung der Aussagefähigkeit der einzelnen Quellen und deren Inhalte sowie über die Fähigkeit zur Analyse und Kondensierung.


Die Existenz von Quellen und Daten sollten wir nutzen und immer offen sein für weitere Methoden, die zur Wissensaggregation beitragen. Drei Beispiele:

  • Hinter die Motivkulissen schauen!
    Ein wirklicher Erkenntniszugewinn (wie Menschen und Märkte „ticken“) gelingt kaum im Rahmen standardisierter und geschlossener Frageformen, sondern ist nur durch überzeugende qualitative Forschung möglich.
  • Zusehen und nicht „nur“ befragen!
    Ethnographische Forschung ist lange Zeit etwas in Vergessenheit geraten, sollte wieder verstärkt eingesetzt werden. Das würde auch den Erkenntnissen der Neurowissenschaften entsprechen, dass Konsumenten viele Entscheidungen irrational treffen, Befragungen aber die Ratio ansprechen. 
  • Experten fragen und nicht die Zielgruppe!
    Unsere Mafo Methoden haben sich bewährt, wenn es um die Beschreibung und Erklärung der Vergangenheit und Gegenwart geht. Aber immer wenn es um die Einschätzung der Zukunft geht (Erfolgschancen neuer Produkte, künftige Marktanteile, etc.), haben heute erhobene Befragungsdaten von der Zielgruppe wenig prognostische Relevanz. Wer sich mal die Mühe macht, solche Primärerhebungen 2-3 Jahre später noch einmal anzuschauen und mit der eingetretenen Marktrealität vergleicht, wird feststellen, dass die Prognosen (auf Basis von Subscriber Intention, Interest, etc.) oft daneben lagen. Man sollte sich also öffnen für alternative Quellen/Analysen, um künftige Entwicklungen besser einzuschätzen, z.B Crowd Sourcing. 

Ausblick

Das Rollenbild vor allem des betrieblichen Marktforschers verändert sich. Er sollte sich vom Datenlieferanten zum „Wissensaggregator“ entwickeln, um als Anwalt  des Kunden (Customer Advocacy) die Insights in den Board Room zu tragen.

Die Wahrnehmung der Marktforschung war durch die Primärerhebung und ein Frage-Antwort-Ansatz geprägt. Aber das, was einige/viele von uns heute tun, hat sich weiterentwickelt. Die Berücksichtigung von Big Data inkl. Verhaltensdaten,  Erkenntnisse der Neurowissenschaften und anderer Denkrichtungen wird uns verändern. 

In der Zukunft wird unsere Branche vielleicht nicht mehr „Market Research“ heißen sondern „Decision intelligence" (siehe Research World, Dez. 2014). Diese Terminologie zielt auf die Schaffung eines Endergebnisses und beschreibt nicht die Methode oder die Mittel, um dorthin zu gelangen. Dieses Endergebnis sollte menschliches Verhalten erklären, wie und warum Menschen Entscheidungen treffen. 

Am Ende des Tages werden wir daran gemessen, welchen Beitrag wir liefern, um Konsumenten besser zu verstehen, damit Organisationen die richtigen Entscheidungen fällen, um erfolgreich zu sein. Dabei ist es unerheblich, ob primär, sekundär, quantitativ, qualitativ, data mining, SQL, Webanalytics oder Intuition. Denn Quellen und Methoden sind nur Wege, um Antworten auf Fragen zu erhalten!

 

Diskutieren Sie mit!     

  1. Daniel Fortmann am 25.06.2015
    Ist "Decision Intelligence" als wissensbasierte Beratung und Entscheidungsunterstützung zu verstehen?

Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.

Anmelden

Weitere Highlights auf marktforschung.de