Zur digitalen Revolution der Marktforschung

Von Dr. Peter Aschmoneit und Prof. Mark Heitmann, quantilope GmbH

In den vergangenen 20 Jahren hat das Internet zahlreiche Branchen disruptiv gewandelt. Hierzu zählen insbesondere diejenigen, deren Wertschöpfung in digitalisierbaren Informationsgütern liegt. Beispielhaft sei an die Entwicklungen im Handel (Beratung und Vermittlung) sowie in der Medien- und Finanzindustrie erinnert. Im Kern haben die neuen Technologien den scheinbaren Widerspruch zwischen Kostensenkung und Leistungssteigerung kurzfristig durchbrochen und es innovativen Marktakteuren erlaubt, zu günstigeren Konditionen bei gleichzeitig besseren Leistungen anzubieten.

Heute weckt der Gang zur Videothek oder zum Schallplattenladen allenfalls nostalgische Erinnerungen. Medienprodukte lassen sich nicht nur günstiger, sondern gleichzeitig bequemer, mit größerer Auswahl und mit umfassenderen Rezensionen über das Internet beziehen. Zahlreiche große, kleine und mittlere Unternehmen waren nicht in der Lage, ihre Strukturen an die rasanten technologischen Entwicklungen anzupassen, was erhebliche ökonomische Herausforderungen zur Folge hatte.

Die Marktforschungsindustrie bietet ebenfalls digitalisierbare Informationsgüter an. Die technische Entwicklung hat aber bislang immer nur Teile des Leistungserstellungsprozesses erfasst. Es stellen sich die Fragen, woran das liegt und ob sich diese Situation in den kommenden Jahren ändern könnte. Auch wenn viele gute Gründe für die verschiedensten Erhebungsformen sprechen, wird der überwiegende Teil quantitativer Marktforschung heute in Form von Online und Mobile Surveys abgewickelt. Diese Erhebungsform vor Augen überrascht es auf den ersten Blick, dass der klassische Marktforschungsprozess nach wie vor weitgehend unverändert durch zahlreiche Medienbrüche gekennzeichnet ist:

  1. Der Studienzweck wird als Briefing oft in einer Präsentationssoftware festgehalten und kommuniziert.
  2. Fragebögen werden in Textverarbeitungsprogrammen angelegt und mit "Änderungen verfolgen" zwischen Instituten und Unternehmen per E-Mail iteriert.
  3. Fragebogeninhalte werden später in Umfragesysteme übertragen (entweder individuell programmiert oder mit flexiblen "Point and Click"-Systemen konfiguriert).
  4. Viele Institute arbeiten mittlerweile mit externen Panelanbietern und handeln per E-Mail Konditionen aus.
  5. Die Datenanalyse wird in der Regel von Instituten mit Statistiksoftware durchgeführt.
  6. Die Ergebnisse der Analyse werden zurück in eine Präsentationssoftware übertragen. Ausschnitte daraus werden im Unternehmen an die Entscheider verteilt.

Die Gründe für diese relativ langsamen Veränderungen sind vielfältig. Zum einen sind die unternehmerischen Fragestellungen selbstverständlich sehr unterschiedlich, was sich in einem berechtigten Markt für individuelle Marktforschung niederschlägt. Gleichzeitig lässt sich zweifellos mehr standardisieren als dies bislang der Fall ist. Da Marktforschungsinstitute und Unternehmensberatungen insbesondere mit den individuellen Projekten im klassischen Manntagegeschäft hohe Margen erzielen, sind die Standardisierungsinteressen etablierter Anbieter verhalten. In der Folge haben sich neue Angebote entwickelt. Die Entwicklungen lassen sich in die beiden Kerndimensionen der marktforscherischen Wertschöpfung, der Datenerhebung und der Datenanalyse, einordnen.

Abbildung 1: Digitalisierungsbereiche in der Marktforschung
Abbildung 1: Digitalisierungsbereiche in der Marktforschung


Überraschend wenig Entwicklung ist im Bereich der Standardsoftware zur statistischen Datenanalyse zu beobachten (Quadrant 1). Wenngleich vereinzelt neue Player in den Markt vordringen, um statische Analysen als Software as a Service (SaaS) anzubieten, wird die Marktforschungspraxis nach wie vor durch die Kombination aus Statistik- und Präsentationssoftware, gegebenenfalls flankiert durch Tabellenverarbeitung, dominiert.

Geht es um kostengünstige Insights ohne größere Ansprüche an die analytische Flexibilität bieten neue Marktteilnehmer inzwischen standardisierte Marktforschungslösungen als SaaS an, wobei es die Automatisierung erlaubt, am Studienende fertige Charts zu günstigen Konditionen über das Internet zu beziehen. Einen anderen Weg gehen Anbieter von Dashboard-Lösungen, die wiederkehrende Studien standardisiert in Charts überführen. Diese Dashboard-Anbieter kommen vorwiegend aus dem Feld der Datenvisualisierung.

Mit Abstand die meisten Anbieter sind im Bereich der mittlerweile höchst flexibel gestaltbaren Online-Erhebungen zu finden. Neben diversen "Point and Click"-Systemen werden individuelle Surveys für einzelne Studien entwickelt und die Daten meist anhand von Tabellen ausgeliefert. Teilweise werden inzwischen auch deskriptive Charts als Ergebnis zur Verfügung gestellt. Um weiterführende analytische Aufbereitungen zu tätigen wird wiederum Statistik- beziehungsweise Präsentationssoftware verwendet.

Während die Produkte der Quadranten (1) und (3) überwiegend von Instituten beziehungsweise spezialisierten Abteilungen im Unternehmen genutzt werden, richten sich die Angebote in Quadrant (2) direkt an den Entscheider. In den kommenden Jahren sind zweifellos zahlreiche Schnittstellen zwischen den verschiedenen Systemen zu erwarten. Diese Entwicklung wird sich fortsetzen. Sie löst aber das eigentliche Problem nicht. Die Daten kommen ohne Kontext aus den Umfragesystemen und können nur in der immer gleichen Form ausgewertet werden, weil Befragungssysteme mit Blick auf die Erhebung und nicht die folgende Analyse gestaltet wurden. Gleichzeitig bleiben die Entscheider außen vor, weil die Präsentationsumgebung oder Dashboard-Lösungen losgelöst von der Programmierung des Websurveys und der statistischen Datenanalyse stattfinden.

Wünschenswert wäre eine integrierte Technologie in Quadrant 4. Revolutionär wäre eine Technologie, die von den geplanten Insights kommend, den richtigen Fragebogen vorschlägt. Sowohl der Fragebogen als auch die erzielten Ergebnischarts und -tabellen müssen dabei ausreichend flexibel bleiben, um für die individuellen Interessen der Entscheider den nötigen Freiraum zu lassen. Es wird eine Technologie benötigt, die vom Projektmanagement, über die Fragebogenerstellung bis zum fertigen Report alle Schritte der klassischen Marktforschung integriert. Es muss dem Analysesystem bekannt sein, welche Art Frage im Fragebogen hinterlegt wurde, sodass automatisch nur die richtigen Analysen zur Verfügung stehen. Nur so lässt sich das erforderliche Vorwissen für die Nutzung in einem relevanten Umfang reduzieren. Solche Ansätze lassen sich dann sowohl für einfache Fragebogenforschung, wie auch für anspruchsvolle Conjoint-Analysen, Virtual-Shelf-Tests, implizite Messungen oder standardisierte Concept- und Advertising-Tests verwenden. Eine derartige Technologie vereinbart die Kostenersparnis der Standardisierung mit der Flexibilisierung der Ergebnisinterpretation, indem der Bruch zwischen Entscheidern und Analysten verschoben wird und die geringeren Anforderungen es erlauben, einen größeren Nutzerkreis in die Datenanalyse einzubeziehen. All das als SaaS umgesetzt, um sie mobil oder am PC bedienen zu können, was die erzielten Befunde statt auf Netzlaufwerken ubiquitär mit wenigen Clicks in all ihren analytischen Möglichkeiten verfügbar macht.

Bis heute fehlen derart integrierte Systeme noch am Markt. Gleichzeitig handelt es sich keinesfalls um Science Fiction. Die Technologien stehen seit einigen Jahren zur Verfügung. Interessanterweise sind sowohl bei Web-Datenbanken (zum Beispiel MongoDB) als auch bei anspruchsvollen statistischen Datenanalysen (zum Beispiel R) Open Source Projekte stark im Kommen. Als dokumentenorientierte "NoSQL"-Datenbank überwindet MongoDB die Restriktionen klassischer MySQL-Lösungen bei der Skalierbarkeit und Flexibilität und ist deshalb nicht nur beim CERN, sondern insbesondere auch bei sozialen Netzwerken im Einsatz. Im Hinblick auf die größtmögliche analytische Flexibilität hat sich in den letzten Jahren R als die Standardsprache der wissenschaftlichen Datenanalyse entwickelt. In keiner anderen Umgebung stehen vielfältigere Analyseverfahren zur Verfügung. Nahezu jede erdenkliche Datenschnittstelle ist vorhanden und die Möglichkeiten entwickeln sich rasant weiter. Mindestens ebenso beeindruckende Entwicklungen sind bei den webbasierten Charting-Technologien zu beobachten. Wer nur kurz die Möglichkeiten von d3 ansieht, wird unmittelbar feststellen, dass hier vollkommen andere Arten der Datenvisualisierung zur Verfügung stehen als dies in Statistik- oder Präsentationssoftware auch nur vorstellbar ist.

Derartige Technologien harmonisieren als JavaScript optimal mit den neuen Web-Datenbanken und ermöglichen es, die Analyseergebnisse anspruchsvoller statistischer Analysen intuitiv zu visualisieren. Gleichzeitig können beliebig viele Nutzer problemlos parallel an Fragebögen, statistischen Analysen und Reports arbeiten und sich über den Stand der Marktforschung austauschen ohne Umwege in „fremde“ Softwareumgebungen zu vollziehen.

Diese technologischen Möglichkeiten werden zusammenfinden. Was technisch möglich ist, werden innovative Anbieter umsetzen und schon in naher Zukunft werden entsprechende Angebote am Markt verfügbar sein. Für deren Entwicklung ist es erforderlich, langjährige Marketingerfahrung mit Kompetenzen in der modernen Softwareentwicklung und wissenschaftlich fundierten statistischen Analysemodellen zu kombinieren – keine leichte, aber auch keine unlösbare Aufgabe. Die Entwicklung wird dazu führen, dass Marktforschung günstiger und damit häufiger und in viel breiteren Einsatzszenarien zur Anwendung kommt. Gleichzeitig wird sie die Marktforschung weiter beschleunigen und den zunehmenden Zeitdruck der Marketingentscheider abfedern. Rückfragen werden vom Entscheider selbst oder mit unmittelbarer Expertenunterstützung im gleichen System innerhalb von Sekundenbruchteilen und nicht mehr nach Stunden oder gar Tagen beantwortet werden. Entscheider werden vermehrt über Studien hinweg recherchieren, weil sämtliche Befunde und tiefergehenden Analysen aus allen bislang durchgeführten Studien unmittelbar zur Verfügung stehen.

Dieser modernen Art der Marktforschung gehört zweifellos die Zukunft. Sie ist schlicht schneller, effizienter und besser als der Marktforschungsprozess bislang. Interne und externe Marktforscher wählen die richtige Methodik aus und konfigurieren Marktforschungssoftware, damit der Entscheider aus den Daten schnellstmöglich den größten Nutzen ziehen kann. Sie werden nicht mehr abgelenkt durch wiederkehrende Tätigkeiten, sondern können mit ihrem analytischen Sachverständnis den größtmöglichen Mehrwert erzeugen. Alle Beteiligten können sich darauf konzentrieren, was sie am besten können: Die richtigen Fragen aufzuwerfen, die Befunde im Gesamtkontext zu einzuschätzen und die entstehenden Marktchancen fundiert zu bewerten. Dies ist die digitale Revolution in der Marktforschung!

Die Autoren

Dr. Peter Aschmoneit, quantilope
Dr. Peter Aschmoneit, CEO quantilope (Bild: quantilope)
Dr. Peter Aschmoneit ist CEO der quantilope GmbH. Er war langjähriger Marketing Direktor bei Unilever.

Prof. Mark Heitmann
Prof. Mark Heitmann ist Scientific Advisor von quantilope und Inhaber des Lehrstuhls für Marketing und Customer Insight der Universität Hamburg.

Veröffentlicht am: 10.12.2015

 

Kommentare (1)

  1. Roland Bischof am 10.12.2015
    Eine aus meiner Sicht gute, sinnvolle, weil zugleich 'entkomplexierende' wie auch weiterführende, Logik. Danke für den Artikel.

    Am stärksten projiziert derzeit, ganz klar erscheint mir dies, aus der Sicht eines Programmierers zwischen angewandter MaFo und Wissenschaft, die Weiterentwicklung des Quadranten (1) mit seinen Wachstumsimpulsen in den Quadranten (4) hinein. Die Weiterentwicklung des Quadranten (3) in Richtung (4) hingegen schätze ich als einen noch weiteren zu gehenden Weg ein.

    Kritisch sehe ich die Hervorhebung von 'R' als 'dem' voraussichtlichen Brückenschlag von (1) nach (4).

    Stärker zu berücksichtigen sind m.E.'s die eingeschränkte Universalität der Sprache 'R', wie auch durch Uni-Lehrfächer, sowie die aus der Anzahl 'offene Forschungs-Publikationen' aus amerikanischen Universitäten erwachsende Dynamik. Die zunehmend frei verfügbar werdenden 'ready-2-go' Programmier-Kochbücher aus den Standardisierungs-Bemühungen von grossen Firmen, wie bspw. Google, sind in ihrer voraussichtlichen Dynamik derzeit fast nur unterschätzen, deuten jedoch in die gleiche Richtung.

    Dies berücksichtigend, lassen sich die analytischen und innovativen Auswertungsfähigkeiten derzeit, als insgesamt auf einem vergleichbaren Level zwischen den Plattformen 'R' und 'Python' stehend bezeichnen. Die Integrations-Entwicklungen in der Zukunft jedoch scheinen damit jedoch, nicht nur im 'programmatischen', sondern auch im analytischen Bereich, sehr viel deutlicher in Richtung 'Python' als in Richtung 'R', zu zeigen.

    Roland Bischof

Neuen Kommentar schreiben

Kommentare geben ausschließlich die Meinung ihrer Verfasser wieder. Die Redaktion behält sich vor, Kommentare nicht oder gekürzt zu veröffentlichen. Das gilt besonders für themenfremde, unsachliche oder herabwürdigende Kommentare sowie für versteckte Eigenwerbung.

Über marktforschung.de

Branchenwissen an zentraler Stelle bündeln und abrufbar machen – das ist das Hauptanliegen von marktforschung.de. Unser breites Informationsangebot rund um die Marktforschung richtet sich sowohl an Marktforschungsinstitute, Felddienstleister, Panelbetreiber und Herausgeber von Studien, Marktdaten sowie Marktanalysen als auch an deren Kunden aus Industrie, Handel und Dienstleistungsgewerbe.

facebook twitter xing linkedin