Christopher Harms & Sebastian Schmidt, SKOPOS Research Marktforschung im Daten-Zeitalter: Software ist nur die halbe Miete

Die Tatsache, dass es ein Dossier zum Thema "Plattformen und Datensysteme" auf diesem Branchenportal gibt, zeigt: Das Durchführen und Auswerten einzelner Befragungen wird für Marktforscher immer ein Arbeitsbestandteil bleiben, reicht in einem datengetriebenen Zeitalter aber nicht mehr aus.
Wenn übergeordnete oder strategische Fragestellungen im Raum stehen, ist die Betrachtung einer einzelnen Stichprobe und eines Fragebogens oder einer Gruppendiskussion nicht genug. Und bei operativen Fragestellungen wird es immer häufiger den Fall geben, dass Daten bereits vorliegen und nicht erhoben werden müssen. Marktforschung muss lernen, Ergebnisse und Interpretationen nicht nur in den Kontext ihrer Kunden zu setzen, sondern Daten aus unterschiedlichen Quellen technisch und analytisch zu verknüpfen.
In diesem Artikel wollen wir uns mit den neuen Anforderungen auseinandersetzen, die sich aus unserer Sicht daraus für Marktforscher ergeben.
Die Erkenntnis, dass Daten und die Verknüpfung von Daten aus unterschiedlichen Bereichen einen unternehmerischen Mehrwert bedeuten, setzt sich in anderen Unternehmensbereichen bereits seit einigen Jahren durch. Es ist der Kern dessen, was man oft unter "data-driven company" oder "data-driven culture" verstehen kann. Betriebliche Marktforscher müssen diese Entwicklung nicht nur mitgehen und begleiten. Sie müssen sie mitgestalten, da sie sich im Wettkampf um die Deutungshoheit der Daten befinden und unter Beweis stellen müssen, dass sie einerseits das im Unternehmen vorhandene Wissen verarbeiten und in Entscheidungsvorlagen übersetzen können. Andererseits können Sie aber auch an den entscheidenden Stellen mittels Primärforschung vertiefend nachhaken, um Antworten auf Fragen zu finden, die anders nicht beantwortet werden können.
Andere Abteilungen – und auch einige betriebliche Marktforscher – verstehen sich bereits auf integrierte Analysen unterschiedlicher Datenquellen: Die Analyse von Marketing-Kampagnen mag sich beispielsweise zum Teil nicht mehr nur an der Rate der geöffneten E-Mails orientieren, sondern an der Rate der daraus abgeschlossenen Transaktionen. Eine Metrik, die bisher vielleicht nicht vom Marketing oder der Marktforschung, sondern vom Controlling erfasst wurde. Die Vernetzung von Abteilungen und damit von Fragestellungen und Datenquellen erfordert, dass neue technische und organisatorische Struktur entstehen. Sie ermöglicht gleichzeitig aber auch, dass neue Fragestellungen beantwortet werden können, für die zuvor nicht die richtigen Daten zur Verfügung gestanden haben.
Daten-Plattformen stellen eine solche Struktur dar, derer sich zukünftig auch die Marktforschung bedienen wird. Doch sie sind mehr als ein IT-Tool, das in Unternehmen eingeführt wird. Vielmehr ist damit ein Veränderungsprozess verbunden, der Einfluss auf die Denk- und Arbeitsweise von Marktforschern haben wird.
Aus unserer Sicht erfordert dies Veränderungen für Marktforscher in drei Bereichen:
- Neues Mindset
- Neue Tools & Infrastruktur
- Neues Skillset
Im Folgenden wollen wir auf diese Punkte eingehen und erläutern, was wir damit meinen. Zwar würde jeder dieser Punkte für sich schon einen ganzen Artikel füllen - dennoch lohnt ein Überblick, wie Marktforschung in der zunehmend Daten-getriebene Welt einen Mehrwert bieten kann.
Neues Mindset
Klassischerweise dreht sich Marktforschung um einzelne Studien. Doch diese Betrachtung passt nicht so ganz zum Thema "Daten-Plattform". Vielmehr wird es, wie eingangs schon angedeutet, darum gehen, über die Daten einer einzelnen Studie nicht erst in der Interpretation der Ergebnisse hinaus zu denken, sondern sie bereits in der Datenanalyse einzubeziehen. Dies erfordert ein Umdenken und ist die Voraussetzung, um die später beschriebenen Werkzeuge zielführend zu nutzen.
Für Institutsmarktforscher bedeutet das beispielsweise, dass sie sich im Rahmen des Angebots bereits überlegen müssen, welche zusätzliche Daten beim Kunden oder extern in Frage kommen und wie diese Daten sinnvoll (!) miteinander verknüpft werden können. Es geht nämlich nicht darum, irgendwelche Daten zusammenzuwerfen ("Der Algorithmus wird es schon richten!"), sondern genau die Daten zu identifizieren und nutzbar zu machen, die geeignet sind die Fragestellung des Auftraggebers zu beantworten.
Für betriebliche Marktforscher ergibt sich daraus die Herausforderung, stets einen Überblick zu haben, welche Daten bereits vorliegen, und sich selbst ausreichend dafür zu sensibilisieren, aktiv Möglichkeiten aufzuzeigen, vorhandene Daten mit Befragungen zu verknüpfen. So würden vermutlich viele Werbetrackings davon profitieren, die erhobenen Daten zum Recall, Attraktivität etc. mit den tatsächlichen Werbespendings zu verknüpfen. Hier gilt es, dass zukünftig sowohl der Auftragnehmer in der Pflicht ist, auf solche Möglichkeiten hinzuweisen, gleichzeitig der Auftraggeber davon profitiert, nach Integrationsmöglichkeiten zu fragen.
Dieses Mindset, das ein holistischeres Denken von Daten erfordert, ist unserer Erfahrung nach in der Marktforschung noch nicht weit verbreitet. Es tut sich etwas - aber Marktforscher können hier noch einiges von Data Science-Abteilungen lernen, die derzeit gebildet werden. Gerade solche Data Science-Abteilungen sind es, die Daten-gestützte Prozesse und Entscheidungen in Unternehmen voranbringen, sich dabei aber nahezu ausschließlich auf Prozessdaten stützen. Marktforschung kann und sollte hier den Mehrwert von Befragungen, Fokusgruppen und ethnographischen Interviews aufzeigen und wie diese mit den Prozessdaten aus anderen Abteilungen gemeinsam genutzt werden können.
Neue Tools & Infrastruktur
Mafo-Studien werden zunehmend umfangreicher, zusätzliche Daten sollen genutzt (siehe Beispiele) und fortgeschrittene Analysen durchgeführt werden - und diese im besten Fall zusammen mit dem Reporting automatisiert passieren. In einem solchen Umfeld sind einzelne Excel-, SPSS- und PowerPoint-Dateien nicht mehr die richtigen Werkzeuge.
Es stehen bereits einige kommerzielle und quelloffene Softwarepakete zur Verfügung, die in vielen Unternehmen auch heute schon eingesetzt werden. Dann ist häufig von Data Warehouses, Data Lakes, Spark-Clustern oder Microservices in der AWS-Cloud die Rede und wir befinden uns auf der Spielwiese der IT- oder Data Infrastructure-Abteilungen. Auch wenn Marktforscher (zum Glück!) dort nicht in die technischen Details einsteigen müssen: Als Plattform aus der heraus Daten genutzt und Analyse-Ergebnisse in automatisierten Prozessen zurückgespielt werden sollen, werden diese Systeme aus Nutzersicht auch für Marktforscher relevant. Sicher: Auch aus solchen Systemen lassen sich Excel- oder SPSS-Exporte für Ad-Hoc-Analyse ziehen, doch für aufwendige Analysen auf großen Datensätzen oder eben automatisierte Prozesse müssen diese Systeme direkt angeschlossen werden.
Dadurch wird ein Konzept aus dem Bereich "Data Management" relevant: die relevanten Daten müssen aus der Datenquelle extrahiert und transformiert werden (d.h. die Daten verknüpft, durch neue Spalten angereichert oder neue Datenstrukturen geschaffen werden). Erst danach können die Daten in die Analyseumgebung geladen werden. Dieser Prozess steht hinter dem Akronym ETL (Extract, Transform, Load). Für zentrale Daten-Plattformen ist dies ein fundamentales Konzept.
Für solche ETL-Prozesse und die anschließende Analyse komplexer Datensätze stehen bereits unterschiedliche Software-Pakete zur Verfügung, die verschiedene Ansprüche und Zielgruppen bedienen können: Software wie Alteryx, KNIME oder Dataiku bieten einerseits eine grafische Oberfläche, die es für Nicht-Programmierer ermöglichen soll, entsprechende Datenprozesse aufsetzen zu können. Pakete wie AirFlow und KubeFlow erfordern hingegen, dass Prozesse in Code-Sprachen formuliert werden müssen. Kenntnisse in Python oder anderen Programmiersprachen werden dadurch notwendig.
Während die Verwaltung von Clustern, Datenbanken und Data Lakes in der Domäne von ITlern verbleiben dürfte (hoffentlich!), wird die Verwendung der geeigneten ETL- und Analyse-Software wichtiger. Auf das damit nowendige Skillset gehen wir später ein. Gleichzeitig zeigt es aber auch, wie wichtig die konstruktive Zusammenarbeit zwischen Nutzern der Daten und den Anbietern der Infrastruktur ist.
Auch wenn die Inhalte und Herausforderungen die gleichen zwischen Instituts- und betrieblichen Marktforschern sind (beide benötigen Infrastruktur und die richtigen Tools um größere Mengen komplexer Daten verarbeiten, verbinden und analysieren zu können), werden die konkreten Umsetzungen unterschiedlich ausfallen. Data Governance und Datenschutz werden von Dienstleistern erfordern, Daten unterschiedlicher Auftraggeber strikt zu trennen, während Unternehmen das Ziel verfolgen sollten, Daten aus unterschiedlichen Bereichen weitestgehend ohne Einschränkungen verfügbar zu machen.
Neues Skillset
Wenn Werkzeuge und Mindset vorhanden sind, braucht es aber immer noch jemanden, der diese Vorhanden umsetzen kann. Marktforscher sind heute oft Allrounder: Von Projektmanagement, Fragebogenerstellung, über Interviews und Statistik bis zur Präsentation - all dies können Marktforscher oft in Eigenregie abwickeln. Doch die neuen, spezialisierten Werkzeuge erfordern eine intensive Auseinandersetzung mit Fragen von Data Management, fortgeschrittener Statistik und Algorithmen oder der Erstellung von interaktiven Dashboards. Hier können Spezialisten aus dem Bereich Data Science im Rahmen von heterogeneren Marktforschungsteams helfen, diese Bedarfe an Fähigkeiten zu bedienen. Bei SKOPOS arbeiten wir seit einiger Zeit da dran, ein Team an Spezialisten aufzubauen, um genau dies zu tun. Die Erfahrungen der letzten Jahre zeigen, dass die Fähigkeiten und neuen Perspektiven eines solchen Teams in Projekten jeder Größenordnung sehr gefragt sind.
Konkret müssen zunächst die bereits angesprochenen ETL-Tools (siehe oben) beherrscht werden, um die Daten überhaupt nutzen zu können. Daneben spielen Python und R eine zunehmend wichtigere Rolle, um die Daten statistisch sauber und in wachsendem Umfang auswerten zu können. Anders formuliert: Data Science wird ein wichtiger Teil solcher Projekte. Damit ist nicht gemeint, dass jeder einzelne Marktforscher diese Fähigkeiten besitzen muss. Auch in Data Science-Teams gibt es nur wenige Generalisten, die alle Aspekte des Prozesses gleichermaßen gut beherrschen. Es erscheint aber sinnvoll, dass auch Teams in der Marktforschung heterogener werden und Personen mit unterschiedlichen Fähigkeiten und Hintergründen zusammenarbeiten. So kommen die Stärken von Projektmanagern, die ein tiefes Verständnis für Kunden und ihre strategischen Fragestellungen haben, und von Analysten, die technische Tools und fortgeschrittene statistische Methoden, zusammen und ergänzen sich.
Data Science to the Rescue!
Die hier beschriebene Entwicklung ist aus unserer Sicht bereits im Gange. Systeme und Daten-Plattformen sind der technische Aspekt dieser Veränderung, doch sie geht über die Verwendung von Software hinaus. Unsere These, dass neue Tools, ein neues Mindset und neue Fähigkeiten benötigt werden, lässt sich auch anders formulieren: Data Science, also die Verbindung von fortgeschrittener Statistik mit technischen Aspekten von Data Management und Algorithmen, wird zunehmend wichtig. Diese Entwicklung findet bereits in vielen Bereichen in Unternehmen aller Größe statt und die Marktforschung wird davon genauso berührt sein, wie beispielsweise Controlling oder Produktion.
Quantitative und qualitative Marktforschung kann in dieser Entwicklung einen ganz wertvollen Beitrag leisten, den keine Prozessdaten oder Social Media-Daten ersetzen können. Daher wird Marktforschung nicht nur neue Prozesse etablieren, sondern die Veränderung aktiv mitgestalten können. Dafür muss sich aber auch Marktforschung weiterentwickeln. Aus den drei notwendigen Entwicklungsbereichen ergeben sich für uns folgende Handlungsempfehlungen:
- Schaut über den Tellerrand einer einzelnen Studie hinaus! Daten aus unterschiedlichen Studien und Quellen reichern die Analyse an.
- Holt mehr aus den Daten raus: von der Beschreibung zur Vorhersage! Top-Boxen und Korrelationen liefern nur ein oberflächliches Bild der Zusammenhänge. Fortgeschrittene Analysen können dabei helfen von der reinen Ad-Hoc-Beschreibung einer Stichprobe zu einer vorausschauenden Vorhersage zu kommen. Erst daraus lassen sich verlässliche Handlungsempfehlungen ableiten.
- Arbeitet mit Daten-Spezialisten zusammen! Wenn Marktforscher und Data Scientists ihre Fähigkeiten bündeln, kann daraus großer Mehrwert entstehen. Dafür müssen Marktforschungsteams heterogener werden und individuelle Fähigkeiten bündeln.
Christopher Harms ist seit zwei Jahren bei SKOPOS und arbeitet an der Schnittstelle zwischen Technologie, Marktforschung und Statistik. Als Datenwissenschaftler ist er ständig auf der Suche nach Wegen, aus Daten Sinn zu machen. Als ausgebildeter Psychologe und Doktorand für empirische Methodik ist er bestrebt, neueste Entwicklungen mit den tatsächlichen Bedürfnissen der Wirtschaft zu verbinden. Er studierte und forschte an Universitäten in Bonn und Eindhoven, Niederlande.
Sebastian Schmidt (M.A. Digital Business Management) arbeitet seit 2007 bei SKOPOS und ist in seiner Rolle als Director Research & Development für Innovationen innerhalb des Unternehmens verantwortlich. Sein besonderes Interesse gilt der Anwendung neuer Technologien für die Marktforschung.
Kommentare (0)
Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!
Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.
Anmelden