Andreas Klein, Spiegel Institut Der dornige Weg zur Datendemokratie

Mit den unterschiedlichen Trends zur Erhebung von Kunden und Nutzerdaten ändert sich auch die Rolle der Marktforschung. Das datengetriebene Unternehmen ist in aller Munde. Andreas Klein mit einer Bestandsaufnahme und einem Ausblick in die Herausforderung der Datenhaltung, Datenverknüpfung und Datenanalyse.

Andreas Klein

Andreas Klein

 

Mit der Digitalisierung ist es so eine Sache, es sprechen zwar alle darüber, aber es ist sehr schwierig abzuschätzen, was der Trend konkret für die eigene Arbeit und das eigene Unternehmen bedeutet. Welche unterschiedlichen Trends den Umgang mit Nutzer- und Kundendaten innerhalb des Unternehmens beeinflussen, wie sich die Rolle der Marktforschung wandelt und welche Herausforderungen auf dem Weg zu einem datengetriebenen Unternehmen liegen, sollen im folgenden Beitrag beispielhaft beschrieben werden:

Wir begleiten seit fast 70 Jahren Kunden dabei, empirische Daten zu erheben, den Konsumenten zu verstehen und die entsprechenden Handlungsempfehlungen aus den Erkenntnissen abzuleiten. Deswegen sei an dieser Stelle ein nostalgischer Blick auf die (jüngere) Vergangenheit erlaubt, der bei vielen Unternehmen aber heute noch Realität ist.

Die klassische Welt

Zu den klassischen Ansätzen gehören die qualitative und quantitative Marktforschung, nun aber auch verstärkt die nutzerorientierte Usability/UX Perspektive bei der Produktentwicklung. Dabei waren in der Vergangenheit die Verantwortlichkeiten meistens sehr klar getrennt: Die Marktforschungsabteilung eines Unternehmens kümmerte sich um die Kundensicht auf das Unternehmen und die Produkte, daraus entwickelte dann die Geschäftsführung oder eine Strategiestelle/das Produktmanagement eine Marketingstrategie, welche die klassischen vier "P" Price, Product, Place und Promotion berücksichtigte. Unter Umständen gab es bei komplexeren Produkten noch eine Entwicklungsabteilung, welche zusätzlich Fragen zur Usability oder der User Experience mit Kunden testete. Typischerweise gab es beim Vertrieb noch eine Datenbank, in der bestenfalls Daten über die Endkunden, meistens aber nur Daten von Zwischenhändlern erfasst wurden.

In dieser Welt arbeiteten ausschließlich Spezialisten wie betriebliche Marktforscher oder Human-Machine-Reseacher mit empirischen Daten. Das hatte den Vorteil, dass die Interpretation der Daten in qualifizierten Händen lag. Die Datenquellen waren in der Regel transparent und Kriterien wie Datenqualität und Verallgemeinerbarkeit der Aussagen waren je nach Zweck über die Stichprobengröße und -auswahl sichergestellt.

Social Media als Begleiterscheinung der Digitalisierung

Als erster Megatrend trat vor einigen Jahren die Digitalisierung an, diese typische Unternehmenswelt etwas durcheinander zu bringen. Es fing wohl mit den Social Media Daten an, die in Form von möglichen Shit Storms vor allem die PR-Abteilungen und die Geschäftsführungen interessierten. Für viele Unternehmen bestand und besteht dabei die Herausforderung vermeintlich vor allem darin, das Internet in einem Dashboard abzubilden, um rechtzeitig zu erkennen, wenn ein solcher Sturm droht. In einigen Unternehmen wie zum Beispiel BMW wird aber durchaus das Potenzial erkannt, mehr aus diesen Daten zu machen. Vor allem die Entwicklung kann teilweise aus Beiträgen, z.B. von Lead Usern, neue Innovationsideen generieren. Auch für die Abteilungen, die für die Produktqualität zuständig sind, bieten sich teilweise interessante Insights über die irreguläre Nutzung und Problemfälle ihrer Produkte.* Social Media Daten haben allerdings, anders als die klassischen in der Marktforschung erzeugten Daten, den Vorteil, dass sie quasi ständig erzeugt werden und somit sehr aktuell sind, aber gleichzeitig den Nachteil, dass sowohl über die Quelle meist wenig bekannt ist als auch die Verallgemeinerbarkeit der Erkenntnisse meist schwierig ist.

IoT als neue Herausforderung

Die nächste wichtige Entwicklung war die zunehmende Ausstattung von Produkten, die mit Sensoren und Speichern ausgerüstet sind, um Daten zu ihrer Nutzung zu erheben. Das Internet of Things (IoT) war in vielen Fällen erstmal vor allem dazu gedacht, den Service zu vereinfachen, indem mittels ausgelesenem Fehlerspeicher Probleme schnell erkannt und behoben werden konnten. Damit bietet sich natürlich auch hier die Möglichkeit, mithilfe der Daten Rückschlüsse über Zeitpunkt, Häufigkeit und Art der Nutzung zu erheben. Daten, die im besten Fall aufgrund ihres mitunter fast einer Vollerhebung gleichenden Stichprobenumfangs wiederum von großem Interesse für die Entwicklungsabteilungen sind. Die Art der technischen Produkte ist dabei nicht nur auf B2B-Produkte begrenzt, sondern reicht auch tief in den B2C-Bereich hinein. Das beginnt bei der Bohrmaschine und reicht über Haushaltsgeräte wie Wasch- und Spülmaschinen bis hin zu Autos.

Dabei sind die Daten nicht nur nach Zugriff des Wartungstechnikers verfügbar, sondern dank zunehmender Verfügbarkeit von Bluetooth, WIFI, 4G und 5G und exotischerer Verbindungen auch direkt nach der Erzeugung. In der Praxis sind solche Daten jedoch auch mit Schwierigkeiten behaftet. Typische Problemfelder sind die Datenbereinigung, da Steuergeräte teilweise auch fehlerbehaftete Daten produzieren. Außerdem ist häufig auch nicht die Datenquelle präzise einer Nutzergruppe zuzuordnen. Ein Beispiel hierfür sind Vorführgeräte, die beim Händler eingesetzt werden, um Funktionen zu demonstrieren. Eine Integration dieser Daten verzerrt natürlich das Ergebnis zu Aussagen über ein reales Nutzungsverhalten. Eine weitere typische Fehlerquelle ist der Übertragungskanal. Mitunter werden Daten nicht gesendet, da sich die Geräte im Funkloch befinden oder nur ein Teil der Stichprobe regelmäßig im Servicecenter gewartet wird, wo die relevanten Daten ausgelesen werden. Auch hier ist also einige Expertise notwendig, um die Daten zu bereinigen, aufzubereiten und richtig zu interpretieren. Da hierbei der Kontext und die Probleme der Datenerzeugung für die Interpretation eine ebenso hohe Relevanz haben wie die Dateninhalte selbst, ist ein hoher Grad an Produkt- und Prozesswissen des zu beratenden Unternehmens notwendig. Daher erfolgt diese Tätigkeit in engster Abstimmung und teilweise beim Kunden vor Ort.    

Die Vision des datengetriebenen Unternehmens

Der dritte große Trend ist die Vision des datengetriebenen Unternehmens. Entscheidungen sollen möglichst logisch und transparent aufgrund der den Daten zugrundeliegenden Trends und Beobachtungen getroffen werden. So sollen Fehlentscheidungen vermieden und auf Trends schneller reagiert werden, um einen Vorsprung vor der Konkurrenz zu gewinnen. Das betrifft die Geschäftsführung, Marketing und Vertrieb genauso wie die Entwicklung oder die Qualitätssicherung. Die großen Digitalunternehmen wie Google und Amazon werden hier häufig als Vorbilder genannt.  Für ein klassisches Industrieunternehmen ist die Umsetzung aber nach unserer Erfahrung mit großen Herausforderungen behaftet:

Die große Hürde Datenverknüpfung

Trifft ein Unternehmen die Entscheidung, sich zu einem datengetriebenen Unternehmen zu wandeln, ist eine wichtige Erkenntnis, dass fast alle Datenquellen auch für viele Entscheidungen relevant sein können und mitbetrachtet werden sollten. Hier können klassische Lead-User Workshops oder Fokusgruppen genauso spannende Ansatzpunkte sein, wie Erkenntnisse aus der Social Media Analyse zu Produktwünschen oder -problemen, oder auch die Erkenntnisse zur Nutzung von den bestehenden Geräten aus IoT-Daten. Möchte der Vertrieb eine neue Kampagne launchen, dann sind möglicherweise die Sales Daten ebenso heranzuziehen wie die Daten aus einer quantitativen Onlinebefragung. Sollte während der agilen Entwicklung die Frage auftauchen, wie konkret eine Funktion auszulegen ist, können unter Umständen die verschiedenen vorhandenen Datenquellen helfen, diese Frage zu beantworten, ohne eine neue zeitaufwändige Studie beauftragen zu müssen.

Um alle diese Daten kurzfristig nutzen zu können, ist häufig die Ablage in einer gemeinsamen Datenstruktur, dem sogenannten "Data Lake", gewünscht. Die Verknüpfung der Daten ist dabei eine besondere Herausforderung, da die Datenquellen völlig unterschiedlich strukturiert sein können und die Datenmengen schnell die Bezeichnung Big Data verdienen. Häufig scheitern Projekte an eben dieser Datenverknüpfung, da die entstehenden Datenstrukturen und Bedienoberflächen zu komplex sind, um sie flexibel und kurzfristig mit einer möglichst geringen Nutzungsbarriere verfügbar zu machen.

Hier ist Expertise aus dem Bereich Marktforschung sehr hilfreich, um die Bedürfnisse der Nutzer zu verstehen und entsprechende Anforderungen an die technischen Systeme abzuleiten. 

Die Expertise

Ist die Hürde der Datenhaltung und Datenverknüpfung erfolgreich genommen, ergibt sich gleich die nächste Herausforderung. Die Interpretation empirischer Daten bedarf nach wie vor guter Kenntnisse über den Kontext der Datenerhebung, statistischer Anforderungen und Kenntnisse wie man Daten aggregiert und berichtet. Hier bestehen zwei Möglichkeiten: entweder man belässt es bei einer Expertenkultur, d.h. es werten ähnlich dem ursprünglichen Modell nun Data Scientists oder Data Analysts die Daten aus und füttern damit die unterschiedlichen Unternehmensteile und Entscheider. Damit geht der große Vorteil einher, dass die Analysequalität gesichert werden kann.

Der Nachteil dieses Modells ist allerdings, dass entsprechende Personalressourcen einen Flaschenhals darstellen, wenn unterschiedliche Unternehmensteile kurzfristig Daten benötigen. Damit verzögern sich potenziell wieder die Datenverfügbarkeit und damit der Nutzen für das Gesamtunternehmen, agil auf Trends etc. reagieren zu können. Um dieses Problem zu beheben, gehen nun erste Unternehmen den Weg der Datendemokratisierung, bei dem auch Mitarbeiter ohne empirischen Hintergrund Analysen hoher Qualität selbstständig durchführen können. Wir begleiten aktuell Pilotprojekte großer Industrieunternehmen, bei denen Datenspezialisten eine geschlossene Datenanalysewelt aufbauen, die durch ein intelligentes System von Beschränkungen nur inhaltlich und statistisch sinnvolle Analysen zulässt. Hierzu werden mögliche Analysepfade im Vorfeld durchdacht und freigegeben. So wird der Verbreitung fehlerhafter Informationen für die Entscheidungsfindung vorgebeugt. Damit kann der Großteil der Datenanfragen durch die Unternehmensmitarbeiter ohne spezifische empirische Kenntnisse selbstständig erledigt werden. Eine zusätzliche Unterstützung durch die Spezialisten ist dann nur noch bei Anfragen erforderlich, welche die vorgegebenen Grenzen des Systems überschreiten. Und damit sind wir endlich angekommen in der Vision der Welt einer Datendemokratie, bei der Mitarbeiter ohne Spezialistenkenntnisse schnell und einfach Antworten auf ihre Fragen bekommen können und die Mehrzahl unternehmensinterner Entscheidungen durch empirische Daten unterstützt wird. Welche Auswirkungen eine solche Datendemokratie auf die Unternehmens- und Führungskultur haben kann, wird das Spiegel Institut übrigens auf der kommenden Research & Results Messe in München im Rahmen eines Vortrags vorstellen.

* Klein, A./ Spiegel, G. (2013): Social Media in the Product Development Process of the Automotive Industry: A New Approach. In: Masaaki Kurosu (Ed.), Human-Computer Interaction, Users and Contexts of Use, S. 396-401, Berlin Heidelberg: Springer-Verlag, 2013

Der Autor:

Andreas Klein ist Senior Director bei der Spiegel Institut Mannheim GmbH und leitet den Standort München. Er betreut Kunden aus verschiedenen Branchen in den Themenfeldern UX und Data Consulting mit dem Ziel einer nutzerzentrierten Entwicklung. 

 

Diskutieren Sie mit!     

Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!

Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.

Anmelden

Weitere Highlights auf marktforschung.de