Big Social Data – Von Daten-Lust und Daten-Frust

Von Oliver Tabino, Q | Agentur für Forschung

Big Data ist ein extrem heterogener Begriff und die Anwendungsbereiche sind vielfältig. Mit dem Internet der Dinge werden Datenströme erwartet, die außerhalb unseres Vorstellungsvermögen liegen. Dieser Beitrag beschäftigt sich mit einen Bereich der Marktforschung, der mit großen Datenmengen, die praktisch in Echtzeit generiert werden, umgeht: der Social Media Forschung.

Der Traum von Plug & Play oder besser gesagt: Plug & Know (everything)

Im Vorfeld der dmexco gab es einige Artikel und Kommentare, die vom Dashboarding Trend sprachen. Gemeint ist die Evaluation von digitalen Marketingmaßnahmen mit Hilfe von schönen, einfach lesbaren und leicht verständlichen Dashboards. In unserer Lebens- und Arbeitswelt müssen Tools nicht nur "was können", sie sollten auch schön aussehen, UX optimiert und intuitiv nutzbar sein. Am besten gibt es noch eine App dazu – Modernität und Mobilität inklusive. Form follows function vs. Function follows form.
Ich glaube, wir machen es uns zu leicht. Oder zumindest wollen wir es uns leicht machen. Das ist nicht verwerflich und vollkommen nachvollziehbar, aber auch gefährlich. Wenn wir uns von der UX optimierten Oberfläche einlullen lassen und nicht mehr hinter die Oberfläche schauen, ist es nur noch schöner Schein. Die Aggregation und Strukturierung von Daten, beispielsweise in einem Social Media Monitoring Tool, verkommt zur reinen Verpackungsoptimierung und suggeriert dem Nutzer alles schnell, in Real Time, ganz easy im Griff zu haben. Dank einer schönen Visualisierung im Tool scheint es möglich, Entwicklungen barrierefrei abzulesen. Die Antwort über Erfolg oder Misserfolg einer Social Media Kampagne scheint nur einen Klick entfernt. Aus Plug & Play wird Plug & Know (everything). Ein wirklich gewordener Big Social Data Traum.

Die Realität: Die Guten ins Töpfchen, die Schlechten ins Kröpfchen

Die Social Media Forschungsrealität sieht anders aus – ein Beispiel aus dem Alltag: In einer Studie haben wir unterschiedliche Sneakermodelle von diversen Sportartikelmarken untersucht. Die erste Herausforderung in einem solchen Projekt besteht darin, die Such-Queries zu erstellen. Hört sich einfach an, ist es aber nicht. Dieser erste Schritt ist entscheidend, ob man im Laufe des Projektes Big Relevant Data oder Big Crap Data erhält. Der Grat zwischen Information und Informationsmüll ist schmal. Manchmal hängt es von einem einzigen Begriff oder falsch kombinierten Begriffen ab. Deswegen ist die Set up Phase für den weiteren Forschungsprozess so wichtig. Wir machen einen Soft Launch und justieren die Queries nach. Dadurch filtern wir die erste Welle an Informationsmüll weg und erhalten einen qualitativ hochwertigeren Datensatz, mit dem wir in den nächsten Schritten weiterarbeiten.

Große Datenhaufen und Diagramme sind keine Insights

Big Data suggeriert uns "Big is beautiful". Als Forscher kann ich nur sagen: "Smart is even more beautiful". Bei fast allen Vergleichen diverser Social Media Monitoring Tools oder bei Monitoring-Ausschreibungen spielt das Thema der Quellenabdeckung eine wichtige Rolle. Manchmal hat man den Eindruck es ist das wichtigste Kriterium bei der Beurteilung eines Tools. Wir wollen die Wichtigkeit der Quellenabdeckung auch nicht bestreiten. Kritisch wird es jedoch, wenn die quantitative "Quellenabdeckung" als Gütekriterium angesehen wird und die Qualität der Quellen dabei untergeht. Datenmassen sind zwar schön, aber wir lassen uns gerne dadurch blenden und oft sind Teile dieser Datenmassen wie Forschungsspam. Selbst der Qualitätsbegriff ist immer kontextbezogen und der Kontext wird durch das Thema bzw. die Fragestellung bestimmt, was die Einordnung der Eignung eines Tools oder einer Analyse zusätzlich verkompliziert.

Im Falle des Sneaker-Projektes ergab sich im Laufe der Datenanalyse Folgendes: Die meisten Treffer zum Thema Sneaker hatten wir bei Twitter. Es gab zudem Peaks, die man anhand des Auswertungs-dashboards gut erkennen konnte.

Zum Hintergrund: Jedes Social Media Monitoring Tool stellt auf Basis der definierten Such-Queries die Volumina per Kanal grafisch dar. So werden beispielsweise alle Tweets, in denen die Such-Queries vorkommen, mit dem Aufkommen bei Facebook und mit den Nennungen in der Blogosphäre verglichen. So erhält man einen ersten Überblick, in welchen Kanälen und Plattformen das Forschungsthema eine Rolle spielt (oder nicht) und – sofern die automatisierte Tonalitätsanalyse funktioniert (was häufig nicht der Fall ist!), ob das Thema eher positiv oder negativ besetzt ist.

Man könnte sich mit dieser oberflächlichen Analyse zufrieden geben und schlussfolgern, dass Twitter für unsere Aufgabe der wichtigste Kanal ist. Auch lassen sich sicher mehr oder weniger schlüssige Interpretationen finden, wodurch die Peaks zustande kommen.

Für uns als Forscher ist das keine Option. Wir verlassen uns nicht auf die oberflächlichen Auswertungsgrafiken der Tools, sondern beschäftigen uns mit den Inhalten. Bei unserem Sneakerprojekt ging es uns darum, das Thema zu explorieren und somit die Grundzüge der digitalen "Sneakerwelt" zu verstehen. Es galt, Subthemen zu identifizieren, die beim Meta-Thema Sneaker und den jeweiligen Brands eine Rolle spielen und wir wollten verstehen, warum Twitter ein solch hohes Volumen erzeugt. Handelte es sich zum Beispiel um ein Zielgruppenphänomen? Oder nutzen Sneaker-Brands Twitter als Kommunikationskanal, etc.?

In unserem Fall mussten wir dafür knapp 8.000 Tweets inhaltsanalytisch untersuchen, d.h. die (noch) unstrukturierten Datenmengen sichten und strukturieren, Muster erkennen und inhaltsanalytisch auswerten. Wir haben eine Stichprobe innerhalb der Twitterdaten gezogen und diese dann inhaltsanalytisch ausgewertet. Innerhalb kurzer Zeit bestätigte sich der Eindruck, dass nur ein Bruchteil der Ergebnisse überhaupt forschungsrelevant ist, denn ca. 70% der Tweets wurden von uns als Salespromotion-Tweets eingestuft. Diese Tweets wurden beispielsweise von Sportartikel-Shops oder dubiosen Sales-Accounts abgesetzt. Aber es gab auch einen extrem hohen Anteil von spamartigen Tweets, dabei handelte es sich um Twitteraccounts, die teilweise 100 identische Tweets mit dem Bild eines bestimmten Sneaker-Modells, dem Namen des Sneakers, der Brand und einem Link zu einem Onlineshop oder zu einem Ebayseller pro Tag posteten. Für eine inhaltliche Analyse sind diese Ergebnisse völlig irrelevant, obwohl sie aufgrund der Suchkriterien natürlich völlig zurecht als Suchtreffer angezeigt werden. Aber selbst die quantitative Analyse wird aufgrund dieser Spam-Tweets verfälscht, da aufgrund des Volumens eine Wichtigkeit vorgegaukelt wird und dieses eine Sneaker-Modell im Vergleich zu anderen, ein so hohes Volumen erzeugt hat.

Es gibt nur eine Lösung für Probleme dieser Art: Man muss sich mit den Daten beschäftigen und man muss smarte Wege finden, die großen Datenmengen in den Griff zu bekommen. Die Grafik, die die Daten in einem Dashboard visualisiert, dient als Vorstrukturierung. Insights sind das noch lange nicht.

Gutes Tool + fähiger Marktforscher = Insight

Ein Monitoring-Tool ist nicht mehr und nicht weniger als ein Werkzeug. Wenn man mit diesem Werkzeug nicht umgehen kann, bleibt es ein Werkzeug. Der Marktforscher nutzt dieses Werkzeug, um ein Ergebnis zu erzielen. Er nutzt das Tool nicht um des Tools willen, sondern weil das Tool ihm bestimmte Schritte im Datensammlungs-, Strukturierungs- und Visualisierungsprozess abnimmt. Das Tool ist die Basis, die Insights kreiert der Marktforscher, weil er das Tool versteht, die Daten filtern, segmentieren, strukturieren und vor allem einordnen kann. So wird aus Big Social Data Erkenntnis und Mehrwert für das Marketing, die Kommunikationsabteilung und den betrieblichen Marktforscher.

Beim Sneaker-Projekt war beispielsweise eine wichtige Erkenntnis, dass nur wenige, aber höchst relevante Sneaker-Blogs und Sneaker-Magazine (online) die Themen bei den Sneaker-Enthusiasten setzen und so Trends sehr schnell aufnehmen oder sogar setzen. Herauszufinden welche Trends das sind, ist dann der nächste inhaltsanalytische Schritt, der nur durch einen Forscher bewerkstelligt werden kann.

Die Rolle der Marktforscher

Folgenden Satz hätte ich gerne zum Thema Big Data gesagt: "Wir suchen das Wissen, das wir durch Information verloren haben". Welcher Big Data Guru oder Digital Berater hat diesen Satz wohl gesagt? Die Aussage stammt vom Literatur-Nobelpreisträger Thomas Stearns Eliot, geboren 1888.

Dieser Satz drückt für mich auch Hoffnung aus und irgendwie ist es ein Ansporn. Umformuliert in "Wir suchen das Wissen, das Sie durch Informationen verloren haben“ hat der Satz das Zeug für ein Marktforscher-Credo, vor allem im Zeitalter von Big Data! So können wir dem Marketing, der Produktentwicklung oder der Kommunikation helfen und Wege durch den Datendschungel zeigen.

Der Autor:

Oliver Tabino, Geschäftsführer der Q | Agentur für Forschung (Bild: marktforschung.de)
Oliver Tabino, Geschäftsführer der Q | Agentur für Forschung (Bild: marktforschung.de)
Oliver Tabino ist Gründer und Geschäftsführer der Q | Agentur für Forschung. Er ist derzeit Mitglied im Vorstand der Deutschen Gesellschaft für Online-Forschung DGOF und überdies als Dozent für Social Media Research und Social Media Monitoring an der Hochhschule Pforzheim tätig.

Veröffentlicht am: 26.10.2015

 

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Kommentare geben ausschließlich die Meinung ihrer Verfasser wieder. Die Redaktion behält sich vor, Kommentare nicht oder gekürzt zu veröffentlichen. Das gilt besonders für themenfremde, unsachliche oder herabwürdigende Kommentare sowie für versteckte Eigenwerbung.

Über marktforschung.de

Branchenwissen an zentraler Stelle bündeln und abrufbar machen – das ist das Hauptanliegen von marktforschung.de. Unser breites Informationsangebot rund um die Marktforschung richtet sich sowohl an Marktforschungsinstitute, Felddienstleister, Panelbetreiber und Herausgeber von Studien, Marktdaten sowie Marktanalysen als auch an deren Kunden aus Industrie, Handel und Dienstleistungsgewerbe.

facebook twitter google plus