Echtzeit ist das Zauberwort

Big Data

Warum wir nicht alle zu Datenschutzexperten werden müssen und trotzdem souverän mit den eigenen Daten umgehen können und warum sich die Marktforschungsbranche warm anziehen muss, erfuhr marktforschung.de im Interview mit dem Trendforscher Sven Gábor Jánszky.

Trendforscher Sven Gábor Jánszky (Bild: Jörg Gläscher)

Trendforscher Sven Gábor Jánszky (Bild: Jörg Gläscher)


marktforschung.de:
Inwiefern spielt Big Data für Sie als Trend- und Zukunftsforscher eine Rolle?

Sven Gábor Jánszky: Big Data ist natürlich ein wichtiges Thema, wobei ich den Begriff vermeide, weil er immer alles und nichts bedeutet und viele schon wissend nicken, obwohl sie nicht wirklich eine Ahnung haben, was gemeint ist. Wir reden da häufig von sehr unterschiedlichen Dingen und deshalb versuche ich den Begriff eigentlich zu vermeiden.

marktforschung.de: Wenn ich Sie trotzdem bitten dürfte, uns zu erläutern, was Sie unter Big Data verstehen?

Sven Gábor Jánszky: Big Data beschreibt aus meiner Sicht das Erheben, Sammeln, Auswerten und Löschen einer Vielzahl von Daten aus einer Vielzahl von Quellen, die wir heute noch nicht alle kennen und wenn wir in die Zukunft schauen auch mit einem Ergebnis, das wir heute noch nicht kennen. Auch wenn heute schon viele Unternehmen behaupten, Big Data im Angebot zu haben, seien es IT-Unternehmen, die Server bereitstellen oder Beratungsunternehmen, die Analysen oder ähnliches anbieten, ist für mich Big Data immer noch eine offene Zukunftsfrage. Es bedeutet für mich, dass wir im Jahr 2020 geschätzt 50 Mrd. vernetzte Geräte auf der Welt haben und fünf Jahre später das Doppelte, nämlich 100 Mrd. Geräte.

All diese Geräte tragen Sensoren in sich, die Daten erheben. Teilweise sind das Sensoren, die wir heute schon kennen, teilweise allerdings Sensoren, die man sich heute noch gar nicht vorstellen kann. Ein Beispiel hierfür: Mit großer Sicherheit werden Geräte in den nächsten fünf Jahren menschliche Emotionen erkennen können, sei es dadurch, dass sie Gesichtsausdrücke beobachten und in menschliche Emotionszustände übersetzen oder sei es, dass sie Hautwiderstände oder die Herzfrequenz messen. Außerdem werden Geräte Hirnstrommuster erkennen und auch wiedererkennen können. Und als drittes Beispiel: Geräte werden anhand von gesprochenen Worten erkennen können, ob wir lügen oder die Wahrheit sagen. Ob wir in uns ruhen oder eben nicht.

Bis hierhin habe ich nur den Schnittpunkt zwischen Mensch und Maschine beschrieben, natürlich gibt es aber auch sehr viele Maschine-zu-Maschine-Schnittstellen. Zum Beispiel ein Auto, das mit einem anderen Auto oder mit der Ampel, dem Bordstein oder einem Straßenschild kommuniziert, hier gibt es sehr viele Möglichkeiten. Und hierzu gehört eine Vielzahl von Daten, die erst einmal anfallen, die man erheben kann, die man auswerten muss und zwar in Echtzeit und nicht erst im Nachgang und die man dann aber auch wieder intelligent loswerden muss. Denn nicht all diese erhobenen Daten sind wertvoll, mein jetziger Emotionszustand etwa spielt übermorgen keine Rolle mehr.

Ich denke, dass nur rund 15 Prozent der Daten interessant sind. Hierzu muss man aber die restlichen 85 Prozent erkennen und dann muss das alles noch zu sinnvollen Lösungen führen. Es muss zum Beispiel dazu führen, dass sich Autos ohne Fahrer und unfallfrei auf der Straße bewegen. Das alles verstehe ich unter Big Data, aber ich würde sagen, wir kennen den Weg, aber wir wissen noch nicht wohin das führt und Big Data ist für mich nicht etwas, das man heute irgendwo schon kaufen kann.

marktforschung.de: Inwiefern spielt Big Data dann unter dieser Definition eine Rolle für Sie?

Sven Gábor Jánszky: Ich muss an dieser Stelle zwischen meinem Privatleben und dem Beruf trennen. Privat spielt das eine ganz große Rolle, ich nutze jede intelligente App, jeden sinnvollen, intelligenten Assistenten, den es gibt und zwar egal, ob der mir mein Mobilitätsverhalten erleichtert oder mich bezüglich Gesundheit, Wellness oder Sport unterstützt. Für meine Arbeit, die Zukunftsforschung, also qualitative Sozialforschung, die ja weniger mit Zählen und Messen zu tun hat, sondern mehr damit lange Interviews zu führen und Menschen zu zuhören, spielt Big Data momentan überhaupt keine Rolle. Wobei das nicht heißt, dass sich das nicht ändern könnte und auch sollte.

marktforschung.de: Welche Entwicklung gerade bezüglich der Marktforschung könnten Sie sich hier vorstellen?

Sven Gábor Jánszky: Lassen sie mich unterscheiden zwischen dem Weg, den ich mir nicht vorstellen kann und einem, den ich bevorzugen würde. Kollegen in meinem Umfeld und auch einige Marktforscher haben sich ja durchaus an Datenanalyse versucht. Hier wird zum Beispiel geschaut, wie häufig Keywords in Blogs vorkommen und daraus werden Trends abgeleitet. Ich glaube, dass diese Methoden Antworten geben können auf Fragen im Hier und Jetzt und vielleicht auch in der Vergangenheit, aber dass es sehr schwer und eher dem Zufall geschuldet ist, daraus Zukunftsprognosen abzuleiten. Insofern bin ich ein bisschen skeptisch, dass Big Data hier einen großen Einfluss haben wird.

Wenn man sich den Prozess von qualitativer Sozialforschung anschaut, dann sind aber natürlich Methoden hilfreich, die einen zum Beispiel in Interviews Muster erkennen lassen. Wenn wir für eine Studie dreißig zweistündige Gespräche mit Strategie-, Innovations- oder Technologiechefs führen, dann hilft es in der Auswertung natürlich schon, wenn eine Software erkennt, diese Antwort wurde schon einmal ähnlich gegeben und es würde wahrscheinlich noch mehr für eine Auswertung in Echtzeit helfen. Vorstellbar wäre zum Beispiel, dass eine Spracherkennungssoftware bei einem Interview mithört und dem Interviewer Hinweise auf Parallelen zu anderen Interviews gibt. Dann könnte der Interviewer direkt darauf eingehen und das Interview würde so sicher tiefgründiger. Oder man kommt vielleicht schneller zu den wirklich wesentlichen Fragen, nämlich warum etwas geschieht oder was passiert, wenn nicht nur einer etwas tut, sondern mehrere in die gleiche Richtung treiben – das sind ja die Dinge, die wir qualitativen Forscher erkennen wollen.

Bei Recruitingprozessen spielt übrigens schon eine Software namens Psyware eine Rolle. Diese Software entscheidet bei einem Telefoninterview, ob der Kandidat passt oder nicht, was er für ein Charakter ist, ob er gerade lügt oder nicht. Dieselbe Art von Software wäre eben auch für die Sozialforschung interessant, weil sie dem Interviewer eine zweite Ebene geben würde. Neben dem, was gesprochen wird, erhält der Interviewer die Information, ob es eine Unsicherheit in der Stimme gibt, derjenige fest überzeugt ist, bis zu der Information, dass gelogen wird. Es geschieht ja relativ häufig, dass Menschen versuchen die Studienergebnisse zu beeinflussen, indem sie Dinge mehr hervorheben als andere und so in die Irre zu leiten.

marktforschung.de: Diese Software ist in der Marktforschung aber noch Zukunftsmusik?

Sven Gábor Jánszky: Ja schon, wobei Zukunft in dem Fall für mich bedeutet, dass sie in den kommenden zwei bis fünf Jahren eingesetzt wird. Also nicht erst in weiter Ferne, sondern das ist genau das, womit wir in den nächsten Jahren umgehen werden.

marktforschung.de: Neben Gesichtserkennungs- und Emotionsdaten gibt es noch den wichtigen Bereich der Positions- oder Bewegtdaten, was ist hier aus Ihrer Sicht vorstellbar?

Sven Gábor Jánszky: Unter der Überschrift Positionsdaten kann man relativ viel zusammenfassen. Erstmal gibt es die Daten, die zeigen, wo ist dieser Mensch, das ist ja schon durch GPS möglich. Dann wird aber auch erfasst, wie schnell bewegt sich dieser Mensch, das Gerät oder das Gefährt, in dem er sitzt, daraus entstehen dann zum Beispiel Stauprognosen. Diese Bewegtdaten sind zwar wichtig, aber sie beziehen sich auf das Hier und Jetzt, hier wird es in den kommenden Jahren wenig Entwicklung geben, weil alle hierfür benötigten Sensoren heute schon in Smartphones existieren. Das ist also kein Zukunftsbereich, sondern einer von heute. In der Kombination mit Daten, die neu erhoben werden können, machen sie aber natürlich Sinn.

Zurück zur Marktforschung, sie ist bisher ja ganz auf Konsumenten orientiert also auf Menschen. Was sich aus meiner Sicht durch Big Data und generell in der Zukunft ändern wird, ist, dass die weitaus größere Kommunikation, auch die wesentlicheren Entscheidungen, nicht in der Kommunikation zwischen Mensch und Maschine sondern zwischen Maschinen getroffen werden. Und natürlich führt das Thema Big Data dazu, dass sich die Marktforschung generell überlegen muss, möchte sie in der Kommunikation zwischen Maschinen eine Rolle spielen oder nur noch in der zwischen Mensch und Maschine, die an Bedeutung verlieren wird.

marktforschung.de: Warum gehen Sie davon aus, dass diese Kommunikation an Bedeutung verlieren wird?

Sven Gábor Jánszky: Wir haben zwei verschiedene Arten von Kommunikation zwischen Maschinen. Einmal gibt es die Form, bei der die Maschine direkt in dieser Kommunikation eine Entscheidung trifft. Nehmen wir zum Beispiel selbstfahrende Autos, ich möchte von A nach B fahren und setze mich in so ein Auto hinein, das kein Lenkrad hat und bei dem ich nur eingeben kann, wohin ich möchte. Jetzt stellt sich die Frage, welche Strecke fährt dieses Auto? Und diese Frage wird zwischen mehreren Geräten geklärt, da spielen zum Beispiel Daten zum Verkehrsfluss eine Rolle, die melden, wo Stau ist. Aber wir dürfen nicht davon ausgehen, dass dieses Auto immer den kürzesten Weg fährt, sondern wir bekommen den Weg von diesen Maschinen gezeigt, der das Ergebnis verschiedener Algorithmen ist.

Das kann man sich ganz gut nach dem Google-Prinzip vorstellen, bei einer Suchanfrage bei Google erhalten Sie ja auch nicht die objektiv besten Suchergebnisse, sondern ganz gute Suchergebnisse in einem bestimmten Rahmen, aber gemischt mit Werbung. Das wird bei einem selbstfahrenden Auto auch der Fall sein. Wenn ich also von hier zum Bahnhof muss, werde ich schon pünktlich zu meinem Zug kommen, aber es wird nicht der direkte Weg gefahren, sondern an ausgesuchten Plätzen vorbei, meinetwegen an Werbeplakaten. Dafür hat natürlich auch jemand etwas gezahlt und so  fahre ich eben kostenlos. Wenn ich das nicht möchte, habe ich natürlich auch die Möglichkeit weiter selbst zu fahren, aber das kostet mich dann Zeit und Nerven. Das heißt in Zukunft werden in einem großen Teil unseres Lebens Entscheidungen zwischen zwei Maschinen getroffen, ohne dass der Mensch einen Einfluss darauf hat.

Und dann gibt es noch einen zweiten Bereich, in dem erst eine Kommunikation zwischen Maschinen stattfindet und danach erst zum Menschen kommuniziert wird. Als Beispiel: Sie gehen in einen Supermarkt, schauen sich das Joghurtregal an und dort stehen zehn verschiedene Sorten. Bis hierhin wird das in Zukunft genauso sein, aber ihr Mobilgerät oder vielleicht auch das Regal wird dann sagen: Zu Ihnen passt heute am besten das Joghurt Nr. 3, am zweitbesten das Joghurt Nr. 14, den es zwar hier nicht gibt, aber klicke hierauf und dann wird der Joghurt in zwei Stunden nach Hause geliefert und am drittbesten passt Joghurt Nr. 8. Das heißt bevor zum Menschen kommuniziert wird, haben diese zwei Maschinen schon eine Vorauswahl für mich getroffen, aus der ich dann wiederum wählen kann. Ich kann vielleicht vorher noch angeben, ob ich aus einer Liste mit fünf oder zehn Produkten die Vorauswahl haben möchte.

Das heißt in beiden Szenarien auch wenn letztendlich zum Menschen kommuniziert wird, kommunizieren zunächst einmal Maschinen. Ich gehe also davon aus, dass diese Maschine-Maschine-Kommunikation in Zukunft wesentlich häufiger stattfinden und an Bedeutung gewinnen wird. Und hier frage ich erneut: Möchte die klassische Marktforschung in der Maschine-Maschine-Kommunikation eine Rolle spielen oder beschränkt sie sich am Ende auf den winzigen Teil, in dem zum Menschen kommuniziert wird.

marktforschung.de: Inwiefern könnte denn hier die Marktforschung ins Spiel kommen?

Sven Gábor Jánszky: Es wird selbstverständlich Algorithmen oder Software geben müssen, die anhand von bestimmten Einflussfaktoren dem beschriebenen selbstfahrenden Auto sagt, wo es lang fahren soll. Diese Software ist sozusagen die Basis des Systems und damit hoch relevant. Für mich ist an dieser Stelle die Frage: Wer programmiert diese Software und bietet sie an? Um in dem Beispiel zu bleiben: Ist das der Hersteller dieses Autos? Also zum Beispiel Volkswagen oder Google. Oder macht das ein Dienstleister, der Experte für das Sammeln und Auswerten von Daten ist?

Beides ist denkbar und beides steht unter einer Voraussetzung: Das Unternehmen muss eine große Datenexpertise haben und vor allem die Expertise Daten in Echtzeit zu liefern. Denn hier gibt es keine Zeit mehr, erst zu erheben, dann zu analysieren und Wochen später ein Ergebnis zu liefern. Und das ist genau mein großes Fragezeichen: wenn ich mir die Marktforschungsbranche anschaue, so hat sie natürlich verschiedene Facetten und es wird auch an der einen oder anderen Stelle mit Software experimentiert. Aber ich sehe dort nicht den strategischen Willen, sich in diese Echtzeit-Entscheidungsprozesse der Zukunft hineinzubegeben. Und aus meiner Sicht ist klar, wer diesen Willen nicht hat, sich aber dennoch als Experte für Datenanalyse empfindet, der hat nur noch eine Zukunft in einem winzigen Premiumsegment, in dem es tatsächlich darum geht, menschliche Identitäten und Emotionen zu erkennen. Da reden wir jetzt allerdings über Luxusartikel und nicht über das Massensegment.

Ich habe im Augenblick die Befürchtung oder vielmehr den Eindruck, dass Marktforschung gerade an dem Punkt angelangt ist, an dem sich entscheidet, ob sie in der Zukunft noch die angestammte, wichtige Rolle spielen kann oder ob sie diese Rolle eben nicht mehr spielen möchte, weil sie andere Player in den Bereich lässt und sagt: Google & Co sind in Echtzeitdatenanalyse sowieso viel besser als wir, dann sollen die das machen.

marktforschung.de: Sie gehen wohl davon aus, dass sich diese Frage schon bald entscheiden wird – was denken Sie, wann es soweit ist?

Sven Gábor Jánszky: Ja genau, denn es gibt heute schon Unternehmen, die in diesem Bereich erfolgreich unterwegs sind. Eines der besten deutschen Software-Unternehmen heißt Blue Yonder, die sagen von sich, wir machen Predictive Analysis. Das Unternehmen analysiert Daten aus der Vergangenheit und Echtzeitdaten und prognostiziert für Handelsketten, welches Produkt in den kommenden fünf Tagen an welchem Verkaufsort gebraucht wird. Das funktioniert schon heute sehr gut und je besser so ein Unternehmen wird, desto eher stellt sich die Frage: wofür brauche ich dann an dieser Stelle noch klassische Marktforschung? Deshalb möchte ich noch einmal provokant fragen: Möchte die Marktforschung diesem Segment, das von außen kommt, zuschauen? Oder sagt sie selbst, jetzt gründen wir das nächste Blue Yonder und orientieren uns weg von der Nachschau hin zu einer Vorausschau also zur Prognose.

marktforschung.de: Betrachten wir abschließend das heiße Eisen Datenschutz – finden Sie Deutschland geht hier genau den richtigen Weg, indem die Bedeutung des Datenschutzes so hochgehalten wird?

Sven Gábor Jánszky: Ich würde hier gerne zwei Antworten geben: Grundsätzlich glaube ich, dass es aus deutscher und europäischer Sicht richtig ist, sich mit einer Sicht zu positionieren, die dem Datenschutz mehr Aufmerksamkeit widmet, als es in anderen Teilen der Welt der Fall ist oder möglich ist. Das ist sowohl politisch als auch aus wirtschaftlicher Sicht eine kluge Entscheidung, weil man hier Marktsegmente besetzt, die von anderen noch nicht besetzt werden. Was ich aber für nicht klug halte, dass wir, wenn wir in Deutschland von Datenschutz reden, nicht von einem völlig veralteten Denken loslassen können. Und damit meine ich die Vorstellung, dass es einen einzigen Datenschutzstandard für alle Menschen geben kann.

Wenn ich mich zum Beispiel hier an meinem Institut umschaue, gibt es unter den zwanzig Kollegen, die heute da sind, mindestens sechs verschiedene Datenschutzbedürfnisse. Ich habe im Rahmen einer Trendanalyse insgesamt zehn verschiedene Datenschutzbedürfnisse definieren können. Die Vorstellung, dass wir einen Einheitsdatenschutz für den Einheitsbürger haben mit einer Einheitsregelung, die ist einfach wirklich von gestern.

Die Unternehmen, die damit sehr kompetent umgehen, die wissen genau, wenn ich jetzt ein Produkt kreiere, dann werde ich dieses eine Produkt auf zehn verschiedene Arten und Weisen kreieren, weil ich es auf zehn verschiedene Datenschutzbedürfnisse anpassen muss. Derjenige, dem Datenschutz ganz arg wichtig ist, der bekommt ein Standardprodukt, derjenige, der mir seine Facebook-Daten freigibt, der erhält das Produkt ein wenig individualisiert, derjenige, der mich und meine App auf sein Smartphone lässt und mir dadurch die Möglichkeit gibt, noch mehr Daten über ihn zu sammeln, etwa Bewegungsdaten, der bekommt das Produkt nicht nur individualisiert, sondern auch noch auf die Situation, in der er sich in diesem Moment befindet, zugeschnitten. Durch die Schnittmengen zwischen diesen drei Varianten, kommt man also insgesamt auf zehn verschiedene Datenschutzbedürfnisse.

marktforschung.de: Aber setzt das nicht einen mündigen und sehr gut informierten Verbraucher voraus und ist es letztendlich nicht zu kompliziert für die Wirklichkeit?

Sven Gábor Jánszky: Nein, ich denke in der Praxis ist das ganz einfach: Wenn ich mir einen Joghurt kaufe, dann weiß ich auch nicht, ob das der Beste für mich ist. Und solange nichts schief geht und ich zum Beispiel Ausschlag davon bekomme, nehme ich den weiter. Entsprechend ist das auch mit dem Datenschutz: Ich verwende irgendeine Software und so lange ich nicht das Gefühl habe, ganz stark manipuliert zu werden, nutze ich sie weiter.

marktforschung.de: Aber müsste der Staat nicht darüber hinaus einen Standard festlegen – nur wie könnte man den dann auf die einzelnen Bedürfnisse runterbrechen?

Sven Gábor Jánszky: Ich denke, das lässt sich auf drei Dinge herunterbrechen, erstens brauche ich einen Button, der mir, wenn ich ihn anklicke, anzeigt, was alles über mich gespeichert ist, also einen "Show me my data"-Button. Als zweites benötige ich einen Button, mit dessen Hilfe ich die gespeicherten Daten verändern kann, einen "Change"-Button. Und ich brauche als drittes einen Button, mit dem ich die Daten löschen kann, einen "Delete"-Button. Wenn ich diese drei Optionen: alles ansehen, bearbeiten, löschen allen Menschen zur Verfügung stelle, dann ermögliche ich ihnen einen souveränen und kompetenten Umgang.

marktforschung.de: Gesetzt den Fall der Nutzer ist so souverän …

Sven Gábor Jánszky: Ja und wenn nicht, dann gibt es entsprechende Software hierfür. Es ist ja auch nicht jeder, der einen Computer benutzt, Experte für Computerviren, sondern wir verwenden Antivirensoftware und genau solch eine Software wird es auch für diesen Bereich geben. Natürlich ist es besser kompetenter zu sein, dann ist man natürlich selbstbestimmter, aber wir Menschen sind nicht in jedem Bereich des Lebens gleich selbstbestimmt und manchen Menschen ist das im Übrigen auch einfach nicht so wichtig. Natürlich bekommen die Menschen Hilfsmittel, in dem Fall Softwareprogramme. Aber jeder ist frei und jeder kann, wenn er will, damit sehr souverän umgehen und wenn er nicht will, dann vertraut er eben irgendeiner Software.

marktforschung.de: Vielen Dank für das Gespräch Herr Jánszky!

Veröffentlicht am: 22.10.2015

 

Werbung

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Kommentare geben ausschließlich die Meinung ihrer Verfasser wieder. Die Redaktion behält sich vor, Kommentare nicht oder gekürzt zu veröffentlichen. Das gilt besonders für themenfremde, unsachliche oder herabwürdigende Kommentare sowie für versteckte Eigenwerbung.

Über marktforschung.de

Branchenwissen an zentraler Stelle bündeln und abrufbar machen – das ist das Hauptanliegen von marktforschung.de. Unser breites Informationsangebot rund um die Marktforschung richtet sich sowohl an Marktforschungsinstitute, Felddienstleister, Panelbetreiber und Herausgeber von Studien, Marktdaten sowie Marktanalysen als auch an deren Kunden aus Industrie, Handel und Dienstleistungsgewerbe.

facebook twitter google plus