Das Interview zum Webinar: Christopher Harms, Marc Zörnig, SKOPOS "Künstliche Intelligenz kann unsere methodische Kompetenz nicht ersetzen"

Offenes Kundenfeedback kann Erkenntnisse liefern, wozu geschlossene Fragen meist nicht in der Lage sind. Doch die Auswertung offener Nennungen ist mühsam und teuer, weshalb viele Kunden auch darauf verzichten. Christopher Harms und Marc Zörnig von SKOPOS beschreiben am 19. März im Webinar bei marktforschung.de Wege aus diesem Dilemma. Jetzt standen uns die Marktforscher für ein Interview zur Verfügung.

Christopher Harms, Marc Zörnig, SKOPOS

marktforschung.de: Herr Harms, Herr Zörnig, Sie stellen in Ihrer Webinarankündigung eine These in den Vordergrund, sie lautet: "Das Potenzial von offenem Kundenfeedback bleibt oft ungenutzt." Was ist damit gemeint? Zum Beispiel die vielen Bewertungen bei Google? 

Marc Zörnig: In der Vergangenheit lag der Fokus großer Marktforschungsprojekte häufig auf geschlossenen Fragen. Diese lassen sich einfach auswerten und leicht auf mehrere Länder ausrollen. Durch diese Skalierung rücken offene Nennungen jedoch meist in den Hintergrund. Mit wachsender Anzahl an Interviews und Sprachen steigen auch die Kosten für deren Übersetzung und Codierung. Nach unserer Erfahrung führt das bei Kunden dann häufig dazu, dass sie auf eine Auswertung verzichten. Dabei finden sich gerade in diesem offenen Kundenfeedback oft wertvolle Hinweise für unsere Auftraggeber, was Pain Points oder Highlights des Kundenerlebnis sind. Deshalb lag der Fokus unserer Studie auch ganz klar auf eben diesem offenen Kundenfeedback. Tatsächlich sind die Herausforderungen aber sehr ähnlich wie bei der Analyse von Beiträgen aus dem Netz: aus den unstrukturierten Daten müssen relevante Erkenntnisse extrahiert und in Handlungsempfehlungen überführt werden. Da reicht es eben nicht nur auf die Sterne bei Google zu achten.

marktforschung.de: Nun steht in solchen Bewertungen ziemlich viel, manche Menschen schreiben einen halben Roman. Nun sagen Sie, dass mittels Machine Learning auch Freitexte in die Analyse einbezogen werden können. Warum ist das Ihrer Meinung nach erforderlich? Wer braucht solche Auswertungen?

Christopher Harms: Der große Vorteil ist die Skalierbarkeit der Lösung. Ob ich 2.000 oder 20.000 Texte habe, spielt nach einem Training der Daten nur noch eine untergeordnete Rolle. Außerdem wollen wir zeigen, dass solche Tools mehr können als bunte Word Clouds ausspucken. Indem man offene und geschlossene Antworten miteinander kombiniert und die Zusammenhänge aufzeigt, können relevante Treiber für Zufriedenheit oder Weiterempfehlungsbereitschaft identifiziert werden. Wer also nicht nur wissen möchte, was wie häufig gesagt wurde, sondern auch wie wichtig die Themen für das Kundenerlebnis sind, kann von derlei Ansätzen profitieren.  

marktforschung.de: Künstliche Intelligenz soll also helfen, den Kunden besser zu verstehen. Wo hakt es bislang?

Christopher Harms: Ein grundsätzliches Problem in jeglicher Machine Learning-Lösung sind die Trainingsdaten. Und das Verständnis von Texten ist nochmal eine besondere Herausforderung. "Halbe Romane", in denen Befragte wie in unserer Studie ausführlich ihre Erfahrungen mit dem Kundenservice beschreiben, sind da dann sogar hilfreich. Denn allgemein ist Kontextwissen für das Verständnis dieser Texte erforderlich. Und je kürzer Befragte antworten - im Rahmen von CX-Befragungen ja durchaus ein relevanter Trend - desto mehr Wissen ist erforderlich. Einem Algorithmus oder einer Analyse-Lösung dieses Wissen beizubringen, ist nicht immer ganz einfach. Insbesondere bei sehr spezialisierten Produkten mit eigenen Begrifflichkeiten spielt das eine ernst zu nehmende Rolle. Das ist das ganz grundlegende Problem bei Machine Learning-Lösungen: Wir brauchen eine Menge Trainingsdaten, die relevant für die Thematik sind, die wir untersuchen. Während für das allgemeine Sprachverständnis Nachrichten, Wikipedia etc. hilfreiche Quellen sind, ist die Menge an Textdaten in hoch-spezialisierten Bereichen deutlich eingeschränkter.

marktforschung.de: Kann Künstliche Intelligenz eigentlich auch erkennen, wenn Rezensionen manipuliert bzw. in Auftrag gegeben wurden?

Christopher Harms: Die Klassifizierung von Texten nach verschiedenen Kriterien ist ein Hauptanwendungsgebiet von Künstlicher Intelligenz. Seit Jahren wird an Algorithmen gearbeitet, die beispielsweise Hate Speech in Kommentarbereichen identifizieren. Auch hier sind Trainingsdaten das Hauptthema: Damit diese Algorithmen gut funktionieren können, braucht es vorklassifizierte Daten. Ich finde es aber fraglich, ob der Text einer Bewertung alleine darüber Aufschluss geben kann. Die Historie eines Bewerters, das Alter der Bewertung etc. sind für die Erkennung manipulierter Rezensionen sicherlich ebenfalls relevante Prädiktoren.

marktforschung.de: Inwiefern verändert künstliche Intelligenz die Arbeitsweise in der Marktforschung? Macht sie uns Marktforscher irgendwann überflüssig?

Marc Zörnig: Ich glaube, dass dieses Endzeitszenario noch in weiter Ferne liegt. Künstliche Intelligenz kann unsere Expertise und methodische Kompetenz nicht von heute auf morgen ersetzen. Das ist auch nicht das erklärte Ziel. Vielmehr geht es darum, dass uns künstliche Intelligenz in unserer täglichen Arbeit unterstützt. Damit sie dazu in der Lage ist, bedarf es das Know-how eines Data Scientist wie meinen Kollegen Christopher. Es geht also eher um die Veränderung des Skillsets eines Projektteams als darum, bestehende Kompetenzen zu ersetzen.

marktforschung.de: Vielen Dank Herr Harms, vielen Dank Herr Zörnig, wir freuen uns auf das Webinar am 19. März 2019.

Hier geht es zur Anmeldung.

Das Interview führte Tilman Strobel

 

Diskutieren Sie mit!     

Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!

Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.

Anmelden

Weitere Highlights auf marktforschung.de