dossier.PLUS-Logo

Fachbeitrag von Christian Hyka, Survalyzer Kennen Sie die Risiken und Nebenwirkungen von Künstlicher Intelligenz in DIY-Software?

Künstliche Dummheit, Binsenweisheiten, nicht-deterministisches Verhalten: Christian Hyka, Gründer und Geschäftsführer von Survalyzer, beleuchtet in seinem Beitrag potenzielle Risiken und Nebenwirkungen, die einem bei der Nutzung von KI – trotz allen Chancen und Potenzialen - immer bewusst sein sollten. Nicht nur, aber auch bei der Durchführung von Studien mit DIY-Software.

Nimmst Du die rote oder die blaue Pille? Auch beim Einsatz von KI besteht die Gefahr von Risiken und Nebenwirkungen. Als Nutzer sollte man diese kennen, so Christian Hyka (picture alliance / Lobster Media | Isabelle Puaut).

Als Softwareanbieter von Umfrage- und Dashboard-Software verfolge ich mit großem Interesse, wie schnell und stark KI-Systeme in verschiedene Bereiche von Befragungssoftware immer weiter vordringen. Für Survalyzer war die Integration der Chat-GPT-Schnittstelle im Juni 2023 ein Meilenstein, der in kürzester Zeit einen großen Nutzen in der Analyse von offenen Antworten brachte und dadurch erheblich zum Kundenwachstum beitrug.

Dieser Artikel soll aber nicht primär die Sonnenseiten von unserem KI-System-Einsatz beleuchten, sondern er wird sich primär den Herausforderungen widmen, denen sich Benutzer von Software mit starker KI-Einsatz früher oder später stellen müssen.

Einsatzbereiche von KI in Umfragesoftware

Im Bereich der Analyse wird KI, vor allem für die Analyse von offenen Kommentaren, schon seit einigen Jahren erfolgreich für die Stimmungsanalyse und für die Kategorisierung eingesetzt. Bei der Stimmungsanalyse (Neudeutsch auch Sentimentanalyse) ordnet die KI die offenen Kommentare in die Kategorien negativ, neutral und positiv ein. Bei der Kategorisierung werden in einem ersten Schritt relevante Themen identifiziert, und die KI ordnet anschließend die Kommentare den Themen zu. Durch lernende Algorithmen werden zudem die analytischen Verfahren der Mustererkennung in den Umfragedaten immer ausgeprägter. Das Schreiben von Berichtszusammenfassungen und das Ableiten von Handlungsempfehlungen sind weitere Bereiche, die durch KI in naher Zukunft unterstützt werden. Neben dem Analysebereich helfen KI-Verfahren auch in der Konzept- und Feldphase immer stärker mit. KI-Systeme können heutzutage bereits Fragebogenvorlagen erstellen, unseriöse Antworten in den Daten erkennen, und es gibt auch schon erste Gehversuche, um künstliche Antworten zu generieren, siehe "Using GPT for Market Research" oder in Herberts Welt über künstliche Intelligenz.

Herausforderungen für die User

Stehen wir kurz vor der 1-Klick-Forschung? Muss man als Marktforschende künftig nur noch das Thema vorgeben, und der Fragebogen, das Feld und die Auswertung generiert die KI von allein? Sicher wird die KI in den nächsten Jahren die Effizienz in der Marktforschung nochmals stark erhöhen, aber der KI-Einsatz bringt auch neue Herausforderungen, welche die Marktforschenden erst meistern müssen.

Im Folgenden werden wir drei spezifische Herausforderungen im Umgang mit KI kennenlernen.

Herausforderung 1: Wie behandeln wir KI-generierte Inhalte?

Wenn wir Menschen wissen, dass ein Text von einer Maschine geschrieben wurde, sind wir in der Regel kritischer, als wenn wir wissen, dass ein Text von einem Menschen geschrieben wurde. Diese kritischere Haltung ist Chance und Risiko in einem. Chance, weil man maschinengeschriebene Inhalte aufmerksamer liest, um Fehler und Inkonsistenzen zu entdecken. Risiko, weil man guten KI-generierten Inhalt per se ablehnt, weil er nicht vom Menschen stammt.

Herausforderung 2: Wie gehen wir mit nicht-deterministischen Maschinen um?

Wenn eine Aussage A wahr ist, dann kann die Aussage A nicht falsch sein. Auf Logik-Regeln wie in diesem Beispiel wurden bisher Informatiksysteme aufgebaut. Logische Systeme führen bei gleichen Eingabewerten immer zu den gleichen Ausgabewerten. Dies nennt man ein deterministisches Verhalten, welches nach wie vor unsere Erwartungen an Informatiksysteme vorgibt. Gilt das gleiche bei Menschen?

Wenn ich einen Menschen liebe, dann kann ich ihn nicht gleichzeitig hassen. Wir sehen an dieser einfachen Aussage, dass es bei Menschen etwas „komplizierter“, etwas weniger deterministisch ist. Wenn KI-Systeme anfangen sich dem Kontext anzupassen und den Kontext neu interpretieren, sind sie nicht mehr deterministisch.

Stellen wir Menschen beim Programmen dieses nicht-deterministische Verhalten fest, kann dies zu Irritationen und einem Vertrauensproblem führen. Auf der anderen Seite entsteht gerade aus dem nicht-deterministischen Verhalten das Kreative und das Neue. Wenn wir also KI für kreative Prozesse benötigen, dann wünschen wir uns unbewusst ein nicht-deterministisches Verhalten. In der Chat-GPT-API kann man diesen Kreativitätsfaktor „steuern“, indem man einen „Kreativitätsregler“ von sehr deterministisch zu sehr kreativ schieben kann. Auch dieser Aspekt der KI-Nutzung muss erst noch erlernt werden.

Herausforderung 3: Wie behandeln wir künstliche Dummheit?

Die größte Gefahr der künstlichen Intelligenz ist die künstliche Dummheit. Generative KI wie Chat-GPT können beispielsweise einfache mathematische Berechnungen noch nicht in jedem Fall korrekt ausführen. Die folgende einfache Rechenaufgabe zeigt dies exemplarisch auf:

Hinweis zur Lösung: Die korrekte Lösung ist 5 Minuten, da eine Maschine 5 Minuten benötigt, um 1 Gerät zu erstellen, brauchen 100 Maschinen ebenfalls 5 Minuten, um 100 Geräte zu erstellen. Die Aussage, dass 100 Maschinen 1 Minute um 100 Gerät zu produzieren ist daher falsch.

Neben dem falschen Rechnen besteht auch die Gefahr, dass die Künstliche Intelligenz Fakten verdreht und falsch darstellt. Von Chat-GPT präsentierte Inhalte werden aus verschiedensten Quellen generiert und nicht zitiert. Dies führt zu ungewollten Faktendrehern und Falschinformationen. Newsguard, eine Firma, die sich auf die Analyse und Behebung von Online-Falschinformationen fokussiert, hat dazu bedenkliche Erkenntnisse publiziert und belegt, dass Chat-GPT viele Falschinformationen verbreitet. Gordon Crovitz hat dazu in der NY Times folgende Aussage gemacht: "Dieses Tool wird das mächtigste Werkzeug zur Verbreitung von Fehlinformationen sein, dass es je im Internet gab."

Neben Matheproblemen und Falschaussagen sind Binsenwahrheiten eine weitere große Kategorie von „Dummheiten“, die wir bei der KI-Nutzung beachten sollen. Was für den einen Leser eine Erkenntnis ist, ist für einen anderen Leser eine Binsenwahrheit. Folgender einfacher Austausch mit ChatGPT soll dies veranschaulichen:

Frage an Chat GPT:
Zwei Produkte wurden getestet und eines hat den Wert 4 und das andere den Wert 5. Welche Schlussfolgerung sollte man aus diesen Ergebnissen ziehen?


Antwort von Chat GPT:
Basierend auf den gegebenen Informationen, kann man folgende Schlussfolgerung ziehen: Das Produkt mit dem Wert 5 hat eine höhere Bewertung als das Produkt mit dem Wert 4.

Als KI-Nutzende hat man die Verantwortung, „Binsenwahrheiten“ zu erkennen, indem man seinen gesunden Menschenverstand nutzt und bei etwas komplexeren Antworten, den Adressaten einordnet, um den Informationsgehalt einer Aussage abzuleiten.

Bei Survalyzer ist das Thema Ergebnisinterpretation und Handlungsempfehlungen in Analyse-Dashboards aufgrund des großen Risikos von Binsenwahrheiten, aktuell noch in der Stufe „Beobachtung“. Diese Einstufung kann sich durch die rasante Weiterentwicklung von Chat GPT auch wieder ändern - Fortsetzung folgt.

Fazit: KI-Systeme sind im Grunde Wahrscheinlichkeitsmodelle

Durch die beschriebenen Herausforderungen im Umgang mit KI könnte man leicht dem Gedanken verfallen, KI nur sehr zurückhaltend einzusetzen oder wenn möglich auf KI zu verzichten. Wir müssen uns jedoch auch den Risiken der Nicht-Nutzung von KI bewusstwerden. Als Mensch im beruflichen Kontext (und meist auch privat) streben wir nach Lösungen, die mit wenig Mitteleinsatz große Wirkung erzielen. KI ist ein solches effizientes Mittel, dessen Umgang wir noch besser erlernen sollten.

KI darf nicht als Konkurrent oder als Gefahr, sondern KI soll wie das Automobil oder das Flugzeug als Werkzeug und Instrument mit großer Wirkung und einigen Nebenwirkungen angesehen werden.

KI-Systeme sind im Grunde Wahrscheinlichkeitsmodelle, und als Marktforscher und Marktforscherin ist man durch den täglichen Umgang mit Wahrscheinlichkeiten optimal ausgerüstet, um die Qualität von KI-Systemen zu beurteilen, einzuordnen und schlussendlich auch richtig zu nutzen.

 

Über die Person

Christian Hyka stieg 2011 durch ein Management Buy-out zum Inhaber und Partner bei der Survalyzer AG auf. In seiner Funktion als Managing Partner hat er die unternehmerische Gesamtverantwortung. Auf fachlicher Ebene ist er für die strategische Produktentwicklung und die Vermarktung der Umfragesoftware Survalyzer zuständig. Seit seinem Studienabschluss 2005 hat sich Christian Hyka ein umfassendes Wissen in den Bereichen Software-Produktentwicklung mit agilen Methoden, Analyse Dashboard Design und... mehr

Weitere Informationen zum Unternehmen auf marktforschung.de:

PREMIUM

Survalyzer AG

Zürich

Survalyzer AG

20

WIR LIEFERN ANTWORTEN VON MORGEN – Mit Hilfe unserer leistungsstarken und intuitiven High-End-Umfragesoftware unterstützen wir mehr…

Diskutieren Sie mit!     

Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!

Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.

Anmelden

Mehr zum Dossier: dossier.PLUS: DIY & T / Automatisierung

Artikel dieser Ausgabe:

alle anzeigen
Vielen Dank an die Sponsoren

Weitere Highlights auf marktforschung.de