KI - wirklich so intelligent?

Künstliche Intelligenz

Selbstlernend - Ein Begriff, der häufig mit der Künstlichen Intelligenz verknüpft wird. Dass KI aber auch noch menschliches Beitun erfordert und sich nicht einfach so, ohne Weiteres, selbst weiterentwickelt, ist häufig unklar. Folgender Beitrag deckt Missverständnisse rund um das Thema auf und erläutert, ob KI als Marketing-Unterstützung tatsächlich immer notwendig ist.

Michael Larche

Künstliche Intelligenz (KI) in moderner Sales Intelligence-Software unterstützt heute Sales- und Marketingprofis bei der Leadgenerierung und der Suche nach B2B-Lookalikes, also ähnlichen Firmen zu Bestandskunden. Stets geht es dabei darum, weitere geeignete Kunden mit Potenzial zu finden oder zu bestehenden Leads weitere interessante Leads zu generieren. Dafür crawlt die KI Informationen aus dem Handelsregister und aus weiteren Web-Inhalten und berechnet auf Basis von Informationen, die Unternehmen zugeordnet sind, relevante Ähnlichkeiten zwischen Unternehmen.

Doch gibt es „die KI“ an sich, die derzeit hohe Medienpräsenz hat, als Zukunftstechnologie schlechthin tatsächlich? Microsoft-Forscherin Kate Crawford bremste kürzlich die Euphorie mit ihrer medienwirksamen Aussage:

KI ist weder künstlich noch intelligent.

Die drei häufigsten Missverständnisse beim Thema KI

Missverständnis Nr. 1: „Es gibt eine unternehmensweite KI.“
Viele sprechen von der „Google-KI“, „Microsoft-KI“ oder „Facebook-KI“, als gäbe es in diesen marktdominierenden Unternehmen ein einziges superintelligentes System, das alle Probleme löst. Genau das gibt es jedoch nicht. Die Realität sieht so aus, dass viele hochspezialisierte Einzelsysteme für jeweils eine spezielle Aufgabe gut sind und bestimmte Teilaufgaben lösen. Für Vertriebszwecke wären das z.B. Systeme für Branchenklassifikation, Signalerkennung, Umsatzzahlenschätzung, Identifizierung ähnlicher Firmen, Mitarbeiterextraktion und Firmendatenkonsolidierung.

Missverständnis Nr. 2: „Die KI lernt selbst und entwickelt sich ständig weiter.“
Dem Begriff KI haftet die Faszination einer selbstlernenden und sich ständig verbessernden und weiterentwickelnden Technologie an, doch auch dies ist in der Realität nicht der Fall. Ein gängiges Beispiel einer KI-Anwendung ist die Bilderkennung. Ist auf einem Foto eine Kuh abgebildet, gibt die KI-Anwendung jedoch nur Wahrscheinlichkeiten aus, dass es sich um eine Kuh handeln könnte. Die KI benötigt sehr viele und sehr gute Trainingsbeispiele für exakt eine Aufgabe, die gelöst werden soll. Ein neuronales Netz braucht im Anwendungsbeispiel mit der Kuh Tausende von Fotos. Dabei ist nicht bekannt, was das System bereits gelernt hat. So kann es passieren, dass eine Verzerrung durch die Trainingsdaten stattfindet, so dass die KI eigentlich Gras auf der Weide erkennt statt einer Kuh. Eine Kuh im Stall würde somit durchs Raster fallen.

Die Merkmale der meisten heutigen KI-Systeme sind, dass es sich um hochspezialisierte Einzellösungen handelt, die mit Daten trainiert werden, die zuvor mit sehr hohem manuellem Aufwand aufbereitet wurden. Das, was als selbstständiges „Lernen“ interpretiert wird, ist eher ein „Eintrichtern“ und erfolgt streng kontrolliert unter Laborbedingungen.

Missverständnis Nr. 3: „Die KI lernt immer weiter“
Neue neuronale Netze werden erst auf Spezialhardware trainiert, indem Gewichtungen und Verbindungen angepasst werden, dann sehr ausführlich evaluiert und schließlich in Betrieb genommen. Während des Betriebs werden keine Änderungen an den Gewichten mehr vorgenommen. Ohne Feedback kann sich das System aber nicht verbessern und so lernt eine für eine Aufgabe konfigurierte KI auch nicht immer weiter, sondern führt stur ihre vorgesehene Aufgabe aus.

KI in der Praxis: Ähnlichkeiten zwischen Firmen berechnen

Bei der Berechnung von B2B-Lookalikes geht es um die Problemstellung, Ähnlichkeiten in Texten korrekt zu interpretieren.

Ein Beispiel wären die Beschreibungen:

  • Firma A: „Der Automobilzulieferer A mit Sitz in Karlsruhe ist seit vielen Jahren führend bei der Herstellung von Antriebskomponenten.“
  • Firma B: „Der Chemiekonzern B mit Sitz in Würzburg ist seit vielen Jahren führend bei der Herstellung von Pharmazeutika.“

Der ähnliche Satzteil „ist seit vielen Jahren führend bei der Herstellung von“ entspricht nicht der inhaltlichen Ähnlichkeit der beiden Unternehmen. Wie aber bringt man eine KI dazu, diesen entscheidenden Unterschied zu erkennen? Hier ergeben sich zwei große Herausforderungen, die Definition von Ähnlichkeit und die Frage, woher die Trainingsdaten kommen sollen. Bei Überlegungen zum Thema KI lässt sich sagen „Algorithmen sind der Motor und Daten sind das Öl oder Benzin.“ Jetzt kommt es darauf an, in die Trickkiste zu greifen und die eigene Ölquelle zu erschließen, also Daten zu generieren.

Von Go über autonomes Fahren zurück zur Textinterpretation

Bereits vor fünf Jahren wurde Fan Hui, Europameister im japanischen Brettspiel Go, von der KI AlphaGo geschlagen. Im Frühjahr 2016 unterlag auch Lee Sedol, einer der stärksten Spieler weltweit, der von Google entwickelten KI-Software DeepMind. KI hat also in einer denksportintensiven Disziplin mal eben schnell den Menschen geschlagen. Der Durchbruch gelang, indem die Gewichte angepasst wurden, dass sich die KI wie ein Gewinner verhält. In vielen Millionen Spielen wurde das System immer besser, ohne Trainingsdaten.

Ein weiteres Beispiel ist die Bilderkennung für autonomes Fahren. Hierzu müsste die KI-Software die Videosequenzen mit Verkehrsteilnehmern richtig interpretieren, was sehr aufwändig ist. Statt Videosequenzen zu adaptieren, gibt es bereits Forschungsprojekte, die Computerspiele heranziehen und Trainingsdaten synthetisch generieren.

Zurück zum Beispiel mit verschiedenen Textquellen, die Unternehmen beschreiben. Der Mensch würde folgendermaßen vorgehen: Textquelle 1 ist beispielsweise ein Kurzprofil der Daimler AG. Legt man ihm als Textquelle 2 ein anderes Profil der Daimler AG vor, wäre eine Ähnlichkeit ziemlich sicher. Bei einem Kurzprofil der ZF Friedrichshafen AG als Textquelle 2 wäre aufgrund von typischen Begriffen aus dem Automotive-Umfeld die Ähnlichkeit möglich. Beim Kurzprofil einer Bäckerei wäre die Ähnlichkeit mit der Daimler AG eher nicht gegeben.

Täglicher Newsletter der Insightsbranche

News +++ Jobs +++ Whitepaper +++ Webinare
Wir beliefern täglich mehr als 7.700 Abonnenten

Objektvierung des Ähnlichkeitsmaßes

Wie sicher kann aber eine KI erkennen, ob es sich bei verschiedenen Textquellen um die gleiche Firma handelt? Hierzu ist eine Objektivierung des Ähnlichkeitsmaßes nötig. Die Skala reicht von oben (hohe Ähnlichkeit) nach unten (niedrige Ähnlichkeit). Genau das muss das KI-System „lernen“. Dies erfordert, das System darauf zu trainieren, die Zusammenhänge zu erkennen, ob Texte von unterschiedlichen Quellen zu einer Firma gehören oder nicht. Hierzu erhält das System als Positivbeispiel Texte zur gleichen Firma und als Negativbeispiel Texte zu zwei verschiedenen Firmen. Nun soll das System versuchen, möglichst gut zu erkenn, ob die Texte zur gleichen Firma gehören. Hier geht es um „gelernte Ähnlichkeiten“. Das, was die KI gelernt hat, soll sie anhand von Merkmalen in der Ausprägung vergleichen. Merkmale wie Firmengröße, Mitarbeiteranzahl, Umsatz, Herstellung, Vertrieb etc. werden in einer bestimmten Anzahl von vorgegebenen Dimensionen eingeordnet. Der Output ist die Ausprägung von Merkmalen, was als Vektor bezeichnet wird.

Fazit

Beim Thema KI bleibt die Notwendigkeit menschlicher Einflussnahme auf KI-Lernprozesse oft außer Acht. Tatsächlich ist sehr viel manueller Aufwand und Engineering für das Training nötig. Bei KI-Software handelt es sich zudem um Einzellösungen für sehr spezifische Teilprobleme – und die KI lernt nicht automatisch. Eine Basistechnologie wie Company2Vec von Echobot bietet eine Lösung für schwierige Aufgaben in Sales und Marketing. Die gelernte Ähnlichkeitsbeziehung ist sehr intuitiv und entspricht damit der menschlichen Einschätzung.

Eine Definition des Fraunhofer-Instituts für Kognitive Systeme IKS gibt dies sehr gut wieder: „Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik. Sie imitiert menschliche kognitive Fähigkeiten, indem sie Informationen aus Eingabedaten erkennt und sortiert. Diese Intelligenz kann auf programmierten Abläufen basieren oder durch maschinelles Lernen erzeugt werden.“
KI ist also nicht wirklich intelligent, kann aber menschliches Verhalten für bestimmte Teilprobleme imitieren. KI kann Aufgaben gut lösen, die der Mensch sonst mit seiner Intelligenz lösen müsste. Mit dieser Vorstellung im Hinterkopf, lässt sich der Begriff der „künstlichen Intelligenz“ durchaus verwenden.

Zu Micheal Larche

Michael Larche

Michael Larche ist Head of Sales bei der Echobot Media Technologies GmbH, einem führenden Anbieter von Cloud Software für Sales & Marketing Intelligence im europäischen Raum. In seiner aktuellen Position verantwortet er den Aufbau der Vertriebsabteilung im Bereich New Business und konnte mit einer Steigerung der Mitarbeitenden von zwei auf 37 Personen den Kundenstamm von 250 auf 1.400 Kunden im DACH-Markt erhöhen. Er verfügt über zehn Jahre Saas-Vertriebserfahrung in der B2B-Neukundenakquise und richtet seinen aktuellen Fokus auf den Go-To-Market auf internationaler Ebene

Veröffentlicht am: 02.11.2021

 

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Kommentare geben ausschließlich die Meinung ihrer Verfasser wieder. Die Redaktion behält sich vor, Kommentare nicht oder gekürzt zu veröffentlichen. Das gilt besonders für themenfremde, unsachliche oder herabwürdigende Kommentare sowie für versteckte Eigenwerbung.

Über marktforschung.de

Branchenwissen an zentraler Stelle bündeln und abrufbar machen – das ist das Hauptanliegen von marktforschung.de. Unser breites Informationsangebot rund um die Marktforschung richtet sich sowohl an Marktforschungsinstitute, Felddienstleister, Panelbetreiber und Herausgeber von Studien, Marktdaten sowie Marktanalysen als auch an deren Kunden aus Industrie, Handel und Dienstleistungsgewerbe.

facebook twitter xing linkedin