Künstliche Intelligenz KI - wirklich so intelligent?

Michael Larche
Doch gibt es „die KI“ an sich, die derzeit hohe Medienpräsenz hat, als Zukunftstechnologie schlechthin tatsächlich? Microsoft-Forscherin Kate Crawford bremste kürzlich die Euphorie mit ihrer medienwirksamen Aussage:
KI ist weder künstlich noch intelligent.
Die drei häufigsten Missverständnisse beim Thema KI
Missverständnis Nr. 1: „Es gibt eine unternehmensweite KI.“
Viele sprechen von der „Google-KI“, „Microsoft-KI“ oder „Facebook-KI“, als gäbe es in diesen marktdominierenden Unternehmen ein einziges superintelligentes System, das alle Probleme löst. Genau das gibt es jedoch nicht. Die Realität sieht so aus, dass viele hochspezialisierte Einzelsysteme für jeweils eine spezielle Aufgabe gut sind und bestimmte Teilaufgaben lösen. Für Vertriebszwecke wären das z.B. Systeme für Branchenklassifikation, Signalerkennung, Umsatzzahlenschätzung, Identifizierung ähnlicher Firmen, Mitarbeiterextraktion und Firmendatenkonsolidierung.
Missverständnis Nr. 2: „Die KI lernt selbst und entwickelt sich ständig weiter.“
Dem Begriff KI haftet die Faszination einer selbstlernenden und sich ständig verbessernden und weiterentwickelnden Technologie an, doch auch dies ist in der Realität nicht der Fall. Ein gängiges Beispiel einer KI-Anwendung ist die Bilderkennung. Ist auf einem Foto eine Kuh abgebildet, gibt die KI-Anwendung jedoch nur Wahrscheinlichkeiten aus, dass es sich um eine Kuh handeln könnte. Die KI benötigt sehr viele und sehr gute Trainingsbeispiele für exakt eine Aufgabe, die gelöst werden soll. Ein neuronales Netz braucht im Anwendungsbeispiel mit der Kuh Tausende von Fotos. Dabei ist nicht bekannt, was das System bereits gelernt hat. So kann es passieren, dass eine Verzerrung durch die Trainingsdaten stattfindet, so dass die KI eigentlich Gras auf der Weide erkennt statt einer Kuh. Eine Kuh im Stall würde somit durchs Raster fallen.
Die Merkmale der meisten heutigen KI-Systeme sind, dass es sich um hochspezialisierte Einzellösungen handelt, die mit Daten trainiert werden, die zuvor mit sehr hohem manuellem Aufwand aufbereitet wurden. Das, was als selbstständiges „Lernen“ interpretiert wird, ist eher ein „Eintrichtern“ und erfolgt streng kontrolliert unter Laborbedingungen.
Missverständnis Nr. 3: „Die KI lernt immer weiter“
Neue neuronale Netze werden erst auf Spezialhardware trainiert, indem Gewichtungen und Verbindungen angepasst werden, dann sehr ausführlich evaluiert und schließlich in Betrieb genommen. Während des Betriebs werden keine Änderungen an den Gewichten mehr vorgenommen. Ohne Feedback kann sich das System aber nicht verbessern und so lernt eine für eine Aufgabe konfigurierte KI auch nicht immer weiter, sondern führt stur ihre vorgesehene Aufgabe aus.
KI in der Praxis: Ähnlichkeiten zwischen Firmen berechnen
Bei der Berechnung von B2B-Lookalikes geht es um die Problemstellung, Ähnlichkeiten in Texten korrekt zu interpretieren.
Ein Beispiel wären die Beschreibungen:
- Firma A: „Der Automobilzulieferer A mit Sitz in Karlsruhe ist seit vielen Jahren führend bei der Herstellung von Antriebskomponenten.“
- Firma B: „Der Chemiekonzern B mit Sitz in Würzburg ist seit vielen Jahren führend bei der Herstellung von Pharmazeutika.“
Der ähnliche Satzteil „ist seit vielen Jahren führend bei der Herstellung von“ entspricht nicht der inhaltlichen Ähnlichkeit der beiden Unternehmen. Wie aber bringt man eine KI dazu, diesen entscheidenden Unterschied zu erkennen? Hier ergeben sich zwei große Herausforderungen, die Definition von Ähnlichkeit und die Frage, woher die Trainingsdaten kommen sollen. Bei Überlegungen zum Thema KI lässt sich sagen „Algorithmen sind der Motor und Daten sind das Öl oder Benzin.“ Jetzt kommt es darauf an, in die Trickkiste zu greifen und die eigene Ölquelle zu erschließen, also Daten zu generieren.
Von Go über autonomes Fahren zurück zur Textinterpretation
Bereits vor fünf Jahren wurde Fan Hui, Europameister im japanischen Brettspiel Go, von der KI AlphaGo geschlagen. Im Frühjahr 2016 unterlag auch Lee Sedol, einer der stärksten Spieler weltweit, der von Google entwickelten KI-Software DeepMind. KI hat also in einer denksportintensiven Disziplin mal eben schnell den Menschen geschlagen. Der Durchbruch gelang, indem die Gewichte angepasst wurden, dass sich die KI wie ein Gewinner verhält. In vielen Millionen Spielen wurde das System immer besser, ohne Trainingsdaten.
Ein weiteres Beispiel ist die Bilderkennung für autonomes Fahren. Hierzu müsste die KI-Software die Videosequenzen mit Verkehrsteilnehmern richtig interpretieren, was sehr aufwändig ist. Statt Videosequenzen zu adaptieren, gibt es bereits Forschungsprojekte, die Computerspiele heranziehen und Trainingsdaten synthetisch generieren.
Zurück zum Beispiel mit verschiedenen Textquellen, die Unternehmen beschreiben. Der Mensch würde folgendermaßen vorgehen: Textquelle 1 ist beispielsweise ein Kurzprofil der Daimler AG. Legt man ihm als Textquelle 2 ein anderes Profil der Daimler AG vor, wäre eine Ähnlichkeit ziemlich sicher. Bei einem Kurzprofil der ZF Friedrichshafen AG als Textquelle 2 wäre aufgrund von typischen Begriffen aus dem Automotive-Umfeld die Ähnlichkeit möglich. Beim Kurzprofil einer Bäckerei wäre die Ähnlichkeit mit der Daimler AG eher nicht gegeben.
Objektvierung des Ähnlichkeitsmaßes
Wie sicher kann aber eine KI erkennen, ob es sich bei verschiedenen Textquellen um die gleiche Firma handelt? Hierzu ist eine Objektivierung des Ähnlichkeitsmaßes nötig. Die Skala reicht von oben (hohe Ähnlichkeit) nach unten (niedrige Ähnlichkeit). Genau das muss das KI-System „lernen“. Dies erfordert, das System darauf zu trainieren, die Zusammenhänge zu erkennen, ob Texte von unterschiedlichen Quellen zu einer Firma gehören oder nicht. Hierzu erhält das System als Positivbeispiel Texte zur gleichen Firma und als Negativbeispiel Texte zu zwei verschiedenen Firmen. Nun soll das System versuchen, möglichst gut zu erkenn, ob die Texte zur gleichen Firma gehören. Hier geht es um „gelernte Ähnlichkeiten“. Das, was die KI gelernt hat, soll sie anhand von Merkmalen in der Ausprägung vergleichen. Merkmale wie Firmengröße, Mitarbeiteranzahl, Umsatz, Herstellung, Vertrieb etc. werden in einer bestimmten Anzahl von vorgegebenen Dimensionen eingeordnet. Der Output ist die Ausprägung von Merkmalen, was als Vektor bezeichnet wird.
Fazit
Beim Thema KI bleibt die Notwendigkeit menschlicher Einflussnahme auf KI-Lernprozesse oft außer Acht. Tatsächlich ist sehr viel manueller Aufwand und Engineering für das Training nötig. Bei KI-Software handelt es sich zudem um Einzellösungen für sehr spezifische Teilprobleme – und die KI lernt nicht automatisch. Eine Basistechnologie wie Company2Vec von Echobot bietet eine Lösung für schwierige Aufgaben in Sales und Marketing. Die gelernte Ähnlichkeitsbeziehung ist sehr intuitiv und entspricht damit der menschlichen Einschätzung.
Eine Definition des Fraunhofer-Instituts für Kognitive Systeme IKS gibt dies sehr gut wieder: „Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik. Sie imitiert menschliche kognitive Fähigkeiten, indem sie Informationen aus Eingabedaten erkennt und sortiert. Diese Intelligenz kann auf programmierten Abläufen basieren oder durch maschinelles Lernen erzeugt werden.“
KI ist also nicht wirklich intelligent, kann aber menschliches Verhalten für bestimmte Teilprobleme imitieren. KI kann Aufgaben gut lösen, die der Mensch sonst mit seiner Intelligenz lösen müsste. Mit dieser Vorstellung im Hinterkopf, lässt sich der Begriff der „künstlichen Intelligenz“ durchaus verwenden.
Zu Micheal Larche

Michael Larche
Kommentare (0)
Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!
Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.
Anmelden