zurück
Markt & Innovationen

Künstliche Intelligenz (KI) – Keine Erfindung des 21. Jahrhunderts

,Lesezeit ca. 5:30 Minuten

Die ersten Machine Learning (ML) Algorithmen auf Basis neuronaler Netze hat man bereits Mitte der 50er-Jahre entwickelt, damals mit nur einem Neuron, dem Perzeptron. In den 70er- und 80er-Jahren traten künstliche neuronale Netze mehr und mehr in den Hintergrund, da man komplexe Netzwerktopologien mit Hilfe von Maschinen nicht berechnen konnte.

Historie von ML und KI

Angesagt waren symbolische Expertensysteme, deren Wissensbasis komplett manuell auf logischen Regeln aufbauten. Man stieß hier schnell an die Grenzen des Machbaren und musste feststellen, dass Logik allein nicht die Basis für Künstliche Intelligenz (KI) sein konnte.

 

Mitte der 90er-Jahre bediente man sich stochastischer Methoden und hat Algorithmen wie Support Vector Machine oder Random Forest Classification entwickelt und erzielte dabei sehr gute Ergebnisse. Selbst in der heutigen Zeit sind diese Kernel-Methoden gefragt und finden ihren Einsatz beispielsweise in der Textklassifizierung. Für künstliche neuronale Netze herrschte immer noch ein langer Winter, denn selbst Ende der 90er-Jahre war kein Computer in der Lage, komplexe Netzwerkarchitekturen zu berechnen.

 

Ein weiterer großer Meilenstein für die Entwicklung der KI – noch auf Basis herkömmlicher Computertechnik – war der Sieg des ersten Schachcomputers "Deep Blue" von IBM über den damals amtierenden Schachweltmeister Garri Kasparow im Jahr 1996. Die erste Maschine, die selbständig lernen kann, wurde entwickelt und der Wettbewerb zwischen Mensch und Maschine begann. Im Laufe der Zeit stieg die Prozessorgeschwindigkeit und die Rechenleistung, immer mehr Anwendungen mit KI wurden geboren. So konnte im Jahr 2011 der Supercomputer "Watson" von IBM menschliche Teilnehmer im Rate-Quiz "Jeopardy" besiegen. Die große Leistung dabei war, die menschliche Sprache zu verstehen und dabei die richtigen Antworten zu liefern.

 

Wegweisend für die Entwicklung künstlicher neuronaler Netze war der Sieg im asiatischen Brettspiel "Go" im Jahr 2016 durch ein KI-Programm von DeepMind über den weltbesten Spieler Lee Sedol. "Go" gilt nach wie vor als das komplexeste Brettspiel der Welt. Die nächste Version der KI, "AlphaGO Zero", schlug sogar seinen Vorgänger im Wettbewerb "Maschine gegen Maschine".

 

Es gibt noch viele weitere bahnbrechende Ereignisse in der Entwicklung der KI zu berichten aus den verschiedensten Bereichen – wie beispielsweise die Tumorerkennung in der Medizintechnik, das autonome Fahren im Automobilbereich oder die KI-Sprachsteuerung Google Duplex, welche sogar eigenständig einen Tisch im Restaurant reservieren kann. KI ist auf keinen bestimmten Bereich fokussiert, es kann flächendeckend unsere Zukunft revolutionieren.

Machine Learning und neuronale Netze

Neuronale Netze haben ihre Bezeichnung und ihren Aufbau aus der Gehirnforschung, der Neurologie, erhalten. Um das Gehirn und dessen Funktionalität besser verstehen zu können, hat man sich neuronaler Netze bedient und versucht, diese nachzustellen. Dabei stellte man fest, dass die Informationsverarbeitung in unserem menschlichen Gehirn noch viel komplexer und nicht über einzelne Neuronen-Schichten abbildbar ist.

 

Es gibt unterschiedliche Topologien von neuronalen Netzwerken, jede Architektur dient einem anderen Zweck. So werden Convolutional Neural Networks (CNN) für die Bildverarbeitung eingesetzt, Recurrent Neural Networks (RNN) für Übersetzungen und Chat-Bots. Der Grundbaustein jedes neuronalen Netzes ist das Neuron. In den verschiedenen Netzwerkarchitekturen sind die Neuronen unterschiedlich angeordnet. So sind beispielsweise im CNN die Neuronen in Schichten (sogenannte Layers) untereinander angeordnet und die Neuronen einer Schicht mit den Neuronen der nächsten Schicht verkettet. Tiefe neuronale Netze können mehrere hundert Schichten besitzen – man spricht dann auch von Deep Learning Modellen. Signale (numerische Werte) werden über die einzelnen Neuronen und Schichten an die nächsten Schichten weitergegeben und über ihre Gewichtungen und Algorithmen verändert. Ein neuronales Netzwerk lernt über diese Gewichtungen. Diese werden aufgrund der vorliegenden Beispieldaten während der Trainingsphase in einem iterativen Prozess, abhängig vom berechneten Fehler, optimiert.

 

Über Frameworks können die Topologien eines neuronalen Netzes nahezu beliebig frei spezifiziert werden. Open-Source-Tools wie "Tensorflow" von Google oder "Pytorch" von Facebook ermöglichen dem Anwender Netzwerkarchitekturen in beliebiger Komplexität zu modellieren. Die Machine Learning Bibliotheken der Tools können in Python- oder R-Programmen aufgerufen werden.

 

Es gibt unterschiedliche Machine Learning Lernvarianten, jede Form des Lernens deckt ein anderes Aufgabengebiet ab. Dabei wird zwischen Supervised, Unsupervised und Reinforcement ML unterschieden.

 

Beim Supervised Machine Learning (SL) wird ein neuronales Netzwerk beziehungsweise Model mit Beispielen (Datasets) mit dem Ziel antrainiert, sich zukünftig so zu verhalten (zu entscheiden), wie es die Lerndaten gezeigt haben. Hier spricht man auch von überwachtem Lernen. Bekannt dafür sind klassifizierende Modelle wie beispielsweise die Image- oder Text-Classification, welche in der Regel mit CNNs umgesetzt werden.

 

Das Unsupervised Machine Learning (UL) findet seine Anwendung im Clustering von Daten beziehungsweise zur Mustererkennung bei Massendaten. Ziel ist es, Daten ohne bestimmte Attribute mit Daten ähnlicher Kriterien zu gruppieren.

 

Das Reinforcement Machine Learning (RL), auch als bestärkendes Lernen bezeichnet, ist eine am natürlichen Lernverhalten des Menschen orientierte Methode. Diese Modelle können in bestimmten Umgebungen eigenständig Aktions-Reaktions-Ereignisse erlernen und dynamisch auf veränderte Umgebungsumstände reagieren. Diese Form des maschinellen Lernens ist der Grundbaustein der Programme "AlphaGo" und "AlphaGo Zero" von DeepMind.

Klassifizierung von Dokumenten

Im Dokumentenmanagement gibt es trotz Digitalisierung und optimierter Arbeitsvorratszuteilung immer noch viele manuell geprägte Prozesse. So müssen Dokumente im Arbeitsvorrat erst gesichtet, vorbereitet und weiter in den Workflow-Prozess geschickt werden. Eine optimale Lösung für dieses Problem ist ein Automatismus, welcher die Sichtung und Vorbereitung der Dokumente für die weitere Verarbeitung vornimmt und die nachgelagerten Workflow-Prozesse automatisch anstößt.

 

Im ersten Schritt müssen mehrere tausend Dokumente in ein passendes Format konvertiert und in einzelne Klassen (sogenannte Labels) eingeteilt werden. Diese Formate können entweder Bilder oder die Textinhalte der Dokumente sein. Diese orchestrierten Beispieldaten dienen als Trainingsdatensatz zum Anlernen des neuronalen Netzes (Model). Über ein Programm und unter Einbindung der Tensorflow-Bibliotheken wird das neue Model trainiert. Das Model wird in der Regel mehrfach mit dem gleichen Datensatz trainiert, jedoch mit veränderten Hyperparametern, um den höchsten Score zu ermitteln.

 

Aufgabe ist es, aus den zur Verfügung gestellten Lerndaten Zusammenhänge zwischen den Beispielen und den Labels zu finden, um daraus ein Model zu abstrahieren, welches auch nicht gesehene Daten korrekt klassifizieren kann. Ziel ist es, Dokumente mit einer hohen Wahrscheinlichkeit (beispielsweise über 95 %) zu klassifizieren.

 

Wurde das Netzwerk mit einer guten Gewichtung und einer akzeptablen Genauigkeit getestet, wird es samt der Python Laufzeitumgebung in die SAP Leonardo Machine Learning Foundation der SAP Cloud Platform gepusht und deployed. Das Model ist nun ready to use und kann über ein Application Programming Interface (API) als REST Service vom SAP-System heraus aufgerufen werden. Durch die Klassifikation eines Dokumentes lassen sich automatisierte Folgeaktionen im Dokumentenmanagement-Prozess ableiten.

 

Ein alternatives Anwendungsszenario zur SAP Cloud Platform ist das Betreiben des ML-Models in der eigenen Infrastruktur, anstatt über einen Cloud Service. Dazu wird das ML-Model in einen Container gepackt und als ML-API in der Infrastruktur des eigenen Unternehmens zur Verfügung gestellt.

 

Machine Learning ist dabei nicht als Allheilmittel für alle Probleme zu sehen, es sollte aber immer dann in Erwägung gezogen werden, wenn eine Aufgabe nicht über konkrete Regeln abbildbar ist.

Fazit

So gesehen ist KI kein alter Wein in neuen Schläuchen, obwohl die algorithmischen Grundlagen bereits im letzten Jahrhundert gelegt wurden. Es brauchte einfach seine Zeit, bis alle notwendigen Komponenten die nötige Reife besaßen, um ein erfolgreiches KI-System bauen zu können. KI wird sich immer mehr bewusst, oder unbewusst, in unseren privaten sowie beruflichen Alltag einschleichen. Es wird zukünftig immer einfacher werden, intelligente Geschäftsprozesse zu gestalten, da KI eine hohe Durchdringungsrate über alle Schichten erreichen wird. Daher sollte KI nicht nur zur Optimierung der eigenen Prozesse dienen, sondern viel mehr neue Formen der Umsatzgenerierung und neue Wertschöpfungsketten eröffnen.

Martin Tempel

Als Business Development and Innovation Manager bin ich mit meinem Team immer auf der Suche nach neuen, innovativen Lösungen für altbekannte Probleme im Geschäftsalltag. "Hindernisse und Schwierigkeiten sind Stufen an denen wir in die Höhe steigen" – nach diesem Zitat von Friedrich Nietzsche entwickeln wir daher stetig neue Produkte und Lösungen, um die individuellen Hürden unserer Kunden gemeinsam mit ihnen zu überwinden und den Geschäftsalltag Stück für Stück zu optimieren.

Seite weiterempfehlen