Es gibt Schlüsselmomente, bei denen man merkt, wie schnell die Zeit vergeht. Einen solchen hatte ich kürzlich, als ich für unser Unternehmen eine Liste an Projekten aus dem Bereich Künstliche Intelligenz (KI) zusammengestellt habe. Tatsächlich ist mir dabei erst bewusst geworden, dass wir jetzt schon seit 10 Jahren auf diesem Feld aktiv sind. Zugegeben, wir haben das damals noch nicht als KI bezeichnet, sondern eher von Data Mining gesprochen. Und auch heute ist die Abgrenzung der Begriffe Data Mining, Predictive Analytics, Machine Learning und KI/AI nicht ganz klar. Umso interessanter dürfte es sein, mal einen genaueren Blick auf die Entwicklung der vergangenen Jahre zu werfen. Was hat sich verändert? Was für Erfahrungen haben wir gesammelt? Und schließlich: Wo geht die Reise in Zukunft voraussichtlich hin?

Von Business Intelligence zu Künstlicher Intelligenz
Nicht nur begrifflich hat sich in den letzten zehn Jahren viel getan. Früher war es häufig so, dass sich Unternehmen zwar für Data Mining interessierten, sie aber zunächst einen Schritt nach dem anderen machen wollten – sprich: Sie wünschten sich erst einmal ein stabiles Business-Intelligence(BI)-System, bevor sie sich eventuell mit tiefergehenden Analysen befassten. Seit etwa vier Jahren nimmt bei uns indes die Zahl der Projekte stetig zu, die gezielt auf maschinelles Lernen ausgerichtet sind. Ein funktionierendes BI-System ist dabei noch immer ein wichtiger Erfolgsfaktor – allein schon, weil es für ein auf Daten basierendes Grundverständnis des Geschäfts sorgt. Jedoch reichen die hier aufbereiteten Daten oftmals nicht für moderne Fragestellungen und Zielsetzungen aus. Wer nun an fehlende Streaming-, Sensor- und unstrukturierte Daten denkt, liegt sicherlich nicht ganz falsch. Oftmals sind es aber auch banalere Ursachen, wie ein Mangel an Datenqualität, Historisierung oder Vollständigkeit.
Und natürlich sind auch die Technologien und Architekturen moderner Datenlösungen großen Veränderungen unterworfen. Unsere ersten Projekte haben wir noch mit den relativ einfachen Werkzeugen des Microsoft SQL Servers ab Version 2005 realisiert. Demgegenüber haben sich heutzutage offene Sprachen wie R oder Python durchgesetzt. Diese stehen nicht mehr nur auf lokalen Rechnern zur Verfügung, sondern haben Einzug in Compute Cluster und Cloud Computing gehalten. Gleichzeitig macht der Data-Lake-Ansatz auch andere Datenquellen mit teils weniger strukturierten Daten zugänglich.
Machine Learning im Wandel
Zudem hat sich der Umgang mit Machine-Learning(ML)-Modellen gewandelt. Die Ansprüche an die Überwachung und Steuerung des kompletten Life-Cycles sind deutlich gewachsen. Ging es früher eher um Einsichten etwa in Form von Fehler-Ursache-Analysen, so stehen heute konkrete, produktiv nutzbare Anwendungsfälle im Vordergrund, bei denen KI als Baustein in einer Prozesskette funktionieren und zuverlässige Ergebnisse liefern muss. Dies schlägt sich wiederrum in den Werkzeugen nieder. Durch ML Pipelines – z.B. in ML Flow bei Databricks – lassen sich Modelle nicht nur optimieren, sondern zeitgesteuert einsetzen, überwachen und vor allem auch skalieren. Die Technik hinter Machine Learning und KI ist heutzutage also nicht nur leistungsstärker. Sie ist vielmehr erwachsen geworden.
In diese Richtung gehen auch fertige ML-Modelle, die sich leicht in eigenen Applikationen einsetzen lassen. Beispielsweise haben wir für einen Kunden automatisiert Schulungsvideos per Untertitel in andere Sprachen übersetzt. Die dafür notwendigen Modelle zur Umwandlung der Sprache in maschinenlesbaren Text mit genauen Zeitstempeln sowie zur Übersetzung in andere Sprachen und Einbettung der Untertitel kamen quasi „aus der Steckdose“. Sie wurden einfach als Service in der Microsoft Azure Cloud angeboten.
Natürlich sind nicht alle Anwendungsfälle – oder wie wir heute sagen: „Use Cases“ – so standardisiert und lassen sich mit fertigen Modellen lösen. Allerdings bestehen heutige KI-Lösungen zunehmend nicht nur aus einer einzelnen Komponente. Vielmehr entwickeln sie ihre Stärke aus der Kombination unterschiedlicher Bausteine. Und warum sollte man in diesem Kontext nicht auch etwas nutzen, was bereits fertig ist?
Von der monolithischen zur modularen Plattform
Der Einsatz von Cloud-Diensten und die große Vielfalt der Use Cases haben letztlich auch Auswirkungen auf den Aufbau einer passenden Datenplattform. Tatsächlich ist hier ein deutlicher Wandel von monolithischen hin zu modularen Lösungen zu verzeichnen. Die Gründe liegen auf der Hand: Beispielsweise stellt die Echtzeitverarbeitung von Transaktionen ganz andere Anforderungen, als eine nächtliche Berechnung von Churn Scores. Und oftmals wird von Big Data gesprochen, obwohl es sich um gut überschaubare Datenmengen handelt, die einfach und effizient verarbeitet werden können. Eine allgemeine Lösung für alle Fälle kann es nicht geben. Vielmehr sind unterschiedliche Bausteine an unterschiedlichen Stellen der Architektur gefragt. Oder anders gesagt: Der Schwerlasttransporter ist wahrscheinlich nicht die richtige Lösung, wenn meine Hauptanforderung darin besteht, den Wocheneinkauf beim Discounter zu erledigen. Einfache Lösungen für einfache Herausforderungen sind gefragt. Moderne Cloud-Angebote wie Microsoft Azure stellen dabei geeignete Komponenten für alle möglichen Anwendungsfälle zur Verfügung und ermöglichen somit die erforderliche Flexibilität. Die richtige Kombination dieser Bausteine führt schließlich zum Erfolg.
Unsere KI-Projekte
Werfen wir einen Blick auf einige Use Cases, die wir in den vergangenen Jahren umgesetzt haben: Wir erstellen Einbruchsprognosen oder analysieren Ermittlungsberichte in der Polizeiarbeit, um neue, bislang nicht entdeckte kriminalistische Trends zu identifizieren. In einem ganz anderen Umfeld erkennen wir Produkteigenschaften anhand von Fotos oder machen Vorhersagen über den Absatz von Waren sowie die Veränderung der Lagerbestände – letzteres mit dem Ziel, die Lieferfähigkeit zu erhöhen, ohne unnötige Vorräte vorzuhalten. Bei Industrieunternehmen optimieren wir Produktionsprozesse, indem Modelle die Einflussfaktoren auf die Endkontrolle verstehen und durch gezielte Eingriffe in die Steuerung die Produktqualität beeinflussen können. Nicht zuletzt – und wahrscheinlich wenig verwunderlich – begleitet uns das Thema Churn, also die Vermeidung von Kundenabwanderung, als Dauerbrenner durch die gesamte Zeit. Tatsächlich war unser erstes Machine-Learning-Projekt im Churn-Bereich bei einem Energieversorger.

Diese teils sehr unterschiedlichen Anwendungsfälle haben uns vor allem eines gelehrt: Die größte Stärke bei der KI-Entwicklung liegt darin, über den Tellerrand zu schauen. Beispielsweise lassen sich Lösungsansätze aus einem bestimmten Anwendungsfeld durchaus auf andere Anforderungen übertragen, wie etwa beim Einsatz von Modellen der Erdbebenforschung im Bereich von Wohnungseinbrüchen. Auf diese Weise ergänzen sich das fachliche Expertenwissen des Kunden und unsere Erfahrung mit Machine-Learning-Modellen ideal. Letztlich entstehen die beeindruckendsten Lösungen in einem von Experimentierfreude gekennzeichneten Umfeld. Daneben haben sich für uns in den vergangenen 10 Jahren diverse weitere konkrete Faktoren herauskristallisiert, die eine erfolgreichen KI-Use-Case ausmachen.
Erfolgsfaktoren für Use Cases
Tatsächlich ist es schwierig, allgemeingültige Erfolgsformeln für KI-Projekte zu formulieren. Eine wichtige Regel ist zweifelsohne, dass es nicht reicht, einfach eine geeignete KI-Plattform bereitzustellen und dann mal zu schauen, was passiert. Meist endet ein solches Vorgehen als kostspielige Sackgasse. Vielmehr sollte der Treiber für eine KI-Initiative der einzelne Use Case sein. Dabei zeigen erfolgreiche Use Cases oftmals folgende Gemeinsamkeiten:
-
Fokus auf individuelle Kundenerlebnisse, nicht auf interne Prozesse
-
Treiber sind die Fachabteilungen, nicht die IT
-
Idealerweise messbar, auch im späteren Betrieb
-
Einfache Use Cases („Low hanging fruits“) statt Utopien
-
Einfache Lösungen statt Komplexität
-
Multiplikationseffekte (z.B. Umsatz über viele Filialen) statt Einmaleffekte (z.B. Predictive Maintenance für einzelne Maschinen)
Natürlich entscheiden auch die vorhandenen Daten über den Erfolg von Use Cases. Gerade bei mittelständischen Unternehmen treffen wir teilweise auf das Problem, dass die Datenmengen für maschinelles Lernen zu gering sind. Eine erfolgreiche Strategie kann es hierbei sein, sich mit dem Wettbewerb zusammen zu tun und gemeinsam an Modellen zu arbeiten. Denn: Die eigentlichen Gegenspieler sind oftmals nicht die gewachsenen Wettbewerber, sondern Internet-Schwergewichte, die sich eine Branche nach der anderen vornehmen und dort existierende Geschäftsmodelle angreifen.
Das bedeutet noch lange nicht, dass jeder Use Case gleich zu einer großen Disruption führen muss, die den Markt komplett verändert. Unserer Erfahrung nach sorgen KI-Projekte für einen kontinuierlichen Lernprozess in Sachen Daten- und Methodenkompetenz, der mit der Zeit auch zu mutigeren Use Cases führt. Gleichzeitig dürfen die Akteure das große Ganze nicht aus den Augen verlieren. Die digitale Transformation eines Unternehmens ist mehr als die Umsetzung einzelner Use Cases. Leider mussten wir auch schon erleben, dass trotz beeindruckender Anfangserfolge kein Sog entstanden ist, der eine zielstrebige Entwicklung hin zur datengetriebenen Organisation nach sich zog. Ohne eine digitale Strategie, die von der Unternehmensführung gelebt und vertreten wird, erlischt das Feuer der ersten Erfolge schnell wieder.
Prognosen zur KI-Zukunft
Selbst für uns Data Scientists sind Prognosen zur künftigen Entwicklung der Künstlichen Intelligenz nicht einfach. Es zeichnet sich jedoch ab, dass KI und maschinelles Lernen immer wichtiger werden und in immer mehr Geschäftsprozesse und Produkte Einzug halten. Dies wird sich auf unser aller Leben auswirken. Es werden jene Unternehmen erfolgreich sein, die den Kunden in den Mittelpunkt stellen, anstatt ihre Energie in Wettbewerbskämpfe und interne Prozesse zu investieren. Und sicherlich werden Diskussionen über digitale Ethik und die Transparenz von maschinell getroffenen Entscheidungen zunehmen bzw. gesellschaftliche Akzeptanz beeinflussen. In technologischer Hinsicht ist indes zu erwarten, dass Cloud Computing immer wichtiger wird. Dabei geht es nicht mehr darum, Computer – wie inzwischen eigentlich schon üblich – in der Cloud zu hosten. Vielmehr werden Storage und Compute voneinander getrennt um die jeweils benötigte Compute Ressource auf die Daten anzuwenden. Das können Datentransformationen sein, genauso wie Machine-Learning-Modelle. Daraus resultiert eine hohe Flexibilität und es wird das richtige Werkzeug für den jeweiligen Zweck eingesetzt. Ebenso ist absehbar, dass KI sich zukünftig noch stärker weg von dem einzelnen Use Case und hin zu einem Bestandteil intelligenter Produkte entwickelt – ein Trend, den wir als Smart Products in unseren Projekten erleben:
So haben wir in den vergangenen 10 Jahren umfangreiche Kompetenzen in Künstlicher Intelligenz aufgebaut. Und wir freuen uns darauf, unsere Kunden weiter auf diesem spannenden Weg zu begleiten. Denn wenn das Momentum auch nur so anhält, wie es sich gerade darstellt, erwarten uns noch viele neue Ideen, Methoden und Möglichkeiten, über die ich an dieser Stelle gerne wieder berichten werde.
Kommentare (0)