Künstliche Intelligenz (KI) ist in aller Munde. Autonomes Fahren und Spracherkennung (mobil oder durch entsprechende Empfangsgeräte zu Hause) sind praktisch jedem ein Begriff. Inzwischen macht sich der Eindruck breit, dass künstliche Intelligenz nahezu überall drin steckt und vielerorts betrieben wird. Und noch immer jagt sie vielen Menschen eine gewisse Angst ein. Wir möchten zum Verständnis von künstlicher Intelligenz beitragen – denn wir erstellen täglich Prognosen mit Hilfe von künstlicher Intelligenz und wissen, was sie kann (und was nicht).
Im einen oder anderen Zusammenhang überrascht es sogar uns, dass der Begriff “künstliche Intelligenz” überhaupt zum Einsatz kommt. Das ist vermutlich darauf zurückzuführen, dass das Buzzword inzwischen viel Interpretationsspielraum lässt und teils Disziplinen umfasst, die vor wenigen Jahren noch “Statistik”, “Datenanalyse” oder “Big Data” hießen. Wir von prognostica bewegen zwar keine Roboter und interpretieren keine Sprache mit unseren Rechnern. Doch künstliche Intelligenz ist mehr als das. Für unsere Prognosen verwenden wir künstliche Intelligenz. Sie hilft uns, treffsichere und objektive Predictive-Analytics-Lösungen zu erstellen.
Lassen Sie uns zunächst die nicht ganz einfach zu beantwortende Frage angehen, was künstliche Intelligenz eigentlich ist. Gut gefällt uns die simple Definition, unter künstlicher Intelligenz alle Eigenschaften eines IT-Systems zusammenzufassen, die menschenähnliche intelligente Verhaltensweisen zeigen. In dieser Quelle werden weitere Unterscheidungen, etwa in starke und schwache künstliche Intelligenz, vorgenommen. Aber belassen wir es für diesen Artikel bei der Definition, die sich praktischerweise zudem ganz gut mit der wortwörtlichen Bedeutung des Begriffs deckt.
Der für uns bei prognostica relevanteste Teilbereich der künstlichen Intelligenz ist das Machine Learning (ML). Unter Machine Learning versteht man im Wesentlichen alle Verfahren, die es Maschinen ermöglichen, basierend auf Daten zu lernen und auf diese Weise Wissen zu generieren und daraus ggf. Schlüsse zu ziehen. Spezieller lernen Algorithmen auf Grundlage von Daten, indem sie mit der Kenntnis jedes neuen Datenpunkts sich selbst optimieren und anpassen. Dieser Lernaspekt, der der künstlichen Intelligenz im Allgemeinen sehr wichtig ist, tritt im Machine Learning deutlich hervor und ist im Bereich Data Science sehr wertvoll.
In unserem Fall liegt der Fokus auf der Prognose von zukünftigen Werten diverser Phänomene, die wir oft in Form von Zeitreihen abbilden. Beispielsweise lernt die Maschine basierend auf regelmäßig erfassten historischen Werten von Umsatzzahlen eines Produkts die Regeln, Muster und Trends über einen Umsatzverlauf und leitet daraus Vorhersagen für die Zukunft ab. Sie kann damit potenziell Saisonalitäten erkennen oder auch kompliziertere Regeln der Art: “Falls der Umsatz an dem Produkt im vergangenen Monat unter 12 tEUR lag, in den beiden Monaten davor gar kein Umsatz gemacht wurde, der Rohstoffpreis stabil bleibt und der nächste Monat Dezember ist, dann wird im Dezember ein Umsatz i.H.v. ca. 30 tEUR erwartet.” Tatsächlich gilt auch für viele statistische Prognoseverfahren, dass sie aus Daten lernen, insbesondere dann, wenn man zulässt, dass diese etwa ihre Modellparameter mit dem Bekanntwerden neuer Datenpunkte neu schätzen dürfen und so sukzessive genauer werden und hinzulernen können. Bei der heutigen Verfügbarkeit von Rechenleistung und Speicherkapazität ist es selten ein Problem, das umzusetzen. So kommt wohl zustande, dass viele Unternehmen nach eigenen Angaben mit künstlicher Intelligenz arbeiten, wo sie doch in erster Linie statistische Verfahren, nicht “klassische” Machine-Learning-Verfahren auf Daten anwenden. Schlimm? Nein. Nur ist es sicher nicht verkehrt, sich über die Breite des Begriffs im Klaren zu sein. Wir, bei prognostica, haben beides im Portfolio.
Anders als bei den statistischen Verfahren lässt man den Machine-Learning-Verfahren meist mehr Freiheiten bei der Erzeugung von Regeln. Etwa muss man dem ML-Verfahren nicht mitteilen, dass es sich bei monatlichen Umsatzzahlen am besten nach einer Jahressaisonalität der Länge 12 umschauen soll. Stattdessen kann es das selbst lernen und zusätzlich potenziell sogar noch unscheinbare, versteckte Regelmäßigkeiten erkennen. Dafür braucht es aber auch meist mehr Daten und durchaus eine gewisse Kompetenz des Anwenders des ML-Verfahrens, der dem Verfahren durch geeigneten Input zumindest die Chance geben muss, dass es gewisse Erkenntnisse selbst ziehen kann. Das sind nur zwei Unterschiede zwischen den beiden Disziplinen, die beide ihre Vor- und Nachteile haben, und sich daher aus unserer prognoselastigen Sicht gegenseitig sehr gut ergänzen können.
Wir möchten es aber nicht unerwähnt lassen, dass es genauso gut gute praktische Gründe jenseits der Recheneffizienz gibt, warum man hier und da das Modell im Livebetrieb lieber starr lassen möchte, statt es lernen zu lassen. Kommunizierbarkeit ist ein solcher Grund, der deutlich leichter verfolgbar ist, wenn man z. B. weiß, mit welchen Gewichten welche Einflussfaktoren in die Prognose eingehen und welche überhaupt eine Rolle spielen, ohne dass sich das ständig ändert. Zudem können Prognosen unterschiedlicher Qualität sein. Eine gute künstliche Intelligenz, die für die Erzeugung einer Prognose zum Einsatz kommt, kann auch mitteilen, ob die von ihr generierte Prognose zuverlässig ist, oder eher nicht. Hier gibt es bestimmte Kritieren, an denen sich der Erfolg des Einsatzes einer künstlichen Intelligenz zur Prognoseerstellung messen lassen muss.
Im Allgemeinen ist es uns wichtig, dass unsere Ergebnisse möglichst nachvollziehbar und die verwendeten (Prognose-)Methoden transparent sind. Das ist nicht immer vollständig umsetzbar, etwa bei vielen Neuronalen Netzen bzw. Deep-Learning-Mechanismen, die oft eine riesige Anzahl an Parametern erzeugen, indem sie für verschiedene Inputfaktoren und -daten Verknüpfungen erzeugen, die oft nicht mehr interpretierbar sind. Was wir im Fall der Prognose – natürlich nicht unser einziger, aber doch primärer Anwendungsfall – jedoch ziemlich sicher wissen, ist, welche Daten wir dem Verfahren zum Training mitgegeben haben. Mehr, als aus diesen Daten, kann das Verfahren nicht machen. Zwar kann z. B. das Programm AlphaGo Zero, welches das uralte Brettspiel Go spätestens seit 2017 auf Weltklasseniveau spielt, sogar gegen sich selbst spielen und auf diese Weise neue Daten erzeugen, die dann schließlich in das weitere Training eingehen können. Im Falle der Prognose von Zeitreihendaten im Business-Umfeld geht das aber in der Regel nicht.
Und damit sind bei der Zeitreihenprognose auch die Grenzen der künstlichen Intelligenz leicht zu formulieren. Das “Schlimmste”, das in unserem Fall passieren kann, ist, dass die von der künstlichen Intelligenz generierten Prognosen exakt mit der Wirklichkeit übereinstimmen. Gruseliger wird’s im Bereich Predictive Analytics nicht, versprochen.
In unserer Prognose-Software future steckt sowohl Statistik als auch Machine Learning drin. Wie diese intelligent zusammenarbeiten, kann man jetzt selbst testen:
Nachweis:
Bitkom “Künstliche Intelligenz: Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung”, unter https://www.bitkom.org/sites/default/files/file/import/171012-KI-Gipfelpapier-online.pdf (abgerufen am 03.02.2020)
Frankfurter Allgemeine Zeitung “Computer bringt sich selbst Go bei - und wird Weltklasse”, unter https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/computer-bringt-sich-selbst-go-bei-und-wird-weltklasse-15253783.html (abgerufen am 03.02.2020)
Ihr Partner für Predictive Analytics und Data Science.
Weitere Angaben, u. a. zum Datenschutz, finden Sie in unserem Impressum und unserer Datenschutzerklärung.
© 2024 prognostica GmbH