Blogeinträge
share
31.03.2022

Portfoliooptimierung mit Augmented Intelligence

Bei der letzten progMEET, welche von dem Thema “Zukunft & KI” handelte, hat uns Prof. Dr. Rainer Göb vom Lehrstuhl für Angewandte Stochastik der Universität Würzburg in die Portfoliooptimierung mit vielen Dimensionen eingeführt. Im Gespräch mit uns hat er erklärt, wie weit die Umsetzung der universitären Lösung in die Praxis schon ist, was es mit Augmented Intelligence auf sich hat und wie die Portfoliooptimierung nicht nur für KMUs, sondern auch für individuelle Nutzer:innen einen entscheidenden Vorteil mit sich bringt.

Vielen Dank, Herr Prof. Göb, dass Sie uns heute zur Portfoliooptimierung und allem, was damit zusammenhängt, Rede und Antwort stehen. Zum Einstieg: Wie definieren Sie Künstliche Intelligenz (KI) und wie kommen Sie damit in Verbindung?

Für mich ist KI ein Algorithmus, der Entscheidungen übernimmt, die sonst Experten treffen würden. Die KI übernimmt also die Aufgabe der Experten. In meiner Arbeit ist aber eher Augmented Intelligence relevant. Das ist etwas anderes als Artificial Intelligence. Bei Augmented Intelligence geht es darum, alle Werkzeuge, die Menschen verwenden können, um Entscheidungen zu treffen, zu analysieren und zu optimieren. Ganz wichtig dabei: Der Algorithmus nimmt dem Menschen die Entscheidung nicht ab. Es ist also wie bei einem Auto mit Assistenzsystemen: Man bekommt Tipps, entscheidet aber selbst, ob man sie nutzt und wo man langfährt.

Wie kommen Sie im Arbeitsalltag mit Augmented Intelligence in Berührung?

Die klassische Statistik gehört genau in diesen Bereich. Auch in der Statistik werden systematisch Stichproben entnommen, um z. B. die Qualität von Produkten zu überprüfen. Damit ist man schon bei Augmented Intelligence angekommen: Man hat Informationen vorliegen, auf deren Basis man Entscheidungen treffen kann. Somit ist Augmented Intelligence sehr ähnlich zur klassischen Stichprobentheorie. Das, was ich dann bei meiner Arbeit mache, ist die Weiterführung dieses Paradigmas.

Ist Augmented Intelligence also nur eine weiterführende Anwendung, die sich automatisiert hat?

So ist es. Die klassische Statistik ist die Disziplin, aus der die datenanalytische Perspektive erwachsen ist. Die Statistik ist der Ursprung der Idee, die Welt zu modellieren und auf der Basis von Daten zu analysieren.

Sie beschäftigen sich mit der Portfoliooptimierung im Finanzbereich. Was ist der Nutzen der von Ihnen entwickelten Methodik?

Das Thema Investition ist vielen Menschen sehr wichtig, z. B. wegen der Altersvorsorge. Es zieht immer mehr Menschen an die Börse. Geplante Investitionsgeschäfte liegen aber immer noch in der Hand von großen Investoren mit Fonds und ETFs. Mit einer Augmented-Intelligence-Anwendung kann auf Basis von Algorithmen der gesamte Wertpapiermarkt gescreent werden, und Anwender können sich anhand der so gesammelten Informationen eine geeignete Investition aussuchen. Die von uns an der Uni entwickelte Methodik ist dabei die Graswurzelmethode, um mit Hilfe von Algorithmen aus dem gesamten Finanzmarkt die geeignetste Investition herauszusuchen.

Ist diese Software auch für Endverbraucher:innen anwendbar?

Ja, das ist auf jeden Fall das Ziel, das ich verfolge. Es gibt schon Anbieter, die auf Basis kleinerer Universen von Wertpapieren Portfolio-Pläne anbieten. Diese sind kostenpflichtig erhältlich und analysieren eine begrenzte Auswahl von Papieren. Der Anbieter ist dabei keine Fondsgesellschaft oder Bank, sondern hat nur beratende Funktion. Unsere Innovation: Von einem kleinen Universum in ein großes Universum mit mehr Auswertungen expandieren. Am Ende könnte mit den Algorithmen der weltweite Finanzmarkt ausgewertet werden. Dafür muss die Rechenkapazität natürlich entsprechend hoch sein. Anhand der Analysen kann man dann eine kompetente Entscheidung treffen, was als Anlagemodell geeignet ist. Gerade in einem so dynamischen Geschäftsfeld kann es von großem Vorteil sein, sich selbst ein Bild von der Lage machen zu können.

Verschiedene Anleger:innen haben verschiedene Präferenzen: Inwiefern ist die Software individualisierbar?

Da gibt es einige Stellschrauben. Im Universum kann man einige Vorauswahlen treffen, sich z. B. auf nachhaltige Investitionen fokussieren, wenn dies dem Nutzer am Herzen liegt. Auch können Renditeerwartungen und Risikoaversionen angegeben werden und diese Vorlieben so zur Kalibrierung des Algorithmus genutzt werden. So können konservative und liberale Anlagewünsche berücksichtigt werden oder die Investitionen ausgesucht werden, die eine hohe Rendite erwarten lassen.

Was muss noch getan werden, um die Methodik in die Praxis zu bringen?

Wir müssen das Schema noch verfeinern, um verschiedene Investorenerwartungen abzubilden. Zudem müssen wir das Ganze rechnerisch auf eine solide Basis stellen. Bisher haben wir nur Studien vorgenommen. Man müsste das System mal live aufsetzen, Daten einlesen und dann auch live auswerten. Bisher haben wir die Analysen nur retrospektiv durchgeführt, um die Güte der Methodik zu schätzen.

Wo liegen dabei die Herausforderungen?

Man muss sich überlegen, wie man dynamische und ungute Entwicklungen absichern kann. Da kommt das Stichwort “Monitoring” ins Spiel. Bisher ist es so, dass ein Portfolio z. B. alle zwanzig Tage automatisiert neu gerechnet wird. Das kann je nach Anwendungsfall ein ungünstiges Zeitfenster sein. Wenn man hingegen gezielt überwacht, könnte man eine gezielte Portfolio-Erneuerung anstoßen und dann akut aktualisieren, wenn sich etwas entwickelt hat. Das wäre ein wesentlicher Schritt, erfordert aber auch – und das ist der wichtigste Aspekt – die Automatisierung der Investitionstätigkeit. Dafür müssen wir raus aus der reinen Datenanalyse und uns mit Firmen zusammensetzen, die im Finanzsektor aktiv sind.

Welche Anwendungsmöglichkeiten der Portfoliooptimierung gibt es für KMUs?

Große Unternehmen haben das Investitionsproblem prinzipiell unabhängig von Wertpapiermärkten, da sie in sehr vielen Sektoren aktiv sind und somit in viele Produktgruppen investieren. Bei kleinen Unternehmen gibt es diese Multidisziplinarität eher seltener, gerade hier kann also freier entschieden werden. Man kann also klein anfangen und dann auf Basis der Ergebnisse von Augmented Intelligence immer noch frei entscheiden. Das ist dann ein Schritt über Predictive Analytics hinaus in Richtung Prescriptive Analytics. So stellt man ein Wert-, ein Produkt- und schließlich ein Entwicklungsportfolio auf, das beinhaltet, wohin die Reise gehen soll.

Stichwort Entwicklungsportfolio: Gibt es weitere Anwendungsmöglichkeiten neben dem Finanzsektor?

Die grundsätzliche Methode beruht ja darauf, Abhängigkeiten zwischen Werten – das können viele oder wenige sein – auf sehr flexible Art und Weise zu modellieren oder anzupacken, zu analysieren und auszuwerten. Gerade bei Fabrikationsprozessen werden viele Daten simultan erfasst und sie hängen simultan zusammen. Auf Basis dieser Daten muss dann entschieden werden, ob der Prozess so in Ordnung ist oder ob an einer Stelle nachgearbeitet werden muss. Hier können Copulas angewendet werden werden. Somit ist Augmented Intelligence auch für Prozesstechnologien anwendbar: Das impliziert Monitoring und Predictive Maintenance. Die Fragestellungen in der Finanzbranche unterscheiden sich davon gar nicht so stark, die Probleme sind die gleichen. Was bei Prozesstechnologien noch zusätzlich berücksichtigt werden muss, ist, dass die Nutzung von Sensoren auch noch Probleme mit sich bringen kann, da diese mitunter unsauber arbeiten oder ausfallen. Da es das am Finanzmarkt so nicht gibt, müsste der Algorithmus noch etwas angepasst werden, kann aber grundsätzlich auch hier verwendet werden.

Was sind aus der universitären Perspektive Erfolgsfaktoren für die Kombination von Forschung und Praxis?

Meines Erachtens nach ist es wesentlich, aus der praktischen Perspektive zu denken. Ich stelle mir die Frage: “Was brauchen die Menschen in der Praxis? Was sollte ich also erforschen?” Das ist meiner Erfahrung nach besser als sich im Elfenbeinturm schlaue Dinge zu überlegen, die dann irgendwie in die Praxis gebracht werden müssen. Dabei heißt es natürlich flexibel und offen für Neues sein: Man kann nicht ewig an dem Forschungsprojekt hängen bleiben, mit dem man mal angefangen hat. Es ist also sehr wichtig, die Stimme der Kunden, so kann man die Praktiker auch nennen, zu hören und zu berücksichtigen. Die Forschung in die Praxis umsetzen ist dann letztlich “learning by doing”, da die Praktiker häufig etwas ganz anderes erwarten als “akademischen Quatsch”. Man lernt also sehr viel von deren Perspektive und wie sie Statistik im Alltag nutzen.

Wie ist Ihre Einschätzung der zukünftigen Entwicklung von Augmented Intelligence?

Ich denke, dass sie nach und nach in den Unternehmensalltag einsickern wird und somit nicht nur für große Unternehmen interessant ist, die sie ja schon nutzen, sondern auch bei KMUs ankommt. Das kann für KMUs einen Wettbewerbsvorteil darstellen, wenn wir es schaffen, die Analysetools konfektioniert und konfektionalisierbar in die Masse zu bringen. Sie müssen finanzierbar sein und ohne eigenen Data Scientist im Unternehmen selbstständig laufen, bei Bedarf natürlich mit Beratung. Bisher konnten kleinere Unternehmen solche Monitoring-Aufgaben mangels Personal eher nicht leisten, das könnte sich nun ändern.

In Deutschland gibt es ja recht viele KMUs. Wie könnte sich dieser Wettbewerbsvorteil international bemerkbar machen?

Vor nunmehr sechs Jahren haben wir bereits eine Studie durchgeführt, die der Frage nachgegangen ist, woran es scheitert, dass KMus nicht gezielt solche Analysen betreiben. Das lag in erster Linie an einem Mangel an Fachkräften. Kein Personal, das entsprechende inhaltliche Kenntnis hatte und kein Personal, das sich mit der Implementierung der Algorithmen auseinandersetzen konnte. Im Verlauf der Jahre beobachte ich immer mehr Interesse bei Unternehmenslenkern, die hier nun ansetzen wollen. Mit geeigneten Augmented-Intelligence-Anwendungen braucht nicht mehr jedes KMU eigene Analysten, sondern kann konfektionierte Algorithmen nutzen, um gut informiert Entscheidungen zu treffen. Das erhöht auch unser Potenzial im internationalen Vergleich.

Vielen Dank, Herr Prof. Göb, für das Interview!

Zur Person:

Rainer Göb

Prof. Dr. Rainer Göb ist Professor für Statistik am Institut für Mathematik der Julius-Maximilians-Universität Würzburg. Sein Forschungsinteresse gilt der industriellen Anwendung der Statistik, insbesondere der statistischen Stichprobenziehung, der Prozessüberwachung, Predictive Analytics, der Risikoanalyse und der Standardisierung statistischer Methoden. Er ist Vorsitzender der Arbeitsgruppe “Acceptance Sampling” im Technischen Komitee 69 “Application of Statistical Methods” der Internationalen Organisation für Normung (ISO).


Haben Sie Fragen oder Anregungen zum heutigen Blogbeitrag? Dann hinterlassen Sie uns einfach einen Kommentar auf Twitter, Xing oder LinkedIn oder schreiben Sie uns eine E-Mail an business.development@prognostica.de.

Vorheriger Eintrag: Was ist ein guter Forecast?
Nächster Eintrag: Die Digitalisierung der Mathematik

Sie möchten mehr über künstliche Intelligenz und ihr Potenzial erfahren? Nutzen Sie die Vorteile und trauen Sie sich, in Ihr erstes KI-Projekt zu starten:

Jetzt kostenlos E-Book downloaden

Kontakt

prognostica GmbH
Prymstr. 3
D-97070 Würzburg
P: +49 931 497 386 0

Ihr Partner für Predictive Analytics und Data Science.

Weitere Angaben, u. a. zum Datenschutz, finden Sie in unserem Impressum und unserer Datenschutzerklärung.

Folgen Sie uns!

© 2022 prognostica GmbH

Kontakt