Sprache auswählen

Login
15.01.2024

Anhand einer Five1-Fallstudie behandeln die FIVE1 GMBH und unser Interim Executive DIETMAR SCHEJA den Einsatz von Machine Learning in Finanzen und Controlling 

Machine Learning (ML), ein Teilbereich der Künstlichen Intelligenz (KI), vermag die analytische Untermauerung von Entscheidungen massiv zu stärken, ja zu revolutionieren. Trotzdem stößt ML bei Controllern und Entscheidern auf Vorbehalte.

+++ In unserem gemeinsamen Beitrag gehen Five1 und ich auf Anwendungshürden ein, zeigen, wie sie überwunden werden können und illustrieren dies anhand einer Five1-Fallstude. +++ Wir wollen mit unserem Beitrag die Akzeptanz von ML stärken und helfen, die enormen Potentiale des Maschinellen Lernens für die Finanzielle Führung zu heben.

 

  1. Beispiele und Definition

Anwendungen von Machine Learning in Finanzen und Controlling sind häufig noch unvertraut. Wir beginnen daher mit einigen Beispiele von Modelltypen und möglichen Anwendungen.

  • Zeitreihenanalysen dienen der Vorhersage von betriebswirtschaftlichen Stromgrößen. Anwendung: Dieses Verfahren erkennt z.B. Muster im Auftragseingang der Vergangenheit anhand von Größen wie Umsatz, Cash Flow oder Besucherzahlen und prognostiziert zukünftige Auftragseingänge, indem es die erkannten Muster auf die Zukunft überträgt.
  • Entscheidungsbaumverfahren stellen eigenständig und datenbasiert Regelsysteme auf. Anwendungsfall: Erkennung drohender Zahlungsunfähigkeit. Extrem vereinfacht könnte ein Regelbaum für diese Anwendung z.B. lauten: Wenn (a1) ein Kunde im letzten Jahr 70% seiner Forderungen zu spät beglichen hat und (a2) die Überfälligkeitstage der letzten drei Monate um mehr als 15% gestiegen sind oder (b) die der letzten vier Wochen sich mehr als verdoppelt haben, dann ist ein Zahlungsausfall wahrscheinlich, und weitere Aufträge des Kunden können nur nach Management-Freigabe angenommen werden.
  • Cluster-Analysen finden datenbasiert selbständig homogene Gruppen. Anwendungsfall: Aus Merkmalen wie Wohnort, Alter, Familienstand und Ausbildungsabschluss werden Kundensegmente bestimmt, die mit besonders hoher Wahrscheinlichkeit Lastenfahrräder kaufen und daher gezielt werblich angesprochen werden sollen.
    Allgemein gesprochen, können IT-Anwendungen mit Hilfe des maschinellen Lernens auf der Basis von Trainingsdaten weitgehend selbständig Modelle oder Algorithmen zur Mustererkennung, zur Prognose oder zur Klassifikation aufstellen. Nach einer Validierung können solche Modelle dann operativ eingesetzt und mit Hilfe neuer Daten kontinuierlich verbessert werden. Z.B. könnte der oben erwähnte Entscheidungsbaum mit Daten von 2022 und 2023 aufgestellt, im 1. HJ 2024 im Parallelbetrieb zur menschlichen Entscheidung validiert und verfeinert und zum 2. HJ dann operativ eingesetzt werden. ML-Applikationen werden als ‚intelligent‘ bzw. ‚autonom‘ bezeichnet, weil sie die teils sehr komplexen Modelle wie gesagt weitgehend selbständig aufstellen und parametrisieren.
  1. Akzeptanzhürden

Woher rühren nun die eingangs erwähnten Vorbehalte gegenüber dem Einsatz von ML in der Praxis? Tatsächlich stehen auch modern aufgestellte Finanz-Abteilungen, die daran denken, ML zu nutzen, vor einigen Herausforderungen, auf die wir in diesem Abschnitt eingehen, bevor wir in Abschnitt 3 zeigen, wie sie überwunden werden können.

Große Datenmengen

Da ist zunächst die Datenmenge. ML-Methoden arbeiten mit großen Datenmengen – größeren Mengen jedenfalls, als sich auf altbewährte Art in Excel visuell und scrollend begutachten lassen. Diese Daten müssen verstanden, hinsichtlich ihrer Qualität beurteilt und oft aufbereitet werden. Methoden und Werkzeuge der Datenaufbereitung zu erlernen, erfordert für klassisch ausgebildete Finanzer eine gewisse Investition an Zeit – oder aber den Aufbau spezialisierter Ressourcen. Letzteres ist der tragfähigere, aber auch teurere Weg.

Dabei bedeutet ‚große Datenmengen‘ keineswegs, dass nur Großunternehmen über hinreichend dimensionierte Datenmengen verfügen. Auch für Mittelständler lohnt sich die Beschäftigung mit ML, denn es geht nicht um das ideale Modell. Es geht vielmehr darum, die Entscheidungsfindung besser zu unterstützten als bisher und als der – oft ebenfalls mittelständische - Wettbewerb.

Anspruchsvolle Handhabung

Dann sind auch einfachere ML-Modelle in der Handhabung immer noch anspruchsvoll. Bei den an sich intuitiv gut verständlichen Entscheidungsbäumen muss z.B. entschieden werden, ob und wie die maximale Anzahl der Ebenen im Baum festgelegt oder ob und wie der Baum beschnitten werden soll. Bei der Erstentwicklung solcher Modelle können externe Berater unterstützen, was wir auch für zielführend halten. Da ein zentrales Element von ML aber in der wiederholten Verbesserung der Modelle mit neuen Daten liegt, muss eine Organisation, die nicht dauerhaft auf Beratung angewiesen sein will, ein gewisses Maß an eigener Data Science-Expertise aufbauen, das die klassische Controller-Ausbildung nicht vermittelt.

Die Kluft zwischen Modellierer und Entscheider

Auch vergrößert ML die Kluft zwischen Modellierer und Entscheider, die sich schon bei traditionellen Modellen wie der dynamischen Investitionsrechnung auftut. Um die Trennschärfe von Entscheidungsbaum-Verfahren zu erhöhen, können die Modellierer z.B. mit Random Forest-Modellen ‚Baumgruppen‘ bilden. Solche Methoden mögen aus Modellierer-Sicht zum Standard-Repertoire des ML gehören, Entscheider wie auch klassisch ausgebildete Finanzer werden sie dennoch nicht leicht interpretieren können.

Controller und Entscheider brauchen daher ein experimentelles Mindset. Sie müssen sich auf Methoden einlassen, weil diese sich in den bisherigen Experimenten als gut erwiesen haben ohne, dass immer klar ist warum. Sie müssen ebenso akzeptieren, dass sich bei neuen Experimenten, d.h. mit neuen Daten, andere Modelle als besser erweisen können.

Anders als in der klassischen Statistik beansprucht z.B. das lineare Regressionsmodell, das mein Data Scientist zur Prognose der Kaufneigung verwendet, nicht, das wahre Modell zu sein, es ist nur das Beste bisher Gefundene. In der nächsten Iteration kann das Modell eine Variable mehr oder weniger haben. Warum? Weil sich mit neuen Daten, auf die wir uns jetzt zusätzlich stützen können, die neuen Parameter eben besser bewähren. Data Science ist also pragmatischer als die klassische Statistik – setzt sich damit aber unter Umständen dem Verdacht der Beliebigkeit aus.

Aber auch wenn es also durchaus Faktoren gibt, welche die Nutzung von ML in Unternehmen – gerade des Mittelstands – erschweren und verlangsamen, wer sich von diesen Bremsklötzen aufhalten lässt, vergibt Potenziale und verschenkt letztlich Geld.

Im folgenden Abschnitt präsentieren wir daher Ansätze, mit denen sich Akzeptanzhürden überwinden lassen und der Einsatz von ML vorangetrieben werden kann.

  1. Akzeptanzhürden überwinden – Einführung beschleunigen

Im Alltag verlassen wir uns bereits an vielen Stellen auf datengetriebene, intelligente Applikationen - ohne es wirklich zu bemerken. Navigations-Apps, soziale Netzwerke und Suchmaschinen sind allgegenwärtig. (Von einer anderen derartigen Applikation, die auf unbekannten Wegen zu ihren Ergebnissen kommt und dennoch unternehmerisches Handeln schon seit Menschengedenken unterstützt, ganz zu schweigen: dem Bauchgefühl.)

Wir denken, dass zwei Punkte für diese selbstverständliche Akzeptanz der Alltags-KI entscheidend sind: Erstens vereinfacht die Alltags-KI offensichtlich das Leben. Zweitens bewährt sie sich tagtäglich in zahlreichen Angelegenheiten mit geringem Einsatz. Wir würden uns z.B. kaum auf X verlassen, wenn wir eine allesentscheidende Nachricht unbedingt zuverlässig und zeitnah erfahren wollen, aber für sehr viele Low Stakes-Situationen – um z.B. vor einem Business Lunch Anregungen für aktuelle Gesprächsthemen zu erhalten – erweist sich die Leistungsfähigkeit dieser und ähnlicher Apps wieder und wieder als hoch genug.

Geeignete Pilotanwendung finden

Übertragen auf unsere Fragestellung daher als erstes der folgende Rat: Finde in Deinem Unternehmen eine häufig wiederkehrende Aufgabenstellung (oder Entscheidung), die derzeit durch menschliche Intervention (oder automatisch, aber unzureichend) gelöst wird, die in Summe wichtig ist, deren Einzelfälle aber so klein sind, dass eine einzelne Fehlentscheidung weder Dein Unternehmen noch Deine Karriere gefährdet.

Viele der off-the-shelf erhältlichen ML-Anwendungen zielen auf genau solche Konstellationen. Man kann hier z.B. an Verbuchungsentscheidungen für Eingangsrechnungen, die Kontenabstimmung, die Selektion von Kunden für Mahnstrategien oder an Freigabeentscheidungen für eingehende Kundenaufträge denken. Das ist noch eher im Accounting-Umfeld angesiedelt als im Controlling, aber genau so würden sich auch kurzfristige Footfall-Prognosen für einzelne Geschäfte oder die Vorhersage der Produktnachfrage im E-Shop für die Automatisierung mit ML anbieten. Und natürlich ist die Verankerung von ML im Unternehmen mit Hilfe solcher kleinen Aufgaben nur ein Etappenziel, das den Weg für mehr bereiten soll.

Externe Experten können das interne Team anfänglich unterstützen

Die oben angesprochene Aufgabendifferenzierung – Controller, Data Scientist/Modellierer – halten wir für erfolgskritisch. Sie sollte daher offensiv vorangetrieben werden. Klassische Controller stellen fest, dass es nicht mehr reicht, CSV-Dateien aus SAP nach Excel zu laden und in Pivot-Tabellen zu konvertieren. Die Weiterbildung der Controlling-Teams ist daher ein Teil der Antwort, stößt aber auf Grenzen: Während z.B. eine relative DB-Rechnung – einmal verstanden - auf alle Anwendungsfälle in gleicher Form angewandt werden kann, gibt es bei ML-Methoden eine massiv größere Vielgestaltigkeit, die auf die jeweiligen Anwendungsfälle genau und aufwändig zugeschnitten werden muss. Controller müssen sich durch Weiterbildung anschlussfähig halten, aber es führt kein Weg an der Herausbildung spezialisierter Data Engineering- und Data Science-Rollen herum.

Personal für derartige Aufgaben ist nicht leicht zu finden. Führungskräfte sollten daher Mitarbeiterinnen und Mitarbeitern, die sich für KI und ML interessieren, den Freiraum zu geben, den sie benötigen, um zu experimentieren und Expertise aufzubauen. Und falls ein Data Scientist am Bewerberinnenhimmel vorbeizieht, diesen einstellen, auch wenn die Stellenbeschreibung noch nicht zu 100% steht. Das kostet Geld, aber auch für den Mittelstand ist die Nutzbarmachung von Daten einer der besten Business Cases, die sich derzeit bieten.

Wichtig ist außerdem, anfänglich eng zu fokussieren. Mit wenigen Anwendungen zu starten und diese schnell operativ einzusetzen ist besser als sich gleich an einer Allround-ML-Fähigkeit zu versuchen. Und selbst bei diesem ressourcenschonenden Vorgehen wird die Organisation Zeit in das Verständnis der Methoden und deren Anwendungsbedingungen investieren müssen. Damit erste Use Cases schnell an den Start gebracht werden, sollten daher externe Experten hinzugezogen werden, um die ersten Modelle aufzubauen, dem Controlling Orientierung zu geben und das interne ML-Team zu coachen.

Den Weg für anspruchsvollere Aufgaben bereiten

Angenommen aber, grundlegende Fähigkeiten seien aufgebaut, die erste Pilot-Anwendung habe sich im Einsatz bewährt, und die Organisation wolle nun daran gehen, größere Einzelentscheidungen mit KI/ML zu unterstützen. Wie geht es dann weiter? Hier stellen wir einige Ansatzpunkte vor, die oben beschriebenen Hürden auch für anspruchsvollere Entscheidungslagen zu überwinden.

Eine in diesem Zusammenhang wichtige Entwicklungslinie ist die Explainable AI (XAI). XAI zielt darauf ab, die Funktionsweise von KI/ML-Methoden transparent zu machen und zu erklären, wie sie ihre Entscheidungen treffen. In der Betrugserkennung bei Kreditkartentransaktionen z.B. würde eine erklärende KI eine verdächtige Transaktion nicht einfach als verdächtig kennzeichnen, sondern gleichzeitig angeben, aufgrund welcher Merkmale – z.B. Transaktionshöhe im Vergleich zu üblichen Transaktionshöhen, auffällige Orte etc. – die Kennzeichnung erfolgte. Anwender wüssten dann zwar noch nicht genau, wie der Algorithmus zu seiner Entscheidung gelangte, könnten aber anhand ihres Kontextwissens und ihres eigenen Kriteriensystems die Merkmale, die die KI verwendet hat, stichprobenweise überprüfen.

Dieses Prinzip lässt sich durch geschickte Anwendung weiter stärken: Angenommen, es geht darum, aus den europäischen Großstädten die attraktivsten Standorte für die Eröffnung neuer Geschäfte auszuwählen. Ein Black Box-Algorithmus würde die Prioritätsmärkte nach Attraktivität ranken und die Liste der Top-Standorte als Ergebnis ausgeben. Eine u.E. bessere Vorgehensweise bestünde darin, einen aggregierten Attraktivitätsindex aus verschiedenen Teilindizes – Zielgruppengröße, Kaufkraft, relevante Wachstumsrate, Verkehrslage, politische Stabilität etc. – vorab zu definieren. Der Algorithmus ermittelt dann die Werte der Teilindizes und macht einen Vorschlag zu deren Gewichtung. Eine Gruppe menschlicher Experten löst die gleiche Aufgabe. Die Ergebnisdaten beider Stränge können dann gesammelt analysiert und gewürdigt werden. Damit wird die KI-Empfehlung ins Vorfeld der eigentlichen Entscheidung verlagert, inhaltlich ausdifferenziert und den Einschätzungen der menschlichen Experten gegenübergestellt (die - nebenbei bemerkt - keineswegs besser nachvollziehbar sein müssen – Stichwort Bauchgefühl).

Methodische Komplexität begrenzen bzw. reduzieren

Wichtig ist weiterhin die Komplexitätsreduktion. Viele ML-Ansätze verwenden Ensembles verschiedener Modelltypen, deren Ergebnisse aggregiert werden. Aus Analysten-Sicht ist diese Vorgehensweise sinnvoll – Ensembles erreichen oft bessere Gütemaße als Einzelmethoden – aber Entscheider werden wissen wollen, warum das gewählte Ensemble das Richtige ist – und mehr erwarten als den Hinweis, dass es eben bei der Validierung am besten abgeschnitten hat. Ein guter Marketeer würde auch nicht beim Testergebnis eines Werbespots stehen bleiben, sondern auch inhaltlich überzeugt werden wollen, dass der Spot der Richtige ist. Grundsätzlich ziehen wir leichter nachvollziehbare Methoden schwerer verständlichen vor, solange die resultierenden Leistungseinbußen vertretbar sind. Zur Komplexitätsreduktion gehört auch, die Autonomie der Applikationen bei der Modellparametrisierung einzugrenzen. So könnte z.B. zugelassen werden, dass aufgrund neuer Trainingsdaten neue Koeffizienten für die unabhängigen Variablen einer linearen Regression ermittelt werden, der unbesehene Wechsel von einer linearen zur einer nicht-linearen Regressionsfunktion aber ausgeschlossen werden.

  1. Fallstudie

Sehen wir uns nun eine Fallstudie an. Es handelt sich dabei um eine ML-gestützte Liquiditätsplanung, die Five1 gemeinsam mit dem IT-Fachbereich und der Treasury-Abteilung von MANN+HUMMEL, einem Konzern mit rund 4,8 Mrd. Euro Umsatz, mehr als 80 Standorten und mehr als 22 Tausend Mitarbeitern, aufgebaut hat. Es handelte sich um die erste ML-Anwendung für das Unternehmen.

Herausforderung: Eine langfristige Liquiditätsplanung ist für MANN+HUMMEL von hoher Bedeutung, um erfolgreiches wirtschaftliches Handeln zu ermöglichen. Insbesondere das internationale Umfeld, die Vernetzung der verschiedenen Tochtergesellschaften und das damit einhergehende Währungsrisiko stellen eine große Herausforderung dar. Aufgrund der Tatsache, dass die Liquiditätsplanung von MANN+HUMMEL bisher im vierten Quartal für das jeweilige Folgejahr erstellt und zum Jahresende freigegeben wurde, ergaben sich wesentliche Unsicherheiten in Bezug auf die Währungssicherungen, je weiter das Jahr voranschritt. Um etwaige Währungsrisiken langfristiger abzusichern, war es deshalb wichtig, eine qualitativ hochwertige Datenbasis für die Zeit über das Jahresende hinaus zur Verfügung zu stellen. Angesichts dessen wurde mit Five1 ein Projekt gestartet, um zu prüfen, wie die langjährige Datenhistorie verwendet werden kann, um Fremdwährungspositionen über das Jahresende hinaus vorherzusagen.

Umsetzung: Im Hinblick auf einen kontinuierlichen Forecast wurde ein auf den Kunden zugeschnittenes Machine Learning-Modell entwickelt, um automatisiert ML-gestützte Prognosen über den Cash Flow zu erhalten. Aufgrund der Komplexität realer Szenarien sind einfache Forecast-Algorithmen jedoch nicht in der Lage, die benötigten Vorhersagen zu liefern. Daher hat sich das Projekt-Team für die Generierung eines maßgeschneiderten Modells in der AWS-Cloud entschieden, welches Trends und Saisonalitäten berücksichtigt. Monatlich werden hier die aktuellen Cash Flow-Werte der Vergangenheit eingelesen, Ausreißer detektiert und entfernt und von dem Fachbereich entwickelte Regeln angewendet. Durch die Analyse von Sondereffekten, wie beispielsweise die Auswirkungen der Corona-Pandemie, und intensives Backtesting konnte das Modell die Daten der Vergangenheit besser verstehen und die daraus gewonnenen Erkenntnisse auf die Vorhersage der Zukunft übertragen. Auf dieser Grundlage und der bereinigten Cash Flow-Historie der vergangenen 10 Jahre kann nun der Cash Flow der kommenden 12 Monate rollierend vorhergesagt werden.

Projektergebnis: Das Modell wird durch eine Vielzahl von statistischen, aber auch Machine Learning-Methoden gestützt, die zusammengefasst als Metamodell eine hohe Vorhersagequalität für alle Cash Flow-Komponenten liefern. Der automatisierte Prozess zur Generierung der Vorhersagen findet in der AWS-Cloud statt, die für derartige Prozesse maximale Flexibilität und Freiheit bei der Modellentwicklung bietet. Die visuelle Darstellung der Vorhersagen in einem Dashboard in der SAP Analytics Cloud unterstützt MANN+HUMMEL zusätzlich dabei, wichtige Kennzahlen und Entwicklungen zeitnah und ohne manuellen Aufwand zu identifizieren und zu kommunizieren. Durch einen verlässlichen und automatisierten Forecast gewonnene Planungssicherheit und zusätzliche Kapazitäten der Mitarbeiter geben dem Kunden den Handlungsspielraum, um auf globaler Ebene souverän agieren und Innovationen vorantreiben zu können.

Bei der Entwicklung des Modells sollte berücksichtigt werden, dass die Entwicklung einer kontinuierlichen Optimierung unterliegt. Der Algorithmus muss regelmäßig auf seine Genauigkeit und Effektivität überprüft und verbessert werden, um sicherzustellen, dass er mit den sich ändernden Geschäftsbedingungen und Datenquellen Schritt halten kann. Hierfür wurde insbesondere der Fachbereich eng in die Entwicklung des Modells eingebunden, wodurch zugleich ein hohes Vertrauen in die Ergebnisse bei den Entscheidern sichergestellt werden konnte.

Bei MANN+HUMMEL gab es für die Durchführung zwei Hauptansprechpartner: Ein Fachexperte aus dem IT-Fachbereich, der in seinem Tagesgeschäft jedoch vorwiegend mit den SAP-Systemen betraut war, und ein Fachexperte aus dem Bereich Treasury. Zu Beginn des Projektes war ihr Verständnis für ML-Methoden eher begrenzt. Dies ist keine ungewöhnliche Situation, da sich viele Fachleute eher mit ihren spezifischen Aufgabenbereichen beschäftigen, und ML eher als “Black Box” betrachtet wird.

Die Schließung dieser "Vertrauenslücke" war von entscheidender Bedeutung, um das Projekt voranzutreiben. Hier sind einige Maßnahmen, die wir, d.h. Five1, ergriffen haben, um die Akzeptanz der Methoden zu erreichen:

1. Wöchentliche Updates zum Projektfortschritt: Bei diesen Updates sind wir nicht nur auf den allgemeinen Fortschritt des Projekts eingegangen, sondern haben auch spezifische Informationen über die Daten bereitgestellt. Es wurden Cash Flows aus der Vergangenheit sowie Vorhersagen aus verschiedenen Modellen betrachtet. Dies half unseren Ansprechpartnern, die Auswirkungen von ML auf die Prognosen besser zu verstehen.

2. Transparente Einführung neuer Features: Im Laufe des Projekts haben wir neue Features und Funktionen unseres Modells entwickelt. Dies haben wir stets wie eine Art "Get-To-Know-How" behandelt: Es wurde anhand konkreter Beispiele erklärt, warum Five1 bestimmte Methoden ausgewählt hat und wie sie funktionieren.

3. Individuelle Meetings und Kommunikation: Wenn Interesse an oder Unklarheiten zu einzelnen Aspekten bestanden, wurden separate Termine anberaumt. Wir sind dabei tief ins Detail gegangen und haben oft umfangreiche Dokumentationen mit konkreten Rechenbeispielen erarbeitet.

4. Geben und Nehmen: Das Projekt war eine partnerschaftliche Zusammenarbeit. Der Fachbereich hatte großes Interesse daran, die Methoden hinter den Modellen zu verstehen, und Five1 hat Zeit und Mühe investiert, um die Methoden so verständlich wie möglich zu machen.

5. Begründete Modellauswahl: Schließlich haben wir bei jedem Schritt der Modellierung begründet, warum wir ein bestimmtes Modell einem anderen vorziehen. Dies half unseren Ansprechpartnern, das "Warum" hinter unseren Entscheidungen zu verstehen und das Vertrauen in unsere Arbeit zu stärken.

Die Schließung der Vertrauenslücke war zwar eine Herausforderung, aber sie hat sich als entscheidender Schritt erwiesen, um das volle Potenzial von ML in unserem Liquiditäts-prognoseprojekt auszuschöpfen. Dies zeigt, dass eine transparente und effektive Kommunikation zwischen den Fachexperten und den Datenwissenschaftlern von grundlegender Bedeutung ist, um den Einsatz von ML erfolgreich zu gestalten.

  1. Zusammenfassung

Datengetriebene intelligente Applikationen sind in unserem Alltag allgegenwärtig, haben ihn verändert, in sehr vielen Hinsichten bequemer und flexibler gemacht, in vielen auch vereinfacht und verbessert.

Infolge dieser Entwicklung gleicht sich Unternehmenssoftware nicht nur im Look & Feel zunehmend den Smartphone-Apps an: Angesichts der enormen Wertpotenziale, die in der maschinellen Nutzung großer Datenbestände liegen, tritt die autonome intelligente Verarbeitung solcher Daten auch im Unternehmen immer mehr in den Vordergrund. Wie wir gezeigt haben, bringt dieser Trend zugleich neue Möglichkeiten und Anforderungen mit sich.

Gerade im Mittelstand sehen sich Finanzen und Controlling dadurch in die Defensive gebracht – in die gleiche Lage etwa wie viele Einkaufsabteilungen, die gefragt werden, warum Bestellanforderungen und Bestellungen im Unternehmen so viel komplizierter sind als der private Einkauf beim führenden E-Commerce.

Der Mentalitätswandel, der derzeit durch ChatGPT und ähnliche Modelle besonders sinnfällig wird, der sich aber viel fundamentaler in der kaum noch gespürten Allgegenwart von KI und ML in unserem Alltag zeigt, wird über kurz oder lang die Entscheider- und Stakeholder-Ebenen der Unternehmen erreichen und prägen. CFOs und ihre Controller müssen sich an die Spitze dieses Mentalitätswandels stellen, wenn sie ihre Fähigkeit zu wirksamer finanzieller Führung unter den neuen Bedingungen behalten bzw. ausbauen wollen.

Wir haben in unserem Beitrag dargestellt, mit welchen konkreten Schritten auch klassisch ausgebildete und aufgestellte Finanz-Funktionen die Initiative ergreifen und sich datengetriebene, intelligente Methoden zu Nutze machen können. Unser wichtigster Rat an alle Finanzverantwortlichen, die die Vorteile des Maschinellen Lernens für ihr Unternehmen heben wollen, aber ist, nicht länger abzuwarten, sondern sich JETZT auf den Weg zu machen.

 

Über die Autoren

Dr. Dietmar Scheja. Als selbständiger Interim-Manager übernehme ich Aufgaben der finanziellen Führung in Sondersituationen. Meine Schwerpunkte setze ich in Transformations-, Upgrade- und Recovery-Projekten, im Business Partnering und in der Kostensenkung. Ich arbeite meist für international aufgestellte Finanzfunktionen in Industrie, Handel und Dienstleistung. ML und andere intelligente, datengetriebene Applikationen bieten aus meiner Sicht eine große Chance, die finanzielle Führung weiterzuentwickeln und noch wirksamer zu machen. Weitere Informationen zu meiner Arbeit sowie Erfahrungsberichte und andere Veröffentlichungen findet Ihr auf LinkedIn oder unter www.lucilius-interim.com

Die Five1 GmbH entwickelt und realisiert zeitgemäße Analytics-Architekturen, die es ermöglichen, Geschäftsentscheidungen auf ein neues, datengetriebenes Niveau zu heben. Unser Team besteht aus erfahrenen Daten-Analysten, Planungsexperten, Data Scientists, Data Engineers und strategischen Köpfen. Unsere Leistungen decken eine breite Palette von Aktivitäten ab, um diese Vision Wirklichkeit werden zu lassen. Wir sind Experten im Aufbau von Daten-Architekturen, die es unseren Kunden ermöglichen, Daten effizient und effektiv zu verwalten und zu analysieren. Darüber hinaus schaffen wir leistungsstarke Microservice-Plattformen für Analytics- und ML-Anwendungen, die sich nahtlos und skalierbar in Ihre Systemlandschaft integrieren.