Supply Chain Planning und Forecasting Software, Februar 2025

Von Léon Levinas-Ménard
Zuletzt geändert am: 2. Februar 2025

Supply-Chain-Planungssoftware soll Entscheidungen optimieren (was produziert, gelagert oder bewegt werden soll und wann) unter Unsicherheit - nicht nur Transaktionen aufzeichnen. Wie eine Definition es ausdrückt, ist Supply Chain “die quantitative, aber clever umsetzbare Beherrschung der Optionen bei der Bewältigung von Variabilität und Einschränkungen… mit dem Schwerpunkt auf der Förderung und Auswahl von Optionen, anstatt dem direkten Management der zugrunde liegenden Operationen.” 1 Mit anderen Worten, die besten Planungstools konzentrieren sich auf Optimierung (z.B. Entscheidungen über optimale Lagerbestände oder Produktionsniveaus) anstatt nur auf transaktionales Management (Verfolgung von Bestellungen und Lagerbeständen). Diese Studie vergleicht führende Anbieter von Supply Chain Planning und Forecasting Software weltweit und legt den Schwerpunkt auf konkrete technische Nachweise statt Marketing. Wir bewerten jeden Anbieter anhand wichtiger Kriterien:

  • Probabilistische Prognosen – Gehen sie über Punktprognosen hinaus, um vollständige Verteilungen oder fortgeschrittene Modelle bereitzustellen? Wenn “KI/ML”-Prognosen behauptet werden, gibt es Beweise (wie starke Leistungen in globalen Prognosewettbewerben wie dem M5), die dies unterstützen?
  • Grad der Automatisierung – Kann das System Prognosen und Planungen unbeaufsichtigt (vollständig automatisiert) ohne ständiges menschliches Herumtüfteln durchführen? Wie autonom ist die Entscheidungsfähigkeit?
  • Skalierbarkeit & Leistung – Verarbeitet die Technologie große Datenmengen effizient? (Vorsicht bei In-Memory-Architekturen, die nicht gut skalieren, wenn die Daten wachsen und die Speicherkosten stagnieren.)
  • Technologieintegration & Akquisitionen – Basiert die Lösung auf einem zusammenhängenden Technologiesystem oder einem Flickenteppich von erworbenen Modulen? Lange Historien von M&A können zu fragmentierter, inkonsistenter Technologie führen.
  • Technische Glaubwürdigkeit – Werden die technischen Behauptungen des Anbieters durch wissenschaftliche Prinzipien oder technische Nachweise gestützt? Wir sehen über Schlagworte hinweg (“KI/ML”, “Nachfrageerkennung”) und suchen nach konkreten Erklärungen oder Peer-Validierung.
  • Konsistenz & Widersprüche – Stimmen die Botschaften des Anbieters überein? (z.B. die Behauptung von probabilistischen Prognosen, während gleichzeitig deterministische Genauigkeitsmetriken wie MAPE angepriesen werden, wäre ein Warnsignal.)
  • Veraltete Praktiken – Wir weisen auf veraltete Methoden hin (wie einfache Sicherheitsbestandsformeln), die im Widerspruch zu moderner probabilistischer Optimierung stehen.
  • Entscheidungsorientierte Ausgabe – Produziert die Software nur Prognosen oder trifft sie optimierte Entscheidungen (Bestellpläne, Lagerziele) basierend auf diesen Prognosen? Das eigentliche Ziel ist es, Entscheidungen zu treffen, nicht nur Zahlen allein.

Vorgehensweise: Für jeden Anbieter verlassen wir uns auf veröffentlichte technische Dokumentationen, seriöse Analysen und (falls verfügbar) offene Benchmarks oder Wettbewerbe, um die Fähigkeiten zu bewerten. Anbieterhype, bezahlte Analystenberichte und glänzende Fallstudien werden ignoriert, es sei denn, sie sind durch harte Beweise verifiziert. Der Ton ist absichtlich skeptisch - Behauptungen müssen mit Daten oder technischem Substanz verdient werden. Inkonsistenzen oder mangelnde Transparenz werden als ernsthafte Schwächen behandelt.

Im Folgenden rangieren wir die Top-Anbieter von Supply Chain Planning Software nach technologischer Führung, mit einer kurzen Begründung für jeden. Nach der Zusammenfassung des Rankings folgt ein detaillierter Vergleich, organisiert nach den oben genannten technischen Kriterien. Alle Aussagen werden durch Zitate aus glaubwürdigen Quellen gestützt (im Format【Quelle†Zeile】).

Top-Anbieter nach technologischer Exzellenz gerankt

  1. Lokad – State-of-the-Art Probabilistische Optimierung
    Lokad führt in der technologischen Innovation, indem es die probabilistische Prognose und eine wirklich entscheidungszentrierte Planung vorantreibt. Bereits 2012 setzte Lokad auf probabilistische Prognosen (fast ein Jahrzehnt vor anderen) und baute seine gesamte Lösung darauf auf 2. Im Gegensatz zu Anbietern, die Prognose und Planung als separate Schritte behandeln, produziert das System von Lokad (basierend auf einer domänenspezifischen Sprache namens Envision) direkt optimierte Entscheidungen (Aufträge, Lagerbestände) aus probabilistischen Modellen. Die technische Glaubwürdigkeit von Lokad ist außergewöhnlich - es dokumentiert offen seine Methoden und sein Team erreichte #1 Genauigkeit auf SKU-Ebene im renommierten M5-Prognosewettbewerb (von 909 Teams) 3. Dieser reale Sieg bei der granularen Prognose unterstreicht die hochmoderne Vorhersagekraft von Lokad. Die Plattform ist cloud-nativ und vollautomatisiert (Prognosen und Optimierungen laufen unbeaufsichtigt nach Zeitplan) und umgeht die Einschränkungen von In-Memory-Designs, indem sie skalierbares Cloud-Computing nutzt. Zusammenfassend setzt Lokad mit seinem probabilistischen, automatisierungsorientierten und evidenzbasierten Ansatz zur Optimierung der Lieferkette den Maßstab.

  2. Kinaxis – Schnelle, In-Memory-Planung mit aufkommender KI
    Kinaxis ist ein etablierter Marktführer, bekannt für seinen blitzschnellen “gleichzeitigen Planungs”-Motor. Seine Plattform RapidResponse verwendet eine In-Memory-Architektur, um Echtzeit-Szenariosimulationen über Angebot, Nachfrage und Bestand zu ermöglichen. Dieses Design gibt Planern die Möglichkeit zur sofortigen What-If-Analyse, eine große Stärke für die Reaktionsfähigkeit. Die starke Abhängigkeit von In-Memory-Berechnungen kann jedoch hohe Hardwarekosten und Skalierungsbeschränkungen bedeuten, wenn die Datenmenge wächst (große Implementierungen erfordern massive RAM) 4. Traditionell konzentrierte sich Kinaxis auf deterministische Planung (unter Nutzung von benutzerdefinierten Regeln und manuellen Anpassungen). In Anerkennung des Branchenwandels hat Kinaxis kürzlich probabilistische Techniken angenommen, indem es Akquisitionen/Partnerschaften integriert hat: z.B. fügte es einen probabilistischen Multi-Echelon-Inventarisierungsoptimierungs (MEIO)-Motor hinzu (vom Partner Wahupa) und erwarb ein KI-Unternehmen für die Nachfrageprognose (Rubikloud). Diese Add-Ons bringen fortgeschrittene Prognosen und Unsicherheitsmodellierung zu Kinaxis, obwohl sie als Anhängsel Fragen der Kohärenz des Technologie-Stacks aufwerfen. Die Botschaft von Kinaxis über “KI” und maschinelles Lernen ist im Vergleich zu einigen Mitbewerbern vorsichtig - es betont die Kombination von menschlicher und maschineller Intelligenz. In der Praxis glänzt Kinaxis bei der Automatisierung der Planneuberechnung (jedes Mal, wenn sich die Daten ändern, kann das System autonom Angebots-Nachfrage-Pläne neu ausbalancieren), aber historisch gesehen verließ es sich immer noch auf Planer, um Parameter festzulegen und automatisierte endgültige Entscheidungen nicht vollständig zu automatisieren. Mit seinen neuen probabilistischen Modulen bewegt sich Kinaxis in Richtung mehr Entscheidungsautomatisierung unter Unsicherheit, wenn auch von einem deterministischen Erbe aus. Zusammenfassend bietet Kinaxis eine leistungsstarke Echtzeit-Planungsplattform und holt bei KI-gesteuerter Prognose auf, muss jedoch beweisen, dass seine neueren probabilistischen Funktionen tief integriert sind und nicht oberflächlich.

  3. o9 Solutions – Große Ambitionen und Big Data
    o9 Solutions ist ein neuerer Anbieter (gegründet 2009), der oft als “digitales Gehirn” für die Supply Chain bezeichnet wird. Technologisch gesehen ist o9 äußerst ehrgeizig - es hat eine breite Plattform mit einem graphenbasierten Datenmodell (Enterprise Knowledge Graph, “EKG”) aufgebaut und bedient riesige, komplexe Datensätze (was es bei großen Unternehmen beliebt macht, die ein End-to-End-Planungstool suchen). Allerdings geht der Ansatz von o9 mit Kompromissen einher. Das System verwendet angeblich ein In-Memory-Design, das zwar schnelle Analysen ermöglicht, aber “hohe Hardwarekosten garantiert” für den großflächigen Einsatz 4. Dies wirft Skalierbarkeitsbedenken auf, da es teuer wird, mehr RAM auf das Problem zu werfen und letztendlich Grenzen erreicht (insbesondere da die Preise für Speicher nicht mehr so schnell fallen). o9 wirbt stark mit KI/ML, aber man muss Substanz von Hype trennen: Viele seiner Behauptungen (zum Beispiel, dass sein Wissensgraph die Prognosen einzigartig verbessert) sind fragwürdig ohne wissenschaftliche Untermauerung 5. Tatsächlich legen Analysen der öffentlich verfügbaren technischen Elemente von o9 auf GitHub nahe, dass es hauptsächlich Standardtechniken einsetzt (nichts grundlegend Neues, um das großartige “KI”-Branding zu rechtfertigen) 6. o9 unterstützt probabilistische Szenarioplanung in gewissem Maße - es kann mehrere Nachfrageszenarien modellieren und Simulationen durchführen - aber es ist unklar, ob es echte probabilistische Prognoseverteilungen bereitstellt oder nur Szenarioanalysen. Die Plattform kann bestimmte Planungsaufgaben automatisieren, aber o9 positioniert sich oft als Entscheidungsunterstützung, wobei letztendlich Menschen das “digitale Gehirn” steuern. Insgesamt ist o9 eine technologielastige Plattform mit breiten Fähigkeiten, aber seine Abhängigkeit von In-Memory-Computing und die Unklarheiten um seine KI-Behauptungen mildern seine wahrgenommene technische Führung. Es ist eher ein Führer für seine integrierte Vision und den Umgang mit Big Data als für nachgewiesene einzigartige Prognosegenauigkeit.

  4. Relex Solutions – Einzelhandelsfokussierte Automatisierung (mit Grenzen)
    Relex Solutions (gegründet 2005) hat sich auf die Einzelhandelsnachfrageprognose, Warennachschub und Flächenplanung spezialisiert. Es hat sich einen Ruf für die Ermöglichung einer hochgradig automatisierten Warennachschub in Geschäften erworben - mehrere große Lebensmittelhändler nutzen Relex, um die Nachfrage auf Geschäftsebene automatisch vorherzusagen und Bestellungen mit minimalem menschlichem Eingriff zu generieren. Diese End-to-End-Automatisierung in einem anspruchsvollen Einzelhandelsumfeld ist eine bemerkenswerte Stärke. Relex wirbt auch mit modernen maschinellen Lernprognosetechniken, die speziell für den Einzelhandel optimiert sind (unter Berücksichtigung von Promotionen, lokalen Veranstaltungen usw.). Dennoch zeigen ein Blick unter die Haube einige architektonische und methodologische Einschränkungen auf. Das System von Relex verwendet ein In-Memory-, OLAP-artiges Datenwürfeldesign 7, um sehr schnelle Analysen und Berichte zu liefern. Obwohl dies schnelle Dashboards ermöglicht, treibt es die Hardwarekosten in die Höhe und löst nicht von Natur aus komplexe Optimierungsprobleme. Tatsächlich kann der Echtzeit-, granulare Ansatz von Relex im Widerspruch zur netzwerkweiten Optimierung stehen - es könnte Schwierigkeiten haben, Entscheidungen über ein großes Liefernetzwerk hinweg optimal zu koordinieren, wenn es mit Phänomenen wie Produktkannibalisierung oder Substitutionen konfrontiert wird 8. Es gibt auch Anzeichen dafür, dass die Prognosemodelle von Relex nicht so “next-gen” sind, wie vermarktet - Hinweise legen nahe, dass ein Großteil ihres Ansatzes auf Methoden vor 2000 beruht (z.B. Regression, Zeitreihenglättung) 9, wenn auch in großem Maßstab angewendet. Sie rühmen sich oft mit einer Verfügbarkeit von über 99% für Einzelhändler, aber Branchenumfragen (z.B. von ECR-Verbänden) zeigen, dass die typische Regalverfügbarkeit niedriger ist, was solche pauschalen Behauptungen in Frage stellt 10. Relex hat einen weitgehend kohärenten Technologiestapel (intern für den Einzelhandel entwickelt) und ist nicht durch große Übernahmen gewachsen, was für die Konsistenz gut ist. Zusammenfassend ist Relex ein Führer in der Einzelhandelsautomatisierung und kann beeindruckende weitgehend automatisierte Abläufe vorantreiben, aber seine technische Tiefe in der Prognosewissenschaft ist fraglich, und eine In-Memory-Architektur bedeutet, dass es die Skalierbarkeitsbedenken anderer teilt.

  5. ToolsGroup – Früher Innovator, der jetzt “KI” anpreist
    ToolsGroup (gegründet 1993) bietet die Software SO99+, die historisch für prognosegesteuerte Bestandsplanung und Optimierung bekannt ist. Jahre bevor “KI” zum Schlagwort wurde, half ToolsGroup dabei, probabilistische Konzepte in der Supply Chain populär zu machen - zum Beispiel die Modellierung der Nachfragevariabilität, um die erforderlichen Sicherheitsbestände zur Erreichung eines gewünschten Servicelevels zu bestimmen. In der Praxis kann ihr Tool eine Wahrscheinlichkeitsverteilung der Nachfrage (insbesondere für langsam bewegte Artikel) erstellen und Bestandsziele berechnen, um eine Ziel-Füllrate zu erreichen. In den letzten Jahren hat sich jedoch die Botschaft von ToolsGroup verschoben, um sich dem Hype um AI/ML anzuschließen, und hier zeigen sich die Glaubwürdigkeitsrisse. Sie werben stark für “KI-gestützte” Planung, aber öffentliche Hinweise deuten darauf hin, dass ihre Kernalgorithmen im Wesentlichen noch immer veraltete (vor 2000) statistische Modelle sind 11. Bemerkenswert ist, dass sie seit etwa 2018 ihre Ausgaben als “probabilistische Prognosen” bezeichnen, während sie gleichzeitig mit Verbesserungen des MAPE prahlen 12 - ein offensichtlicher Widerspruch, denn MAPE (eine deterministische Prognosefehlermetrik) „gilt nicht für probabilistische Prognosen.“ 13 Dies legt entweder ein Missverständnis oder einen Marketing-Trick nahe (z. B. generieren sie vielleicht probabilistische Prognosen, bewerten sie aber immer noch, indem sie den Median mit den tatsächlichen Werten mit MAPE vergleichen - was den Sinn probabilistischer Methoden verfehlt). ToolsGroup spricht auch von “Nachfrageerkennung” für kurzfristige Prognoseanpassungen, doch solche Behauptungen sind nicht durch wissenschaftliche Literatur gestützt 13 und führen oft zu neu verpackten gleitenden Durchschnitten. Positiv ist jedoch, dass die Lösung von ToolsGroup für die Supply Chain-Planung ziemlich funktionsreich ist (umfasst Nachfrageprognosen, Bestandsoptimierung, S&OP usw.) und im automatischen Modus betrieben werden kann (generiert automatisch Nachschubvorschläge über Nacht). Ihr Optimierungsfokus (Erreichen von Servicezielen mit minimalem Bestand) stimmt mit einer entscheidungsorientierten Prognose überein. Aber das jüngste AI-Posieren des Unternehmens ohne klare technische Beweise, sowie eine Architektur, die möglicherweise nicht modern cloud-nativ ist (wahrscheinlich eher serverorientiert), schmälern etwas die technische Führung. Kurz gesagt, ToolsGroup ist ein bewährter Akteur in der probabilistischen Bestandsmodellierung, benötigt jedoch mehr Transparenz, um seine neuen AI-Behauptungen zu untermauern und sicherzustellen, dass seine Methoden nicht stagniert sind.

  6. Blue Yonder – Leistungsstarke Legacy, Flickenteppich-Technologie
    Blue Yonder (gegründet 1985 als JDA Software, umbenannt nach der Übernahme eines kleineren KI-Unternehmens namens Blue Yonder) ist ein Riese im Bereich der Supply-Chain-Planung. Es bietet Lösungen für die Nachfrageplanung, die Angebotsplanung, den Einzelhandel und mehr. Über Jahrzehnte hinweg hat Blue Yonder (BY) ein großes Portfolio durch viele Übernahmen aufgebaut - von Manugistics (Optimierung der Lieferkette) über Teile von i2 Technologies bis hin zum kürzlich erworbenen Blue Yonder AI-Startup. Das Ergebnis ist eine “willkürliche Sammlung von Produkten, von denen die meisten veraltet sind”, auch wenn sie unter einer Marke vereint sind 14. Technologisch gesehen verwenden die Legacy-Module von Blue Yonder (wie Demand Forecasting oder Fulfillment) oft ältere Techniken (z.B. heuristische Prognosen, regelbasierte Planung mit Sicherheitsbeständen). Das Unternehmen wirbt jetzt mit “KI/ML” in seinem Marketing, aber die Behauptungen neigen dazu, vage und wenig aussagekräftig zu sein 15. Ein aufschlussreicher Hinweis: Blue Yonder hat nur wenige Open-Source-Projekte auf GitHub (z.B. tsfresh, PyDSE, Vikos), die auf die zugrunde liegenden Prognoseansätze hinweisen - diese basieren hauptsächlich auf traditionellen Methoden wie Merkmalsextraktion + ARIMA/lineare Regressionsmodelle 16, anstatt moderner Deep-Learning- oder probabilistischer Modelle. Mit anderen Worten, die “KI” von BY ist wahrscheinlich eher ein Hype als ein Durchbruch. Die Kohäsion der Plattform ist ein Anliegen - Planung, Auffüllung und Bestandsoptimierung können als separate Engines existieren, die nicht nahtlos zusammenarbeiten (die Integration erfordert einen erheblichen Implementierungsaufwand). Blue Yonder verfügt jedoch über sehr starke Optimierungsfähigkeiten in bestimmten Bereichen (z.B. ihre Legacy-i2-Algorithmen für die Optimierung von Lieferkettennetzwerken, die, wenn modernisiert, leistungsstark sein können). Und viele große Unternehmen setzen Blue Yonder ein, um Planungsaufgaben zu automatisieren (zum Beispiel die Generierung von Prognosen, die einen MRP-Prozess steuern, die Festlegung von Sicherheitsbeständen usw., wobei Planer nur bei Ausnahmen eingreifen). Im Vergleich zu neueren Technologieführern scheint Blue Yonder jedoch technisch stagnierend zu sein: Es hält sich weitgehend an deterministische Prognosen (die oft anhand alter Metriken wie MAPE oder Bias gemessen werden), verwendet veraltete Praktiken wie Sicherheitsbestandsformeln als zentrales Planungselement und setzt nur dünn auf KI-Terminologie auf. Angesichts seiner Ressourcen könnte sich Blue Yonder weiterentwickeln, aber derzeit verkörpert es den Kompromiss eines großen Anbieters: breite Funktionalität aber ein zersplitterter, alternder Technologie-Stack 14. Wir stufen es aus technologischer Sicht unter den fortschrittlicheren Wettbewerbern ein.

(Andere namhafte Anbieter: SAP IBP und Oracle SCM Cloud bieten ebenfalls Supply-Chain-Planungssuiten an, aber diese sind größtenteils Erweiterungen ihrer transaktionalen ERP-Systeme. Sie erben erhebliche technische Schulden und Komplexität von Legacy-Systemen und Übernahmen. Zum Beispiel ist das Planungsangebot von SAP eine Mischung aus Komponenten wie SAP APO, SAP HANA sowie erworbenen Tools (SAF für Prognosen, SmartOps für Bestände) - im Wesentlichen “eine Sammlung von Produkten”, die viel Integrationsaufwand erfordert 17. Diese an ERP gebundenen Lösungen, obwohl sie in einigen Bereichen leistungsstark sind, sind im Allgemeinen keine Spitzenreiter in der Prognosewissenschaft oder Automatisierung, daher werden sie nicht in den obersten Rängen berücksichtigt.)


Nachdem wir die Top-Anbieter vorgestellt haben, gehen wir nun in eine Kriterium-für-Kriterium-Analyse ein, die zeigt, wie sich jeder Anbieter in probabilistischer Prognose, Automatisierung, Skalierbarkeit usw. im Vergleich darstellt, wobei der Schwerpunkt auf Beweisen und Beispielen liegt. Diese vergleichende Ansicht verdeutlicht die Stärken und Schwächen jeder Lösung eingehend.

Probabilistische Prognosen: Über deterministische Modelle hinaus

Die moderne Optimierung der Lieferkette profitiert enorm von probabilistischen Prognosen - Schätzung eines Bereichs oder einer Verteilung möglicher Ergebnisse (mit Wahrscheinlichkeiten), anstatt einer einzelnen “am wahrscheinlichsten” Zahl. Probabilistische Prognosen erfassen die Nachfragevariabilität besser und ermöglichen robustere Entscheidungen (z.B. zu wissen, mit welcher Wahrscheinlichkeit ein Lagerausfall eintritt, wenn Sie X Einheiten bevorraten). Wir haben untersucht, welche Anbieter wirklich probabilistische Methoden umarmen im Vergleich zu denen, die sich an deterministische Prognosen halten. Hauptergebnisse:

  • Lokad sticht durch die tiefe Verankerung probabilistischer Prognosen hervor. Es war frühzeitig, probabilistische Modelle zu fördern (seit 2012) 2 und hat diese Fähigkeit kontinuierlich weiterentwickelt. Lokads Ansatz verwendet probabilistische Nachfrageverteilungen als Grundlage für alle Optimierungen - zum Beispiel die Berechnung des erwarteten Gewinns verschiedener Lagermengen durch Integration über die Nachfrageverteilung. Die Glaubwürdigkeit der Lokad-Prognosetechnologie wird durch globale Wettbewerbe bestätigt: Ein Lokad-Team erzielte die höchste Genauigkeit auf SKU-Ebene im M5 Forecasting Competition 3, einem hoch angesehenen Benchmark-Wettbewerb. Wichtig ist, dass es bei M5 ausschließlich um probabilistische Prognosen ging (die Platzierungen basierten auf gewichteten Verteilungsfehlermetriken) und die Leistung von Lokad zeigt, dass seine Methoden wirklich state-of-the-art sind, um genaue Wahrscheinlichkeitsverteilungen auf granularer Ebene zu generieren. In der Praxis erstellt Lokad nicht nur eine Zahl, sondern eine vollständige Wahrscheinlichkeitsverteilung (oder Szenarien) für die Nachfrage jedes Artikels, die direkt in Entscheidungsoptimierungsskripte einfließt.

  • ToolsGroup hat zu Recht seit Jahren probabilistische Funktionen im Kontext der Service-Level-Optimierung angeboten. Ihre Software kann eine explizite Nachfrageverteilung erstellen (oft über ein intermittierendes Nachfragemodell oder eine andere statistische Anpassung) und dann Lagerziele berechnen, um eine gewünschte Service-Wahrscheinlichkeit zu erreichen. Es gibt jedoch einen Unterschied zwischen dem Besitz eines probabilistischen Modells im Hintergrund und dem vollständigen Umarmen im Geist. ToolsGroups Marketing ab 2018 legt den Versuch nahe, sich als führenden Anbieter für probabilistische Prognosen neu zu positionieren, doch dies wurde gleichzeitig durch die gleichzeitige Erwähnung von MAPE-Verbesserungen neben probabilistischen Prognosen 13 untergraben. Dies ist ein Widerspruch - wenn man wirklich eine Verteilung prognostiziert, würde man den Erfolg nicht hauptsächlich anhand von MAPE messen (der von einer einzigen “richtigen” Zahl ausgeht). Die Tatsache, dass sie immer noch auf deterministische Metriken setzen, deutet darauf hin, dass sie möglicherweise immer noch Punktprognosen generieren und dann Verteilungen nur zur Simulation von Lageranforderungen verwenden. Daher, obwohl ToolsGroup probabilistische Fähigkeiten hat, könnte die Raffinesse dieser Methoden nicht auf dem neuesten Stand sein, und wie “all-in” sie bei probabilistischen Prognosen sind im Vergleich dazu, sie nur als Add-on zu verwenden, ist unklar.

  • Kinaxis hat historisch gesehen keine probabilistischen Prognosen in seinem Kernangebot bereitgestellt (es würde sich auf Punktprognosen verlassen, die von Benutzern eingegeben oder über einfache Statistiken generiert wurden). Um diese Lücke zu erkennen, hat Kinaxis eine Partnerschaft mit Wahupa geschlossen, um einen probabilistischen MEIO (Multi-Echelon Inventory Optimization)-Motor zu integrieren 18. Darüber hinaus hat Kinaxis ein KI-Unternehmen (Rubikloud) erworben, das sich auf maschinelles Lernen in der Nachfrageprognose spezialisiert hat (wahrscheinlich probabilistisch von Natur aus, z.B. Erstellung von Vorhersageintervallen). Ab 2023 begann Kinaxis mit der Vermarktung von “Planning.AI” oder ähnlichen Funktionen und erkennt explizit die Notwendigkeit an, “Ungewissheit anzunehmen” und Wahrscheinlichkeitswissenschaft in Entscheidungsprozessen zu verwenden 19. Dies ist eine positive Entwicklung, aber da es relativ neu ist, ist die Reife von Kinaxis’ probabilistischer Prognose noch im Wandel. Wir haben Kinaxis oder seine Partner noch nicht in öffentlichen Prognosewettbewerben gesehen oder detaillierte Methoden veröffentlicht, daher ist der technische Nachweis ihrer probabilistischen Fähigkeiten auf das beschränkt, was sie behaupten.

  • o9 Solutions betont auch die Modellierung von Unsicherheiten im Konzept - ihr Wissensgraph kann viele kausale Faktoren speichern, und sie behaupten, bessere Vorhersagen zu generieren, indem sie Daten verknüpfen. Aber auch hier finden wir keine öffentlichen Beweise dafür, dass o9 probabilistische Prognosen in der Praxis liefert (keine veröffentlichten Genauigkeitsbenchmarks oder offene Algorithmen). Die Erwähnung von Bayes’schen Netzwerken oder Monte Carlo in ihren Materialien ist spärlich. Die in den Code-Repositories von o9 entdeckten Elemente scheinen sich eher auf typische Prognosetechniken zu konzentrieren als auf neuartige probabilistische Algorithmen 6. Bis o9 das Gegenteil beweist, müssen wir davon ausgehen, dass es hauptsächlich verbesserte deterministische Prognosen liefert (vielleicht mit Szenarioanalyse) und jede “probabilistische” Kennzeichnung möglicherweise mehr Marketing ist.

  • Relex Solutions beschäftigt sich mit dem Einzelhandel, wo die Variabilität (insbesondere bei Aktionen oder frischen Artikeln) hoch ist. Sie verwenden wahrscheinlich intern einige probabilistische Ansätze (zum Beispiel zur Schätzung der Verteilung der Nachfrage nach beworbenen Produkten oder zur Berechnung des Sicherheitsbestands pro Geschäft mit einem Ziel-Servicegrad). Die öffentlich zugänglichen Materialien von Relex preisen jedoch nicht explizit “probabilistische Prognosen” an; sie sprechen eher darüber, wie maschinelles Lernen die Prognosegenauigkeit verbessert (was in der Regel bessere Punktprognosen impliziert). Die Peer-Review von Relex deutet darauf hin, dass ihre Prognosetechnologie vor 2000 erschienen ist 9, was wahrscheinlich hauptsächlich deterministische Methoden wie exponentielle Glättung bedeutet, vielleicht mit Saisonalität und Trend - Techniken, die Punktprognosen generieren und möglicherweise Standardabweichungen für den Sicherheitsbestand. Daher verlässt sich Relex möglicherweise immer noch auf das alte Paradigma: Prognose und dann Puffer hinzufügen, anstatt dem Benutzer eine vollständige Wahrscheinlichkeitskurve zur Verfügung zu stellen.

  • Blue Yonder verwendet in seiner traditionellen Bedarfsplanung eine Vielzahl von statistischen Modellen (ARIMA, exponentielle Glättung, vielleicht etwas ML für kausale Faktoren), um Prognosen zu erstellen, die in der Regel aggregiert und mit einem Konsensprozess erstellt werden - im Wesentlichen deterministisch. Blue Yonder hat begonnen, in einigen Kontexten probabilistische Begriffe zu erwähnen (da es jeder tut), aber angesichts ihrer Open-Source-Beiträge, die auf ARIMA und Regression beruhen 16, kann man sagen, dass probabilistische Prognosen keine Stärke sind. Sie ermutigen auch weiterhin zu Metriken wie MAPE, Bias usw., die deterministisch sind. Wir haben Blue Yonder auch nicht an bekannten Prognose-Benchmarks teilnehmen sehen.

  • Andere Anbieter: John Galt Solutions vermarktet einen Algorithmus namens “Procast”, der eine überlegene Genauigkeit beansprucht, aber eine Überprüfung ergab, dass diese Behauptung zweifelhaft ist, da Procast nicht in den Top-Rängen großer Prognosewettbewerbe wie M5 vertreten war 20. Tatsächlich dürften leicht verfügbare Open-Source-Prognosetools (z. B. Prophet oder Hyndmans R-Pakete) wahrscheinlich genauso gut oder besser abschneiden 21. Dies unterstreicht ein häufiges Thema: echte Innovation zeigt sich dort, wo es eine offene Bewertung gibt. Das Fehlen der meisten Anbieter (außer Lokad) in öffentlichen Wettbewerben legt nahe, dass viele nicht wirklich der Akademie oder Open-Source voraus sind in der Prognose - wenn sie es wären, würden sie es in diesen Foren beweisen.

Zusammenfassend ist probabilistische Prognose ein Unterscheidungsmerkmal: Lokad führt klar mit nachgewiesener Kompetenz und vollständig integrierten probabilistischen Entscheidungen. ToolsGroup und Kinaxis erkennen ihre Bedeutung an, haben sie jedoch erst kürzlich eingebunden (und müssen ihre Metriken und Prozesse damit abstimmen, um überzeugend zu sein). Andere verbleiben größtenteils in einer deterministischen Welt, auch wenn sie Begriffe wie “stochastisch” in ihren Broschüren streuen. Diese Unterscheidung ist wichtig, denn ohne echte probabilistische Prognosen wird ein Planungssystem auf grobe Sicherheitsbestände zurückgreifen und kann Risiken und Kosten nicht optimal ausbalancieren.

Automatisierungsgrad: Automatische Planung vs. Mensch-in-the-Loop

Automatisierung in der Prognose und Planung bezieht sich auf die Fähigkeit des Systems, den gesamten Prozess - Datenaufnahme, Prognoseerstellung, Planoptimierung und sogar die Ausführung von Entscheidungen - ohne manuelle Intervention durchzuführen, abgesehen von der Überwachung und gelegentlichen Parameterabstimmung. Eine hohe Automatisierung ist für den Betrieb im großen Maßstab entscheidend (wo das manuelle Anpassen Tausender Prognosen unpraktikabel ist) und für das schnelle Reagieren auf Veränderungen (Roboter reagieren schneller als Menschen). Wir haben bewertet, wie automatisiert jede Lösung sein kann und ob sie “unbeaufsichtigte” Planung unterstützt (und ob Kunden es tatsächlich auf diese Weise nutzen). Beobachtungen umfassen:

  • Lokad ist auf Automatisierung ausgelegt. Seine Envision-Skriptumgebung ermöglicht es, die gesamte Prognose- und Auffülllogik zu kodieren und zu planen. Viele Lokad-Implementierungen laufen auf einer vollständig automatisierten Basis, bei der das System jeden Tag oder jede Woche automatisch neue Daten einholt, Prognosen neu berechnet, Entscheidungen optimiert (z. B. Bestellmengen oder Zuordnungspläne generiert) und diese an das ERP- oder Ausführungssystem ausgibt - alles ohne menschliche Anpassungen. Die Philosophie besagt, dass bei korrekter Einrichtung der Modelle manuelle Eingriffe minimal sein sollten und Planer sich auf Ausnahmen oder Modellverbesserungen konzentrieren können, anstatt täglich Routineanpassungen vorzunehmen. Die Erfolgsgeschichten von Lokad heben oft die drastische Reduzierung der Arbeitsbelastung der Planer durch diese Automatisierung hervor. Im Wesentlichen behandelt Lokad Planer eher wie Datenwissenschaftler oder Aufseher des Prozesses, nicht als Personen, die täglich manuell Planungsknöpfe bewegen.

  • Relex Solutions ermöglicht ebenfalls einen hohen Automatisierungsgrad, insbesondere bei der Auffüllung. Zum Beispiel kann Relex für Lebensmitteleinzelhändler automatisch Ladenbestellungen generieren, die täglich Prognosen, Lagerbestände und Vorlaufzeiten berücksichtigen. Einige Einzelhändler, die Relex verwenden, vertrauen ihm angeblich so sehr, dass die überwiegende Mehrheit der Bestellungen automatisch versandt wird, während Planer nur Vorschläge außerhalb der Grenzen überprüfen. Das System von Relex unterstützt Workflows für Ausnahmen (z. B. es kann anzeigen, wenn eine Prognose stark von der Norm abweicht, dann überprüft ein Mensch), ist jedoch ansonsten darauf ausgelegt, die Bedarfsplanung und Bestellung automatisch auszuführen. Dies ist ein wichtiges Verkaufsargument im Einzelhandel, wo der Umfang (Millionen von SKU-Ladenkombinationen) manuelle Planung unmöglich macht. Es ist jedoch erwähnenswert, dass die Erreichung dieser Automatisierung oft stabile, ausgereifte Modelle und einen engen Fokus erfordert (z. B. Lebensmittelgrundnahrungsmittel). In komplexeren mehrstufigen Fertigungsplanungen ist Relex weniger präsent. Dennoch beweist Relex in seinem Bereich, dass unbeaufsichtigte Prognosen und Auffüllungen möglich sind, wenn auch im Rahmen seiner In-Memory-Architektur-Beschränkungen.

  • Kinaxis bietet Automatisierung bei der Neuberechnung - seine Parallelität bedeutet, dass bei Änderungen der Daten jederzeit Änderungen im Supply-Chain-Modell (Stücklisten, Bestände, Kapazitäten) durchgeführt werden können, um alle abhängigen Pläne automatisch zu aktualisieren. Dies ist eine Form der Automatisierung (die das manuelle erneute Ausführen separater Planungszyklen für jede Ebene überflüssig macht). Kinaxis erwartet jedoch traditionell, dass Planer in gewissem Maße involviert sind: Sie richten Szenarien ein, überprüfen die Ergebnisse und entscheiden, welches Szenario verbindlich ist. Kinaxis kann routinemäßige Entscheidungen über sein Warnsystem automatisieren (z. B. einen Plan automatisch genehmigen, wenn der Bestand über einem Schwellenwert liegt), wird jedoch im Allgemeinen als Entscheidungsunterstützungstool verwendet, anstatt als “dunkler” Autopilot. Mit der Integration von KI und fortschrittlicherer Prognose treibt Kinaxis jedoch mehr automatisierte Entscheidungsfindung voran. Beispielsweise kann sein neues MEIO automatisch Lagerpuffer über Ebenen hinweg bei jedem Planungslauf neu ausbalancieren, was der Benutzer akzeptieren könnte, es sei denn, etwas sieht seltsam aus. Das Unternehmen investiert auch in das, was es “selbstheilende Lieferketten” nennt, was auf eine größere Autonomie hindeutet. Angesichts seiner Klientel (oft Luft- und Raumfahrt, Automobilindustrie usw., wo Planer vorsichtig sind) ist eine vollständig automatische Planung jedoch nicht die Norm für Kinaxis-Implementierungen.

  • o9 Solutions wird in der Regel als Planungsplattform eingesetzt, auf der Benutzer (Planer, Nachfragemanager usw.) stark interagieren - Prognosen anpassen, bei S&OP-Plänen zusammenarbeiten, Szenarien durchführen. Es hat sicherlich die technische Fähigkeit, Berechnungen zu automatisieren (Sie können beispielsweise regelmäßige Prognoseaktualisierungen einrichten), aber die Philosophie von o9 neigt dazu, menschliche Planer mit KI-Erkenntnissen zu ergänzen, anstatt sie zu ersetzen. Der Marketingbegriff “digitaler Zwilling der Organisation” legt nahe, dass er Ihre Supply Chain in der Software widerspiegelt; aber ein Spiegel spiegelt typischerweise wider, was Sie tun - er entscheidet nicht unabhängig. Wir haben keine Hinweise darauf gefunden, dass ein Unternehmen o9 auf vollständig autonome Weise verwendet; vielmehr handelt es sich um ein Tool, das ein einziges Datenmodell und Analysen bereitstellt, um die interdisziplinäre Planung zu erleichtern. Die Automatisierung konzentriert sich auf die Integration (Automatisierung von Datenflüssen zwischen Modulen) mehr als auf die Entscheidungsautomatisierung.

  • ToolsGroup hat traditionell einen Ansatz für “Low-Touch-Planung” verfolgt. Ihr SO99+ Tool kann so eingerichtet werden, dass es automatisch statistische Prognosen für jedes SKU generiert, dann Bestandsziele berechnet und sogar Auffüllungsaufträge vorschlägt. Viele mittelständische Unternehmen haben es tatsächlich verwendet, um Bestellaufträge oder Produktionsvorschläge automatisch zu generieren, wobei Planer nur Ausnahmen überprüfen (z. B. wenn das System aufgrund ungewöhnlicher Umstände unsicher ist). Der erreichte Automatisierungsgrad hängt vom Vertrauen in die Empfehlungen des Systems ab. ToolsGroup betont oft, dass ihr probabilistischer Ansatz zu zuverlässigeren Bestandsempfehlungen führt, was wiederum Unternehmen dazu veranlasst, die Bestellung in größerem Umfang zu automatisieren. Wenn die Modelle von ToolsGroup jedoch nicht ordnungsgemäß abgestimmt sind, könnten Benutzer viele Eingriffe vornehmen. In Bezug auf die technischen Fähigkeiten kann ToolsGroup definitiv im Batch-Modus für Prognosen und initiale Planung ausgeführt werden. Aber es könnte on-the-fly Neuplanung nicht so gut bewältigen wie beispielsweise Kinaxis (es handelt sich eher um eine batch-orientierte nächtliche Planung).

  • Blue Yonder (JDA) verfügt über Komponenten wie ESP (Enterprise Supply Planning) und Fulfillment, die automatisch Versorgungsaufträge oder Lagertransferempfehlungen auf der Grundlage von Prognosen und Lagerpolitik freigeben können. Viele Benutzer von Blue Yonder verlassen sich tatsächlich auf automatisch generierte Ausgaben: Zum Beispiel könnte das System automatisch Verteilungsaufträge erstellen, um regionale Lagerhäuser auf Zielbestandsniveaus aufzufüllen. Das Demand-Modul von Blue Yonder kann automatisch Baseline-Prognosen jede Woche oder jeden Monat erstellen. Historisch gesehen beinhalten JDA/Blue Yonder-Implementierungen jedoch viele menschliche Arbeitsabläufe: Nachfrageplaner passen Prognosen an, Versorgungsplaner überprüfen die vom System empfohlenen Aufträge usw. Die Software unterstützt die Automatisierung, fördert jedoch nicht unbedingt eine “hands-off”-Mentalität - es handelt sich eher um eine Arbeitsplattform für Planer. Angesichts der Flickenteppich-Natur des BY-Suites erfordert die Erreichung einer End-to-End-Automatisierung möglicherweise erheblichen Integrationsaufwand (die Sicherstellung, dass der Bedarfsplan zum Versorgungsplanmodul fließt, der ohne manuelle Intervention zur Ausführung gelangt, kann knifflig sein). Obwohl technisch machbar, haben Blue Yonder-Standorte in der Praxis oft eine beträchtliche menschliche Überwachung der Pläne.

Zusammenfassend lässt sich sagen, dass die Automatisierungsfähigkeit in allen führenden Tools in unterschiedlichem Maße vorhanden ist, aber die Philosophie und praktische Anwendung sich unterscheiden. Lokad und Relex zeichnen sich durch das Vorantreiben der wirklich autonomen Planung in ihren jeweiligen Nischen aus (wobei Lokad vollständig skriptgesteuerte “Supply Chain Autopiloten” für verschiedene Branchen ermöglicht und Relex dies im Einzelhandel tut). Traditionelle große Anbieter behandeln die Automatisierung vorsichtiger und überlassen oft dem Planer die endgültigen Entscheidungen. Dies liegt manchmal an Vertrauensproblemen - wenn die Prognosen eines Systems nicht sehr zuverlässig sind, lassen Benutzer es nicht im Autopilotmodus laufen. Es unterstreicht, dass Automatisierung nur so gut ist wie die Intelligenz dahinter: Ein wesentlicher Grund, warum probabilistische, entscheidungsorientierte Tools benötigt werden, ist, um die Automatisierung lebensfähig zu machen (das System muss allein gute Entscheidungen treffen). Bei der Bewertung von Anbietern sollten Unternehmen fragen: Kann dieses System einen Monat lang eigenständig betrieben werden und unsere Leistung beibehalten oder verbessern? Die besten Technologien nähern sich für diese Frage einem “Ja”, während andere immer noch grundsätzlich manuelle Betreuung erfordern.

Skalierbarkeit & Leistung: Architektur ist wichtig

Die Supply-Chain-Planung muss oft mit Big Data (große Anzahlen von SKUs, Geschäften, Aufträgen, IoT-Signalen usw.) und komplexen Berechnungen (Optimierung über viele Variablen) umgehen. Die zugrunde liegende Architektur jeder Lösung - ob im Speicher oder verteilt, wie sie mit zunehmenden Datenmengen umgeht - wirkt sich direkt auf ihre Skalierbarkeit und Leistung aus. Schlechte architektonische Entscheidungen können zu träge Leistung oder exorbitanten Hardwarekosten führen (oder beides), insbesondere wenn ein Unternehmen wächst. Schlüsselpunkte zur Skalierbarkeit für die Anbieter:

  • Im Speicher vs. Verteilt: Ein wichtiges Thema ist der Unterschied zwischen Lösungen, die die meisten Daten in den RAM laden, um schnelle Berechnungen durchzuführen, und solchen, die mehr verteilte, bedarfsorientierte Berechnungen verwenden (Cloud-Stil). Kinaxis, o9, Relex und SAP IBP haben alle eine starke Komponente im Speicher. Der Motor von Kinaxis wurde mit der Idee entwickelt, dass alle relevanten Planungsdaten im Speicher sitzen, um eine sofortige Neuberechnung zu ermöglichen - was bis zu einem gewissen Punkt gut funktioniert, aber das Skalieren über einige Terabyte Daten im Speicher extrem teuer und technisch anspruchsvoll macht. O9 und Relex “garantieren hohe Hardwarekosten” aufgrund des im Speicher befindlichen Designs 4 7 - effektiv zahlt der Benutzer für sehr große Server oder Cluster mit massivem RAM. Dieser Ansatz hatte vor 10-20 Jahren seine Vorzüge, als der Speicher billig war und die Datenmengen bescheidener waren, aber die Speicherpreise haben sich stabilisiert und die Datenkomplexität ist gewachsen, was diese Strategie weniger zukunftssicher macht. Im Gegensatz dazu ist Lokad vollständig cloudbasiert und erfordert nicht, dass alle Daten im RAM gehalten werden. Es nutzt bedarfsorientierte Berechnungen (zum Beispiel das parallele Verarbeiten von Zahlen über viele Maschinen, wenn nötig, und dann das Freigeben). Das bedeutet, dass es sich bei großen Problemen durch das Hinzufügen von Rechenknoten skalieren kann, anstatt an eine RAM-Grenze eines einzelnen Rechners zu stoßen. Das cloudbasierte Design von Lokad nutzt auch intensiv Festplatte und Netzwerk, wenn es angemessen ist, und entspricht damit modernen Trends im Bereich Big Data (wo verteilte Speicherung und Berechnung, wie z.B. Map-Reduce-Paradigmen, die Skalierung bewältigen).

  • Leistung im großen Maßstab: Ältere Module von Blue Yonder (wie APO von SAP oder das eigene Erbe von JDA) hatten manchmal Schwierigkeiten mit großen Problemfällen, die eine Datenaggregation oder Segmentierung erforderten, um ausgeführt zu werden. Neuere Cloud-Versionen (BY Luminate) haben dies wahrscheinlich mit besserem Speichermanagement und möglicherweise elastischer Skalierung verbessert, aber die Beweise sind spärlich. SAP IBP verwendet HANA (in-memory Spalten-Datenbank); sie kann große Datenmengen verarbeiten, aber zu sehr hohen Infrastrukturkosten und benötigt oft noch Datenaggregation auf bestimmte Ebenen, damit Planungsläufe rechtzeitig abgeschlossen werden können. Die Planung von Oracle verwendet ein relationales DB-Backend, das einige Daten auf die Festplatte auslagern kann, aber möglicherweise langsamer pro Berechnung ist (Oracle nutzt jedoch seine Datenbankabstimmung). ToolsGroup hat typischerweise mit mittelgroßen Datensätzen (Tausende bis Zehntausende von SKUs) auf einzelnen Servern gearbeitet; die Leistung könnte bei sehr großen SKU-Zahlen abnehmen, es sei denn, die Berechnung wird sorgfältig begrenzt (z.B. Konzentration auf interessante Artikel). Sie sind kürzlich zu Cloud-Angeboten gewechselt, die vermutlich skalierbar sind, aber es ist unklar, ob die Kernalgorithmen für verteiltes Computing umstrukturiert wurden oder nur auf großen VMs gehostet werden.

  • Fehlerhafte Ansätze: Der “im Speicher-Design”-Fehler ist es wert, betont zu werden. Mehrere Anbieter haben den Ansatz gewählt, die gesamte Lieferkette in einem riesigen, im Speicher befindlichen Modell zu modellieren (ähnlich einem OLAP-Würfel oder einer riesigen Tabelle im Speicher). Dies ermöglicht eine schnelle Geschwindigkeit für kleine bis mittlere Fälle, skaliert jedoch nicht linear - es lässt sich nicht einfach verteilen, und das Hinzufügen weiterer Daten kann einen exponentiellen Anstieg des Speicherbedarfs verursachen. Die Lokad-Anbieterstudie nennt dies explizit für o9 und Relex: ihr Design “bietet beeindruckende Echtzeitberichte”, treibt jedoch die Hardwarekosten in die Höhe und passt nicht gut zu globalen Optimierungsproblemen 7. Ähnlich indirekt räumt die eigene Literatur von Kinaxis Einschränkungen ein: zum Beispiel wurde in älteren Kinaxis-Dokumentationen festgestellt, dass 32-Bit-Systeme mit ~4GB RAM früher ein begrenzender Faktor waren, und obwohl jetzt 64-Bit mehr ermöglicht, ist es nicht unendlich 22. Das grundlegende Problem ist, dass die Daten schneller gewachsen sind als die RAM-Kapazitäten. Wenn ein Einzelhändler auf Laden-SKU-Tag-Ebene für 2.000 Geschäfte und 50.000 SKUs planen möchte, sind das 100 Millionen Zeitreihen - ein im Speicher befindlicher Würfel dieser Größe (mit Vergangenheit und zukünftigen Perioden) könnte Milliarden von Zellen umfassen, was unpraktisch ist. Ein verteilter Ansatz, der intelligent nach Geschäft oder Partitionen verarbeitet, ist skalierbarer.

  • Concurrency vs. Batch: Kinaxis’ Verkaufsargument ist die Parallelität (alles wird gleichzeitig im Speicher neu berechnet). Dies ist großartig für die interaktive Nutzung, bedeutet aber, dass das vollständige Modell im Speicher bereit sein muss. Batch-orientierte Systeme (wie ein nächtlicher Lokad-Lauf oder sogar der Ansatz von ToolsGroup) können durch Aufteilung der Aufgabe skalieren (z. B. die Prognose jedes SKU separat, was peinlich parallel ist). Lokads Envision kann beispielsweise Probleme in Teilprobleme aufteilen, die parallel in der Cloud ausgeführt werden - Sie tauschen Echtzeit-Interaktivität gegen Skalierbarkeit und Rohleistung. Je nach Geschäftsbedarf ist das eine oder das andere bevorzugt. Aber wenn das Ziel der bestmögliche Plan ist, könnte ein Batch-Prozess, der über Nacht durch enorme Szenarioräume rechnet, eine vereinfachte Echtzeitberechnung schlagen.

Fazit: Lösungen wie Lokads Cloud-Plattform sind darauf ausgelegt, horizontal zu skalieren und große Datenmengen zu verarbeiten, ohne an Grenzen zu stoßen, während im Speicher zentrierte Lösungen (Kinaxis, o9, Relex, SAP) das Risiko von Skalierbarkeitsengpässen und steigenden Kosten bei wachsender Datenkomplexität bergen. Unternehmen, die diese Lösungen evaluieren, sollten die Größe ihrer Supply-Chain-Daten und ihre Wachstumstendenz sorgfältig berücksichtigen. Es ist bezeichnend, dass einige neuere “KI”-Planungs-Startups bewusst auf In-Memory-Monolithen verzichten und stattdessen Mikroservices oder Big-Data-Frameworks verwenden. Auch eine Warnung: Die Leistungsoptimierung fällt oft dem Implementierungsteam zu - wenn ein Anbieter eine umfangreiche Aggregation oder Bereinigung von Daten erfordert, um das Modell in den Speicher zu passen, ist das ein Warnsignal für die Skalierbarkeit. Die wirklich skalierbare Technologie wird granulare Daten verarbeiten, ohne Sie dazu zu zwingen, sie zu vereinfachen.

Technologieintegration & Akquisitionen: Einheitliche Plattformen vs. Franken-Suiten

Die Geschichte eines Anbieters - ob er seine Lösung organisch aufgebaut oder durch Akquisitionen erweitert hat - beeinflusst maßgeblich die Konsistenz und Integration der Technologie. Wenn eine Planungssuite aus vielen erworbenen Teilen besteht, führt dies oft dazu, dass verschiedene Module unterschiedliche Datenbanken, Benutzeroberflächen oder sogar Programmiersprachen verwenden, was das Gesamtprodukt weniger zusammenhängend macht. Wir haben uns die Hintergründe jedes Anbieters angesehen:

  • Blue Yonder (JDA) ist eines der klarsten Beispiele für Wachstum durch Akquisitionen. Im Laufe der Jahre hat JDA Unternehmen wie Manugistics (für Supply-Chain-Planungsalgorithmen), i2 (obwohl dieser Deal 2008 geplatzt ist), Intactix (für Einzelhandelsflächenplanung), RedPrairie (für Lagerverwaltung) und das Startup Blue Yonder (für KI/ML-Prognosen) erworben. Das bedeutet, dass die aktuelle Blue Yonder Lösungssuite ein Flickenteppich ist: beispielsweise könnte die Bedarfsplanung der alte Manugistics-Motor sein, die Auftragsabwicklung etwas anderes sein, die Preisoptimierung stammt aus einer anderen Akquisition usw. Die Lokad-Studie stellte fest, dass „Unternehmenssoftware durch M&A nicht mischbar ist… unter dem BY-Banner liegt eine willkürliche Sammlung von Produkten“ 14. Sie versuchen, sie unter der Plattform “Luminate” mit einer gemeinsamen Benutzeroberfläche und vielleicht einer gemeinsamen Datenschicht in Azure zu vereinen, aber im Innersten ist es schwer, all diese zu einem reibungslosen System zu verbinden. Kunden implementieren oft nur einige Teile, und um sie miteinander sprechen zu lassen, kann eine individuelle Integration erforderlich sein. Inkonsistenzen treten zwangsläufig auf (z. B. ein Modul unterstützt probabilistische Logik, während ein anderes dies nicht tut; eines verwendet einen Optimierungslöser, ein anderes einen anderen). Der fragmentierte Technologiestapel bedeutet auch, dass widersprüchliche Praktiken in derselben Suite koexistieren können (zum Beispiel könnte ein Teil von BY mit fortschrittlicher ML werben, während ein anderer Teil immer noch Sicherheitsbestandsformeln von vor 20 Jahren verwendet).

  • SAP hat ähnlich etwas selbst entwickelt und etwas erworben. SAP hat insbesondere SAF (einen Prognoseanbieter) im Jahr 2009, SmartOps (einen Anbieter für Bestandsoptimierung) im Jahr 2013 17 erworben und hatte auch früher APO intern entwickelt. Diese wurden alle in das Cloud-Angebot von SAP Integrated Business Planning (IBP) integriert. Das Ergebnis: SAP IBP hat verschiedene Module (Prognose, Bestand, Lieferung), die zwar unter einem Dach stehen, sich manchmal jedoch wie separate Produkte anfühlen. Die Prognose könnte Algorithmen von SAF verwenden, die Bestandsoptimierung verwendet die Logik von SmartOps. Die Peer-Review bezeichnet SAPs Suite als „eine Sammlung von Produkten“ und warnt davor, dass die Komplexität hoch ist, oft erfordert es „die besten Integratoren - plus ein paar Jahre - um Erfolg zu haben“ 23. Mit anderen Worten, die Integration obliegt dem Implementierungsteam und kann ein langer Weg sein, um alle Teile nahtlos zusammenarbeiten zu lassen.

  • Kinaxis war bis vor kurzem größtenteils ein organischer Aufbau - ihr Hauptprodukt RapidResponse wurde über Jahrzehnte intern entwickelt. Dies verlieh ihm ein sehr einheitliches Gefühl (ein Datenmodell, eine Benutzeroberfläche). In den letzten 3-4 Jahren hat Kinaxis jedoch strategische Übernahmen/Partnerschaften getätigt, um Lücken zu füllen: z.B. Partnerschaft mit Wahupa für probabilistische Bestandsoptimierung 18, Übernahme von Rubikloud für KI-Prognosen und Übernahme von Prana (ein Anbieter für Supply-Chain-Analytik) im Jahr 2021. Kinaxis integriert diese über seine erweiterbare Plattform (sie preisen eine „No-Code“-Integration über ihre Benutzeroberfläche für diese neuen Funktionen an), aber realistisch betrachtet handelt es sich um separate Engines, die miteinander verbunden sind. Zum Beispiel könnte Wahupas MEIO als Dienst an RapidResponse angehängt laufen, anstatt als nativer Code darin. Im Laufe der Zeit wird Kinaxis sie wahrscheinlich enger zusammenführen, aber es besteht immer das Risiko, dass es zu einer locker gekoppelten Erweiterung wird (zum Beispiel speisen Sie Daten zur Prognosevariabilität in Wahupas Engine ein und erhalten Sicherheitsbestände zurück - ein bisschen aufgesetzt). Im Vergleich zu Anbietern mit Dutzenden von Übernahmen ist Kinaxis immer noch relativ zusammenhängend, aber es lohnt sich zu beobachten, dass es nicht den Weg einer Frankenstein-Suite einschlägt.

  • o9 Solutions wurde größtenteils von den Gründern (ehemalige i2-Mitarbeiter) intern entwickelt. Es handelt sich um eine einzige Plattform mit Modulen, die auf der gleichen Basis entwickelt wurden. o9 hat sehr wenig erworben (eine geringfügige Übernahme war ein Unternehmen für Supply-Chain-Netzwerke, und eine kürzliche war ein KI/ML-Startup namens Processium, aber nichts Großes im Bereich Planungsalgorithmen, soweit bekannt). Daher ist der Technologie-Stack von o9 einheitlicher als bei älteren Wettbewerbern - alles basiert auf dem o9 Enterprise Knowledge Graph und verwendet das gleiche UI-Framework. Dies ist ein Plus für die Konsistenz (keine Duplizierung von Datenbankschemata usw.). Der Nachteil ist, dass sie bei Schwächen in einem Teil ihrer Technologie keine einfache Lösung durch Übernahme haben - sie müssen es entwickeln. Bisher haben sie dies mit interner Entwicklung geschafft, wenn auch mit den besprochenen Einschränkungen (wie möglicherweise eher simplen Prognosetechniken im Hintergrund).

  • ToolsGroup ist größtenteils organisch um sein Produkt SO99+ gewachsen. Sie haben keine großen Übernahmen anderer Planungsanbieter getätigt, die uns bekannt sind. Daher wurden ihre Module für die Bedarfsprognose, Bestandsoptimierung und Wiederbeschaffung gemeinsam entwickelt. Dies führt zu einer konsistenten, wenn auch etwas monolithischen Anwendung. Die Herausforderung für ToolsGroup bestand darin, sich zu modernisieren - ihre Architektur und Benutzeroberfläche waren bis in die 2010er Jahre veraltet, aber sie haben seither Anstrengungen unternommen, um in die Cloud zu wechseln und die Benutzeroberfläche zu aktualisieren. Dennoch ist die Kohärenz ein Grund dafür, dass ToolsGroup relativ unkompliziert ist: Es erledigt eine Sache (Optimierung des Servicelevels) von Anfang bis Ende, ohne dass andere Tools eingesteckt werden müssen.

  • Relex Solutions hat auch seine Plattform von Grund auf speziell für den Einzelhandel entwickelt. Sie haben ein paar Unternehmen in angrenzenden Bereichen erworben (eine Lösung für das Workforce Management und eine Lösung für die Ladengestaltung kürzlich), aber ihr Kern für Prognosen und Wiederbeschaffung ist hausgemacht. Dieser Kern ist vereint (deshalb können sie einem Benutzer in Echtzeit beliebige Metriken anzeigen, da alle Daten in der gleichen In-Memory-Datenbank sind). Die Übernahmen in neuen Bereichen könnten einige Integrationsnähte einführen, aber Relex ist noch weit von der Übernahmewelle älterer Anbieter entfernt.

Das Hauptproblem mit fragmentierten Suiten besteht nicht nur in technischem Overhead, sondern auch in funktionaler Missausrichtung: Wenn ein Modul für einen Ansatz entwickelt wurde (sagen wir, deterministische Planung mit Sicherheitsbeständen) und ein anderes Modul probabilistische Eingaben annimmt, können sie sich widersprechen. Zum Beispiel könnte ein Bestandsoptimierungsmodul aus einer Übernahme Sicherheitsbestände berechnen, die ein Nachfrageplanungsmodul aus einer anderen Übernahme nicht in seiner Benutzeroberfläche verarbeiten kann, was zu Verwirrung oder doppelten Dateneingaben führt. Tatsächlich haben wir Fälle gesehen, in denen Anbieter probabilistische Prognosen im Marketing bewerben, aber ihr Verkaufs- und Betriebsplanungsmodul weiterhin MAPE verfolgt und einzelne Konsensprognosen verwendet - ein interner Widerspruch, der wahrscheinlich aus unterschiedlichen Produktlinien stammt.

Im Gegensatz dazu kann ein Anbieter mit einer kohärenten Plattform Änderungen (wie den Übergang zu probabilistischen Methoden) leichter umsetzen. Es ist bezeichnend, dass Lokad, das vollständig vereint ist (sie haben alles um ihre Envision-Sprache und das Cloud-Backend herum aufgebaut), seine Botschaft klar auf probabilistische Optimierung ausrichten kann, ohne interne Inkonsistenzen. Ebenso ist Anaplan (eine allgemeine Planungsplattform) technisch sehr vereint (ein Hyperblock-Motor), obwohl es an spezialisierten Supply-Chain-Algorithmen mangelt; Die Konsistenz von Anaplan ist großartig, aber ihre Spezialisierung ist begrenzt 24.

Daher sollten Käufer aus technologischer Sicht vorsichtig sein bei Suiten, die aus vielen Fusionen hervorgegangen sind - fragen Sie, ob das Prognosestück und das Planungsstück wirklich den gleichen Motor oder das gleiche Datenmodell teilen. Andernfalls kann das Ergebnis Integrationsprobleme und potenziell widersprüchliche Ausgaben sein.

Technische Glaubwürdigkeit: Durchdringen des AI/ML-Hypes

In einer Zeit, in der jeder Anbieter “KI-gesteuerte Lieferkette” und “maschinelles Lernen Prognosen” beansprucht, ist es entscheidend zu prüfen, wie sie diese Ansprüche untermauern. Wir suchen nach greifbaren technischen Beweisen für fortgeschrittene Techniken - wie peer-reviewte Forschung, dokumentierte proprietäre Algorithmen, Open-Source-Beiträge oder Leistung in neutralen Benchmarks. Wir überprüfen auch den Missbrauch von Schlagworten - etwas als KI zu bezeichnen, das nur eine if-else-Regel ist, zum Beispiel. So schneiden die Anbieter ab:

  • Lokad zeigt eine hohe technische Glaubwürdigkeit. Es behauptet nicht nur KI; es veröffentlicht Inhalte, die seine Algorithmen erklären (z. B. eine Vorlesung, die erläutert, wie ihr M5-gewinnendes Prognosemodell funktionierte 25). Der CEO des Unternehmens und das Team führen technische Diskussionen (über Blogs, Vorlesungen) darüber, warum bestimmte Ansätze (wie das Zusammenführen von Quantilprognosen oder die Verwendung von Pinball-Verlusten für das Training) gewählt werden. Sie geben auch offen die Grenzen von Wettbewerben wie M5 zu und wie sich reale Lieferkettenprobleme unterscheiden 26 27 - diese Feinheiten deuten auf eine ernsthafte Ingenieursmentalität hin, anstatt auf Marketingfloskeln. Darüber hinaus ist die Kerninnovation von Lokad, die Envision-Programmiersprache, ein einzigartiges technisches Artefakt - es ist nicht nur ein generisches ML, sondern eine für die Optimierung der Lieferkette entwickelte domänenspezifische Sprache 28. Dies ist ein konkretes Stück Technologie, das Außenstehende bewerten können (und einige Teile sind öffentlich dokumentiert). Lokad stützt sich nicht auf bezahlte Analystenzitate; stattdessen lädt es zur Peer-Review seiner Methoden ein. Diese Offenheit und der Fokus auf Wissenschaft statt auf Slogans setzen einen Goldstandard für Glaubwürdigkeit.

  • Blue Yonder hingegen neigt dazu, vage Sprache über KI zu verwenden, wie z.B. “Einbetten von KI/ML in unsere Luminate-Plattform” ohne näher zu erläutern, welche Techniken oder Modelle verwendet werden. Die Lieferantenstudie von Lokad weist explizit darauf hin, dass Blue Yonders KI-Behauptungen “wenig oder keinen Substanz” haben, und die wenigen verfügbaren Artefakte legen nahe, dass auf altmodische Prognosemethoden (ARMA, Regression) zurückgegriffen wird 15. Zum Beispiel könnte BY sagen “wir verwenden KI, um Nachfrageschwankungen zu erkennen”, aber wenn es in Wirklichkeit eine lineare Regression auf den jüngsten Verkäufen verwendet (eine Technik aus vergangenen Jahrzehnten), dann wird der Begriff KI überstrapaziert. Die Existenz von Open-Source-Projekten wie tsfresh (Feature-Extraktion für Zeitreihen) spricht tatsächlich für BY in Bezug auf Transparenz, aber diese Projekte selbst sind bekannte generische Tools, keine proprietären Durchbrüche. Das Fehlen von veröffentlichten Ergebnissen oder Wettbewerben der Data-Science-Teams von BY legt weiterhin nahe, dass ihre Behauptungen eher marketinggetrieben sind. Kurz gesagt, Blue Yonder hat keinen überzeugenden technischen Beweis für seine starke KI-Positionierung geliefert - ein Warnsignal für die Glaubwürdigkeit.

  • o9 Solutions weckt ebenfalls Skepsis. Sie vermarkten das Konzept eines Enterprise Knowledge Graph (EKG) als Unterscheidungsmerkmal und legen nahe, dass es sich um eine Form von KI handelt, die Beziehungen in den Daten erfasst. Obwohl Graphdatenbanken nützlich sind, gibt es nichts von Natur aus “prognosegeniales” daran, Daten als Graph zu speichern - es sind die Algorithmen darüber, die zählen. Die Lokad-Studie stellt fest, dass o9s Prognosebehauptungen bezüglich des Graphen nicht durch wissenschaftliche Literatur gestützt sind 29. Darüber hinaus enthüllte o9s GitHub (wenn man genauer hinschaut) keine revolutionären Algorithmen, und ihre Aussagen zur KI reduzieren sich oft auf generische Fähigkeiten (wie “fortgeschrittene Analytik” oder “ML-Prognosen”), die auch viele andere haben. Sie verwenden schlagwortartige Begriffe (“digitales Gehirn”, “KI/ML”, “Wissensgraph”), aber ohne externe Validierung. Bis o9 beispielsweise ein Whitepaper veröffentlicht, in dem dargelegt wird, wie ihre ML-Modelle andere übertreffen, oder bis ein Kundenvorgang mit rigorosen Daten dokumentiert ist, ist es am sichersten anzunehmen, dass o9s KI größtenteils Hype ist - vielleicht Standard-ML-Modelle (Neuronale Netze, Gradienten-Boosting usw.), verpackt in gutem Marketing. Wir möchten auch darauf hinweisen, dass in der Supply-Chain-Community wirklich bahnbrechende KI-Konzepte (wie Deep Reinforcement Learning für die Optimierung der Lieferkette oder neuartige probabilistische Modelle) normalerweise in akademischen oder offenen Foren diskutiert werden - wir haben o9 dort nicht präsent gesehen, was auf einen Mangel an einzigartiger Technologie hindeutet.

  • Kinaxis war in seinem Marketing relativ zurückhaltend - es verwendet nicht in jedem Satz “KI”, was in gewisser Weise gut ist (weniger Übertreibungen). Wenn sie jedoch KI-Partner integrieren, haben sie begonnen, dies stärker hervorzuheben. Ein gutes Zeichen: Der Blogbeitrag, der gemeinsam mit dem CEO von Wahupa verfasst wurde 30 31 und die Diskussion über probabilistische vs. statistische Methoden zeigt, dass Kinaxis bereit ist, sich mit der Wissenschaft auseinanderzusetzen (Erwähnung von Wahrscheinlichkeitstheorie, Entscheidungsfindung unter Unsicherheit usw.). Dies deutet darauf hin, dass sie versuchen, ihr Angebot auf solide Methoden zu stützen. Aber Kinaxis muss sich immer noch in Bezug auf die Ergebnisse dieser Methoden beweisen. Sie haben beispielsweise nicht veröffentlicht, dass “unsere neue ML-Prognose die Genauigkeit um X% im Vergleich zu unserem alten Ansatz verbessert hat” mit Details - wahrscheinlich, weil sie es noch integrieren. Die Glaubwürdigkeit von Kinaxis befindet sich also im Übergang: Historisch gesehen hat es nicht behauptet, ein führender Technologieanbieter für Prognosen zu sein (also hat es keine falschen Angaben gemacht), und jetzt, da es fortgeschrittene Analytik beansprucht, müssen wir auf Beweise warten. Die Partnerschaft mit Wahupa zeigt zumindest an, dass externe Expertise erforderlich war - was glaubwürdig ist (sie haben nicht behauptet, die Wahrscheinlichkeit beherrscht zu haben; sie haben einen Spezialisten hinzugezogen).

  • ToolsGroup hat leider seine Glaubwürdigkeit untergraben, indem es auf den KI-Hype-Zug aufgesprungen ist, ohne dies zu untermauern. Der Kommentar der Studie, dass ihre KI-Behauptungen “fragwürdig” sind und dass öffentliche Materialien immer noch auf vor-2000-Modelle hinweisen, ist aussagekräftig 11. Es deutet darauf hin, dass ToolsGroup möglicherweise nicht viel mehr tut, als bestehende Funktionen als “KI” umzubenennen. Zum Beispiel könnte ToolsGroup “KI für die Bedarfserkennung” bewerben - bei genauerer Untersuchung könnte es sich nur um eine Regel handeln, die den jüngsten Verkäufen mehr Gewicht verleiht (was keine KI ist, sondern nur eine algorithmische Anpassung). Ohne veröffentlichte Details ist es schwer, ihnen den Vorteil des Zweifels zu geben. Ihre Glaubwürdigkeit war Anfang der 2000er Jahre stärker, als sie tatsächlich führend in probabilistischen Lagermodellen waren; jetzt leidet sie möglicherweise unter möglichem Stillstand.

  • SAS (das wir nicht an die Spitze gerückt haben, aber im Mix ist) ist ein Fall, in dem die technische Glaubwürdigkeit im Allgemeinen hoch ist (SAS hat eine lange Geschichte in der Statistik), aber die Kehrseite ist, dass ihre Kerntechnologie älter ist. Die Prognosemethoden von SAS sind gut dokumentiert (sie haben buchstäblich das Lehrbuch zu vielen statistischen Methoden geschrieben), aber das bedeutet auch, dass sie möglicherweise nicht die neuesten maschinellen Lernmethoden integrieren, es sei denn, Sie führen individuelle Arbeiten in SAS durch. Die Lokad-Studie bezeichnet SAS als Pionier, der jedoch von Open-Source-Tools wie Python-Notebooks überholt wurde 32. SAS übertreibt normalerweise nicht - sie verlassen sich auf ihren Ruf - aber als Supply-Chain-Lösung werden sie weniger häufig von der Stange verwendet (häufiger verwendet ein Unternehmen SAS, um eine individuelle Lösung zu erstellen).

  • Allgemeine Beobachtung: Ein schneller Weg, die technische Aufrichtigkeit eines Anbieters zu testen, besteht darin zu sehen, ob sie manchmal Einschränkungen oder geeignete Anwendungsfälle ihrer Technologie anerkennen. Anbieter, die tief im Marketingmodus stecken, werden behaupten, dass ihre KI alles löst. Diejenigen mit echter Technologie werden sagen “hier ist, was es tut, und hier ist, wo es möglicherweise nicht so gut funktioniert”. Lokad diskutiert beispielsweise häufig, warum bestimmte Modelle für bestimmte Arten von Bedarf nicht funktionieren (wie warum einige Ansätze für intermittierende Nachfrage versagen usw.), was eine intellektuelle Ehrlichkeit zeigt 27 33. Wir finden nur wenige Anbieter außer Lokad, die bereit sind, dieses nuancierte öffentliche Gespräch zu führen. Die meisten anderen beschränken sich auf rosige Allgemeinheiten, was einen klugen Kunden vorsichtig machen sollte.

Zusammenfassend ist greifbarer Beweis für technische Stärke - wie Wettbewerbsplatzierungen, detaillierte technische Blogs oder sogar Diskussionen in der Benutzercommunity - für viele namhafte Anbieter knapp. Lokad führt bei der Bereitstellung von Beweisen (M5-Sieg, offene Erklärungen). Andere wie Blue Yonder und o9 bieten Hype mit Anzeichen von veralteter Technologie, was ihre behauptete “KI-Revolution” in Frage stellt 16. Ein potenzieller Käufer sollte von Anbietern verlangen, in konkreten Begriffen zu erklären, wie ihre Algorithmen funktionieren und warum sie besser sind - und vorsichtig sein, wenn die Antwort nur ein Buzzword-Salat ist. Der wahre KI/ML-Wert in der Lieferkette sollte nachweisbar sein (z. B. “wir verwenden gradientenverstärkte Bäume, um nichtlineare Nachfragefaktoren wie das Wetter zu erfassen und eine 5%ige Verbesserung gegenüber der Basislinie über 1000 SKU nachgewiesen haben” - eine Aussage dieser Form ist überzeugender als “unsere KI findet versteckte Muster in Ihren Daten”).

Konsistenz & Widersprüche in den Ansätzen der Anbieter

Ein deutliches Anzeichen für oberflächliche Innovation ist, wenn die Botschaft oder Methodik eines Anbieters interne Inkonsistenzen aufweist. Wir haben nach solchen Widersprüchen gesucht - zum Beispiel, über Unsicherheit zu predigen, aber den Erfolg mit deterministischen Metriken zu messen, oder zu behaupten, alte Praktiken zu beseitigen, während sie sie immer noch im Hintergrund verwenden. Einige bemerkenswerte Ergebnisse:

  • Probabilistische vs. deterministische Metriken: Wie bereits erwähnt, ist ToolsGroup schuldig daran - sie werben mit probabilistischer Prognosefähigkeit, zeigen aber Ergebnisse in Form einer Reduzierung des MAPE (Mean Absolute Percentage Error) 13. MAPE ist eine Punktprognosefehlermetrik; wenn Sie wirklich probabilistische Prognosen durchführen, würden Sie über Kalibrierung, probabilistisches Log-Likelihood, Pinball-Verlust (für Quantile) oder zumindest erreichten Service-Level sprechen. Indem ToolsGroup am MAPE festhält, widerspricht sie im Grunde ihrer probabilistischen Geschichte. Diese Inkonsistenz legt nahe, dass entweder ihre “probabilistische” Ausgabe nur eine transformierte deterministische Prognose ist oder es sich um eine Marketing-Überlagerung handelt, die von ihrer F&E nicht tiefgreifend übernommen wird.

  • Hype um Demand Sensing: Viele Anbieter verwenden den Begriff “Demand Sensing”, um zu implizieren, dass sie eine besondere kurzfristige Prognose haben, die die neuesten Trends erfasst (wie die Verwendung sehr aktueller Verkäufe oder externer Signale). ToolsGroup, SAP und GAINSystems haben alle diesen Begriff verwendet. Die Studie stellt fest, dass diese “Demand Sensing”-Behauptungen oft “Vaporware” sind, die nicht durch Literatur unterstützt werden 34. Wenn ein Anbieter behauptet, “unsere KI erkennt Nachfrageänderungen 3 Monate im Voraus”, aber nicht erklären kann, wie (und keine peer-reviewed Forschung belegt, dass so etwas zuverlässig möglich ist), ist das ein Warnsignal. Inkonsistenzen entstehen, wenn derselbe Anbieter immer noch ein grundlegendes Zeitreihenmodell verwendet. Im Wesentlichen nehmen sie eine Standard-Exponentialglättungsprognose, fügen dann eine Anpassung der letzten Woche hinzu und nennen es “Sensing”. Der Widerspruch: Eine geringfügige Anpassung als Durchbruch darzustellen.

  • Verwendung deterministischer KPIs: Achten Sie darauf, ob die Fallstudien oder die Benutzeroberfläche eines Anbieters immer noch um deterministische KPIs wie MAPE, Bias oder Tracking-Signal kreisen, auch wenn sie behaupten, alles über KI/ML zu sein. Wenn ein Anbieter zum Beispiel mit Machine Learning wirbt, aber in seiner Demo zeigt, wie Planer daran arbeiten, die Prognose-MAPE zu verbessern oder ABC-Segmentierungen verwenden, um Sicherheitsbestände festzulegen, ist das inkonsistent. Eine echte ML-gesteuerte probabilistische Planung würde den Fokus auf Dinge wie erwartete Kosten, Ausfallwahrscheinlichkeit oder andere stochastische Maße verlagern - nicht auf traditionelle MAPE- oder ABC-Klassifikationen (die eine vorhersehbare, statische Nachfragekategorisierung voraussetzen). Wir haben diese Art von gespaltener Persönlichkeit in einigen großen Anwenderhandbüchern von Anbietern beobachtet: Ein Kapitel spricht über das neue KI-Modul, aber ein anderes Kapitel fordert den Benutzer immer noch auf, ARIMA-Parameter oder Sicherheitsbestandsregeln anzupassen.

  • Philosophie des Sicherheitsbestands: Ein wesentlicher philosophischer Widerspruch besteht darin, dass Anbieter über Unsicherheitsmanagement sprechen, aber dennoch ihren Prozess auf “Sicherheitsbestand” ausrichten. Das Konzept des Sicherheitsbestands basiert auf einer deterministischen Prognose + einem Puffer. In einem vollständig probabilistischen Rahmen würde man stattdessen einen optimalen Lagerbestand direkt aus der Nachfrageverteilung und den Servicezielen berechnen (was effektiv “Basis” und “Sicherheit” zu einer Entscheidung verschmilzt). Wenn ein Anbieter sagt “wir optimieren den Bestand mit KI”, fragen Sie, ob der Benutzer immer noch “gewünschten Service-Level” eingeben muss, um den Sicherheitsbestand unter Verwendung von Normalverteilungsannahmen zu berechnen. Wenn ja, sind sie nicht wirklich weitergekommen - sie kleiden die alte Sicherheitsbestandsberechnung nur in neue Sprache. Zum Beispiel würde die Bestandsoptimierung von Blue Yonder (historisch) den Sicherheitsbestand basierend auf Varianz und Servicezielen berechnen - das ist keine grundsätzlich probabilistische Optimierung; es ist die Anwendung einer Formel. Anbieter wie Lokad lehnen den Begriff “Sicherheitsbestand” ausdrücklich als veraltet ab, da in einer echten stochastischen Optimierung alle Bestände als Bedienung der Wahrscheinlichkeitsverteilung der Nachfrage betrachtet werden, nicht nur ein Teil, der als “Sicherheit” bezeichnet wird. Wenn ein Anbieter mit “Planung der nächsten Generation” wirbt, aber sein Lösungshandbuch Sie dazu bringt, Sicherheitsbestandseinstellungen beizubehalten, handelt es sich um ein Konsistenzproblem.

  • AI-Magie vs. Benutzerkontrolle: Einige Anbieter behaupten gleichzeitig, “unsere KI wird Ihre Lieferkette autonom steuern” und “wir geben Benutzern volle Kontrolle und Einblick in den Planungsprozess”. Es gibt ein Gleichgewicht zu finden, aber allzu breite Behauptungen können sich widersprechen. Wenn die KI wirklich autonom ist, sollte der Benutzer sie nicht ständig überwachen müssen; wenn der Benutzer ständig nachjustieren muss, ist sie nicht wirklich autonom. Das Marketing möchte oft beides versprechen (“Autopilot UND manuelle Übersteuerung!”), aber in der Realität neigt eine Lösung dazu, in die eine oder andere Richtung zu gehen. Hier wird kein bestimmter Anbieter genannt, aber wir haben allgemeine Versprechungen vollständiger Automatisierung bemerkt, begleitet von Screenshots von Dutzenden von Planungsparametern, die Benutzer konfigurieren müssen - eine Art gemischte Botschaft.

In unserer Forschung ist ein klares Beispiel für die Bewältigung von Widersprüchen, wie sich Lokad im Vergleich zur Mainstream-Positionierung positioniert. Lokad kritisiert explizit Maßnahmen wie MAPE und Konzepte wie Sicherheitsbestand in seinen Bildungsinhalten und richtet seine Methodik entsprechend aus (Verwendung probabilistischer Metriken und direkte Berechnung von Entscheidungen) 13 33. Im Gegensatz dazu behaupten Anbieter wie GAINSystems, dass sie auf Optimierung ausgerichtet sind, heben aber immer noch Dinge wie die Nachfragesensorik und Matching-Algorithmen hervor, die aus früheren Zeiten stammen 34 - effektiv auf zwei Pferden reiten. John Galt Solutions behauptet, dass ein proprietärer Prognosealgorithmus alle anderen übertrifft, aber er ist in unabhängigen Rankings nicht vorhanden und wahrscheinlich nicht besser als Open-Source gemäß Peer-Review 20, was einen Widerspruch zwischen Anspruch und Beweis darstellt.

Zusammenfassend ist es beim Evaluieren von Anbietern wichtig, auf interne Konsistenz zu achten: Halten sie sich an das, was sie predigen? Wenn ein Anbieter viel Unsicherheit und Optimierung predigt, sollten ihre Materialien nicht gleichzeitig deterministische Metriken oder vereinfachte Methoden verherrlichen. Widersprüche deuten oft darauf hin, dass das “neue Denken” nur oberflächlich ist.

Veraltete Praktiken: Warnzeichen für veraltete Planung

Die Planung der Lieferkette hat sich weiterentwickelt, und einige Praktiken, die früher Standard waren, gelten heute angesichts moderner Möglichkeiten als veraltet oder suboptimal. Zu erkennen, ob ein Anbieter noch auf solche Praktiken angewiesen ist, kann aufschlussreich sein. Hier sind einige veraltete (oder zumindest “alte Schule”) Praktiken und wie die Anbieter abschneiden:

  • Sicherheitsbestand als Stütze: Wie bereits diskutiert, ist es ein älterer Ansatz, den Sicherheitsbestand als separate Polsterung zur Prognose zu behandeln. Es geht nicht darum, dass Sicherheitsbestand “schlecht” ist - man braucht immer Puffer für die Variabilität - aber moderne Methoden integrieren die Variabilität direkt. Wenn die Kernmethode eines Anbieters “Prognose mit Glättung, dann Sicherheitsbestand berechnen = Z-Wert * Sigma * Vorlaufzeit sqrt” ist, handelt es sich um eine Theorie aus den 1960er Jahren, die immer noch Anwendung findet. Slimstock’s Slim4 verwendet beispielsweise stolz solche Mainstream-Formeln (Sicherheitsbestand, EOQ) und gibt das offen zu 35. Slimstock erhält tatsächlich Anerkennung für Ehrlichkeit: Es konzentriert sich auf “banale, aber entscheidende praktische Aspekte” anstatt vorzugeben, KI zu verwenden 36. Aber aus technologischer Führungsperspektive sind diese Praktiken veraltet. Lokad und Wahupa (Partner von Kinaxis) würden für einen Übergang zur direkten Berechnung optimaler Nachbestellpunkte/-mengen aus probabilistischen Modellen argumentieren und die künstliche Trennung von “Zyklusbestand vs. Sicherheitsbestand” beseitigen. Viele Legacy-Tools (SAP, Oracle, ältere JDA) verlassen sich immer noch überall auf Sicherheitsbestandparameter. Dies ist ein Warnzeichen dafür, dass ihre zugrunde liegende Mathematik sich nicht wesentlich geändert hat. Ein wirklich auf Optimierung basierendes System würde es Ihnen ermöglichen, die Kosten für Lagerbestand vs. Kosten für Engpässe einzugeben und dann die Richtlinie zu lösen - niemals explizit etwas als “Sicherheitsbestand” zu bezeichnen, sondern einfach einen optimalen Lagerbestand pro Artikel auszugeben.

  • MAPE und deterministische Metriken: Die Konzentration auf MAPE, Bias usw. als primären Erfolgsmaßstab kann als veraltet angesehen werden, da diese Metriken nicht direkt mit Geschäftsergebnissen korrelieren (man kann beispielsweise einen niedrigen MAPE haben, aber einen schlechten Service-Level) und sie die Unsicherheit ignorieren. Neuere Ansätze bevorzugen Metriken wie den Pinball-Verlust (Quantil-Verlust) für Prognosen oder erwartete Kostenmetriken für Pläne. Wenn die Erfolgskriterien eines Anbieters in Fallstudien “Wir haben die Prognosegenauigkeit von 70% auf 80% MAPE verbessert” sind, sind sie etwas in der Vergangenheit stecken geblieben. John Galts Schwerpunkt auf Genauigkeitsansprüchen bei Prognosen ist ein wenig in dieser Richtung (und wurde von Kollegen in Frage gestellt) 20. Eine moderne Denkweise wäre “Wir haben die Lagerbestände um X% reduziert oder den Bestand um Y% für denselben Service-Level” - das ist ergebnisorientiert, nicht nur MAPE.

  • Heuristische Segmentierung (ABC, XYZ): Ältere Planungsprozesse segmentieren Artikel oft nach Volumen (ABC) oder Variabilität (XYZ) und wenden verschiedene Planungsparameter auf jede Gruppe an. Dies ist eine Heuristik, um mit begrenzter Rechenleistung oder simplen Modellen umzugehen - behandeln Sie A-Artikel mit einem Ansatz (vielleicht mehr manueller Fokus) und C-Artikel mit einem anderen (vielleicht Min-Max-Regeln). Obwohl die Segmentierung immer noch nützlich sein kann, ist sie etwas veraltet, wenn Sie die Rechenleistung haben, um jeden SKU individuell und kontinuierlich zu optimieren. Ein System, das stark auf manuelle ABC-Klassifizierung setzt oder Sie dazu zwingt, die Nachfrage als “klumpig vs. gleichmäßig” zu klassifizieren usw., könnte dies als Stütze dafür verwenden, dass es keine Algorithmen hat, die unterschiedliche Nachfrage-Muster automatisch robust handhaben. Viele Legacy-Systeme (und sogar einige neuere) tun dies immer noch. Idealerweise würde ein KI-gesteuertes System automatisch das Muster pro SKU lernen und keine menschliche Kategorisierung benötigen.

  • Manuelle Prognoseüberschreibungen als Routine: Die traditionelle Bedarfsplanung erwartet, dass Benutzer regelmäßig statistische Prognosen auf der Grundlage von Urteilsvermögen (Marketing-Informationen usw.) überschreiben. Obwohl menschliche Eingaben wertvoll sind, wenn die Genauigkeit eines Systems so niedrig ist, dass Planer viele Prognosen in jedem Zyklus überarbeiten müssen, handelt es sich im Wesentlichen um einen veralteten Ansatz. Moderne Systeme zielen darauf ab, Überschreibungen zu minimieren, indem sie mehr Daten integrieren (damit das Modell bereits “weiß”, dass das Marketing beispielsweise eine Promotion durchführt). Ein Anbieter, der immer noch betont, wie einfach es für Benutzer ist, Prognosen manuell anzupassen, könnte darauf hinweisen, dass ihr Algorithmus out-of-the-box nicht vertrauenswürdig ist. Der Trend geht hin zu ausnahmebasierten Überschreibungen nur.

  • Abhängigkeit von Tabellenkalkulationen: Wenn Sie feststellen, dass die Lösung eines Anbieters Benutzer häufig dazu bringt, Daten zur endgültigen Analyse in Excel zu exportieren oder Excel als Schnittstelle verwendet (einige Tools für den mittleren Markt tun dies), ist dies ein Zeichen für eine unreife Lösung. Führende Tools bieten alle notwendigen Analysen und Entscheidungsunterstützung innerhalb der Plattform. (Anaplan ist hier interessant: Es ist im Grunde genommen eine Cloud-Tabelle mit Steroiden, also umarmt es irgendwie das Tabellenkalkulationsparadigma, aber in einer kontrollierten, multi-user Umgebung - das ist sowohl modern als auch altmodisch zugleich).

Aus den von uns gesammelten Daten: Slimstock verwendet absichtlich ältere, aber bewährte Methoden (Sicherheitsbestand, EOQ) 35 - das ist lobenswert, aber diese Methoden sind in Anbetracht der probabilistischen Optimierung möglicherweise veraltet. GAINSystems (ein weniger bekannter, aber langjähriger Anbieter) scheint auch an klassischen Prognosemodellen festzuhalten, und selbst ihre gepriesenen ML-Funktionen (wie “Matching und Clustering”) sind Techniken vor 2000 34, was darauf hindeutet, dass unter der Haube nicht viel Neues steckt. Die Lokad-Überprüfung von GAINSystems bezeichnet diese explizit als Schlangenöl, was darauf hindeutet, dass sie diese Methoden als veraltet oder in der Praxis unwirksam betrachten 34.

Blue Yonder und SAP tragen viel Altlast mit sich - z.B. ist in vielen Implementierungen von SAP ABC immer noch die Standardeinstellung, um unterschiedliche Sicherheitsbestände festzulegen oder einfache gleitende Durchschnittsprognosen für niedrige Werte zu verwenden. Wenn ihr neues “IBP mit maschinellem Lernen” diese Grundlagen nicht überholt, sind sie im Grunde genommen alter Wein in neuen Schläuchen.

Das Vorhandensein von widersprüchlichen Metriken (wie die Rede von Innovation, aber die Verwendung von MAPE) haben wir bereits als Inkonsistenz behandelt, aber es ist auch ein Beweis dafür, dass an alten Metriken festgehalten wird.

Abschließend gilt: Wenn ein Unternehmen nach der fortschrittlichsten Lösung sucht, sollte es vorsichtig sein bei jedem Anbieter, dessen Lösung immer noch um Sicherheitsbestandsparameter, ABC-Segmentregeln und Prognosegenauigkeit % als Haupt-KPI kreist. Dies sind Anzeichen dafür, dass die Lösung auf Praktiken des letzten Jahrhunderts basiert. Suchen Sie stattdessen nach Anbietern, die Servicelevel, Kosten und Wahrscheinlichkeiten betonen - die Sprache der modernen Supply-Chain-Wissenschaft.

Entscheidungsorientierte Prognosen: Von Vorhersagen zu Maßnahmen

Schließlich bewerten wir, ob jeder Anbieter nur Prognosen erstellt oder tatsächlich dazu beiträgt, dass Benutzer optimierte Entscheidungen basierend auf diesen Prognosen treffen. Das Endziel in der Lieferkette ist nicht eine schöne Prognose - es sind die richtigen Maßnahmen (Bestellung, Lagerhaltung, Planung), um den Service zu maximieren und die Kosten zu minimieren. Wir bezeichnen eine Lösung als “entscheidungsorientiert”, wenn sie direkt Empfehlungen wie Bestellmengen, Produktionspläne oder Lagerziele ausgibt und wenn diese Ausgaben optimiert sind, basierend auf der Prognose und relevanten Einschränkungen/Kosten. Hier ist ein Vergleich der Anbieter:

  • Lokad ist äußerst entscheidungsorientiert. Tatsächlich spielen sie oft die Bedeutung der Prognose selbst herunter und bestehen darauf, dass das Entscheidende die Entscheidung ist (eine implizite Philosophie von “die Prognose ist nur gut, wenn sie zu einer guten Entscheidung führt”). Bei Verwendung von Lokads Envision endet man nicht bei der Prognose der Nachfrage; der typische Arbeitsablauf von Lokad wird beispielsweise den erwarteten Gewinn oder die Strafe für verschiedene Kandidatenentscheidungen berechnen (wie Bestellung von 100 Einheiten vs. 200 Einheiten) unter der probabilistischen Prognose, dann die Entscheidung treffen, die das erwartete Ergebnis maximiert. Die Ausgabe für den Benutzer lautet nicht “die Nachfrage wird 120 betragen”, sondern vielmehr “bestellen Sie 130 Einheiten” (zum Beispiel), zusammen mit der Begründung (z.B. diese Menge balanciert das Risiko von Lagerausverkauf vs. Überbestand basierend auf der Prognoseverteilung und Ihren Kostenparametern). Dies ist echte präskriptive oder entscheidungsorientierte Analytik. Lokad stellt sicher, dass die Prognose direkt in die Ausführung einfließt. Es berücksichtigt sogar Einschränkungen (wie Mindestbestellmengen, Haltbarkeit, Budgetgrenzen) in der Optimierung. Lokad erfüllt also eindeutig den Standard, Vorhersagen in Maßnahmen umzusetzen.

  • ToolsGroup hat ebenfalls eine entscheidungsorientierte Ausrichtung, insbesondere für Bestands- und Auffüllungsentscheidungen. Ihr Tool SO99+ prognostiziert nicht nur; es empfiehlt Bestandsniveaus und Nachbestellpunkte, die die Servicelevel-Ziele erreichen. In der Praxis wird eine ToolsGroup-Implementierung für jedes SKU ausgeben: “Sie sollten X Einheiten Sicherheitsbestand halten und nachbestellen, wenn der Bestand auf Y fällt, was eine Bestellung von Z Einheiten jetzt bedeutet.” Das ist eine Entscheidung (Auffüllmenge), die aus der Prognose abgeleitet ist. ToolsGroup geht also immer um präskriptive Ausgaben, nicht nur um vorhersagende. Die Einschränkung liegt in der Art der Entscheidung: Es geht hauptsächlich um Bestandspolitiken (sie haben einige Produktionsplanungsoptimierung, aber ihre Stärke liegt in der Distribution). Außerdem sind die Empfehlungen von ToolsGroup nur so gut wie die Art und Weise, wie die Prognoseunsicherheit modelliert wird (was wir kritisiert haben). Aber wo Lob angebracht ist: ToolsGroup erwartet nicht, dass der Benutzer eine Prognose nimmt und dann manuell eine Bestellung trifft; es automatisiert diese Berechnung.

  • Blue Yonder und andere Legacy-Suiten trennen oft die Prognose von den Planungsmodulen. Zum Beispiel gibt BY Demand eine Prognose ab, dann nimmt BY Supply (oder Fulfillment) diese Prognose und berechnet Pläne. In einer integrierten Implementierung ist das Endresultat eine Entscheidungsempfehlung (wie ein Master-Produktionsplan oder ein Bereitstellungsplan). Blue Yonder bietet auch volle Planungsoptimierungsmodule an - z. B. ihr Fulfillment-Modul wird empfehlen, wie man DCs aus einem zentralen Lager auffüllt (es ist effektiv ein DRP-Motor, der Prognose- und Bestandsdaten verwendet, um geplante Aufträge zu erstellen). Ihr Produktionsplanungs-Modul kann eine optimierte Produktionsfolge oder Zeitplan erstellen. Also, BY als Suite deckt Entscheidungen ab, aber wie optimal oder integriert diese Entscheidungen sind, hängt davon ab, ob alle Teile implementiert und abgestimmt sind. Historisch gesehen war eine Kritik, dass die Ausgabe eines Moduls nicht immer optimal für das nächste war (z. B. wenn die Prognose keine Einschränkungen berücksichtigt, auf die die Versorgungsplanung stoßen wird, erhält man nicht realisierbare Pläne). Ein wirklich entscheidungsorientierter Ansatz würde diese Einschränkungen zur Prognosezeit oder in einer vereinheitlichten Optimierung berücksichtigen. Blue Yonders neuere Botschaft von “autonomen Supply Chain” impliziert, dass sie den Kreis schließen wollen (Prognose zur Entscheidung automatisch), aber angesichts der Mischung von Technologien ist unklar, wie nahtlos dies geschieht.

  • Kinaxis ist sehr entscheidungs-/ergebnisorientiert in dem Sinne, dass sein Hauptzweck darin besteht, handlungsfähige Pläne (Versorgungspläne, Bestandsprojektionen usw.) schnell zu generieren. Der Benutzer arbeitet in der Regel mit diesen Plänen und kann Entscheidungen bestätigen oder anpassen (wie die Beschleunigung einer Bestellung oder die Umverteilung von Versorgung). Mit Kinaxis’ neuem MEIO-Zusatz optimiert es jetzt explizit eine Reihe von Entscheidungen: Bestandsbuffer (d. h. Kinaxis kann jetzt Sicherheitsbestandsniveaus empfehlen, indem es Cash vs. Service ausbalanciert 37). Früher ließ Kinaxis Sie verschiedene Sicherheitsbestände simulieren und Ergebnisse sehen, aber nicht unbedingt den besten; mit probabilistischem MEIO versucht es, den besten mathematisch zu finden. Für andere Bereiche (wie Produktions- und Distributionsplanung) verwendet Kinaxis Heuristiken oder Optimierung im Hintergrund (es hat einige Optimierungslöser für Zeitplanung und Zuweisung) - aber ein Großteil der Leistung von Kinaxis liegt in der Simulation anstelle von harter Optimierung. Das heißt, es kann das Ergebnis einer Benutzerentscheidung extrem schnell simulieren, überlässt aber oft die Wahl, welches Szenario zu wählen ist, dem Menschen. Zusammenfassend produziert Kinaxis einen vollständigen Satz von empfohlenen Maßnahmen (wie geplante Aufträge, Neuplanungen) in Echtzeit - definitiv Entscheidungsunterstützung - aber es wählt nicht immer automatisch den “optimalen” Plan ohne menschliche Eingabe aus, außer in spezifischen Funktionen wie MEIO oder wenn der Plan offensichtlich ist (z. B. es wird die Nachfrage deterministisch auf Versorgungsanforderungen übertragen).

  • o9 Solutions ist ebenfalls darauf ausgerichtet, Pläne (die Entscheidungssets sind) für Bedarf, Angebot, Lagerbestand usw. zu erstellen. o9 verfügt über Optimierungsmaschinen für bestimmte Probleme - z. B. die Angebotsplanung mit linearer Programmierung zur Kostenminimierung oder Gewinnmaximierung unter Berücksichtigung von Einschränkungen. Es ist Teil ihres Konzepts des “digitalen Gehirns”, dass es eine optimale Ressourcenallokation herausfinden wird. Allerdings nutzen nicht alle o9-Kunden es auf optimierte Weise; einige könnten ihre Plattform nur für die kollaborative Planung nutzen (was im Grunde genommen manuelle Entscheidungen sein könnte, aber mit besserer Datenübersicht). Die Frage ist, ob o9 nativ die probabilistische Entscheidungsoptimierung unterstützt. Wahrscheinlich nicht stark; es könnte Szenarioanalysen durchführen (“wenn wir 10% mehr produzieren, was ist das Ergebnis?”), aber nicht unbedingt einen erwarteten Wert über Szenarien hinweg berechnen. Also, entscheidungsorientiert ja (es gibt Ihnen empfohlene Supply-Chain-Pläne), aber optimal unter Unsicherheit, nicht klar.

  • Da Relex Solutions auf den Einzelhandel ausgerichtet ist, ist ihr primärer Output Filial- oder DC-Bestellungen und Lagerziele. Relex leistet gute Arbeit bei der direkten Erstellung dieser Entscheidungen (es funktioniert im Wesentlichen als automatisiertes Auffüllungssystem basierend auf Prognosen und Parametern). Es kann auch Dinge wie Regalflächenzuweisung vs. Lagerbestand optimieren (mit seinem neueren Ansatz zur einheitlichen Planung und Raumplanung), was ein einzigartiger Entscheidungskompromiss im Einzelhandel ist (z. B. wenn der Platz begrenzt ist, wie man Lagerbestand vs. Sortiment ausbalanciert). Relex’s Entscheidungen werden hauptsächlich von benutzerdefinierten Regeln gesteuert (wie Service-Level-Ziele oder Tage der Versorgung), aber das System übernimmt das Zahlenknacken, um die tatsächlichen Bestellungen zu erstellen, die diesen Regeln entsprechen. Es ist definitiv entscheidungsorientiert (es sagt nicht nur “die Prognose für diese Woche beträgt 100 Einheiten” - es sagt dem Einzelhändler, jetzt 50 Einheiten mehr zu bestellen, weil der aktuelle Bestand 50 beträgt und die Prognose 100 und die Vorlaufzeit so und so ist usw.). Wenn überhaupt, könnte Relex dazu neigen, zu taktisch zu sein (es bestellt schön nach, berücksichtigt aber vielleicht nicht die langfristigen Netzwerkauswirkungen - jeder Knoten ist lokal für seinen Service optimiert).

Zusammenfassend lässt sich sagen, dass entscheidungsorientierte Prognosen eine einfache Analysetool von einer echten Supply-Chain-Optimierungslösung unterscheiden. Alle Anbieter in den Top-Rängen zielen zumindest darauf ab, Entscheidungsergebnisse zu liefern, nicht nur Prognosen: Deshalb haben wir sie in den Fokus genommen (die Studienzusammenfassung sagte sogar aus, dass wir reine transaktionale oder reine Prognosetools ausschließen, die keine Entscheidungen optimieren). Der Grad der Optimalität und die Integration von Unsicherheit in diesen Entscheidungen variieren jedoch:

  • Lokad und ToolsGroup binden Prognosen explizit an Entscheidungen unter Verwendung von Kosten-/Servicezielen (Lokad über seine benutzerdefinierten Skripte zur Optimierung der erwarteten Kosten, ToolsGroup über Service-Level-Ziele, die Lagerentscheidungen liefern).
  • Kinaxis und o9 erstellen umfassende Pläne und ermöglichen die Erkundung von Entscheidungen, wobei Kinaxis kürzlich mehr formale Optimierung hinzugefügt hat (Lageroptimierung usw.).
  • Blue Yonder hat separate Optimierungsmodule, die Entscheidungen treffen können (wenn sie vollständig genutzt werden, erhält man einen Plan für alles - aber das Abstimmen ist Arbeit).
  • Relex automatisiert eine spezifische Reihe von Entscheidungen (Auffüllung) sehr gut, weniger andere (wie langfristige Kapazitätsplanung).

Bei der Bewertung von Lösungen sollten Unternehmen auf diesen Punkt drängen: „Nachdem Ihr System prognostiziert hat, welche Entscheidungen wird es empfehlen, und wie stellt es sicher, dass dies die besten Entscheidungen sind?“ Wenn ein Anbieter nicht klar antworten kann oder es so klingt, als ob der Benutzer die Prognosen manuell interpretieren müsste, ist dieser Anbieter wahrscheinlich nicht wirklich auf Optimierung ausgerichtet. Diese Frage klärt beispielsweise, ob eine ausgefallene ML-Prognose tatsächlich zu einer Bestandsreduzierung führen wird oder nur eine schöne Zahl auf einem Diagramm sein wird.

Fazit

In dieser vergleichenden Studie haben wir die führenden Anbieter von Supply-Chain-Planungs- und Prognosesoftware durch eine technische Brille gerankt und analysiert, wobei echte Fähigkeiten gegenüber Marketingversprechen priorisiert wurden. Die Bewertung hat gezeigt, dass technologische Führung in diesem Bereich erfordert: fortschrittliche Prognosen (bevorzugt probabilistisch) gestützt durch Beweise, skalierbare und moderne Architektur, ein hohes Maß an Automatisierung, einen vereinheitlichten und gut konstruierten Technologiestapel und vor allem einen Fokus auf präskriptive Entscheidungsfindung anstelle von rein prädiktiver Analytik.

Lokad hat sich als führender Anbieter herauskristallisiert, aufgrund seiner bahnbrechenden Arbeit in der probabilistischen Prognose und seinem radikalen Fokus auf der Entscheidungsoptimierung - Eigenschaften, die durch externe Benchmarks (wie den Gewinn des M5-Wettbewerbs) und transparente technische Kommunikation validiert wurden 3 2. Es zeigt, wie Skepsis gegenüber Mainstream-Ansätzen (z. B. in Frage stellen des Werts von Metriken wie MAPE oder Konzepten wie Sicherheitsbestand) zu einer robusteren Lösung führen kann, die mit fundierter Wirtschaftlichkeit übereinstimmt 13 33.

Andere Anbieter wie Kinaxis und o9 Solutions investieren stark in KI/ML und haben beeindruckend breite Plattformen aufgebaut, müssen jedoch noch den Markt davon überzeugen, dass ihre “KI” mehr als oberflächlich ist und dass ihre Architekturen ohne exorbitante Kosten skalieren werden 4. Langjährige Akteure wie Blue Yonder (JDA) und SAP verfügen über reichhaltige Erfahrung im Bereich der Lieferkette und Funktionalität, doch ihr Erbe (fragmentierte Systeme aus vielen Übernahmen und veraltete Algorithmen) zeigt sich, was zu Widersprüchen und langsamerem Fortschritt bei der technologischen Innovation führt 14 17. Nischenspezialisten wie ToolsGroup und Relex bieten leistungsstarke Lösungen in ihren Bereichen (Bestandsoptimierung und Einzelhandelsauffüllung), aber jeder hat Einschränkungen - ToolsGroup muss seine KI-Behauptungen mit neuerer Technologie untermauern 11, und Relex’ In-Memory-Ansatz könnte außerhalb seines Schwerpunktbereichs ins Stocken geraten 7.

Ein deutliches Muster in der Analyse ist, dass Anbieter, die offen technische Details und Ergebnisse liefern, mehr Vertrauen inspirieren als diejenigen, die sich auf Schlagworte verlassen. In einem Raum voller Hype ist es für Entscheidungsträger entscheidend, harte Beweise und Konsistenz zu fordern. Wenn ein Anbieter zum Beispiel behauptet, maschinelles Lernen zu verwenden, fordern Sie den Vorher-Nachher-Genauigkeits- oder Kosteneinfluss zu sehen. Wenn probabilistische Prognosen angepriesen werden, fordern Sie einen Nachweis, wie sie gemessen und in der Planung verwendet werden (und seien Sie vorsichtig, wenn die Antwort mit deterministischen Metriken vermischt ist).

Darüber hinaus sind Skalierbarkeit und Automatisierung mit zunehmender Komplexität der Lieferkette nicht nur schön zu haben - sie sind unerlässlich. Lösungen, die immer noch in manuellen, Excel-Ära-Praktiken stecken oder die große Datenmengen ohne heroische Hardware nicht bewältigen können, werden Unternehmen langfristig nicht gut dienen. Die Skepsis der Studie gegenüber einheitlichen In-Memory-Architekturen, die für alle passen, wird durch die Daten bestätigt - verteiltere, cloud-native Ansätze zeigen Vorteile sowohl in Kosten als auch in Leistungsfähigkeit.

Schließlich ist der ultimative Maßstab für jede Supply-Chain-Optimierungssoftware die Ergebnisse, die sie liefert: niedrigere Lagerkosten, höhere Servicelevels, schnellere Reaktionszeiten und effizientere Planer-Workflows. Dies zu erreichen erfordert mehr als nur cleveres Mathematik - es erfordert, diese Mathematik in einen kohärenten, automatisierten Entscheidungsprozess zu integrieren, der mit den betrieblichen Realitäten übereinstimmt. Die besten Anbieter sind diejenigen, die die Schleife zwischen Prognose -> Optimierung -> Entscheidung -> Ergebnis auf transparente, wissenschaftlich fundierte Weise schließen. Diejenigen, die an gebrochenen Schleifen festhalten (Prognose isoliert betrachten oder Entscheidungsregeln von Unsicherheit trennen), werden zurückgelassen.

Zusammenfassend sollten Unternehmen, die Supply-Chain-Planungslösungen evaluieren, jeden Mitbewerber einem harten, technischen Blick unterziehen. Durchdringen Sie die glänzenden Broschüren und stellen Sie die schwierigen Fragen, die wir untersucht haben: Bietet der Anbieter probabilistische Prognosen oder nur einzelne Zahlen? Kann ihr System autonom laufen und wurde es in großem Maßstab bewiesen? Ist die Technologie vereint oder eine Ansammlung alter Teile? Erklären sie ihre “KI” in verständlichen, sachlichen Begriffen? Indem man auf diesem Niveau der Strenge besteht, kann man wahre technologische Führer in der Supply-Chain-Optimierung identifizieren - die in der Lage sind, überlegene Entscheidungen zu treffen, nicht nur hübsche Dashboards. Die Ranglisten und Analysen hier dienen als Ausgangspunkt und identifizieren Lokad, Kinaxis, o9, Relex, ToolsGroup und Blue Yonder (unter anderen) als Schlüsselspieler, jeder mit Stärken und Vorbehalten. Die Verantwortung liegt bei den Anbietern, ihre Behauptungen zu untermauern, und bei den Benutzern, gesund skeptisch und evidenzbasiert zu bleiben, wenn sie das Gehirn auswählen, das ihre Lieferkette antreiben wird.

Fußnoten


  1. Die Grundlagen der Supply Chain - Vorlesung 1.1 ↩︎

  2. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  3. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  4. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎

  5. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  6. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎

  7. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎

  8. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  9. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎

  10. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  11. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  12. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  13. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  14. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎

  15. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎

  16. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  17. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  18. Kinaxis und Wahupa arbeiten zusammen, um Unternehmen bei der Navigation durch die Bestandskomplexität zu unterstützen … ↩︎ ↩︎

  19. Planung unter Unsicherheit: Statistische vs. probabilistische Ansätze und was sie Ihrem Unternehmen bieten | Kinaxis Blog ↩︎

  20. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  21. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  22. Geschichte des In-Memory-Computings und der Supply-Chain-Planung - Kinaxis ↩︎

  23. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  24. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  25. Nr. 1 auf SKU-Ebene im M5-Prognosewettbewerb - Vorlesung 5.0 ↩︎

  26. Nr. 1 auf SKU-Ebene im M5-Prognosewettbewerb - Vorlesung 5.0 ↩︎

  27. Nr. 1 auf SKU-Ebene im M5-Prognosewettbewerb - Vorlesung 5.0 ↩︎ ↩︎

  28. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  29. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  30. Planung unter Unsicherheit: Statistische vs. probabilistische Ansätze und was sie Ihrem Unternehmen bieten | Kinaxis Blog ↩︎

  31. Planung unter Unsicherheit: Statistische vs. probabilistische Ansätze und was sie Ihrem Unternehmen bieten | Kinaxis Blog ↩︎

  32. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  33. Über Wissen, Zeit und Arbeit für Supply Chains - Vorlesung 1.7 ↩︎ ↩︎ ↩︎

  34. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎

  35. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎ ↩︎

  36. Marktstudie, Anbieter für Supply-Chain-Optimierung ↩︎

  37. Kinaxis & Wahupa Partner, um Unternehmen bei der Navigation durch die Bestandskomplexität zu unterstützen … ↩︎