Supply-Chain-Planungs- und Prognosesoftware

Von Léon Levinas-Ménard
Zuletzt geändert: 2. Februar 2025

Supply-Chain-Planungssoftware soll Entscheidungen optimieren (was und wann produzieren, lagern oder bewegen), nicht nur Transaktionen aufzeichnen. Eine Definition beschreibt die Supply Chain als „die quantitative und dennoch straßenschlaue Beherrschung von Optionalität bei Konfrontation mit Variabilität und Einschränkungen… mit einem Fokus auf das Pflegen und Auswählen von Optionen, im Gegensatz zur direkten Verwaltung der zugrunde liegenden Operationen.“ 1 Mit anderen Worten, die besten Planungstools konzentrieren sich auf Optimierung (z.B. Entscheidung über optimale Lager- oder Produktionsmengen) anstatt nur auf Transaktionsmanagement (Verfolgung von Bestellungen und Lagerbeständen). Diese Studie vergleicht führende Anbieter von Supply-Chain-Planungs- und Prognosesoftware weltweit und legt dabei den Schwerpunkt auf greifbare technische Beweise anstelle von Marketing. Wir bewerten jeden Anbieter nach Schlüsselkriterien:

  • Probabilistische Prognose – Gehen sie über Punktprognosen hinaus, um vollständige Verteilungen oder fortgeschrittene Modelle zu liefern? Wenn „AI/ML“-Prognose behauptet wird, gibt es dafür Beweise (wie starke Leistungen in globalen Prognosewettbewerben wie dem M5)?
  • Automatisierungsgrad – Kann das System Prognosen und Planungen unbeaufsichtigt (vollständig robotisiert) ohne ständige menschliche Eingriffe durchführen? Wie autonom ist die Entscheidungsfindungsfähigkeit?
  • Skalierbarkeit & Leistung – Kann die Technologie große Datenmengen effizient verarbeiten? (Vorsicht vor In-Memory-Architekturen, die nicht gut skalieren, wenn die Daten wachsen und die Speicherkosten stagnieren.)
  • Technologieintegration & Akquisitionen – Ist die Lösung auf einem kohärenten Technologiestack aufgebaut oder ein Flickenteppich aus erworbenen Modulen? Lange M&A-Geschichten können zu fragmentierter, inkonsistenter Technologie führen.
  • Technische Glaubwürdigkeit – Werden die technischen Behauptungen des Anbieters durch wissenschaftliche Prinzipien oder technische Beweise gestützt? Wir sehen über Schlagworte („AI/ML“, „Demand Sensing“) hinaus nach konkreten Erklärungen oder Peer-Validierung.
  • Konsistenz & Widersprüche – Stimmen die Botschaften des Anbieters überein? (z.B. wäre es ein rotes Tuch, wenn probabilistische Prognosen behauptet werden, während gleichzeitig deterministische Genauigkeitsmetriken wie MAPE angepriesen werden.)
  • Veraltete Praktiken – Wir weisen auf veraltete Methoden (wie einfache Sicherheitsbestandsformeln) hin, die im Widerspruch zur modernen probabilistischen Optimierung stehen.
  • Entscheidungsorientierte Ausgabe – Produziert die Software nur Prognosen, oder liefert sie optimierte Entscheidungen (Bestellpläne, Lagerziele) auf Basis dieser Prognosen? Das wahre Ziel ist es, Entscheidungen zu treffen, nicht nur Zahlen.

Ansatz: Für jeden Anbieter stützen wir uns auf veröffentlichte technische Dokumentationen, seriöse Analysen und (wenn verfügbar) offene Benchmarks oder Wettbewerbe, um die Fähigkeiten zu bewerten. Anbieter-Hype, bezahlte Analystenberichte und glänzende Fallstudien werden ignoriert, es sei denn, sie werden durch harte Beweise bestätigt. Der Ton ist bewusst skeptisch – Behauptungen müssen mit Daten oder technischer Substanz verdient werden. Inkonsistenzen oder mangelnde Transparenz werden als ernsthafte Schwächen behandelt.

Im Folgenden rangieren wir zunächst die Top-Anbieter von Supply-Chain-Planungssoftware nach technologischer Führerschaft, mit einer kurzen Begründung für jeden. Nach der Rangliste folgt ein detaillierter Vergleich, organisiert nach den oben genannten technischen Kriterien. Alle Aussagen werden durch Zitate aus glaubwürdigen Quellen (im Format【Quelle†Zeile】) belegt.

Top-Anbieter nach technologischer Exzellenz gerankt

  1. Lokad – Spitzentechnologie für probabilistische Optimierung
    Lokad führt in der technischen Innovation an und ist Vorreiter in der probabilistischen Prognose und wirklich entscheidungsorientierten Planung. Bereits 2012 setzte sich Lokad für probabilistische Prognosen ein (fast ein Jahrzehnt vor anderen) und baute seine gesamte Lösung darauf auf 2. Im Gegensatz zu Anbietern, die Prognose und Planung als getrennte Schritte behandeln, produziert Lokads System (auf einer domänenspezifischen Sprache namens Envision basierend) direkt optimierte Entscheidungen (Bestellungen, Lagerbestände) aus probabilistischen Modellen. Lokads technische Glaubwürdigkeit ist außergewöhnlich – es dokumentiert seine Methoden offen und sein Team erreichte #1 Genauigkeit auf SKU-Ebene im renommierten M5-Prognosewettbewerb (von 909 Teams) 3. Dieser realweltliche Sieg bei der granularen Prognose unterstreicht Lokads hochmoderne Vorhersagekraft. Die Plattform ist Cloud-nativ und vollautomatisch (Prognosen und Optimierungen laufen unbeaufsichtigt nach Plan), und sie vermeidet Einschränkungen von In-Memory-Designs durch die Nutzung skalierbarer Cloud-Computing. Zusammenfassend setzt Lokad den Maßstab mit seinem probabilistischen, automatisierungsfokussierten und evidenzbasierten Ansatz zur Optimierung der Supply Chain.

  2. Kinaxis – Schnelle, In-Memory-Planung mit aufkommender KI
    Kinaxis ist ein etablierter Marktführer, bekannt für seinen blitzschnellen “Concurrent Planning”-Motor. Seine RapidResponse-Plattform verwendet eine In-Memory-Architektur, um Echtzeit-Szenariosimulationen über Angebot, Nachfrage und Lagerbestand zu ermöglichen. Dieses Design bietet Planern sofortige What-if-Analysefähigkeiten, eine große Stärke für die Reaktionsfähigkeit. Allerdings kann die starke Abhängigkeit von In-Memory-Berechnungen hohe Hardwarekosten und Skalierungsgrenzen bedeuten, wenn die Datenmenge wächst (große Implementierungen erfordern massiven RAM) 4. Traditionell konzentrierte sich Kinaxis auf deterministische Planung (unter Ausnutzung von benutzerdefinierten Regeln und manuellen Anpassungen). Angesichts des Branchenwandels hat Kinaxis kürzlich probabilistische Techniken durch die Integration von Akquisitionen/Partnern angenommen: z.B. hat es einen probabilistischen Multi-Echelon-Inventaroptimierung (MEIO)-Motor (vom Partner Wahupa) hinzugefügt und eine KI-Firma für die Nachfrageprognose (Rubikloud) erworben. Diese Add-Ons bringen fortschrittliche Prognose- und Unsicherheitsmodellierung zu Kinaxis, obwohl sie als Bolt-Ons Fragen zur technischen Stack-Kohärenz aufwerfen. Die Botschaft von Kinaxis rund um “KI” und maschinelles Lernen ist vorsichtiger als bei einigen Wettbewerbern – es betont die Kombination von menschlicher und maschineller Intelligenz. In der Praxis ist Kinaxis hervorragend in der Automatisierung der Planneuberechnung (jedes Mal, wenn sich die Daten ändern, kann das System autonom die Supply-Demand-Pläne ausbalancieren), aber es hat historisch immer noch auf Planer angewiesen, um Parameter zu setzen und hat nicht die endgültigen Entscheidungen vollautomatisiert. Mit seinen neuen probabilistischen Modulen bewegt sich Kinaxis in Richtung mehr Entscheidungsautomatisierung unter Unsicherheit, wenn auch von einem deterministischen Erbe aus. Zusammenfassend bietet Kinaxis eine leistungsstarke Echtzeit-Planungsplattform und holt bei der KI-gesteuerten Prognose auf, muss aber beweisen, dass seine neueren probabilistischen Funktionen tief integriert und nicht oberflächlich sind.

  3. o9 Solutions – Große Ambitionen und Big Data
    o9 Solutions ist ein neuerer Anbieter (gegründet 2009), der oft als “digitales Gehirn” für die Supply Chain gepriesen wird. Technologisch ist o9 äußerst ehrgeizig - es hat eine breite Plattform mit einem graphenbasierten Datenmodell (Enterprise Knowledge Graph, “EKG”) entwickelt und bedient riesige, komplexe Datensätze (was es beliebt macht für große Unternehmen, die ein End-to-End-Planungstool suchen). Allerdings geht der Ansatz von o9 mit Kompromissen einher. Das System verwendet Berichten zufolge ein In-Memory-Design, das zwar schnelle Analysen ermöglicht, aber für den großflächigen Einsatz “hohe Hardwarekosten garantiert4. Dies wirft Skalierbarkeitsbedenken auf, da das Hinzufügen von mehr RAM an das Problem teuer wird und schließlich an seine Grenzen stößt (insbesondere da die Speicherpreise nicht mehr schnell fallen). o9 wirbt stark mit KI/ML, aber man muss Substanz von Hype trennen: Viele seiner Behauptungen (zum Beispiel, dass sein Wissensgraph die Prognose einzigartig verbessert) sind ohne wissenschaftliche Untermauerung zweifelhaft 5. Tatsächlich deuten Analysen der öffentlich verfügbaren technischen Elemente von o9 auf GitHub darauf hin, dass es hauptsächlich Standardtechniken einsetzt (nichts grundlegend Neues, um die großartige “KI”-Markenbildung zu rechtfertigen) 6. o9 unterstützt in gewissem Maße probabilistische Szenarioplanung - es kann mehrere Nachfrageszenarien modellieren und Simulationen durchführen - aber es ist unklar, ob es echte probabilistische Prognoseverteilungen oder nur Szenarioanalysen bietet. Die Plattform kann bestimmte Planungsaufgaben automatisieren, doch o9 positioniert sich oft als Entscheidungsunterstützung, wobei letztendlich Menschen das “digitale Gehirn” steuern. Insgesamt ist o9 eine technologieintensive Plattform mit breiten Fähigkeiten, aber ihre Abhängigkeit von In-Memory-Computing und die Unklarheit um ihre KI-Behauptungen dämpfen ihre wahrgenommene technische Führungsrolle. Es ist eher ein Marktführer aufgrund seiner integrierten Vision und Handhabung von Big Data als aufgrund nachgewiesener einzigartiger Prognosegenauigkeit.

  4. Relex Solutions – Einzelhandelsorientierte Automatisierung (mit Grenzen)
    Relex Solutions (gegründet 2005) ist spezialisiert auf Einzelhandelsnachfrageprognosen, Nachschub und Raumplanung. Es hat sich einen Ruf für die Ermöglichung von hochautomatischer Laden-Nachschub erworben - mehrere große Lebensmittelhändler verwenden Relex, um die Nachfrage auf Laden-Ebene automatisch zu prognostizieren und Bestellungen mit minimaler menschlicher Intervention zu generieren. Diese End-to-End-Automatisierung in einer herausfordernden Einzelhandelsumgebung ist eine bemerkenswerte Stärke. Relex wirbt auch mit modernen maschinellen Lernprognosetechniken, die auf den Einzelhandel abgestimmt sind (Berücksichtigung von Aktionen, lokalen Ereignissen usw.). Allerdings zeigt ein Blick unter die Haube einige architektonische und methodologische Einschränkungen. Das System von Relex verwendet ein In-Memory, OLAP-artiges Datenwürfeldesign 7, um sehr schnelle Analysen und Berichte zu liefern. Während dies schnelle Dashboards liefert, treibt es die Hardwarekosten in die Höhe und löst nicht von selbst komplexe Optimierungsprobleme. Tatsächlich kann der Echtzeit-, granulare Ansatz von Relex mit der netzwerkweiten Optimierung in Konflikt geraten - es könnte Schwierigkeiten haben, Entscheidungen über ein großes Versorgungsnetzwerk optimal zu koordinieren, wenn es mit Phänomenen wie Produkt-Kannibalisierung oder Substitutionen konfrontiert wird 8. Es gibt auch Anzeichen dafür, dass die Prognosemodelle von Relex nicht so “Next-Gen” sind, wie sie vermarktet werden - Beweise deuten darauf hin, dass ein Großteil ihres Ansatzes auf Methoden vor 2000 basiert (z.B. Regression, Zeitreihenglättung) 9, wenn auch in großem Maßstab angewendet. Sie prahlen oft mit einer 99%+ Verfügbarkeit im Lager für Einzelhändler, aber Branchenumfragen (z.B. von ECR-Verbänden) zeigen, dass die typische Verfügbarkeit im Regal niedriger ist, was solche pauschalen Behauptungen in Frage stellt 10. Relex hat einen größtenteils kohärenten Technologie-Stack (in-house für den Einzelhandel entwickelt) und ist nicht durch große Übernahmen gewachsen, was gut für die Konsistenz ist. Zusammenfassend ist Relex ein Marktführer in der Einzelhandelsautomatisierung und kann beeindruckende hands-off-Betriebe ermöglichen, aber seine technische Tiefe in der Prognosewissenschaft ist umstritten, und eine In-Memory-Architektur bedeutet, dass es die Skalierbarkeitsbedenken anderer teilt.

  5. ToolsGroup – Früher Innovator Jetzt mit “KI” werbend
    ToolsGroup (gegründet 1993) bietet die SO99+ Software an, die historisch bekannt ist für service-level getriebene Prognose und Bestandsoptimierung. Jahre bevor “KI” zu einem Schlagwort wurde, half ToolsGroup, probabilistische Konzepte in der Supply Chain zu popularisieren - zum Beispiel die Modellierung von Nachfrageschwankungen, um Sicherheitsbestände zu bestimmen, die erforderlich sind, um ein gewünschtes Servicelevel zu erreichen. In der Praxis kann ihr Tool eine Wahrscheinlichkeitsverteilung der Nachfrage (insbesondere für langsam bewegliche Artikel) erzeugen und Bestandsziele festlegen, um eine Ziel-Füllrate zu erreichen. In den letzten Jahren hat sich jedoch die Botschaft von ToolsGroup verschoben, um dem AI/ML-Hype beizutreten, und hier zeigen sich die Glaubwürdigkeitsrisse. Sie werben stark für “KI-gesteuerte” Planung, aber öffentliche Hinweise deuten darauf hin, dass ihre Kernalgorithmen immer noch im Wesentlichen ältere (vor 2000) statistische Modelle sind 11. Bemerkenswert ist, dass sie seit etwa 2018 begonnen haben, ihre Ausgabe als “probabilistische Prognosen” zu bezeichnen, während sie gleichzeitig von MAPE-Verbesserungen 12 prahlen - eine eklatante Inkonsistenz, denn MAPE (ein deterministischer Prognosefehler-Metrik) “gilt nicht für probabilistische Prognosen.” 13 Dies deutet entweder auf ein Missverständnis oder auf einen Marketing-Trick hin (z.B. vielleicht erzeugen sie probabilistische Prognosen, bewerten sie aber immer noch, indem sie den Median mit MAPE mit den tatsächlichen Werten vergleichen - was den Sinn von probabilistischen Methoden verfehlt). ToolsGroup spricht auch von “Demand Sensing” für kurzfristige Prognoseanpassungen, doch solche Behauptungen werden nicht durch wissenschaftliche Literatur 13 gestützt und belaufen sich oft auf neu verpackte gleitende Durchschnitte. Auf der positiven Seite ist die Lösung von ToolsGroup recht vollständig für die Supply Chain Planung (Abdeckung von Nachfrageprognose, Bestandsoptimierung, S&OP, etc.) und kann in einem Licht-aus-Modus betrieben werden (automatische Generierung von Nachfüllvorschlägen nachts). Ihr Optimierungsfokus (Erreichen von Servicezielen mit minimalem Bestand) stimmt mit der entscheidungsorientierten Prognose überein. Aber das jüngste KI-Posturing des Unternehmens ohne klare technische Beweise, plus eine Architektur, die möglicherweise nicht modern cloud-native ist (wahrscheinlich eher auf einen einzelnen Server ausgerichtet), stößt es ein wenig in der technischen Führung ab. Kurz gesagt, ToolsGroup ist ein bewährter Akteur in der probabilistischen Bestandsmodellierung, benötigt aber mehr Transparenz, um seine neuen KI-Behauptungen zu untermauern und sicherzustellen, dass seine Methoden nicht stagniert haben.

  6. Blue Yonder – Mächtiges Erbe, Flickenteppich-Technologie
    Blue Yonder (gegründet 1985 als JDA Software, umbenannt nach der Übernahme eines kleineren KI-Unternehmens namens Blue Yonder) ist ein Gigant in der Supply Chain Planung. Es bietet Lösungen für die Nachfrageplanung, die Versorgungsplanung, den Einzelhandel und mehr. Im Laufe der Jahrzehnte hat Blue Yonder (BY) über viele Übernahmen ein großes Portfolio aufgebaut - von Manugistics (Supply Chain Optimierung) bis zu Teilen von i2 Technologies, und vor kurzem das KI-Startup Blue Yonder. Das Ergebnis ist eine “willkürliche Sammlung von Produkten, die meisten von ihnen veraltet,” auch wenn sie unter einer Marke sind 14. Technologisch gesehen verwenden die älteren Module von Blue Yonder (wie Demand Forecasting oder Fulfillment) oft ältere Techniken (z.B. heuristische Prognose, regelbasierte Planung mit Sicherheitsbeständen). Das Unternehmen prahlt jetzt zwar mit “KI/ML” in seinem Marketing, aber die Behauptungen neigen dazu, vage und mit wenig Substanz zu sein 15. Ein aufschlussreicher Hinweis: Blue Yonder hat nur wenige Open-Source-Projekte auf seinem GitHub (z.B. tsfresh, PyDSE, Vikos), die auf die zugrunde liegenden Prognoseansätze hinweisen - das sind hauptsächlich traditionelle Methoden wie Feature-Extraktion + ARIMA/lineare Regressionsmodelle 16, eher als modernste Deep Learning oder probabilistische Modelle. Mit anderen Worten, BY’s “KI” ist wahrscheinlich mehr Buzz als Durchbruch. Die Kohäsion der Plattform ist ein Anliegen - Planung, Nachfüllung und Bestandsoptimierung können als separate Motoren existieren, die nicht nahtlos als eine Einheit arbeiten (die Integration erfordert einen hohen Implementierungsaufwand). Blue Yonder hat in bestimmten Bereichen sehr starke Optimierungsfähigkeiten (z.B. können ihre älteren i2-Algorithmen für die Optimierung von Supply Chain Netzwerken, wenn modernisiert, sehr leistungsfähig sein). Und viele große Unternehmen nutzen Blue Yonder, um Planungsaufgaben zu automatisieren (zum Beispiel die Erzeugung von Prognosen, die einen MRP-Prozess steuern, die Festlegung von Sicherheitsbestandsniveaus, etc., wobei die Planer nach Ausnahme anpassen). Doch im Vergleich zu neueren Technologieführern erscheint Blue Yonder technisch stagnierend: es hält größtenteils an deterministischer Prognose fest (oft gemessen an alten Metriken wie MAPE oder Bias), verwendet veraltete Praktiken wie Sicherheitsbestandsformeln als zentrales Planungselement und legt nur dünn AI-Terminologie auf. Angesichts seiner Ressourcen könnte Blue Yonder sich weiterentwickeln, aber bis jetzt verkörpert es den Kompromiss eines großen Anbieters: breite Funktionalität aber ein zersplitterter, alternder Technologie-Stack 14. Wir rangieren es unter technologischer Sicht unter den fortschrittlicheren Wettbewerbern.

(Andere bemerkenswerte Anbieter: SAP IBP und Oracle SCM Cloud bieten ebenfalls Supply-Chain-Planungssuiten an, aber diese sind größtenteils Erweiterungen ihrer transaktionalen ERP-Systeme. Sie erben erhebliche technische Schulden und Komplexität von Legacy-Systemen und Übernahmen. Zum Beispiel ist das Planungsangebot von SAP eine Zusammenstellung von Komponenten wie SAP APO, SAP HANA, plus erworbene Tools (SAF für Prognosen, SmartOps für Bestände) - im Grunde genommen “eine Sammlung von Produkten”, die viel Integrationsaufwand erfordern 17. Diese ERP-gebundenen Lösungen, obwohl in einigen Aspekten leistungsfähig, sind im Allgemeinen keine führenden Anbieter in der Prognosewissenschaft oder Automatisierung, daher werden sie von den oberen Rängen ausgeschlossen.)


Nachdem wir die Top-Anbieter vorgestellt haben, gehen wir nun in eine Analyse Kriterium für Kriterium ein und heben hervor, wie sich jeder Anbieter in Bezug auf probabilistische Prognosen, Automatisierung, Skalierbarkeit usw. schlägt, mit einem Schwerpunkt auf Beweisen und Beispielen. Diese vergleichende Ansicht bringt die Stärken und Schwächen jeder Lösung in die Tiefe.

Probabilistische Prognosen: Jenseits deterministischer Modelle

Die moderne Supply-Chain-Optimierung profitiert enorm von probabilistischen Prognosen - der Schätzung eines Bereichs oder einer Verteilung möglicher Ergebnisse (mit Wahrscheinlichkeiten), anstatt einer einzigen “wahrscheinlichsten” Zahl. Probabilistische Prognosen erfassen besser die Nachfragevariabilität und ermöglichen robustere Entscheidungen (z.B. die Kenntnis der Wahrscheinlichkeit eines Ausverkaufs, wenn Sie X Einheiten lagern). Wir haben untersucht, welche Anbieter wirklich probabilistische Methoden annehmen im Vergleich zu denen, die an deterministischen Prognosen festhalten. Wichtige Erkenntnisse:

  • Lokad sticht hervor durch die tiefe Einbettung probabilistischer Prognosen. Es war früh dabei, probabilistische Modelle zu fördern (seit 2012) 2 und hat diese Fähigkeit kontinuierlich weiterentwickelt. Lokads Ansatz verwendet probabilistische Nachfrageverteilungen als Grundlage für alle Optimierungen - zum Beispiel die Berechnung des erwarteten Gewinns verschiedener Lagermengen durch Integration über die Nachfrageverteilung. Die Glaubwürdigkeit von Lokads Prognosetechnologie wird durch globale Wettbewerbe bestätigt: Ein Lokad-Team erreichte höchste Genauigkeit auf SKU-Ebene im M5-Prognosewettbewerb 3, eine hoch angesehene Benchmark-Herausforderung. Wichtig ist, dass M5 ausschließlich um probabilistische Prognosen ging (die Ranglisten basierten auf gewichteten Verteilungsfehlermetriken), und Lokads Leistung zeigt, dass seine Methoden wirklich auf dem neuesten Stand der Technik sind, um genaue Wahrscheinlichkeitsverteilungen auf einer granularen Ebene zu erzeugen. In der Praxis produziert Lokad nicht nur eine Zahl, sondern eine vollständige Wahrscheinlichkeitsverteilung (oder Szenarien) für die Nachfrage jedes Artikels, die direkt in Entscheidungsoptimierungsskripte einfließt.

  • ToolsGroup hat zu seinem Verdienst seit Jahren probabilistische Funktionen im Kontext der Service-Level-Optimierung angeboten. Ihre Software kann eine explizite Nachfrageverteilung erstellen (oft über ein intermittierendes Nachfragemodell oder eine andere statistische Anpassung) und dann Bestandsziele berechnen, um eine gewünschte Service-Wahrscheinlichkeit zu erfüllen. Es gibt jedoch einen Unterschied zwischen dem Besitz eines probabilistischen Modells unter der Haube und der vollständigen Umarmung im Geiste. ToolsGroups Marketing ab 2018+ deutet auf einen Versuch hin, sich als Führer in der probabilistischen Prognose neu zu positionieren, doch sie untergruben dies, indem sie gleichzeitig über MAPE-Verbesserungen neben probabilistischen Prognosen sprachen 13. Dies ist ein Widerspruch - wenn man wirklich eine Verteilung prognostiziert, würde man den Erfolg nicht hauptsächlich anhand von MAPE messen (was eine einzige “richtige” Zahl voraussetzt). Die Tatsache, dass sie immer noch auf deterministischen Metriken bestehen, deutet darauf hin, dass sie möglicherweise immer noch Punktprognosen erstellen und dann Verteilungen nur zur Simulation von Lageranforderungen verwenden. Daher hat ToolsGroup zwar probabilistische Fähigkeiten, aber die Raffinesse dieser Methoden ist möglicherweise nicht auf dem neuesten Stand, und wie sehr sie sich auf probabilistische Methoden konzentrieren im Vergleich dazu, es nur als Add-On zu verwenden, ist unklar.

  • Kinaxis hat in seinem Kernangebot historisch gesehen keine probabilistischen Prognosen bereitgestellt (es würde sich auf Punktprognosen stützen, die von Benutzern eingegeben oder über einfache Statistiken generiert wurden). In Anerkennung dieser Lücke ging Kinaxis eine Partnerschaft mit Wahupa ein, um einen probabilistischen MEIO (Multi-Echelon Inventory Optimization)-Motor einzubetten 18. Darüber hinaus erwarb Kinaxis ein KI-Unternehmen (Rubikloud), das auf maschinelles Lernen in der Nachfrageprognose spezialisiert war (wahrscheinlich von Natur aus probabilistisch, z.B. durch die Erzeugung von Vorhersageintervallen). Ab 2023 begann Kinaxis mit der Vermarktung von “Planning.AI” oder ähnlichen Fähigkeiten und erkannte ausdrücklich die Notwendigkeit an, “Unsicherheit zu umarmen” und Wahrscheinlichkeitswissenschaft in Entscheidungen einzubeziehen 19. Dies ist eine positive Entwicklung, aber da sie relativ neu ist, entwickelt sich die Reife der probabilistischen Prognosen von Kinaxis noch. Wir haben Kinaxis oder seine Partner nicht in öffentlichen Prognosewettbewerben gesehen oder detaillierte Methoden veröffentlicht, daher ist der technische Beweis für ihre probabilistische Kompetenz auf das beschränkt, was sie behaupten.

  • o9 Solutions betont auch das Modellieren von Unsicherheit im Konzept - ihr Wissensgraph kann viele kausale Faktoren speichern, und sie behaupten, bessere Vorhersagen durch die Verknüpfung von Daten zu erzeugen. Aber auch hier finden wir keine öffentlichen Beweise dafür, dass o9 in der Praxis probabilistische Prognosen liefert (keine veröffentlichten Genauigkeitsbenchmarks oder offene Algorithmen). Die Erwähnung von Bayes’schen Netzwerken oder Monte Carlo in ihren Materialien ist spärlich. Elemente, die in den Code-Repositories von o9 entdeckt wurden, scheinen sich eher auf typische Prognosetechniken als auf neuartige probabilistische Algorithmen zu konzentrieren 6. Bis o9 das Gegenteil beweist, müssen wir davon ausgehen, dass es hauptsächlich verbesserte deterministische Prognosen liefert (vielleicht mit Szenarioanalyse), und jede “probabilistische” Kennzeichnung könnte eher Marketing sein.

  • Relex Solutions befasst sich mit dem Einzelhandel, wo die Variabilität (insbesondere bei Aktionen oder frischen Artikeln) hoch ist. Sie verwenden wahrscheinlich einige probabilistische Ansätze intern (zum Beispiel, um die Verteilung der Nachfrage nach beworbenen Produkten zu schätzen, oder um den Sicherheitsbestand pro Geschäft mit einem Ziel-Service-Level zu berechnen). Allerdings trompeten die öffentlich zugänglichen Materialien von Relex nicht explizit “probabilistische Prognose”; sie sprechen mehr darüber, wie maschinelles Lernen die Prognosegenauigkeit verbessert (was normalerweise bessere Punktprognosen impliziert). Die Peer-Review von Relex deutet darauf hin, dass ihre Prognosetechnik vor dem Jahr 2000 erscheint 9, was wahrscheinlich hauptsächlich deterministische Methoden wie exponentielles Glätten, vielleicht mit Saisonalität und Trend, bedeutet - Techniken, die Punktprognosen erzeugen und vielleicht Standardabweichung für Sicherheitsbestand. Daher könnte Relex immer noch auf das alte Paradigma angewiesen sein: Prognose, dann Puffer hinzufügen, anstatt dem Benutzer eine vollständige Wahrscheinlichkeitskurve zu liefern.

  • Blue Yonder verwendet in seiner traditionellen Bedarfsplanung eine Vielzahl von statistischen Modellen (ARIMA, exponentielles Glätten, vielleicht etwas ML für kausale Faktoren), um Prognosen zu erstellen, die typischerweise aggregiert und mit Konsensprozess sind - grundsätzlich deterministisch. Blue Yonder hat begonnen, in einigen Kontexten probabilistische Begriffe zu erwähnen (da es alle tun), aber da ihre Open-Source-Beiträge eine Abhängigkeit von ARIMA und Regression zeigen 16, kann man sicher sagen, dass probabilistische Prognose keine Stärke ist. Sie fördern auch weiterhin Metriken wie MAPE, Bias usw., die deterministisch sind. Wir haben Blue Yonder nicht an bekannten Prognose-Benchmarks teilnehmen sehen.

  • Andere Anbieter: John Galt Solutions vermarktet einen “Procast”-Algorithmus, der eine überlegene Genauigkeit behauptet, aber eine Überprüfung stellte fest, dass dieser Anspruch zweifelhaft ist, da Procast in den oberen Rängen großer Prognosewettbewerbe wie M5 fehlte 20. Tatsächlich erbringen leicht verfügbare Open-Source-Prognosewerkzeuge (z.B. Prophet oder Hyndmans R-Pakete) wahrscheinlich genauso gute oder bessere Leistungen 21. Dies unterstreicht ein häufiges Thema: Echte Innovation zeigt sich dort, wo eine offene Bewertung stattfindet. Die Abwesenheit der meisten Anbieter (außer Lokad) von öffentlichen Wettbewerben lässt vermuten, dass viele nicht wirklich vor der Akademie oder Open-Source in der Prognose liegen - wenn sie es wären, würden sie es in diesen Foren beweisen.

Zusammenfassend lässt sich sagen, dass probabilistische Prognose ein Unterscheidungsmerkmal ist: Lokad führt eindeutig mit nachgewiesener Kompetenz und vollständig integrierten probabilistischen Entscheidungen. ToolsGroup und Kinaxis erkennen ihre Bedeutung an, haben sie aber erst kürzlich eingeführt (und müssen ihre Metriken und Prozesse darauf abstimmen, um überzeugend zu sein). Andere bleiben größtenteils in einer deterministischen Welt, auch wenn sie Begriffe wie “stochastisch” in ihre Broschüren streuen. Diese Unterscheidung ist wichtig, denn ohne echte probabilistische Prognosen wird ein Planungssystem auf grobe Sicherheitsbestände zurückgreifen und kann Risiken und Kosten nicht optimal ausbalancieren.

Grad der Automatisierung: Planung ohne menschliches Eingreifen vs. Mensch-in-der-Schleife

Automatisierung in der Prognose und Planung bezieht sich auf die Fähigkeit des Systems, den gesamten Prozess - Datenaufnahme, Prognoseerstellung, Planoptimierung und sogar Ausführung von Entscheidungen - ohne manuelle Eingriffe durchzuführen, abgesehen von Überwachung und gelegentlicher Parameteranpassung. Eine hohe Automatisierung ist entscheidend für groß angelegte Operationen (wo die manuelle Anpassung von Tausenden von Prognosen unpraktikabel ist) und für eine schnelle Reaktion auf Veränderungen (Roboter reagieren schneller als Menschen). Wir haben bewertet, wie automatisiert jede Lösung sein kann und ob sie “unbeaufsichtigte” Planungsläufe unterstützt (und ob Kunden sie tatsächlich so nutzen). Beobachtungen beinhalten:

  • Lokad ist mit Blick auf Automatisierung konzipiert. Seine Envision-Skriptumgebung ermöglicht es, die gesamte Prognose- und Nachfülllogik zu codieren und zu planen. Viele Lokad-Implementierungen laufen auf einer vollständig robotisierten Basis, bei der das System jeden Tag oder jede Woche automatisch neue Daten einzieht, Prognosen neu berechnet, Entscheidungen optimiert (z.B. Bestellmengen oder Zuweisungspläne generiert) und diese an das ERP- oder Ausführungssystem ausgibt - alles ohne menschliches Zutun. Die Philosophie ist, dass, wenn die Modelle korrekt eingerichtet sind, manuelle Überschreibungen minimal sein sollten und Planer sich auf Ausnahmen oder Modellverbesserungen konzentrieren können, anstatt auf routinemäßige Anpassungen. Lokads Erfolgsgeschichten heben oft die drastische Reduzierung der Planerarbeitslast dank dieser Automatisierung hervor. Im Grunde genommen behandelt Lokad Planer eher wie Datenwissenschaftler oder Aufseher des Prozesses, nicht als Personen, die täglich manuell Planungsknöpfe bewegen.

  • Relex Solutions ermöglicht ebenfalls einen hohen Grad an Automatisierung, insbesondere bei der Nachfüllung. Zum Beispiel kann Relex für Lebensmittelhändler automatisch täglich Bestellungen generieren, die Prognosen, vorhandene Bestände und Lieferzeiten berücksichtigen. Einige Einzelhändler, die Relex nutzen, vertrauen ihm Berichten zufolge so sehr, dass der Großteil der Bestellungen automatisch ausgeführt wird, wobei Planer nur außerhalb der Norm liegende Vorschläge überprüfen. Relex’s System unterstützt Workflows für Ausnahmen (z.B. kann es markieren, wenn eine Prognose stark von der Norm abweicht, dann überprüft ein Mensch), aber ansonsten ist es darauf ausgelegt, die Bedarfsplanung und Bestellung automatisch auszuführen. Dies ist ein wichtiger Verkaufsargument im Einzelhandel, wo die Größe (Millionen von SKU-Store-Kombinationen) eine manuelle Planung unmöglich macht. Es ist jedoch zu beachten, dass die Erreichung dieser Automatisierung oft stabile, ausgereifte Modelle und einen engen Fokus (z.B. Lebensmittelgrundlagen) erfordert. In komplexeren mehrstufigen Fertigungsplanungen ist Relex weniger präsent. Dennoch beweist Relex in seinem Bereich, dass unbeaufsichtigte Prognose und Nachfüllung erreichbar ist, wenn auch innerhalb der Grenzen seiner In-Memory-Architektur.

  • Kinaxis bietet Automatisierung in der Neuberechnung - seine Gleichzeitigkeit bedeutet, dass es bei jeder Datenänderung Änderungen durch das supply chain-Modell (Stückliste, Bestand, Kapazitäten) propagieren kann, um automatisch alle abhängigen Pläne zu aktualisieren. Dies ist eine Form der Automatisierung (die Notwendigkeit, separate Planungszyklen für jede Ebene manuell neu zu starten, entfällt). Allerdings erwartet Kinaxis traditionell, dass Planer in gewissem Maße in der Schleife sind: Sie richten Szenarien ein, überprüfen die Ergebnisse und entscheiden, welches Szenario umgesetzt wird. Kinaxis kann routinemäßige Entscheidungen über sein Alarmsystem automatisieren (z.B. einen Plan automatisch genehmigen, wenn der Bestand über einem Schwellenwert liegt), wird aber in der Regel eher als Entscheidungsunterstützungstool als als “dunkler” Autopilot verwendet. Mit der Integration von KI und fortschrittlicherer Prognose strebt Kinaxis jedoch nach mehr automatisierter Entscheidungsfindung. So kann beispielsweise sein neues MEIO bei jedem Planungslauf automatisch die Bestandspuffer über die Ebenen hinweg neu ausbalancieren, was der Benutzer akzeptieren könnte, es sei denn, etwas sieht falsch aus. Das Unternehmen investiert auch in das, was sie “selbstheilende supply chains” nennen, was auf eine größere Autonomie hindeutet. Angesichts seiner Kundenbasis (oft Luft- und Raumfahrt, Automobilindustrie usw., wo Planer vorsichtig sind), ist eine vollständig autonome Planung jedoch nicht die Norm für Kinaxis-Implementierungen.

  • o9 Solutions wird ähnlich normalerweise als Planungsplattform eingesetzt, bei der die Benutzer (Planer, Nachfragemanager usw.) stark interagieren - sie passen Prognosen an, arbeiten gemeinsam an S&OP-Plänen, führen Szenarien durch. Es hat sicherlich die technische Fähigkeit, Berechnungen zu automatisieren (Sie können beispielsweise wiederkehrende Prognoseaktualisierungen einrichten), aber die Philosophie von o9 tendiert eher dazu, menschliche Planer mit KI-Einblicken zu ergänzen, anstatt sie zu ersetzen. Der Marketingbegriff “digitales Zwillingsunternehmen” legt nahe, dass es Ihre supply chain in der Software widerspiegelt; aber ein Spiegel reflektiert normalerweise, was Sie tun - er entscheidet nicht unabhängig. Wir haben keine Beweise dafür gefunden, dass ein Unternehmen o9 auf vollständig autonome Weise verwendet; es ist eher ein Werkzeug, das ein einziges Datenmodell und Analysen zur Erleichterung der funktionsübergreifenden Planung bereitstellt. Die Automatisierung konzentriert sich auf die Integration (Automatisierung von Datenflüssen zwischen Modulen) mehr als auf die Automatisierung von Entscheidungen.

  • ToolsGroup hat traditionell einen Ansatz zur “Low-Touch-Planung” verfolgt. Ihr SO99+ Tool kann so eingerichtet werden, dass es automatisch statistische Prognosen für jede SKU erstellt, dann Bestandsziele berechnet und sogar Nachbestellungsvorschläge macht. Viele mittelständische Unternehmen haben es tatsächlich verwendet, um automatisch Kaufaufträge oder Produktionsvorschläge zu generieren, wobei die Planer nur Ausnahmen überprüfen (z.B. wo das System aufgrund ungewöhnlicher Umstände unsicher ist). Das Ausmaß der erreichten Automatisierung hängt vom Vertrauen in die Empfehlungen des Systems ab. ToolsGroup betont oft, dass ihr probabilistischer Ansatz zu zuverlässigeren Bestandsempfehlungen führt, was wiederum Unternehmen dazu veranlasst, das Bestellen in größerem Umfang zu automatisieren. Wenn jedoch die Modelle von ToolsGroup nicht richtig abgestimmt sind, könnten die Benutzer viel überschreiben. In Bezug auf die technische Fähigkeit kann ToolsGroup definitiv im Batch-Unattended-Modus für Prognosen und die erste Planung laufen. Es könnte jedoch eine ad-hoc-Neuplanung nicht so gut bewältigen wie beispielsweise Kinaxis (es handelt sich eher um eine nächtliche Batch-Planung).

  • Blue Yonder (JDA) hat Komponenten wie ESP (Enterprise Supply Planning) und Fulfillment, die auf der Grundlage von Prognosen und Bestandspolitiken automatisch Lieferaufträge oder Lagertransferempfehlungen freigeben können. Viele Benutzer von Blue Yonder verlassen sich auf automatisch generierte Ausgaben: zum Beispiel könnte das System automatisch Verteilungsaufträge erstellen, um regionale Lager auf Zielbestandsniveaus aufzufüllen. Das Demand-Modul von Blue Yonder kann jede Woche oder jeden Monat automatisch Basisprognosen erstellen. Historisch gesehen beinhalten JDA/Blue Yonder-Implementierungen jedoch viel menschlichen Workflow: Nachfrageplaner passen Prognosen an, Versorgungsplaner überprüfen die vom System empfohlenen Aufträge usw. Die Software unterstützt die Automatisierung, fördert aber nicht unbedingt eine “Hände-weg”-Mentalität - es ist eher eine Planer-Werkbank. Darüber hinaus könnte aufgrund der Flickwerk-Natur des BY-Sortiments die Erreichung einer End-to-End-Automatisierung einen erheblichen Integrationsaufwand erfordern (die Sicherstellung, dass der Nachfrageplan zum Versorgungsplanmodul fließt, das ohne manuelle Eingriffe zur Ausführung fließt, kann knifflig sein). Obwohl also technisch machbar, haben Blue Yonder-Standorte in der Praxis oft viel menschliche Aufsicht über die Pläne.

Zusammenfassend lässt sich sagen, dass die Automatisierungsfähigkeit in allen führenden Tools in unterschiedlichem Maße vorhanden ist, aber die Philosophie und praktische Nutzung unterscheiden sich. Lokad und Relex sind bemerkenswert dafür, dass sie die Grenzen für eine wirklich autonome Planung in ihren jeweiligen Nischen erweitern (mit Lokad, das vollständig skriptgesteuerte “Supply Chain Autopiloten” für verschiedene Branchen ermöglicht, und Relex tut dies im Einzelhandel). Traditionelle große Anbieter behandeln die Automatisierung vorsichtiger und lassen oft den Planer die endgültigen Entscheidungen treffen. Dies ist manchmal auf Vertrauensprobleme zurückzuführen - wenn die Prognosen eines Systems nicht sehr zuverlässig sind, werden die Benutzer es nicht im Autopilotenmodus laufen lassen. Es unterstreicht, dass Automatisierung nur so gut ist wie die Intelligenz dahinter: Ein Hauptgrund, warum probabilistische, entscheidungsorientierte Tools benötigt werden, ist die Machbarkeit der Automatisierung (das System muss gute Entscheidungen von selbst treffen). Bei der Bewertung von Anbietern sollten Unternehmen fragen: Kann dieses System einen Monat lang von selbst laufen und unsere Leistung aufrechterhalten oder verbessern? Die besten Technologien nähern sich einer “Ja”-Antwort auf diese Frage, während andere immer noch grundsätzlich manuelle Betreuung erfordern.

Skalierbarkeit & Leistung: Architektur zählt

Die Supply-Chain-Planung muss oft mit Big Data umgehen (große Mengen an SKUs, Geschäften, Bestellungen, IoT-Signalen usw.) und komplexe Berechnungen durchführen (Optimierung über viele Variablen). Die zugrunde liegende Architektur jeder Lösung - ob sie im Speicher oder verteilt ist, wie sie mit steigenden Datenvolumen umgeht - hat direkte Auswirkungen auf ihre Skalierbarkeit und Leistung. Schlechte architektonische Entscheidungen können zu entweder träger Leistung oder exorbitanten Hardwarekosten (oder beidem) führen, insbesondere wenn ein Unternehmen wächst. Wichtige Punkte zur Skalierbarkeit für die Anbieter:

  • Im Speicher vs. Verteilt: Ein großes Thema ist der Unterschied zwischen Lösungen, die die meisten Daten in den RAM laden, um schnelle Berechnungen zu ermöglichen, und solchen, die eine stärker verteilte, bedarfsorientierte Berechnung (Cloud-Stil) verwenden. Kinaxis, o9, Relex und SAP IBP haben alle eine starke In-Memory-Komponente. Der Motor von Kinaxis wurde mit der Idee entwickelt, dass alle relevanten Planungsdaten im Speicher liegen, um eine sofortige Neuberechnung zu ermöglichen - was bis zu einem gewissen Punkt gut funktioniert, aber das Skalieren über einige Terabyte Daten im Speicher wird extrem kostspielig und technisch herausfordernd. O9 und Relex “garantieren hohe Hardwarekosten” aufgrund des In-Memory-Designs 4 7 - effektiv zahlt der Benutzer für sehr große Server oder Cluster mit massivem RAM. Dieser Ansatz hatte vor 10-20 Jahren Vorteile, als der Speicher billig und die Datengrößen bescheidener waren, aber die Speicherpreise haben sich stabilisiert und die Datenkomplexität hat zugenommen, was diese Strategie weniger zukunftssicher macht. Im Gegensatz dazu ist Lokad vollständig cloudbasiert und erfordert nicht, dass alle Daten im RAM gehalten werden. Es nutzt bedarfsorientiertes Computing (zum Beispiel das parallele Berechnen von Zahlen auf vielen Maschinen bei Bedarf und dann das Freigeben dieser). Das bedeutet, dass es sehr große Probleme durch Hinzufügen von Rechenknoten skalieren kann, anstatt an eine einzelne RAM-Grenze für Maschinen zu stoßen. Das Cloud-nativ Design von Lokad nutzt auch intensiv Festplatte und Netzwerk, wenn es angebracht ist, und passt sich damit den modernen Big-Data-Trends an (bei denen verteilte Speicher- und Rechenmodelle, wie Map-Reduce-Paradigmen, die Skalierung bewältigen).

  • Leistung im großen Maßstab: Ältere Module von Blue Yonder (wie APO von SAP oder das eigene Legacy von JDA) hatten manchmal Schwierigkeiten mit großen Problemfällen und benötigten Datenaggregation oder Segmentierung zum Laufen. Neuere Cloud-Versionen (BY Luminate) haben dies wahrscheinlich mit besserem Speichermanagement und vielleicht elastischer Skalierung verbessert, aber die Beweise sind spärlich. SAP IBP verwendet HANA (In-Memory-Spalten-DB); es kann große Datenmengen verarbeiten, aber zu sehr hohen Infrastrukturkosten und benötigt oft noch Datenaggregation auf bestimmten Ebenen, damit die Planungsläufe rechtzeitig abgeschlossen werden können. Oracles Planung verwendet eine relationale DB-Backend, die einige auf die Festplatte auslagern kann, aber möglicherweise langsamer pro Berechnung ist (Oracle nutzt jedoch seine Datenbankoptimierung). ToolsGroup hat in der Regel mit mittelgroßen Datensätzen (Tausende bis Zehntausende von SKUs) auf Einzelservern gearbeitet; die Leistung könnte mit sehr großen SKU-Zahlen abnehmen, es sei denn, die Berechnung wird sorgfältig begrenzt (z.B. Fokussierung auf Artikel von Interesse). Sie sind kürzlich zu Cloud-Angeboten übergegangen, die vermutlich skalieren können, aber es ist unklar, ob die Kernalgorithmen für verteiltes Rechnen neu strukturiert wurden oder einfach auf großen VMs gehostet werden.

  • Fehlerhafte Ansätze: Der “In-Memory-Design”-Fehler ist hervorzuheben. Mehrere Anbieter haben den Ansatz gewählt, die gesamte Supply Chain in einem riesigen speicherresidenten Modell zu modellieren (ähnlich einem OLAP-Würfel oder einer riesigen Tabelle im Speicher). Dies bietet eine hohe Geschwindigkeit für kleine bis mittlere Fälle, skaliert aber nicht linear - man kann es nicht einfach verteilen, und das Hinzufügen weiterer Daten kann eine kombinatorische Explosion des Speicherbedarfs verursachen. Die Lokad-Anbieterstudie weist explizit darauf hin, dass o9 und Relex: ihr Design “beeindruckendes Echtzeit-Reporting” bietet, aber die Hardwarekosten in die Höhe treibt und nicht gut mit globalen Optimierungsproblemen harmoniert 7. Ähnlich räumt die eigene Literatur von Kinaxis indirekt Einschränkungen ein: So wurde in älteren Kinaxis-Dokumentationen darauf hingewiesen, dass 32-Bit-Systeme mit ~4GB RAM früher ein limitierender Faktor waren, und obwohl jetzt 64-Bit mehr erlaubt, ist es nicht unendlich 22. Das grundlegende Problem ist, dass die Daten schneller gewachsen sind als die RAM-Kapazitäten. Wenn ein Einzelhändler auf Store-SKU-Tagesebene für 2.000 Geschäfte und 50.000 SKUs planen möchte, sind das 100 Millionen Zeitreihen - ein In-Memory-Würfel dieser Größe (mit Historie und zukünftigen Perioden) könnte Zehntausende von Milliarden Zellen beanspruchen, was unpraktisch ist. Ein verteilter Ansatz, der Geschäft für Geschäft verarbeitet oder intelligent partitioniert, ist skalierbarer.

  • Gleichzeitigkeit vs. Batch: Kinaxis’ Verkaufsargument ist die Gleichzeitigkeit (alles wird gleichzeitig im Speicher neu berechnet). Dies ist großartig für den interaktiven Gebrauch, bedeutet aber, dass Sie dieses vollständige Modell im Speicher bereit haben müssen. Batch-orientierte Systeme (wie ein nächtlicher Lokad-Lauf oder sogar der Ansatz von ToolsGroup) können skalieren, indem sie die Aufgabe aufteilen (z.B. die Prognose für jede SKU separat, was peinlich parallel ist). Lokads Envision kann beispielsweise Probleme in Teilprobleme zerlegen, die parallel in der Cloud laufen - Sie tauschen Echtzeit-Interaktivität gegen Skalierbarkeit und rohe Leistung. Je nach Geschäftsbedarf ist das eine oder das andere vorzuziehen. Aber wenn das Ziel der bestmögliche Plan ist, könnte ein Batch-Prozess, der über Nacht durch riesige Szenarienräume rechnet, eine vereinfachte Echtzeit-Berechnung schlagen.

Fazit: Lösungen wie Lokads Cloud-Plattform sind darauf ausgelegt, horizontal zu skalieren und große Datenmengen zu bewältigen, ohne an eine Wand zu stoßen, während in-memory-zentrierte Lösungen (Kinaxis, o9, Relex, SAP) das Risiko von Skalierungsengpässen und steigenden Kosten bei wachsender Datenkomplexität bergen. Unternehmen, die diese bewerten, sollten die Größe ihrer Supply-Chain-Daten und die Wachstumstrajectorien sorgfältig berücksichtigen. Es ist bezeichnend, dass einige neuere “KI”-Planungs-Startups bewusst In-Memory-Monolithen vermeiden und stattdessen Microservices oder Big-Data-Frameworks verwenden. Auch eine Warnung: Die Leistungsoptimierung fällt oft dem Implementierungsteam zu - wenn ein Anbieter eine starke Aggregation oder Beschneidung von Daten benötigt, um das Modell in den Speicher zu passen, ist das ein Skalierungs-Alarmzeichen. Die wirklich skalierbare Technik wird granulare Daten verarbeiten, ohne dass Sie sie vereinfachen müssen.

Technologieintegration & Akquisitionen: Einheitliche Plattformen vs. Franken-Suites

Die Geschichte eines Anbieters - ob er seine Lösung organisch aufgebaut hat oder durch Akquisitionen erweitert hat - beeinflusst stark die Konsistenz und Integration der Technologie. Wenn eine Planungssuite aus vielen erworbenen Teilen besteht, führt dies oft dazu, dass verschiedene Module verschiedene Datenbanken, Benutzeroberflächen oder sogar Programmiersprachen verwenden, was das Gesamtprodukt weniger kohärent macht. Wir haben uns den Hintergrund jedes Anbieters angesehen:

  • Blue Yonder (JDA) ist eines der klarsten Beispiele für Wachstum durch Akquisition. Im Laufe der Jahre hat JDA Manugistics (für Supply-Chain-Planungsalgorithmen), i2 (obwohl dieser Deal 2008 scheiterte), Intactix (für Einzelhandelsflächenplanung), RedPrairie (für Lagerverwaltung) und das Start-up Blue Yonder (für AI/ML-Prognose) unter anderem erworben. Das bedeutet, dass die aktuelle Blue Yonder Lösungssuite ein Flickwerk ist: zum Beispiel könnte die Nachfrageplanung der alte Manugistics-Motor sein, die Erfüllung könnte etwas anderes sein, die Preisoptimierung stammt aus einer anderen Akquisition usw. Die Lokad-Studie stellte fest, dass “Unternehmenssoftware nicht durch M&A mischbar ist… unter der BY-Marke liegt eine zufällige Sammlung von Produkten” 14. Sie versuchen, sie unter der “Luminate”-Plattform mit einer gemeinsamen Benutzeroberfläche und vielleicht einer gemeinsamen Datenlayer in Azure zu vereinen, aber im Grunde ist es schwierig, all diese zu einem reibungslosen System zu verschmelzen. Kunden implementieren oft nur einige Teile, und sie zum Reden zu bringen, kann eine benutzerdefinierte Integration erfordern. Inkonsistenzen entstehen unweigerlich (z.B. könnte ein Modul probabilistische Logik unterstützen, während ein anderes dies nicht tut; eines verwendet einen Optimierungslöser, ein anderes verwendet einen anderen). Der fragmentierte Technologie-Stack bedeutet auch, dass widersprüchliche Praktiken in derselben Suite koexistieren können (zum Beispiel könnte ein Teil von BY fortschrittliches ML anpreisen, während ein anderer Teil immer noch Sicherheitsbestandsformeln von vor 20 Jahren verwendet).

  • SAP hat ähnlich einige gebaut und einige gekauft. Insbesondere hat SAP SAF (einen Prognoseanbieter) im Jahr 2009, SmartOps (einen Anbieter für Bestandsoptimierung) im Jahr 2013 17 erworben und hatte zuvor APO intern entwickelt. Diese wurden alle in SAPs Integrated Business Planning (IBP) Cloud-Angebot integriert. Das Ergebnis: SAP IBP hat verschiedene Module (Prognose, Bestand, Versorgung), die, obwohl unter einem Dach, manchmal wie separate Produkte wirken. Die Prognose könnte Algorithmen von SAF verwenden, die Bestandsoptimierung verwendet SmartOps-Logik. Die Peer-Review bezeichnet SAPs Suite als “eine Sammlung von Produkten” und warnt, dass die Komplexität hoch ist, oft erfordert es “die allerbesten Integratoren - plus ein paar Jahre - um Erfolg zu erzielen” 23. Mit anderen Worten, die Integration wird dem Implementierungsteam überlassen und kann ein langer Kampf sein, um alle Teile nahtlos zusammenarbeiten zu lassen.

  • Kinaxis war bis vor kurzem hauptsächlich ein organischer Aufbau - ihr Hauptprodukt RapidResponse wurde intern über Jahrzehnte entwickelt. Dies gab ihm ein sehr einheitliches Gefühl (ein Datenmodell, eine Benutzeroberfläche). In den letzten 3-4 Jahren hat Kinaxis jedoch einige strategische Akquisitionen/Partnerschaften getätigt, um Lücken zu schließen: z.B. Partnerschaft mit Wahupa für probabilistische Bestandsoptimierung 18, Akquisition von Rubikloud für AI-Prognose und Akquisition von Prana (ein Anbieter für Supply-Chain-Analysen) im Jahr 2021. Kinaxis integriert diese über seine erweiterbare Plattform (sie werben mit einer “No-Code”-Integration über ihre Benutzeroberfläche für diese neuen Fähigkeiten), aber realistisch gesehen sind dies separate Motoren, die verbunden werden. Zum Beispiel könnte Wahupas MEIO als Dienst an RapidResponse angeschlossen laufen, anstatt als nativer Code darin. Mit der Zeit wird Kinaxis sie wahrscheinlich enger verschmelzen, aber es besteht immer das Risiko, dass es zu einem locker gekoppelten Add-On wird (zum Beispiel geben Sie Prognosevariabilitätsdaten an Wahupas Motor und erhalten Sicherheitsbestandsniveaus zurück - ein bisschen angeflanscht). Im Vergleich zu Anbietern mit Dutzenden von Akquisitionen ist Kinaxis immer noch relativ kohärent, aber es ist es wert zu beobachten, dass es nicht den Weg einer Franken-Suite geht.

  • o9 Solutions wurde hauptsächlich intern von seinen Gründern (die ehemalige i2-Leute waren) entwickelt. Es handelt sich um eine einzige Plattform mit Modulen, die auf derselben Basis entwickelt wurden. o9 hat sehr wenig erworben (eine kleinere Akquisition war ein Unternehmen für Supply-Chain-Netzwerke und eine kürzliche war ein AI/ML-Startup namens Processium, aber nichts Großes in Bezug auf Planungsalgorithmen, soweit bekannt). Daher ist der Technologie-Stack von o9 einheitlicher als bei älteren Wettbewerbern - alles sitzt auf dem o9 Enterprise Knowledge Graph und verwendet das gleiche UI-Framework. Dies ist ein Plus für Konsistenz (keine Duplizierung von Datenbankschemas usw.). Der Nachteil ist, dass, wenn ein Teil ihrer Technologie schwach ist, sie keine einfache Lösung durch Akquisition haben - sie müssen sie entwickeln. Bisher haben sie es mit interner Entwicklung geschafft, wenn auch mit den von uns diskutierten Einschränkungen (wie möglicherweise Fußgängerprognosetechniken unter der Haube).

  • ToolsGroup wuchs hauptsächlich organisch um sein SO99+ Produkt herum. Sie haben, soweit wir wissen, keine großen Akquisitionen anderer Planungsanbieter gemacht. Daher wurden ihre Module für Nachfrageprognose und Bestandsoptimierung und -auffüllung gemeinsam entwickelt. Dies führt zu einer konsistenten, wenn auch etwas monolithischen Anwendung. Die Herausforderung für ToolsGroup war die Modernisierung - ihre Architektur und UI waren in den 2010er Jahren veraltet, aber sie haben seitdem Anstrengungen unternommen, in die Cloud zu wechseln und die Benutzeroberfläche zu aktualisieren. Dennoch ist Kohärenz ein Grund, warum ToolsGroup relativ unkompliziert ist: es macht eine Sache (Service-Level-Optimierung) von Anfang bis Ende, ohne andere Tools einstecken zu müssen.

  • Relex Solutions hat seine Plattform ebenfalls speziell für den Einzelhandel von Grund auf neu entwickelt. Sie haben ein paar Unternehmen in angrenzenden Bereichen erworben (eine Workforce-Management-Lösung und eine Store-Space-Planungslösung kürzlich), aber ihr Kernprognose- und Auffüllungsmotor ist hausgemacht. Dieser Kern ist einheitlich (weshalb sie Dinge wie das Anzeigen einer beliebigen Metrik in Echtzeit tun können, da alle Daten in derselben In-Memory-DB sind). Die Akquisitionen in neuen Bereichen könnten einige Integrationsnähte einführen, aber Relex ist noch weit entfernt von der Akquisitionsserie älterer Anbieter.

Das Hauptproblem bei fragmentierten Suiten ist nicht nur der technische Overhead, sondern auch die funktionale Fehlausrichtung: Wenn ein Modul für einen Ansatz (sagen wir, deterministische Planung mit Sicherheitsbeständen) und ein anderes Modul probabilistische Eingaben annimmt, können sie in Konflikt geraten. Zum Beispiel könnte ein Modul zur Bestandsoptimierung von einer Akquisition Sicherheitsbestände berechnen, die ein Modul zur Nachfrageplanung von einer anderen Akquisition nicht in seiner Benutzeroberfläche zu handhaben weiß, was zu Verwirrung oder doppelten Dateneingaben führt. Tatsächlich haben wir Fälle gesehen, in denen Anbieter probabilistische Prognosen im Marketing fördern, während ihr Vertriebs- und Operationsplanungsmodul weiterhin MAPE verfolgt und Einzelzahl-Konsensprognosen verwendet - ein interner Widerspruch, der wahrscheinlich aus verschiedenen Produktlinien stammt.

Im Gegensatz dazu kann ein Anbieter mit einer kohärenten Plattform Änderungen (wie den Übergang zu probabilistischen Methoden) leichter über die gesamte Bandbreite implementieren. Es ist bezeichnend, dass Lokad, das vollständig einheitlich ist (sie haben alles um ihre Envision-Sprache und Cloud-Backend herum gebaut), seine Botschaft klar auf probabilistische Optimierung ohne interne Inkonsistenz konzentrieren kann. Ebenso ist Anaplan (eine allgemeine Planungsplattform) technisch sehr einheitlich (ein Hyperblock-Motor), obwohl es spezialisierte Supply-Chain-Algorithmen fehlen; Anaplans Konsistenz ist großartig, aber seine Spezialisierung ist begrenzt 24.

Daher sollten Käufer aus technologischer Sicht vorsichtig mit Suiten sein, die aus vielen Fusionen hervorgegangen sind - fragen Sie, ob das Prognosestück und das Planungsstück wirklich denselben Motor oder Datenmodell teilen. Wenn nicht, kann das Ergebnis Integrationsprobleme und möglicherweise widersprüchliche Ausgaben sein.

Technische Glaubwürdigkeit: Durch den AI/ML-Hype schneiden

In einer Zeit, in der jeder Anbieter behauptet, eine “KI-gesteuerte Supply Chain” und “maschinelles Lernen Prognosen” zu haben, ist es unerlässlich zu prüfen, wie sie diese Behauptungen belegen. Wir suchen nach greifbaren technischen Beweisen für fortgeschrittene Techniken - wie zum Beispiel durch Fachleute überprüfte Forschung, dokumentierte proprietäre Algorithmen, Beiträge zu Open-Source-Projekten oder Leistung in neutralen Benchmarks. Wir prüfen auch auf Missbrauch von Schlagworten - zum Beispiel, wenn etwas als KI bezeichnet wird, das nur eine if-else-Regel ist. Hier ist, wie die Anbieter abschneiden:

  • Lokad zeigt eine hohe technische Glaubwürdigkeit. Es behauptet nicht nur KI; es veröffentlicht Inhalte, die seine Algorithmen erklären (z.B. einen Vortrag, der erklärt, wie ihr M5-Gewinner-Prognosemodell funktioniert 25). Der CEO und das Team des Unternehmens führen technische Diskussionen (über Blogs, Vorträge) darüber, warum bestimmte Ansätze (wie das Zusammenstellen von Quantilprognosen oder die Verwendung von Pinball-Verlusten für das Training) gewählt werden. Sie geben auch offen die Grenzen von Wettbewerben wie M5 und wie sich echte Supply-Chain-Probleme unterscheiden 26 27 - diese Nuance deutet auf eine ernsthafte Ingenieurmentalität hin, anstatt auf Marketing-Fluff. Darüber hinaus ist Lokads Kerninnovation, die Envision-Programmiersprache, ein einzigartiges technisches Artefakt - es handelt sich nicht nur um ein generisches ML, sondern um eine domänenspezifische Sprache, die für die Optimierung der Supply Chain entwickelt wurde 28. Dies ist ein konkretes Stück Technik, das Außenstehende bewerten können (und einige Teile sind öffentlich dokumentiert). Lokad stützt sich nicht auf bezahlte Analystenzitate; stattdessen lädt es zur Peer-Review seiner Methoden ein. Diese Offenheit und der Fokus auf Wissenschaft statt auf Slogans setzen einen Goldstandard für Glaubwürdigkeit.

  • Blue Yonder hingegen neigt dazu, vage Sprache über KI zu verwenden, wie zum Beispiel “Einbettung von KI/ML in unsere Luminate-Plattform”, ohne zu erläutern, welche Techniken oder Modelle verwendet werden. Die Lokad-Anbieterstudie stellt ausdrücklich fest, dass Blue Yonders KI-Behauptungen “wenig oder gar keine Substanz” haben, und die wenigen verfügbaren Artefakte deuten auf eine Abhängigkeit von altmodischen Prognosemethoden (ARMA, Regression) hin 15. Zum Beispiel könnte BY sagen “wir verwenden KI, um Nachfrageverschiebungen zu erfassen”, aber wenn es in Wirklichkeit eine lineare Regression auf den jüngsten Verkäufen verwendet (eine Technik aus Jahrzehnten), dann ist das eine Überdehnung des Begriffs KI. Die Präsenz von Open-Source-Projekten wie tsfresh (Zeitreihen-Feature-Extraktion) ist tatsächlich ein Punkt in BYs Gunst für Transparenz, aber diese Projekte selbst sind bekannte generische Tools, keine proprietären Durchbrüche. Das Fehlen jeglicher veröffentlichter Ergebnisse oder Wettbewerbe von BYs Data-Science-Teams lässt weiterhin vermuten, dass ihre Behauptungen eher marketinggetrieben sind. Kurz gesagt, Blue Yonder hat keinen überzeugenden technischen Beweis für seine starke KI-Markenbildung geliefert - ein rotes Tuch für die Glaubwürdigkeit.

  • o9 Solutions weckt ähnlich Skepsis. Sie vermarkten das Konzept eines Enterprise Knowledge Graph (EKG) als Differenzierungsmerkmal und implizieren, dass es sich dabei um eine Form von KI handelt, die Beziehungen in den Daten erfasst. Obwohl Graphdatenbanken nützlich sind, ist an der Speicherung von Daten als Graph nichts inhärent “prognosegenial” - es sind die darauf aufbauenden Algorithmen, die zählen. Die Lokad-Studie stellt fest, dass o9s Prognosebehauptungen rund um den Graphen nicht durch wissenschaftliche Literatur gestützt sind 29. Darüber hinaus hat o9s GitHub (wenn man sich hineingräbt) keine revolutionären Algorithmen offenbart, und ihre Rede von KI läuft oft auf generische Fähigkeiten hinaus (wie “fortgeschrittene Analytik” oder “ML-Prognose”), die viele andere auch haben. Sie verwenden schicke Begriffe (“digital brain”, “KI/ML”, “knowledge graph”), aber ohne externe Validierung. Bis o9 zum Beispiel ein Whitepaper veröffentlicht, in dem es zeigt, wie ihre ML-Modelle andere übertreffen, oder bis ein Kundenfall mit rigorosen Daten dokumentiert ist, ist es am sichersten anzunehmen, dass o9s KI größtenteils Hype ist - vielleicht standardmäßige ML-Modelle (neuronale Netze, Gradientenverstärkung usw.) verpackt in gutes Marketing. Wir stellen auch fest, dass in der Supply-Chain-Community wirklich bahnbrechende KI-Konzepte (wie Deep Reinforcement Learning für die Supply-Optimierung oder neuartige probabilistische Modelle) in der Regel in akademischen oder offenen Foren diskutiert werden - wir haben nicht gesehen, dass o9 in diesen präsentiert, was auf einen Mangel an einzigartiger Technik hindeutet.

  • Kinaxis war in seinem Marketing relativ gemessen - es verwendet nicht in jedem Satz “KI”, was in gewisser Weise gut ist (weniger Übertreibung). Allerdings haben sie, da sie KI-Partner integrieren, begonnen, dies stärker zu betonen. Ein gutes Zeichen: Der gemeinsam mit dem CEO von Wahupa verfasste Blogbeitrag 30 31, in dem probabilistische gegenüber statistischen Methoden diskutiert wird, zeigt, dass Kinaxis bereit ist, sich in die Wissenschaft zu vertiefen (Erwähnung von Wahrscheinlichkeitstheorie, Entscheidungsfindung unter Unsicherheit usw.). Dies deutet darauf hin, dass sie versuchen, ihre Angebote auf solider Methodik zu gründen. Aber Kinaxis muss sich noch in Bezug auf die Ergebnisse dieser Methoden beweisen. Sie haben beispielsweise nicht veröffentlicht, dass “unsere neue ML-Prognose die Genauigkeit um X% gegenüber unserem alten Ansatz verbessert hat” - wahrscheinlich, weil sie es noch integrieren. Die Glaubwürdigkeit von Kinaxis ist also im Übergang: Historisch gesehen hat es nicht behauptet, ein führender Technologieanbieter für Prognosen zu sein (also hat es sich nicht falsch dargestellt), und jetzt, da es behauptet, fortgeschrittene Analysen durchzuführen, müssen wir auf Beweise warten. Die Partnerschaft mit Wahupa zeigt zumindest eine Anerkennung, dass externe Expertise benötigt wurde - was glaubwürdig ist (sie haben nicht so getan, als hätten sie die probabilistische Beherrschung; sie haben einen Spezialisten hinzugezogen).

  • ToolsGroup hat leider seine Glaubwürdigkeit untergraben, indem es auf den KI-Buzzword-Zug aufgesprungen ist, ohne dies zu untermauern. Der Kommentar der Studie, dass ihre KI-Behauptungen “zweifelhaft” sind und dass öffentliches Material immer noch auf Modelle vor 2000 hinweist, ist aufschlussreich 11. Es legt nahe, dass ToolsGroup möglicherweise nicht mehr tut, als bestehende Funktionen als “KI” umzubenennen. Beispielsweise könnte ToolsGroup “KI für die Nachfragesensorik” bewerben - bei näherer Untersuchung könnte das einfach eine Regel sein, die den jüngsten Verkäufen mehr Gewicht verleiht (was keine KI ist, sondern nur eine algorithmische Anpassung). Ohne veröffentlichte Details fällt es schwer, ihnen den Vorteil des Zweifels zu geben. Ihre Glaubwürdigkeit war stärker in den frühen 2000er Jahren, als sie wirklich bei probabilistischen Lagermodellen voraus waren; jetzt leidet sie unter möglicher Stagnation.

  • SAS (das wir nicht als Top eingestuft haben, aber im Mix ist) ist ein Fall, in dem die technische Glaubwürdigkeit im Allgemeinen hoch ist (SAS hat eine lange Geschichte in der Statistik), aber die Kehrseite ist, dass ihre Kerntechnologie älter ist. Die Prognosemethoden von SAS sind gut dokumentiert (sie haben buchstäblich das Lehrbuch über viele statistische Methoden geschrieben), aber das bedeutet auch, dass sie möglicherweise nicht die neuesten maschinellen Lernmethoden einbeziehen, es sei denn, Sie führen benutzerdefinierte Arbeiten in SAS durch. Die Lokad-Studie erkennt SAS als Pionier an, wenn auch einen, der mittlerweile von Open-Source-Tools wie Python-Notebooks überholt wurde 32. SAS übertreibt normalerweise nicht - sie verlassen sich auf ihren Ruf - aber als supply chain-Lösung werden sie seltener von der Stange verwendet (häufiger verwendet ein Unternehmen SAS, um eine benutzerdefinierte Lösung zu erstellen).

  • Allgemeine Beobachtung: Eine schnelle Möglichkeit, die technische Aufrichtigkeit eines Anbieters zu testen, besteht darin zu prüfen, ob sie manchmal Einschränkungen oder geeignete Anwendungsfälle ihrer Technologie anerkennen. Anbieter, die tief im Marketing-Modus sind, behaupten, ihre KI löse alles. Diejenigen mit echter Technologie werden sagen: “Hier ist, was es tut und wo es möglicherweise nicht so gut funktioniert.” Zum Beispiel diskutiert Lokad häufig, wie bestimmte Modelle für bestimmte Arten von Nachfrage nicht funktionieren (wie zum Beispiel, warum einige Ansätze bei intermittierender Nachfrage scheitern usw.), was intellektuelle Ehrlichkeit zeigt 27 33. Wir finden nur wenige Anbieter neben Lokad, die bereit sind, diese differenzierte öffentliche Diskussion zu führen. Die meisten anderen halten sich an rosige Allgemeinheiten, was einen klugen Kunden vorsichtig machen sollte.

Abschließend lässt sich sagen, dass greifbare Beweise für technische Stärke - wie Wettbewerbsplatzierungen, detaillierte technische Blogs oder sogar Diskussionen in der Benutzergemeinschaft - für viele namhafte Anbieter rar sind. Lokad führt in der Bereitstellung von Beweisen (M5-Sieg, offene Erklärungen). Andere wie Blue Yonder und o9 bieten Hype mit Anzeichen von veralteter Technologie, was ihre behauptete “KI-Revolution” in Frage stellt 16. Ein potenzieller Käufer sollte von den Anbietern verlangen, dass sie in konkreten Begriffen erklären, wie ihre Algorithmen funktionieren und warum sie besser sind - und vorsichtig sein, wenn die Antwort nur ein Buzzword-Suppe ist. Der wahre KI/ML-Wert in der supply chain sollte nachweisbar sein (z.B. “wir verwenden gradientenverstärkte Bäume, um nichtlineare Nachfragetreiber wie Wetter zu erfassen und haben eine Verbesserung von 5% gegenüber der Basislinie über 1000 SKUs nachgewiesen” - eine Aussage dieser Form ist überzeugender als “unsere KI findet verborgene Muster in Ihren Daten”).

Konsistenz & Widersprüche in den Ansätzen der Anbieter

Ein verräterisches Zeichen für oberflächliche Innovation ist, wenn die Botschaft oder Methodik eines Anbieters interne Inkonsistenzen aufweist. Wir suchten nach solchen Widersprüchen - zum Beispiel, Unsicherheit zu predigen, aber den Erfolg mit deterministischen Metriken zu messen, oder zu behaupten, alte Praktiken zu beseitigen, während sie immer noch unter der Haube verwendet werden. Einige bemerkenswerte Erkenntnisse:

  • Probabilistische vs Deterministische Metriken: Wie bereits erwähnt, ist ToolsGroup hier schuldig - sie werben für die Fähigkeit zur probabilistischen Prognose, zeigen jedoch Ergebnisse in Bezug auf die Reduzierung des MAPE (Mean Absolute Percentage Error) 13. MAPE ist eine Punktprognosefehlermetrik; wenn Sie wirklich probabilistische Prognosen machen, würden Sie über Kalibrierung, probabilistische Log-Likelihood, Pinball-Verlust (für Quantile) oder zumindest erreichten Service-Level sprechen. Indem ToolsGroup an MAPE festhält, widerspricht es im Grunde seiner probabilistischen Geschichte. Diese Inkonsistenz deutet darauf hin, dass ihre “probabilistische” Ausgabe entweder nur eine transformierte deterministische Prognose ist oder es sich um eine Marketing-Overlay handelt, das von ihrer F&E nicht tiefgreifend akzeptiert wird.

  • Hype um Demand Sensing: Viele Anbieter verwenden den Begriff “Demand Sensing”, um zu implizieren, dass sie eine spezielle kurzfristige Prognose haben, die die neuesten Trends erfasst (wie die Verwendung sehr aktueller Verkäufe oder externer Signale). ToolsGroup, SAP und GAINSystems haben alle diesen Begriff verwendet. Die Studie weist darauf hin, dass diese “Demand Sensing”-Behauptungen oft “Vaporware” sind, die nicht durch Literatur unterstützt wird 34. Wenn ein Anbieter behauptet, “unsere KI erkennt Nachfrageänderungen 3 Monate im Voraus”, aber nicht erklären kann, wie (und keine von Experten begutachtete Forschung bestätigt, dass so etwas überhaupt zuverlässig möglich ist), ist das ein rotes Tuch. Inkonsistenz entsteht, wenn der gleiche Anbieter immer noch ein grundlegendes Zeitreihenmodell darunter verwendet. Im Grunde nehmen sie eine Standard-Exponentialglättungsprognose, fügen eine Anpassung der letzten Woche hinzu und nennen es “Sensing”. Der Widerspruch: eine geringfügige Anpassung als Durchbruch darzustellen.

  • Verwendung von deterministischen KPIs: Achten Sie darauf, ob die Fallstudien oder Schnittstellen eines Anbieters immer noch um deterministische KPIs wie MAPE, Bias oder Tracking-Signal kreisen, auch wenn sie behaupten, alles drehe sich um KI/ML. Zum Beispiel, wenn ein Anbieter Machine Learning anpreist, aber ihre Demo zeigt, dass Planer daran arbeiten, die Prognose-MAPE zu verbessern oder ABC-Segmentierung zur Festlegung von Sicherheitsbeständen zu verwenden, ist das inkonsistent. Wahre ML-getriebene probabilistische Planung würde den Fokus auf Dinge wie erwartete Kosten, Ausfallwahrscheinlichkeit oder andere stochastische Maßnahmen verlagern - nicht traditionelle MAPE oder ABC-Klassifikationen (die eine vorhersehbare, statische Nachfragekategorisierung voraussetzen). Wir haben diese Art von gespaltener Persönlichkeit in einigen Benutzerhandbüchern großer Anbieter beobachtet: Ein Kapitel spricht über das neue KI-Modul, aber ein anderes Kapitel weist den Benutzer immer noch an, ARIMA-Parameter oder Sicherheitsbestandsregeln zu optimieren.

  • Philosophie des Sicherheitsbestands: Ein bedeutender philosophischer Widerspruch sind Anbieter, die über Unsicherheitsmanagement sprechen, aber ihren Prozess immer noch auf “Sicherheitsbestand” zentrieren. Das Konzept des Sicherheitsbestands basiert auf einer deterministischen Prognose + einem Puffer. In einem vollständig probabilistischen Rahmen würde man stattdessen einen optimalen Bestandslevel direkt aus der Nachfrageverteilung und den Servicezielen berechnen (was “Basis” und “Sicherheit” effektiv zu einer Entscheidung zusammenführt). Wenn ein Anbieter sagt “wir optimieren den Bestand mit KI”, fragen Sie, ob sie immer noch den Benutzer “gewünschten Service-Level” eingeben lassen, um den Sicherheitsbestand unter Annahme einer Normalverteilung zu berechnen. Wenn ja, haben sie sich nicht wirklich weiterentwickelt - sie kleiden nur die alte Sicherheitsbestandsberechnung in neue Sprache. Zum Beispiel würde die Bestandsoptimierung von Blue Yonder (historisch) den Sicherheitsbestand auf Basis von Varianz und Servicezielen berechnen - das ist keine grundlegende probabilistische Optimierung; es ist eine Anwendung einer Formel. Anbieter wie Lokad lehnen den Begriff “Sicherheitsbestand” explizit als veraltet ab, da man in einer wahren stochastischen Optimierung allen Bestand als Bedienung der Wahrscheinlichkeitsverteilung der Nachfrage behandelt, nicht einen Teil, der als “Sicherheit” bezeichnet wird. Wenn also ein Anbieter “Next-Gen-Planung” vermarktet, aber ihr Lösungsleitfaden Sie dazu auffordert, Sicherheitsbestandseinstellungen zu pflegen, ist das ein Konsistenzproblem.

  • KI-Magie vs. Benutzerkontrolle: Einige Anbieter behaupten gleichzeitig “unsere KI wird Ihre supply chain autonom steuern” und “wir geben den Benutzern volle Kontrolle und Sichtbarkeit in den Planungsprozess”. Es gibt eine Balance zu finden, aber allzu breite Behauptungen können sich widersprechen. Wenn die KI wirklich autonom ist, sollte der Benutzer sie nicht ständig überwachen müssen; wenn der Benutzer ständig nachjustieren muss, dann ist sie nicht wirklich autonom. Das Marketing möchte oft beides versprechen (“Autopilot UND manuelle Übersteuerung!”) aber in Wirklichkeit neigt eine Lösung dazu, eher in die eine oder andere Richtung zu gehen. Wir nennen hier keinen spezifischen Anbieter, aber wir haben generische Versprechen voller Automatisierung bemerkt, begleitet von Screenshots von Dutzenden von Planungsparametern, die die Benutzer konfigurieren müssen - eine Art gemischte Botschaft.

In unserer Forschung ist ein klares Beispiel für die Bewältigung von Widersprüchen, wie Lokad sich im Vergleich zum Mainstream positioniert. Lokad kritisiert ausdrücklich Maßnahmen wie MAPE und Konzepte wie Sicherheitsbestand in seinen Bildungsinhalten und richtet seine Methodik entsprechend aus (Verwendung von probabilistischen Metriken und direkte Berechnung von Entscheidungen) 13 33. Im Gegensatz dazu behaupten Anbieter wie GAINSystems, optimierungsorientiert zu sein, heben aber immer noch Dinge wie Demand Sensing und Matching-Algorithmen hervor, die aus früheren Zeiten stammen 34 - sie reiten effektiv auf zwei Pferden. John Galt Solutions behauptet, ein proprietärer Prognosealgorithmus übertrifft alle anderen, doch er ist in unabhängigen Rankings nicht vorhanden und wahrscheinlich nicht besser als Open-Source laut Peer-Review 20, was ein Widerspruch zwischen Behauptung und Beweis ist.

Zusammenfassend ist es wichtig, bei der Bewertung von Anbietern auf interne Konsistenz zu achten: Praktizieren sie, was sie predigen? Wenn ein Anbieter groß von Unsicherheit und Optimierung spricht, sollten seine Materialien nicht gleichzeitig deterministische Metriken oder einfache Methoden glorifizieren. Inkonsistenzen deuten oft darauf hin, dass das “neue Denken” nur oberflächlich ist.

Veraltete Praktiken: Rote Flaggen für veraltete Planung

Die Planung der supply chain hat sich weiterentwickelt, und einige einst standardmäßige Praktiken gelten heute angesichts moderner Fähigkeiten als veraltet oder suboptimal. Es kann aufschlussreich sein, zu erkennen, ob ein Anbieter noch auf solche Praktiken angewiesen ist. Hier sind einige veraltete (oder zumindest “altmodische”) Praktiken und wie die Anbieter abschneiden:

  • Sicherheitsbestand als Krücke: Wie besprochen, ist die Behandlung des Sicherheitsbestands als separate Pufferung, die zu einer Prognose hinzugefügt wird, ein älterer Ansatz. Es ist nicht so, dass Sicherheitsbestand “schlecht” ist - man braucht immer einen Puffer für die Variabilität - aber moderne Methoden berücksichtigen die Variabilität direkt. Wenn die Kernmethode eines Anbieters “Prognose mit Glättung, dann Berechnung des Sicherheitsbestands = z-Score * Sigma * Wurzel der Lieferzeit” ist, dann ist das noch Theorie aus den 1960er Jahren. Slimstock’s Slim4, zum Beispiel, verwendet stolz solche Mainstream-Formeln (Sicherheitsbestand, EOQ) und ist offen darüber 35. Slimstock bekommt tatsächlich Anerkennung für seine Ehrlichkeit: es konzentriert sich auf “alltägliche, aber kritische Praktiken” anstatt vorzugeben, KI zu verwenden 36. Aber aus der Perspektive der technischen Führung sind diese Praktiken veraltet. Lokad und Wahupa (Partner von Kinaxis) würden für eine Verschiebung zur direkten Berechnung von optimalen Nachbestellpunkten/-mengen aus probabilistischen Modellen plädieren, wodurch die künstliche Trennung von “Zyklusbestand vs. Sicherheitsbestand” entfällt. Viele ältere Tools (SAP, Oracle, ältere JDA) sind immer noch auf Sicherheitsbestandsparameter angewiesen. Dies ist ein rotes Signal dafür, dass sich ihre zugrunde liegende Mathematik nicht viel verändert hat. Ein wirklich optimierungsbasiertes System würde Ihnen erlauben, die Kosten des Bestands gegen die Kosten des Mangels einzugeben und dann die Politik zu lösen - niemals explizit etwas “Sicherheitsbestand” nennend, sondern einfach einen optimalen Bestandslevel pro Artikel ausgebend.

  • MAPE und deterministische Metriken: Die Konzentration auf MAPE, Bias usw. als primäres Erfolgskriterium kann als veraltet angesehen werden, da diese Metriken nicht direkt mit Geschäftsergebnissen korrelieren (man kann einen niedrigen MAPE, aber einen schlechten Service-Level haben, zum Beispiel) und sie ignorieren die Unsicherheit. Neuere Ansätze bevorzugen Metriken wie den Pinball-Verlust (Quantilverlust) für Prognosen oder erwartete Kostenmetriken für Pläne. Wenn das Erfolgskriterium eines Anbieters in Fallstudien “wir haben die Prognosegenauigkeit von 70% auf 80% MAPE verbessert” ist, stecken sie etwas in der Vergangenheit fest. John Galts Betonung von Behauptungen zur Prognosegenauigkeit ist ein bisschen in diese Richtung (und wurde von Kollegen in Frage gestellt) 20. Eine moderne Denkweise wäre “wir haben die Ausfälle um X% reduziert oder den Bestand um Y% bei gleichem Service-Level” - das ist ergebnisorientiert, nicht nur MAPE.

  • Heuristische Segmentierung (ABC, XYZ): Ältere Planungsprozesse segmentieren oft Artikel nach Volumen (ABC) oder Variabilität (XYZ) und wenden auf jede Gruppe unterschiedliche Planungsparameter an. Dies ist eine Heuristik, um mit begrenzter Rechenleistung oder einfachen Modellen umzugehen - behandeln Sie A-Artikel mit einem Ansatz (vielleicht mehr manueller Fokus) und C-Artikel mit einem anderen (vielleicht Min-Max-Regeln). Obwohl die Segmentierung immer noch nützlich sein kann, ist sie etwas veraltet, wenn Sie die Rechenleistung haben, um jedes SKU individuell und kontinuierlich zu optimieren. Ein System, das stark auf manuelle ABC-Klassifizierung setzt oder Sie dazu auffordert, die Nachfrage als “klumpig vs glatt” usw. zu klassifizieren, könnte dies als Krücke verwenden, weil es keine Algorithmen hat, die unterschiedliche Nachfragemuster robust automatisch handhaben. Viele Legacy-Systeme (und sogar einige neuere) tun dies immer noch. Idealerweise würde ein KI-gesteuertes System automatisch das Muster pro SKU lernen und keinen Menschen benötigen, um es zu kategorisieren.

  • Manuelle Prognoseüberschreibungen als Routine: Traditionelle Bedarfsplanung erwartet, dass Benutzer statistische Prognosen regelmäßig auf der Grundlage von Urteilen (Marketing-Intel usw.) überschreiben. Obwohl menschliche Eingaben wertvoll sind, ist ein System, dessen Genauigkeit so niedrig ist, dass Planer viele Prognosen in jedem Zyklus überarbeiten müssen, im Grunde genommen ein Legacy-Ansatz. Moderne Systeme zielen darauf ab, Überschreibungen zu minimieren, indem sie mehr Daten einbeziehen (so dass das Modell bereits “weiß”, dass das Marketing eine Promotion durchführt, zum Beispiel). Ein Anbieter, der immer noch hervorhebt, wie einfach es für Benutzer ist, Prognosen manuell anzupassen, könnte darauf hinweisen, dass seinem Algorithmus nicht out-of-the-box vertraut werden kann. Der Trend geht in Richtung ausnahmebasierte Überschreibungen nur.

  • Abhängigkeit von Tabellenkalkulationen: Wenn Sie feststellen, dass eine Lösung eines Anbieters Benutzer oft dazu bringt, Daten zur endgültigen Analyse in Excel zu exportieren oder Excel als Schnittstelle zu verwenden (einige Mittelmarkt-Tools tun dies), ist das ein Zeichen für eine unreife Lösung. Führende Tools bieten alle notwendigen Analysen und Entscheidungsunterstützung innerhalb der Plattform. (Anaplan ist hier interessant: es ist im Grunde eine Cloud-Tabelle auf Steroiden, so dass es auf eine Weise das Tabellenkalkulationsparadigma umarmt, aber in einer kontrollierten, multi-user-Umgebung - das ist sowohl modern als auch altmodisch zugleich).

Aus den von uns gesammelten Daten: Slimstock verwendet absichtlich ältere, aber bewährte Methoden (Sicherheitsbestand, EOQ) 35 - sie sind offen, was lobenswert ist, aber diese Methoden sind im Angesicht der probabilistischen Optimierung wohl veraltet. GAINSystems (ein weniger bekannter, aber langjähriger Anbieter) scheint auch an klassischen Prognosemodellen festzuhalten und sogar ihre angepriesenen ML-Funktionen (wie “Matching und Clustering”) sind Techniken vor 2000 34, was darauf hindeutet, dass unter der Haube nicht viel Neues ist. Die Lokad-Überprüfung von GAINSystems bezeichnet diese explizit als Vaporware, was darauf hindeutet, dass sie diese Methoden als veraltet oder in der Praxis unwirksam betrachten 34.

Blue Yonder und SAP tragen viel Legacy voran - z.B. ist SAPs Standard in vielen Implementierungen immer noch, ABC zu verwenden, um unterschiedliche Sicherheitsbestandsstufen festzulegen, oder einfache gleitende Durchschnittsprognosen für niedrige Werte zu verwenden. Wenn ihr neues “IBP mit maschinellem Lernen” diese Grundlagen nicht überarbeitet, dann sind sie im Grunde genommen Legacy-Wein in einer neuen Flasche.

Das Vorhandensein von widersprüchlichen Metriken (wie über Innovation zu sprechen, aber MAPE zu verwenden) haben wir bereits als Inkonsistenz abgedeckt, aber es ist auch ein Beweis dafür, dass man an alten Metriken festhält.

Abschließend sollten Unternehmen, die nach der fortschrittlichsten Lösung suchen, vorsichtig sein mit jedem Anbieter, dessen Lösung immer noch um Sicherheitsbestandsparameter, ABC-Segmentregeln und Prognosegenauigkeit % als Haupt-KPI kreist. Das sind Anzeichen dafür, dass die Lösung in den Praktiken des letzten Jahrhunderts verwurzelt ist. Stattdessen sollten sie nach Anbietern suchen, die Service-Level, Kosten und Wahrscheinlichkeiten betonen - die Sprache der modernen Supply-Chain-Wissenschaft.

Entscheidungsorientierte Prognose: Von Vorhersagen zu Aktionen

Schließlich bewerten wir, ob jeder Anbieter lediglich Prognosen erstellt oder den Benutzern tatsächlich hilft, auf der Grundlage dieser Prognosen optimierte Entscheidungen zu treffen. Das Endziel in der Supply Chain ist nicht eine hübsche Prognose - es geht darum, die richtigen Maßnahmen (Bestellung, Lagerung, Planung) zu ergreifen, um den Service zu maximieren und die Kosten zu minimieren. Wir bezeichnen eine Lösung als “entscheidungsorientiert”, wenn sie direkt Empfehlungen wie Bestellmengen, Produktionspläne oder Lagerziele ausgibt und wenn diese Ausgaben angesichts der Prognose und relevanter Beschränkungen/Kosten optimiert sind. So vergleichen sich die Anbieter:

  • Lokad ist extrem entscheidungsorientiert. Tatsächlich spielen sie oft die Bedeutung der Prognose selbst herunter und bestehen darauf, dass das, was zählt, die Entscheidung ist (eine implizite Philosophie von “die Prognose ist nur gut, wenn sie zu einer guten Entscheidung führt”). Mit Lokads Envision hört man nicht bei der Prognose der Nachfrage auf; der typische Lokad-Workflow berechnet beispielsweise den erwarteten Gewinn oder die Strafe für verschiedene Kandidatenentscheidungen (wie die Bestellung von 100 Einheiten vs 200 Einheiten) unter der probabilistischen Prognose und wählt dann die Entscheidung, die das erwartete Ergebnis maximiert. Die Ausgabe an den Benutzer ist nicht “die Nachfrage wird 120 sein”, sondern eher “bestellen Sie 130 Einheiten” (zum Beispiel), zusammen mit der Begründung (z.B. diese Menge gleicht das Risiko von Stockout vs Überbestand angesichts der Prognoseverteilung und Ihrer Kostenparameter aus). Das ist wahre vorschreibende oder entscheidungszentrierte Analytik. Lokad stellt damit sicher, dass die Prognose direkt in die Ausführung einfließt. Es berücksichtigt sogar Beschränkungen (wie MOQs, Haltbarkeit, Budgetgrenzen) in der Optimierung. So erfüllt Lokad eindeutig die Anforderungen, Vorhersagen in Aktionen umzusetzen.

  • ToolsGroup hat auch eine Entscheidungsorientierung, speziell für Bestands- und Nachfüllentscheidungen. Sein SO99+ Tool prognostiziert nicht nur; es empfiehlt Bestandsniveaus und Nachbestellpunkte, die die Service-Level-Ziele erreichen. In der Praxis wird eine ToolsGroup-Implementierung für jede SKU ausgeben: “Sie sollten X Einheiten Sicherheitsbestand halten und nachbestellen, wenn der Bestand auf Y fällt, was eine Bestellung von Z Einheiten jetzt impliziert.” Das ist eine Entscheidung (Nachfüllmenge), die aus der Prognose abgeleitet ist. So war ToolsGroup schon immer auf vorschreibende Ausgabe ausgerichtet, nicht nur auf Vorhersagen. Die Einschränkung ist die Art der Entscheidung: Es geht hauptsächlich um Bestandspolitiken (sie haben einige Optimierung der Produktionsplanung, aber ihre Stärke ist die Distribution). Auch sind ToolsGroups Empfehlungen nur so gut wie die Art und Weise, wie die Prognoseunsicherheit modelliert wird (was wir kritisiert haben). Aber Anerkennung, wo sie gebührt: ToolsGroup erwartet nicht, dass der Benutzer eine Prognose nimmt und dann manuell eine Bestellung entscheidet; es automatisiert diese Berechnung.

  • Blue Yonder und andere Legacy-Suiten trennen oft die Prognose von den Planungsmodulen. Zum Beispiel gibt BY Demand eine Prognose ab, dann nimmt BY Supply (oder Fulfillment) diese Prognose und berechnet Pläne. In einer integrierten Implementierung ist das Endergebnis ja eine Entscheidungsempfehlung (wie ein Master-Produktionsplan oder ein Einsatzplan). Blue Yonder bietet vollständige Planungsoptimierungs-Module an - z.B. wird ihr Fulfillment-Modul empfehlen, wie man DCs aus einem zentralen Lager auffüllt (es ist effektiv ein DRP-Motor, der Prognose- und Bestandsdaten verwendet, um geplante Bestellungen zu erstellen). Ihr Produktionsplanungs-Modul kann eine optimierte Produktionssequenz oder einen Zeitplan erstellen. Also deckt BY als Suite Entscheidungen ab, aber wie optimal oder integriert diese Entscheidungen sind, hängt davon ab, ob alle Teile implementiert und abgestimmt sind. Historisch gesehen war eine Kritik, dass die Ausgabe eines Moduls nicht immer optimal für das nächste war (z.B. wenn die Prognose keine Beschränkungen berücksichtigt, auf die die Supply-Planung stoßen wird, erhält man nicht machbare Pläne). Ein wirklich entscheidungsorientierter Ansatz würde diese Beschränkungen bereits bei der Prognose oder in einer einheitlichen Optimierung berücksichtigen. Blue Yonders neuere Botschaft von der “autonomen Supply Chain” deutet darauf hin, dass sie die Schleife schließen wollen (von der Prognose zur Entscheidung automatisch), aber angesichts der Mischung von Technologien ist unklar, wie nahtlos das ist.

  • Kinaxis ist sehr entscheidungs-/ausgabeorientiert, in dem Sinne, dass sein Hauptzweck darin besteht, schnell handlungsfähige Pläne (Versorgungspläne, Bestandsprognosen usw.) zu erstellen. Der Benutzer arbeitet in der Regel mit diesen Plänen und kann Entscheidungen bestätigen oder anpassen (wie z.B. eine Bestellung beschleunigen oder die Versorgung umverteilen). Mit der neuen MEIO-Ergänzung von Kinaxis optimiert es nun explizit einen Satz von Entscheidungen: Bestands-Puffer (d.h., Kinaxis kann nun Sicherheitsbestandsniveaus empfehlen, indem es Cash vs Service ausgleicht 37). Früher würde Kinaxis Ihnen erlauben, verschiedene Sicherheitsbestände zu simulieren und die Ergebnisse zu sehen, aber nicht unbedingt den besten vorschlagen; mit probabilistischem MEIO versucht es, den besten mathematisch zu finden. In anderen Bereichen (wie Produktions- und Distributionsplanung) verwendet Kinaxis Heuristiken oder Optimierung unter der Haube (es hat einige Optimierungslöser für Planung und Zuweisung) - aber viel von Kinaxis’ Stärke liegt in der Simulation statt in der harten Optimierung. Das heißt, es kann das Ergebnis einer Benutzerentscheidung extrem schnell simulieren, lässt aber oft die Wahl, welches Szenario man wählen soll, dem Menschen über. Zusammenfassend produziert Kinaxis einen vollständigen Satz von empfohlenen Aktionen (wie geplante Bestellungen, Umschichtungen) in nahezu Echtzeit - definitiv Entscheidungsunterstützung - aber es wählt nicht immer automatisch den “optimalen” Plan ohne menschlichen Input, außer in spezifischen Funktionen wie MEIO oder wenn der Plan offensichtlich ist (z.B. wird es die Nachfrage deterministisch auf die Versorgungsanforderungen übertragen).

  • o9 Solutions ist ebenfalls darauf ausgerichtet, Pläne (die Entscheidungssätze sind) für Nachfrage, Versorgung, Bestand usw. zu erstellen. o9 hat Optimierungsmotoren für bestimmte Probleme - z.B. Versorgungsplanung mit linearer Programmierung zur Minimierung von Kosten oder Maximierung von Gewinn unter gegebenen Einschränkungen. Es ist Teil ihres “digitalen Gehirn”-Konzepts, dass es eine optimale Zuweisung von Ressourcen herausfinden wird. Allerdings nutzt nicht jeder o9-Kunde es auf eine optimierte Weise; einige könnten einfach seine Plattform nutzen, um kollaborative Planung zu betreiben (die im Grunde manuelle Entscheidungen sein könnten, aber mit besserer Datensichtbarkeit). Die Frage ist, unterstützt o9 nativ probabilistische Entscheidungsoptimierung? Wahrscheinlich nicht stark; es könnte Szenarioanalysen durchführen (“wenn wir 10% mehr produzieren, was ist das Ergebnis?”) aber nicht unbedingt einen erwarteten Wert über Szenarien berechnen. Also, entscheidungsorientiert ja (es gibt Ihnen empfohlene Supply-Chain-Pläne), aber optimal unter Unsicherheit, nicht klar.

  • Relex Solutions ist auf den Einzelhandel ausgerichtet, sein Hauptoutput sind Laden- oder DC-Bestellungen und Bestandsziele. Relex macht einen guten Job bei der direkten Erzeugung dieser Entscheidungen (es fungiert im Wesentlichen als automatisiertes Nachfüllsystem angesichts von Prognose und Parametern). Es kann auch Dinge wie Regalplatzverteilung vs Bestand optimieren (mit seinem neueren einheitlichen Planungs- & Raumplanungsansatz), was ein Entscheidungs-Trade-off ist, der einzigartig für den Einzelhandel ist (z.B. wenn der Platz begrenzt ist, wie man Bestand vs Sortiment ausgleicht). Relex’s Entscheidungen werden hauptsächlich von Benutzer festgelegten Regeln angetrieben (wie Service-Level-Ziele oder Tage der Versorgung), aber das System übernimmt die Zahlenverarbeitung, um die tatsächlichen Bestellungen zu erzeugen, die diesen Regeln entsprechen. Es ist sicherlich entscheidungsorientiert (es sagt nicht einfach “die Prognose für diese Woche sind 100 Einheiten” - es sagt dem Einzelhändler, jetzt 50 weitere Einheiten zu bestellen, weil der aktuelle Bestand 50 ist und die Prognose 100 ist und die Lieferzeit so und so ist, usw.). Wenn überhaupt, könnte Relex eher auf der Seite von zu taktisch liegen (es wird schön nachbestellen, aber vielleicht nicht die langfristigen Netzwerkimplikationen berücksichtigen - jeder Knoten wird lokal für seinen Service optimiert).

Um es zusammenzufassen, entscheidungsorientierte Prognose ist das, was ein bloßes Analysetool von einer echten Supply-Chain-Optimierungslösung unterscheidet. Alle Anbieter in den oberen Rängen zielen zumindest darauf ab, Entscheidungsausgaben zu liefern, nicht nur Prognosen: Deshalb haben wir sie in Betracht gezogen (die Studienkurzbeschreibung sagte sogar, dass wir reine Transaktions- oder reine Prognosetools ausschließen, die keine Entscheidungen optimieren). Der Grad der Optimalität und Integration von Unsicherheit in diesen Entscheidungen variiert jedoch:

  • Lokad und ToolsGroup binden Prognosen explizit an Entscheidungen mit Kosten-/Service-Zielen (Lokad über seine benutzerdefinierten Skripte, die die erwarteten Kosten optimieren, ToolsGroup über Service-Level-Ziele, die Bestandsentscheidungen ergeben).
  • Kinaxis und o9 erzeugen umfassende Pläne und ermöglichen die Erkundung von Entscheidungen, wobei Kinaxis kürzlich mehr formale Optimierung hinzugefügt hat (Bestandsoptimierung usw.).
  • Blue Yonder hat separate Optimierungsmodule, die Entscheidungen treffen können (wenn sie vollständig genutzt werden, erhält man einen Plan für alles - aber sie abzustimmen ist Arbeit).
  • Relex automatisiert eine spezifische Reihe von Entscheidungen (Nachfüllung) sehr gut, weniger so andere (wie langfristige Kapazitätsplanung).

Bei der Bewertung von Lösungen sollten Unternehmen auf diesen Punkt drängen: “Nachdem Ihr System Prognosen erstellt hat, welche Entscheidungen wird es empfehlen und wie stellt es sicher, dass dies die besten Entscheidungen sind?” Wenn ein Anbieter nicht klar antworten kann oder wenn es so klingt, als würde der Benutzer die Prognosen manuell interpretieren müssen, ist dieser Anbieter wahrscheinlich nicht wirklich optimierungsgetrieben. Diese Frage klärt zum Beispiel, ob eine ausgefallene ML-Prognose tatsächlich zu einer Bestandsreduzierung führen wird oder nur eine schöne Zahl in einem Diagramm ist.

Schlussfolgerung

In dieser vergleichenden Studie haben wir die führenden Anbieter von Supply-Chain-Planungs- und Prognosesoftware durch eine technische Linse bewertet und analysiert, wobei wir echte Fähigkeiten gegenüber Marketingversprechen priorisiert haben. Die Bewertung hat hervorgehoben, dass technologische Führung auf diesem Gebiet erfordert: fortgeschrittene Prognose (vorzugsweise probabilistisch) gestützt durch Beweise, skalierbare und moderne Architektur, hohen Automatisierungsgrad, einen einheitlichen und gut konzipierten Technologie-Stack und vor allem einen Fokus auf vorschreibende Entscheidungsfindung anstatt nur auf prädiktive Analytik.

Lokad hat sich als Spitzenreiter hervorgetan aufgrund seiner Pionierarbeit in der probabilistischen Prognose und seinem radikalen Fokus auf Entscheidungsoptimierung - Eigenschaften, die durch externe Benchmarks (wie den Gewinn des M5-Wettbewerbs) und transparente technische Kommunikation 3 2 validiert wurden. Es zeigt, wie Skepsis gegenüber Mainstream-Ansätzen (z.B. die Infragestellung des Wertes von Metriken wie MAPE oder Konzepten wie Sicherheitsbestand) zu einer robusteren Lösung führen kann, die mit soliden Wirtschaftsprinzipien übereinstimmt 13 33.

Andere Anbieter wie Kinaxis und o9 Solutions investieren stark in KI/ML und haben beeindruckend breite Plattformen aufgebaut, müssen aber noch den Markt davon überzeugen, dass ihre “KI” mehr als nur oberflächlich ist und dass ihre Architekturen ohne exorbitante Kosten skalieren werden 4. Langjährige Akteure wie Blue Yonder (JDA) und SAP verfügen über eine Fülle von Erfahrung und Funktionalität im Bereich der Supply Chain, doch ihr Altlasten (fragmentierte Systeme aus vielen Übernahmen und veraltete Algorithmen) zeigen sich, was zu Widersprüchen und langsamerem Fortschritt bei der technischen Innovation führt 14 17. Nischen-Spezialisten wie ToolsGroup und Relex bieten leistungsstarke Lösungen in ihren Bereichen (Bestandsoptimierung bzw. Einzelhandelsnachfüllung), haben aber jeweils Einschränkungen - ToolsGroup muss seine KI-Behauptungen mit frischerer Technik untermauern 11, und Relex’s In-Memory-Ansatz könnte außerhalb seines Sweet Spots ins Straucheln geraten 7.

Ein klares Muster in der Analyse ist, dass Anbieter, die offen technische Details und Ergebnisse liefern, mehr Vertrauen wecken als solche, die sich auf Schlagworte verlassen. In einem Bereich, der von Hype durchdrungen ist, ist es entscheidend, dass Entscheidungsträger harte Beweise und Konsistenz verlangen. Wenn zum Beispiel ein Anbieter behauptet, maschinelles Lernen zu verwenden, fragen Sie nach der Genauigkeit oder den Kosten vor und nach. Wenn probabilistische Prognose angepriesen wird, fordern Sie den Nachweis, wie sie gemessen und in der Planung verwendet wird (und seien Sie vorsichtig, wenn die Antwort mit deterministischen Metriken verwischt ist).

Darüber hinaus sind Skalierbarkeit und Automatisierung angesichts der wachsenden Komplexität der Supply Chain nicht nur nett zu haben - sie sind unerlässlich. Lösungen, die noch in manuellen, Excel-Ära-Praktiken feststecken oder die Big Data ohne heroische Hardware nicht bewältigen können, werden Unternehmen auf lange Sicht nicht gut dienen. Die Skepsis der Studie gegenüber In-Memory-Einheitsgrößen-Architekturen wird durch die Daten bestätigt - dezentralere, Cloud-native Ansätze zeigen Vorteile sowohl in Bezug auf Kosten als auch auf Fähigkeiten.

Schließlich ist der letztendliche Maßstab für jede Supply-Chain-Optimierungssoftware das Ergebnis, das sie liefert: niedrigere Lagerkosten, höhere Servicelevels, schnellere Reaktionsfähigkeit und effizientere Planungsabläufe. Um diese zu erreichen, braucht es mehr als kluge Mathematik - es erfordert die Integration dieser Mathematik in einen kohärenten, automatisierten Entscheidungsprozess, der mit den Geschäftsrealitäten übereinstimmt. Die besten Anbieter sind diejenigen, die die Schleife zwischen Prognose -> Optimierung -> Entscheidung -> Ergebnis auf eine transparente, wissenschaftlich fundierte Weise schließen. Diejenigen, die an gebrochenen Schleifen festhalten (Prognose isoliert oder Entscheidungsregeln losgelöst von Unsicherheit), bleiben zurück.

Abschließend sollten Unternehmen, die Supply-Chain-Planungslösungen bewerten, einen harten, technischen Blick auf jeden Anwärter werfen. Durchschauen Sie die glänzenden Broschüren und stellen Sie die harten Fragen, die wir untersucht haben: Stellt der Anbieter probabilistische Prognosen oder nur einzelne Zahlen zur Verfügung? Kann ihr System autonom laufen und wurde es im großen Maßstab bewiesen? Ist die Technologie einheitlich oder ein Konglomerat alter Teile? Erklären sie ihre “KI” in verständlichen, faktischen Begriffen? Durch das Bestehen auf diesem Grad an Strenge kann man echte technologische Führer in der Supply-Chain-Optimierung identifizieren - diejenigen, die in der Lage sind, überlegene Entscheidungen zu treffen, nicht nur hübsche Dashboards. Die hierin enthaltenen Rankings und Analysen dienen als Ausgangspunkt und identifizieren Lokad, Kinaxis, o9, Relex, ToolsGroup und Blue Yonder (unter anderen) als wichtige Akteure, jeweils mit Stärken und Vorbehalten. Die Beweislast liegt bei den Anbietern, ihre Behauptungen zu belegen, und bei den Nutzern, gesund skeptisch und evidenzbasiert zu bleiben, wenn sie das Gehirn auswählen, das ihre Supply Chain steuern wird.

Fußnoten


  1. Die Grundlagen der Supply Chain - Vorlesung 1.1 ↩︎

  2. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  3. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  4. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎

  5. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  6. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎

  7. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎

  8. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  9. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎

  10. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  11. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  12. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  13. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  14. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎

  15. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎

  16. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  17. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  18. Kinaxis und Wahupa Partner zur Unterstützung von Unternehmen bei der Navigation durch Bestandskomplexität… ↩︎ ↩︎

  19. Planung unter Unsicherheit: Statistische vs. probabilistische Ansätze und was sie Ihrem Unternehmen bieten | Kinaxis Blog ↩︎

  20. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎

  21. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  22. Geschichte des In-Memory Computing und der Supply-Chain-Planung - Kinaxis ↩︎

  23. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  24. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  25. Nr. 1 auf SKU-Ebene im M5-Prognosewettbewerb - Vorlesung 5.0 ↩︎

  26. Nr. 1 auf SKU-Ebene im M5-Prognosewettbewerb - Vorlesung 5.0 ↩︎

  27. Nr. 1 auf SKU-Ebene im M5-Prognosewettbewerb - Vorlesung 5.0 ↩︎ ↩︎

  28. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  29. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  30. Planung unter Unsicherheit: Statistische vs. probabilistische Ansätze und was sie Ihrem Unternehmen bieten | Kinaxis Blog ↩︎

  31. Planung unter Unsicherheit: Statistische vs. probabilistische Ansätze und was sie Ihrem Unternehmen bieten | Kinaxis Blog ↩︎

  32. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  33. Über Wissen, Zeit und Arbeit für Supply Chains - Vorlesung 1.7 ↩︎ ↩︎ ↩︎

  34. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎ ↩︎ ↩︎

  35. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎ ↩︎

  36. Marktstudie, Anbieter von Supply-Chain-Optimierung ↩︎

  37. Kinaxis & Wahupa Partner zur Unterstützung von Unternehmen bei der Navigation durch Lagerkomplexität bei Störungen ↩︎