Eine sinnvolle Optimierung der Lieferkette besteht darin, die Optionen zu beherrschen, die sich aufgrund der inhärenten Variabilität des Warenflusses ergeben, und diese Beherrschung ist mit quantitativer Analyse verbunden. Lieferkettenprobleme sind ebenfalls quantitativ, aber komplex und gelegentlich sogar seltsam, da sie im Widerspruch zur traditionellen Analyse stehen. Die Übernahme quantitativer Prinzipien sowohl bei der Beobachtung als auch bei der Optimierung kann den Praktikern helfen, viele obskure, aber dennoch vorhersehbare Probleme in der Lieferkette zu vermeiden.
Vorlesung ansehen
Beobachtungsprinzipien
Im Allgemeinen sind die Arten von Entscheidungen und Einschränkungen, mit denen sich Lieferkettenpraktiker auseinandersetzen, unweigerlich quantitativ, wie z.B. Auffüllung von Werten, Servicelevel -Ziele, MOQs, usw. Lieferketten selbst lassen sich jedoch nicht direkt beobachten. Man kann keine Momentaufnahme der gesamten Lieferkette machen, wie man es bei einer Maschine kann, obwohl beide argwöhnisch CapEx sind, beide aus vielen beobachtbaren physischen Teilen bestehen und beide (im Allgemeinen) zu einem physischen Ergebnis führen.
Trotz dieser Einschränkung sind Lieferketten nicht feindlich gegenüber quantitativer Analyse. Im Gegenteil, eine quantitative Analyse der Lieferkette enthüllt mehrere lehrreiche, wenn auch möglicherweise gegenintuitive Beobachtungen.
Lieferkettenprobleme folgen nicht der Normalverteilung
Verzweifelnderweise folgen Lieferkettenprobleme in der Regel nicht der Normalverteilung, was zu vielen organisatorischen Schwierigkeiten führt, wenn man versucht, sie zu optimieren. Bei einer Normalverteilung können eine große Anzahl kleiner, unabhängiger Faktoren einen Wert in beide Richtungen beeinflussen (z.B. mehr oder weniger, nach oben oder unten). Mit anderen Worten, eine Normalverteilung entsteht durch viele kleine zufällige Änderungen, die einen Wert erhöhen oder verringern können1.
Lieferkettenprobleme entstehen jedoch oft durch eine kleine Anzahl von größeren, systemischen Faktoren anstelle einer Vielzahl kleiner, unabhängiger Faktoren. Zu diesen Faktoren gehören:
-
Nachfragevariabilität: Die Nachfrage nach Produkten ist oft stark variabel und kann von einer Vielzahl von Faktoren wie saisonalen Trends, wirtschaftlichen Bedingungen und Marketingkampagnen beeinflusst werden. Diese Variabilität kann zu Problemen wie Lagerbestandslücken oder Überbeständen führen.
-
Zuverlässigkeit der Lieferanten: Die Leistung der Lieferanten kann sich erheblich auf eine Lieferkette auswirken, und die Variabilität der Lieferantenzuverlässigkeit kann zu Problemen wie verzögerten Lieferungen und Qualitätsproblemen führen.
-
Logistische Störungen: Probleme wie Transportverzögerungen, Zollprobleme oder Naturkatastrophen können zu erheblichen Störungen in einer Lieferkette führen.
Die oben genannten Probleme sind keine trivialen Bedrohungen für die Kontinuität (und Optimierung) der Lieferkette. Vielmehr handelt es sich um unverhältnismäßig große, komplexe Probleme, die dramatisch überproportionale Auswirkungen haben können.
Darüber hinaus weisen Lieferkettenprobleme oft ein gewisses Maß an Schiefe auf, was bedeutet, dass in der Regel einige wenige Hauptprobleme einen großen Teil der Probleme verursachen, anstatt dass die Probleme symmetrisch um einen vorhersehbaren Durchschnitt verteilt sind. In vielen Fällen weisen diese Probleme auch einen “langen Schwanz” auf - d.h. eine große Anzahl von verschiedenen Problemen, die jeweils selten auftreten.
Die in Lieferketten inhärenten Wechselwirkungen und Rückkopplungsschleifen (zum Beispiel, wie aktuelle Lagerbestände zukünftige Bestellentscheidungen beeinflussen) führen auch dazu, dass Probleme von der Normalverteilung abweichen. Solche nichtlinearen, komplexen Systeme werden durch andere statistische Modelle (die in dem folgenden Abschnitt detailliert beschrieben werden) genauer beschrieben.
Das umgekehrte Verhältnis zwischen Häufigkeit und Rang
Ein besseres quantitatives Modell zur Untersuchung von Lieferkettenproblemen (und Werten im Allgemeinen) ist das Zipf’sche Gesetz. Einfach ausgedrückt gibt es zwei Hauptelemente des Zipf’schen Gesetzes:
-
Einige Werte in einem Datensatz treten sehr häufig auf, während die meisten selten auftreten.
-
Die Häufigkeit eines Wertes ist umgekehrt proportional zu seinem Rang.
Betrachten Sie die Häufigkeit von Wörtern in einem Lehrbuch. Das häufigste Wort in einem beliebigen Buch (wenn es in einer Sprache geschrieben ist, die ein bestimmtes/unbestimmtes Fallensystem verwendet) wird wahrscheinlich das sein. Das zweithäufigste Wort könnte von sein, und seine Häufigkeit wird (ungefähr) halb so hoch sein wie die von das. Dieser Trend setzt sich in den Ranglisten fort2.
Ein relevantes Einzelhandelsbeispiel ist die häufige Feststellung, dass eine kleine Anzahl von Artikeln im Katalog einen großen Teil der Verkäufe ausmacht, während ein langer Schwanz von anderen Artikeln selten verkauft wird. Dieses Muster - ein paar “Treffer” und viele “Fehlschläge” - entspricht der Zipf-Verteilung. Dies ist ein ähnliches Konzept wie das Pareto-Prinzip, das besagt, dass etwa 80% der Effekte von 20% der Ursachen kommen. Die hier beschriebene Asymmetrie ist tatsächlich das treibende Prinzip hinter Bestandsmanagement Systemen wie ABC und ABC-XYZ. Es gibt jedoch einige wesentliche Unterschiede zwischen der Pareto- und der Zipf-Verteilung, die es wert sind, genauer betrachtet zu werden.
-
Pareto-Verteilung: Stellen Sie sich ein Online-Einzelhandelsunternehmen mit einem umfangreichen Katalog vor. Die Lieferkettenabteilung könnte feststellen, dass 80% des Umsatzes des Unternehmens nur von 20% seines Angebots generiert werden, was darauf hindeutet, dass Ressourcen besser darauf ausgerichtet sind, die Lagerbestände dieser beliebten Artikel aufrechtzuerhalten. Obwohl dies ein nützlicher allgemeiner Leitfaden sein kann, fehlt es der Abteilung an der Art von Auflösung, die sie benötigt, um die Verkaufsdaten ordnungsgemäß zu analysieren (über die einfache Identifizierung derjenigen SKUs hinaus, die den meisten Umsatz generiert haben).
-
Zipf-Verteilung: Wenn dieselbe Lieferkettenabteilung eine Zipf-Verteilung verwenden würde, würde dies eine interessante zusätzliche Ebene der Granularität in die Analyse einführen. Indem das Team alle Verkäufe und ihre Häufigkeiten untersucht, könnte es Muster erkennen, die eine Pareto-Verteilung übersieht. Zum Beispiel könnte festgestellt werden, dass Elektronik und Haushaltsgeräte tatsächlich die besten Performer sind, es aber auch andere Produktkategorien wie Bücher oder Kleidung gibt, die zusammen einen erheblichen Beitrag zu den Gesamtverkäufen leisten - jedoch keine signifikanten Margenbeiträge in Isolation. Eine Zipf-Verteilung würde auch potenziell interessante Beziehungen zwischen dem Katalog aufzeigen, die es wert wären, erkundet zu werden, wie zum Beispiel warum das drittpopulärste Produkt ungefähr ein Drittel des Umsatzes des beliebtesten Produkts generiert, obwohl es austauschbar ist und vergleichbare Werbemaßnahmen erhält.
Die Tyrannei der kleinen Zahlen
Eine zipfsche Verteilung wird vielleicht am deutlichsten, wenn es darum geht, explizite Probleme in der Lieferkette zu quantifizieren, insbesondere Situationen, in denen ein überproportionaler negativer Einfluss nur auf wenige Ursachen zurückzuführen ist.
Betrachten Sie den negativen Einfluss eines B2B-Unternehmens, das seinen größten Lieferanten verliert, insbesondere wenn dieser Lieferant doppelt so viel zum Umsatz des B2B-Unternehmens beiträgt wie der zweitgrößte Lieferant des B2B-Unternehmens. Ebenso würde der Verlust der beiden größten Kunden zu einem außergewöhnlichen Umsatzrückgang führen, da der drittgrößte Kunde etwa ein Drittel des größten Kunden kauft.
Wichtig ist, dass wenn Probleme in der Lieferkette normal verteilt wären, sie vorhersehbarer wären und standardmäßige Maßnahmen zur Risikominderung ausreichen würden. Die Tatsache, dass einige signifikante Probleme (wie hier beschrieben) die Mehrheit der Störungen verursachen können, bedeutet jedoch, dass Praktiker ihre Ressourcen darauf konzentrieren müssen, diese hochwirksamen Probleme zu identifizieren und zu mildern. Dies erfordert einen strategischeren, proaktiveren und ganzheitlicheren Ansatz für das Supply Chain Management.
Optimierungsprinzipien
Nachdem das von Vorurteilen geprägte Terrain der menschlichen Beobachtung umschifft wurde, ist auch der Abschnitt zur Optimierung der Lieferkette anfällig für Hindernisse. Initiativen zur Optimierung der Lieferkette sind oft von Fehlern durchzogen, nicht nur in Bezug auf Software (denken Sie an ERPs), sondern auch auf “Wetware” (denken Sie an überliefertes Wissen).
Softwareprobleme wie Heisenbugs werden in der Regel durch iterative Anwendungen des Programms gelöst. Wetware-Bugs hingegen haben die eigenartige Eigenschaft, weitgehend fest codiert zu sein und erfordern daher zusätzliche Deprogrammierungsmaßnahmen.
Verborgene Weisheit in gereiften Lieferketten
Lieferketten, die einige Jahrzehnte überdauert haben, haben zumindest ein Mindestmaß an Weisheit angesammelt. Es ist auf den ersten Blick schwer vorstellbar, auf ein Unternehmen zu stoßen, das seit 20 oder mehr Jahren funktioniert und nicht zumindest zufällig auf einige nützliche Strategien oder Faustregeln gestoßen ist. Daher verkörpern alle bestehenden Praktiken und betrieblichen Normen eine Art von quasi-Optimalität, da sie das Unternehmen in die richtige Richtung (insgesamt netto profitabel) bringen können, aber mit erheblichen Unvollkommenheiten3.
Ähnlich wie ein Fluss, der sich seinen Weg durch ein Gebirge bahnt, neigt sich diese Weisheit dazu, sich an eine einzige treibende Kraft zu binden. Genauso wie die Schwerkraft einen Fluss durch Sediment zieht, werden gereifte Lieferketten oft in Verfolgung eines einzigen KPIs mitgezogen, wie zum Beispiel der Erhöhung des Servicelevels oder der Reduzierung von totem Lagerbestand. Obwohl dies vernünftige Ziele zu sein scheinen, reduzieren sie die Lieferkette implizit auf ein diskretes Bündel von voneinander getrennten Elementen, die isoliert optimiert werden können.
Dies führt im Wesentlichen zu einer binären Denkweise, bei der die Optimierung der Lieferkette naiv in binären Begriffen ausgedrückt wird. Betrachten Sie folgendes:
-
Wenn sich der Servicelevel verbessert, muss die Lieferkette verbessert worden sein. Dies übersieht natürlich die Tatsache, dass eine Erhöhung des Servicelevels in der Regel eine insgesamt höhere Lagerbestandsmenge erfordert (unter der Annahme einer nicht-quantitativen Optimierung der Lieferkette). Eine Erhöhung des Lagerbestands führt wiederum in der Regel zu einem höheren toten Lagerbestand, was zu einer Verringerung des Nettogewinns führt.
-
Wenn sich der toter Lagerbestand verringert, muss die Lieferkette verbessert worden sein. Ähnlich ignoriert diese eingeschränkte Sichtweise der Optimierung die Auswirkungen, die eine Reduzierung des Lagerbestands voraussichtlich auf Service- und Kundenzufriedenheitsziele haben wird und somit den Einkauf negativ beeinflusst (und oft auch die Kundentreue).
Gereifte Lieferketten dieser Art besitzen eine unidirektionale Quasi-Optimalität, die, ähnlich wie ein wenig Wissen, eine schrecklich gefährliche Sache sein kann. Dass die Lieferketten standardmäßig in Richtung quasi-Erfolg tendieren, ist wahrscheinlich das, was ihnen hilft, suboptimale Praktiken zu überdauern und zu verfestigen.
Große, unidirektionale Verbesserungen in gereiften Lieferketten neigen dazu, auf Du-Basis mit dem Scheitern vertraut zu sein, nicht aufgrund mangelnder aufrichtiger Bemühungen, sondern aufgrund mangelnder Berücksichtigung der umfangreichen, systemischen und ineinandergreifenden Komplexität, die mit modernen Lieferketten einhergeht.
Der Trugschluss der lokalen Optimierung
Eine grundlegende Voraussetzung für die Optimierung eines Systems, das so weitläufig und voneinander abhängig ist wie die Lieferkette, besteht darin zu verstehen, dass lokale Optimierung Probleme nicht löst, sondern sie nur verlagert. Wie im vorherigen Abschnitt dargestellt, führt die Optimierung eines lokalen (hier im Sinne von “in Isolation”) Lieferkettenproblems in der Regel zu einer Störung des Gleichgewichts und erzeugt eine unerwünschte Nebenwirkung an anderer Stelle in der Lieferkette.
Genauso wie die Installation einer Solid State Drive (SSD) in einem 30 Jahre alten Computer den gesamten Speicher (oder die Leistung)4 des Systems nicht verbessert, ist die Optimierung eines Lieferkettennetzwerks (oder eines Lieferkettensystems) ein durchgängiger, systemweiter Prozess.
Dieses Konzept ist im Einzelhandel deutlich erkennbar. In einem Einzelhandelsnetzwerk mit mehreren Filialen könnte man intuitiv dazu neigen, die Lagerbestände in jeder Filiale zu optimieren (vielleicht sogar manuell). Man könnte sogar Ressourcen bevorzugt der am besten verkaufenden Filiale im Netzwerk zuweisen.
Eine solche Vorgehensweise berücksichtigt jedoch nicht das breitere Netzwerk von Vertriebszentren, die diese Filialen bedienen, sowie die Auswirkungen einer Richtlinie, die Lagerbestände ohne Berücksichtigung der Auswirkungen auf andere Filialen zuweist. Die Entscheidung, sich nur auf eine Filiale zu konzentrieren, kann deren Leistung verbessern, aber für die anderen Filialen nachteilig sein.
Es verfehlt auch das Kernanliegen einer Einzelhandels-Lagerbestandsallokationsmission, nämlich die Identifizierung, wo eine bestimmte Einheit/SKU am dringendsten benötigt wird, um die Gesamtleistung des Systems zu optimieren.
Daher ist die Optimierung der Einzelhandels-Lagerbestandsallokation ein Problem, das nur auf Systemebene sinnvoll ist und die Bedeutung einer ganzheitlichen, systemweiten Perspektive unterstreicht5.
Probleme neu definieren für überlegene Ergebnisse
Die klassische Bildung (und die Verkaufsargumente der Anbieter) präsentieren Probleme als am besten durch eine überlegene Lösung zu lösen. Auf den ersten Blick scheint dies angesichts der kürzesten Entfernung zwischen zwei Punkten, die tatsächlich eine gerade Linie ist, durchaus vernünftig zu sein. Diese angenehm lineare Herangehensweise neigt jedoch dazu, Probleme zu vereinfachen und geht im Grunde davon aus, dass man überhaupt versuchen sollte, diese beiden Punkte zu verbinden.
Angesichts der verschiedenen Kosten, die bei dem Versuch, eine Lieferkette zu optimieren, verursacht werden, handelt es sich hierbei nicht um eine triviale philosophische Beobachtung. In Theorie und Praxis ist ein besseres Verständnis der eigenen Probleme (langfristig) einer großartigen Lösung für ein schlecht verstandenes Problem (kurzfristig) überlegen.
Ein klassisches Beispiel ist das Problem der Nachfrageprognose. Lieferkettenanbieter und Wissenschaftler könnten ein fortschrittliches Zeitreihen-Prognosetool als ideale Lösung zur Quantifizierung der Nachfrage (und damit zur Festlegung der Lagerbestände) anpreisen. Auf den ersten Blick scheint dies intuitiv zu sein: Wenn ein Unternehmen die Nachfrage nicht genau vorhersagen kann, ist eine bessere Nachfrageprognosesoftware angebracht, und die beiden entfernten Punkte werden mit einer geraden(ish) Linie verbunden6.
Dies ist jedoch eine zu lineare Denkweise und möglicherweise orthogonal zum eigentlichen Problem der Lieferkette: die Entdeckung dessen, was tatsächlich die Schwierigkeiten bei der Nachfrageprognose verursacht. Es ist durchaus denkbar, dass andere zugrunde liegende Probleme wie logistische Ineffizienzen, unzuverlässige Lieferanten oder fehlerhafte Richtlinien zur Bestandszuweisung im Einzelhandel die treibenden Kräfte sind.
Durch die Neudefinition der Probleme anstatt auf eine rote Ampel in der Lieferkette zuzurasen, können Lieferkettenoptimierungen richtig ausgerichtet und Ressourcen von kurzfristigen Schnelllösungen umgeleitet werden.
Anmerkungen
-
Die Körpergröße ist ein klassisches Beispiel für eine normale (oder Gaußsche) Verteilung. Dies liegt daran, dass die Körpergröße von vielen unabhängigen genetischen und Umweltfaktoren beeinflusst wird, die eine symmetrische Glockenkurve um einen Durchschnittswert erzeugen. Gemäß dem Zentralen Grenzwertsatz neigt die Summe vieler unabhängiger und identisch verteilter Zufallsvariablen dazu, eine Normalverteilung zu bilden. Dies führt dazu, dass sich die meisten Menschen um die durchschnittliche Körpergröße gruppieren, während es weniger Menschen an den Extremen (sehr klein oder sehr groß) gibt, was zu einer typischen Glockenkurve führt. ↩︎
-
Im Gegensatz zum vorherigen Beispiel der Körpergröße (ein Phänomen, das von vielen unabhängigen genetischen und epigenetischen Kräften beeinflusst wird), gilt eine Zipf-Verteilung für gerankte Daten (wie Stadtpopulationen oder Wortfrequenzen), bei denen Rang und Häufigkeit umgekehrt proportional sind. Da die Körpergröße keine vergleichende oder gerankte Messung ist, folgt sie keiner Zipf-Verteilung. Zum Beispiel ist bei einem typischen Treffen die größte Person im Raum nicht doppelt so groß wie die zweitgrößte Person oder um eine Größenordnung größer als die Zehnte. ↩︎
-
Entgegen dem Anschein entwertet die quantitative Lieferketten-Theorie weder den Wert menschlicher Weisheit noch ignoriert sie ihn. Tatsächlich ist eine solche Philosophie vollkommen neutral gegenüber der Möglichkeit eines einzelnen Visionärs, der wie Warren Buffett die Verbrauchernachfrage mit übernatürlicher Genauigkeit vorhersagen könnte. Selbst wenn solche Ausnahmefälle häufig vorkommen würden, würde dies die grundlegenden Kritikpunkte an einem solchen Ansatz nicht entkräften: nämlich dass Bauchgefühl nicht skalierbar ist und höchstwahrscheinlich nicht die beste Anwendung des Verstands hinter dem Bauch darstellt. Angesichts dieser Einschränkungen und der Tatsache, dass solche Menschen das Äquivalent von Promethium in der Lieferkette sind, handelt es sich hierbei um eine rein akademische Angelegenheit, wenn es um die Optimierung von groß angelegten, geografisch verteilten Lieferketten-Netzwerken geht. ↩︎
-
Ein 30 Jahre alter Computer hat mit hoher Wahrscheinlichkeit eine Hardware und ein Betriebssystem, die nicht mit modernen SSDs kompatibel sind. Selbst wenn er die SSD irgendwie akzeptiert, würden die veraltete CPU, der RAM und die Busgeschwindigkeiten die Leistungsverbesserungen erheblich einschränken. Das Betriebssystem unterstützt möglicherweise auch keine SSD-Funktionen wie TRIM, was die Lebensdauer der SSD verringern kann. Software- und Hardware-Inkompatibilitäten könnten weitere Probleme verursachen, wie Fehlfunktionen, Datenkorruption oder vollständige Nichtfunktionalität. Kurz gesagt, versuchen Sie dies nicht zu Hause. ↩︎
-
Es ist wichtig zu beachten, dass dieses Prinzip nicht nur im strengen geografischen Sinne gilt, sondern logisch innerhalb und entlang der gesamten Supply Chain selbst. Ein gutes Beispiel hierfür ist der Lebenszyklus von Elektronikgeräten. Geräte wie Smartphones existieren in verschiedenen Intervallen entlang eines vierstufigen Zyklus: Einführung, Wachstum, Reife und Rückgang. Der Versuch, eine einzelne Phase isoliert zu optimieren, würde zu Lasten des gesamten Produktlebenszyklus gehen, wie zum Beispiel der Versuch, die Reifephase (in der sich der Verkauf des Geräts stabilisiert) zu optimieren, ohne die Auswirkungen auf die Rückgangsphase (in der sich frühere Bestandsfehler im Lebenszyklus am stärksten bemerkbar machen) zu berücksichtigen. ↩︎
-
Dieses Konzept wird in der Vorlesung buchstäblich am Beispiel der Routenoptimierung veranschaulicht. Zwar verwendet Vermorel die Routenoptimierung im Kontext als Beispiel für Muster in der Supply Chain, jedoch funktioniert sie genauso gut als Metapher für die Neubestimmung von Problemen. Kurz gesagt, geht es bei der Routenoptimierung nicht nur um eine einzelne Route, sondern um ein systemweites Verständnis jeder Route und warum die Routen schwer zu optimieren sind. Zum Beispiel: Warum verschieben sich einige Liefer-Hotspots im Laufe des Jahres? Warum gibt es eine saisonale Spitzenverkehrszeit in Paris? Indem man bessere Fragen stellt, kann man die eigentlichen interessierenden Probleme identifizieren, bevor man versucht, sie anzugehen. ↩︎