Logiciels de Planification et de Prévision de la Supply Chain
Les logiciels de planification de la supply chain sont destinés à optimiser les décisions (que produire, stocker, déplacer et quand) en situation d’incertitude - et non pas simplement à enregistrer des transactions. Comme le définit une définition, la supply chain est “la maîtrise quantitative mais aussi pragmatique de l’optionnalité face à la variabilité et aux contraintes… avec un accent sur la culture et le choix des options, plutôt que sur la gestion directe des opérations sous-jacentes.” 1 En d’autres termes, les meilleurs outils de planification se concentrent sur l’optimisation (par exemple, décider des niveaux optimaux de stocks ou de production) plutôt que simplement sur la gestion transactionnelle (suivi des commandes et des stocks). Cette étude compare les principaux fournisseurs de logiciels de planification et de prévision de la supply chain à l’échelle mondiale, en mettant l’accent sur des preuves techniques tangibles plutôt que sur le marketing. Nous évaluons chaque fournisseur sur des critères clés :
- Prévision Probabiliste – Vont-ils au-delà des prévisions ponctuelles pour fournir des distributions complètes ou des modèles avancés ? Si une prévision “AI/ML” est revendiquée, y a-t-il des preuves (comme de bonnes performances dans des compétitions de prévision mondiales comme le M5) pour la soutenir ?
- Degré d’Automatisation – Le système peut-il exécuter des prévisions et des planifications sans surveillance (entièrement robotisées) sans une intervention humaine constante ? Quelle est l’autonomie de la capacité de prise de décision ?
- Scalabilité & Performance – La technologie gère-t-elle efficacement les données à grande échelle ? (Méfiez-vous des architectures en mémoire qui ne se dimensionnent pas bien lorsque les données augmentent et que les coûts de la mémoire stagnent.)
- Intégration Technologique & Acquisitions – La solution est-elle construite sur une pile technologique cohérente ou un patchwork de modules acquis ? De longues histoires de fusions et acquisitions peuvent conduire à une technologie fragmentée et incohérente.
- Crédibilité Technique – Les affirmations techniques du fournisseur sont-elles soutenues par des principes scientifiques ou des preuves d’ingénierie ? Nous regardons au-delà des buzzwords (“AI/ML”, “détection de la demande”) pour des explications concrètes ou une validation par les pairs.
- Cohérence & Contradictions – Les messages du fournisseur sont-ils alignés ? (par exemple, revendiquer des prévisions probabilistes tout en vantant des mesures d’exactitude déterministes comme le MAPE serait un drapeau rouge.)
- Pratiques Obsolètes – Nous dénonçons les méthodes dépassées (comme les formules simplistes de stocks de sécurité) qui sont en conflit avec l’optimisation probabiliste moderne.
- Sortie Orientée Décision – Le logiciel produit-il simplement des prévisions, ou fournit-il des décisions optimisées (plans de commande, objectifs de stocks) basées sur ces prévisions ? Le véritable objectif est de conduire les décisions, pas seulement les chiffres.
Approche : Pour chaque fournisseur, nous nous appuyons sur la documentation technique publiée, les analyses réputées, et (lorsqu’elles sont disponibles) les benchmarks ou compétitions ouverts pour évaluer les capacités. Le battage médiatique des fournisseurs, les rapports d’analystes payants, et les études de cas brillantes sont ignorés à moins d’être vérifiés par des preuves solides. Le ton est délibérément sceptique - les affirmations doivent être méritées avec des données ou une substance d’ingénierie. Les incohérences ou le manque de transparence sont traités comme des faiblesses sérieuses.
Ci-dessous, nous classons d’abord les principaux fournisseurs de logiciels de planification de la supply chain par leadership technologique, avec une brève justification pour chacun. Après le résumé du classement, une comparaison détaillée suit, organisée par les critères techniques ci-dessus. Toutes les affirmations sont soutenues par des citations de sources crédibles (au format【source†ligne】).
Principaux Fournisseurs Classés par Excellence Technologique
-
Lokad – Optimisation Probabiliste de Pointe
Lokad est leader en innovation technologique, pionnier de la prévision probabiliste et de la planification véritablement centrée sur la décision. Dès 2012, Lokad a défendu les prévisions probabilistes (près d’une décennie avant les autres) et a construit toute sa solution autour de cela 2. Contrairement aux fournisseurs qui traitent la prévision et la planification comme des étapes séparées, le système de Lokad (construit sur un langage spécifique à un domaine appelé Envision) produit directement des décisions optimisées (commandes, niveaux de stocks) à partir de modèles probabilistes. La crédibilité technique de Lokad est exceptionnelle - elle documente ouvertement ses méthodes, et son équipe a obtenu la #1 précision au niveau SKU dans le prestigieux concours de prévision M5 (sur 909 équipes) 3. Cette victoire réelle dans la prévision granulaire souligne le pouvoir prédictif de pointe de Lokad. La plateforme est native du cloud et entièrement automatisée (les prévisions et les optimisations sont exécutées de manière non supervisée selon un calendrier), et elle évite les limitations des conceptions en mémoire en exploitant le cloud computing évolutif. En résumé, Lokad établit la référence avec son approche probabiliste, axée sur l’automatisation et soutenue par des preuves pour l’optimisation de la supply chain. -
Kinaxis – Planification Rapide en Mémoire avec IA Émergente
Kinaxis est un leader bien établi connu pour son moteur de “planification concurrente” ultra-rapide. Sa plateforme RapidResponse utilise une architecture en mémoire pour permettre des simulations de scénarios en temps réel à travers l’offre, la demande, et les stocks. Cette conception donne aux planificateurs une capacité d’analyse instantanée des scénarios, une force majeure pour la réactivité. Cependant, la forte dépendance à la computation en mémoire peut signifier des coûts matériels élevés et des limites de scalabilité à mesure que les données augmentent (les déploiements importants nécessitent une RAM massive) 4. Traditionnellement, Kinaxis s’est concentré sur la planification déterministe (en exploitant des règles définies par l’utilisateur et des ajustements manuels). Reconnaissant le changement de l’industrie, Kinaxis a récemment adopté des techniques probabilistes en intégrant des acquisitions/partenaires : par exemple, il a ajouté un moteur d’optimisation de l’inventaire multi-échelon probabiliste (MEIO) (du partenaire Wahupa) et a acquis une entreprise d’IA pour la prévision de la demande (Rubikloud). Ces ajouts apportent une prévision avancée et une modélisation de l’incertitude à Kinaxis, bien que en tant qu’ajouts ils soulèvent des questions de cohérence de la pile technologique. Le discours de Kinaxis autour de “l’IA” et du machine learning est prudent par rapport à certains concurrents - il met l’accent sur la combinaison de l’intelligence humaine et de l’intelligence machine. En pratique, Kinaxis excelle dans l’automatisation du recalcul du plan (chaque fois que les données changent, le système peut rééquilibrer de manière autonome les plans d’offre et de demande), mais il a historiquement encore compté sur les planificateurs pour fixer les paramètres et n’a pas entièrement automatisé les décisions finales. Avec ses nouveaux modules probabilistes, Kinaxis se dirige vers plus d’automatisation des décisions en cas d’incertitude, bien que partant d’un héritage déterministe. En résumé, Kinaxis offre une plateforme de planification en temps réel puissante et rattrape son retard en matière de prévision basée sur l’IA, mais doit prouver que ses nouvelles fonctionnalités probabilistes sont profondément intégrées plutôt que superficielles. -
o9 Solutions – Grandes Ambitions et Big Data
o9 Solutions est un nouvel entrant (fondé en 2009) souvent présenté comme un “cerveau numérique” pour la supply chain. Technologiquement, o9 est extrêmement ambitieux - il a construit une large plateforme avec un modèle de données basé sur des graphes (Enterprise Knowledge Graph, “EKG”) et s’adresse à d’énormes ensembles de données complexes (ce qui le rend populaire pour les grandes entreprises à la recherche d’un outil de planification de bout en bout). Cependant, l’approche de o9 comporte des compromis. Le système utilise apparemment une conception en mémoire, qui, tout en permettant une analyse rapide, “garantit des coûts matériels élevés” pour une utilisation à grande échelle 4. Cela soulève des préoccupations en matière de scalabilité, car l’ajout de plus de RAM au problème devient coûteux et finit par atteindre des limites (surtout que les prix de la mémoire ne baissent plus rapidement). o9 fait beaucoup de marketing autour de l’IA/ML, mais il faut distinguer la substance du battage médiatique : beaucoup de ses affirmations (par exemple, que son graphe de connaissances améliore de manière unique la prévision) sont douteuses sans soutien scientifique 5. En fait, les analyses des éléments technologiques de o9 disponibles publiquement sur GitHub suggèrent qu’il utilise principalement des techniques standard (rien de fondamentalement nouveau pour justifier la grande marque “IA”) 6. o9 soutient la planification de scénarios probabilistes dans une certaine mesure - il peut modéliser plusieurs scénarios de demande et exécuter des simulations - mais il n’est pas clair s’il fournit de véritables distributions de prévisions probabilistes ou simplement une analyse de scénarios. La plateforme peut automatiser certaines tâches de planification, mais o9 se positionne souvent comme un support de décision, avec des humains qui dirigent finalement le “cerveau numérique”. Dans l’ensemble, o9 est une plateforme technologiquement lourde avec de larges capacités, mais sa dépendance à l’informatique en mémoire et le flou autour de ses affirmations sur l’IA tempèrent sa perception de leadership technique. C’est plus un leader pour sa vision intégrée et sa gestion des big data que pour une précision de prévision unique prouvée. -
Relex Solutions – Automatisation axée sur le Retail (avec des limites)
Relex Solutions (fondé en 2005) se spécialise dans la prévision de la demande de détail, le réapprovisionnement et la planification de l’espace. Il a acquis une réputation pour permettre un réapprovisionnement de magasin hautement automatisé - plusieurs grands épiceries utilisent Relex pour prévoir automatiquement la demande au niveau du magasin et générer des commandes avec une intervention humaine minimale. Cette automatisation de bout en bout dans un environnement de détail difficile est une force notable. Relex met également en avant des techniques modernes de prévision par apprentissage machine adaptées au détail (comptabilisation des promotions, des événements locaux, etc.). Cela dit, un coup d’œil sous le capot révèle certaines limitations architecturales et méthodologiques. Le système de Relex utilise une conception de cube de données en mémoire, de style OLAP 7 pour fournir des analyses et des rapports très rapides. Bien que cela donne des tableaux de bord réactifs, cela augmente les coûts matériels et ne résout pas intrinsèquement les problèmes d’optimisation complexes. En fait, l’approche en temps réel et granulaire de Relex peut entrer en conflit avec l’optimisation à l’échelle du réseau - elle pourrait avoir du mal à coordonner de manière optimale les décisions à travers un grand réseau d’approvisionnement lorsqu’elle est confrontée à des phénomènes comme la cannibalisation des produits ou les substitutions 8. Il y a aussi des signes que les modèles de prévision de Relex ne sont pas aussi “next-gen” que commercialisés - des preuves suggèrent que beaucoup de leur approche repose sur des méthodes d’avant 2000 (par exemple, la régression, le lissage des séries temporelles) 9, bien qu’appliquées à grande échelle. Ils se vantent souvent d’un taux de disponibilité en stock de 99%+ pour les détaillants, mais les enquêtes de l’industrie (par exemple, par les associations ECR) montrent que la disponibilité typique en rayon est plus faible, remettant en question de telles affirmations générales 10. Relex a une pile technologique principalement cohérente (construite en interne pour le détail) et n’a pas grandi par le biais de grandes acquisitions, ce qui est bon pour la cohérence. En résumé, Relex est un leader dans l’automatisation du détail et peut conduire des opérations impressionnantes sans intervention humaine, mais sa profondeur technique en science de la prévision est discutable, et une architecture en mémoire signifie qu’il partage les préoccupations de scalabilité des autres. -
ToolsGroup – Innovateur précoce maintenant vantant “l’IA”
ToolsGroup (fondé en 1993) propose le logiciel SO99+, historiquement connu pour la prévision basée sur le taux de service et l’optimisation des stocks. Des années avant que “l’IA” ne devienne un buzzword, ToolsGroup a aidé à populariser les concepts probabilistes dans la supply chain - par exemple, la modélisation de la variabilité de la demande pour déterminer les stocks de sécurité nécessaires pour atteindre un taux de service souhaité. En pratique, leur outil peut produire une distribution de probabilité de la demande (en particulier pour les articles à mouvement lent) et calculer les objectifs de stocks pour atteindre un taux de remplissage cible. Cependant, ces dernières années, le message de ToolsGroup a changé pour rejoindre le battage médiatique de l’IA/ML, et c’est là que les fissures de crédibilité apparaissent. Ils font beaucoup de publicité pour la planification “alimentée par l’IA”, mais des indices publics laissent entendre que leurs algorithmes de base sont toujours essentiellement des modèles statistiques hérités (d’avant 2000) 11. Notamment, depuis environ 2018, ils ont commencé à qualifier leurs résultats de “prévisions probabilistes” tout en se vantant simultanément des améliorations de MAPE 12 - une incohérence flagrante, car le MAPE (une mesure d’erreur de prévision déterministe) “ne s’applique pas aux prévisions probabilistes.” 13 Cela suggère soit une incompréhension, soit un tour de passe-passe marketing (par exemple, ils génèrent peut-être des prévisions probabilistes mais les évaluent toujours en comparant la médiane aux réalisations avec le MAPE - ce qui manque le point des méthodes probabilistes). ToolsGroup parle également beaucoup de “détection de la demande” pour les ajustements de prévision à court terme, mais de telles affirmations sont non soutenues par la littérature scientifique 13 et se résument souvent à des moyennes mobiles reconditionnées. Du côté positif, la solution de ToolsGroup est assez complète pour la planification de la supply chain (couvrant la prévision de la demande, l’optimisation des stocks, le S&OP, etc.) et peut être exécutée en mode lights-out (générant automatiquement des propositions de réapprovisionnement chaque nuit). Son focus sur l’optimisation (atteindre les objectifs de service avec un stock minimal) s’aligne avec la prévision orientée décision. Mais le positionnement récent de l’entreprise en matière d’IA sans preuve technique claire, plus une architecture qui pourrait ne pas être moderne et native du cloud (probablement plus orientée vers un seul serveur), la fait descendre un peu en matière de leadership technologique. En bref, ToolsGroup est un acteur éprouvé dans la modélisation probabiliste des stocks, mais a besoin de plus de transparence pour soutenir ses nouvelles revendications en matière d’IA et s’assurer que ses méthodes n’ont pas stagné. -
Blue Yonder – Héritage puissant, technologie patchwork
Blue Yonder (fondé en 1985 sous le nom de JDA Software, rebaptisé après l’acquisition d’une petite entreprise d’IA nommée Blue Yonder) est un géant de la planification de la supply chain. Il propose des solutions pour la planification de la demande, la planification de l’approvisionnement, le commerce de détail, et plus encore. Au fil des décennies, Blue Yonder (BY) a accumulé un large portefeuille grâce à de nombreuses acquisitions - de Manugistics (optimisation de la supply chain) à des morceaux de i2 Technologies, et plus récemment la start-up d’IA Blue Yonder. Le résultat est une “collection hétéroclite de produits, pour la plupart datés”, même s’ils sont sous une seule marque 14. Technologiquement, les modules hérités de Blue Yonder (comme la prévision de la demande ou l’exécution des commandes) utilisent souvent des techniques plus anciennes (par exemple, la prévision heuristique, la planification basée sur des règles avec des stocks de sécurité). L’entreprise met en avant “l’IA/ML” dans son marketing actuel, mais les affirmations ont tendance à être vagues et peu substantielles 15. Un indice révélateur : Blue Yonder n’a que quelques projets open-source sur son GitHub (par exemple, tsfresh, PyDSE, Vikos), qui laissent entrevoir les approches de prévision sous-jacentes - il s’agit principalement de méthodes traditionnelles comme l’extraction de caractéristiques + des modèles de régression ARIMA/linéaire 16, plutôt que des modèles de deep learning ou probabilistes de pointe. En d’autres termes, l’“IA” de BY est probablement plus un buzz qu’une percée. La cohésion de la plateforme est préoccupante - la planification, le réapprovisionnement et l’optimisation des stocks peuvent exister en tant que moteurs séparés qui ne fonctionnent pas de manière transparente comme un seul (l’intégration repose sur un effort d’implémentation important). Blue Yonder dispose de certaines capacités d’optimisation très fortes dans des domaines spécifiques (par exemple, leurs algorithmes hérités de i2 pour l’optimisation du réseau de la supply chain, s’ils sont modernisés, peuvent être puissants). Et de nombreuses grandes entreprises utilisent Blue Yonder pour automatiser les tâches de planification (par exemple, générer des prévisions qui alimentent un processus MRP, définir des niveaux de stocks de sécurité, etc., avec des ajustements par exception par les planificateurs). Cependant, comparé aux nouveaux leaders technologiques, Blue Yonder semble techniquement stagnant : il s’en tient largement à la prévision déterministe (souvent mesurée par de vieux indicateurs comme le MAPE ou le biais), utilise des pratiques obsolètes comme les formules de stocks de sécurité comme élément central de planification, et n’ajoute qu’une mince couche de terminologie IA. Compte tenu de ses ressources, Blue Yonder pourrait évoluer, mais pour l’instant, il illustre le compromis d’un grand fournisseur : une large fonctionnalité mais une pile technologique fracturée et vieillissante 14. Nous le classons en dessous des concurrents plus avant-gardistes d’un point de vue technologique.
(Autres fournisseurs notables : SAP IBP et Oracle SCM Cloud fournissent également des suites de planification de la supply chain, mais ce sont principalement des extensions de leurs systèmes ERP transactionnels. Ils héritent d’une dette technique importante et d’une complexité due aux systèmes hérités et aux acquisitions. Par exemple, l’offre de planification de SAP est un mélange de composants comme SAP APO, SAP HANA, plus des outils acquis (SAF pour la prévision, SmartOps pour les stocks) - essentiellement “une collection de produits” nécessitant beaucoup d’effort d’intégration 17. Ces solutions liées à l’ERP, bien que puissantes à certains égards, ne sont généralement pas des leaders en matière de science de la prévision ou d’automatisation, elles sont donc omises des rangs supérieurs.)
Après avoir présenté les principaux fournisseurs, nous nous plongeons maintenant dans une analyse critère par critère, mettant en évidence comment chaque fournisseur se positionne sur la prévision probabiliste, l’automatisation, la scalabilité, etc., avec un accent sur les preuves et les exemples. Cette vue comparative met en évidence les forces et les faiblesses de chaque solution en profondeur.
Prévision probabiliste : au-delà des modèles déterministes
L’optimisation moderne de la supply chain bénéficie énormément de la prévision probabiliste - l’estimation d’une plage ou d’une distribution de résultats possibles (avec des probabilités), plutôt qu’un seul nombre “le plus probable”. Les prévisions probabilistes capturent mieux la variabilité de la demande, permettant des décisions plus robustes (par exemple, connaître la probabilité d’une rupture de stock si vous stockez X unités). Nous avons examiné quels fournisseurs adoptent vraiment les méthodes probabilistes par rapport à ceux qui s’en tiennent aux prévisions déterministes. Principales conclusions :
-
Lokad se distingue par l’intégration profonde de la prévision probabiliste. Il a été précurseur dans la promotion des modèles probabilistes (depuis 2012) 2 et a constamment fait progresser cette capacité. L’approche de Lokad utilise des distributions de demande probabilistes comme base pour toutes les optimisations - par exemple, en calculant le profit attendu de différentes quantités de stock en intégrant sur la distribution de la demande. La crédibilité de la technologie de prévision de Lokad est confirmée par les compétitions mondiales : une équipe de Lokad a atteint la plus grande précision au niveau du SKU dans le M5 Forecasting Competition 3, un défi de référence très respecté. Il est important de noter que le M5 était entièrement axé sur la prévision probabiliste (les classements étaient basés sur des mesures d’erreur de distribution pondérées), et la performance de Lokad indique que ses méthodes sont vraiment à la pointe de la technologie pour générer des distributions de probabilité précises à un niveau granulaire. En pratique, Lokad produit non seulement un nombre, mais une distribution de probabilité complète (ou des scénarios) pour la demande de chaque article, qui alimente directement les scripts d’optimisation des décisions.
-
ToolsGroup, à son crédit, propose des fonctionnalités probabilistes depuis des années dans le contexte de l’optimisation du taux de service. Leur logiciel peut créer une distribution de la demande explicite (souvent via un modèle de demande intermittente ou un autre ajustement statistique) et ensuite calculer les objectifs de stock pour atteindre une probabilité de service désirée. Cependant, il y a une différence entre avoir un modèle probabiliste sous le capot et l’adopter pleinement en esprit. Le marketing de ToolsGroup en 2018+ suggère une tentative de se repositionner en tant que leader de la prévision probabiliste, mais ils ont sapé cela en parlant simultanément d’améliorations du MAPE à côté des prévisions probabilistes 13. C’est une contradiction - si l’on prévoit vraiment une distribution, on ne mesurerait pas principalement le succès par le MAPE (qui suppose un seul nombre “juste”). Le fait qu’ils s’appuient encore sur des mesures déterministes indique qu’ils pourraient encore générer des prévisions ponctuelles et n’utiliser les distributions que pour simuler les besoins en stock. Ainsi, bien que ToolsGroup ait des capacités probabilistes, la sophistication de ces méthodes peut ne pas être à la pointe de la technologie, et il n’est pas clair s’ils sont totalement engagés dans le probabiliste ou s’ils l’utilisent simplement comme un complément.
-
Kinaxis n’a historiquement pas fourni de prévisions probabilistes dans son offre principale (il s’appuyait sur des prévisions ponctuelles entrées par les utilisateurs ou générées via des statistiques simples). Reconnaissant cette lacune, Kinaxis s’est associé à Wahupa pour intégrer un moteur probabiliste MEIO (Multi-Echelon Inventory Optimization) 18. De plus, Kinaxis a acquis une entreprise d’IA (Rubikloud) spécialisée dans la prévision de la demande par apprentissage automatique (probablement probabiliste par nature, par exemple en produisant des intervalles de prévision). À partir de 2023, Kinaxis a commencé à commercialiser “Planning.AI” ou des capacités similaires, reconnaissant explicitement la nécessité d’“embrasser l’incertitude” et d’utiliser la science de la probabilité dans la prise de décision 19. C’est un développement positif, mais comme il est relativement nouveau, la maturité de la prévision probabiliste de Kinaxis est encore en évolution. Nous n’avons pas vu Kinaxis ou ses associés apparaître dans des compétitions de prévision publiques ou publier une méthodologie détaillée, donc la preuve technique de leur compétence probabiliste est limitée à ce qu’ils prétendent.
-
o9 Solutions met également l’accent sur la modélisation de l’incertitude en concept - leur graphe de connaissances peut stocker de nombreux facteurs causaux, et ils prétendent générer de meilleures prédictions en reliant les données. Mais là encore, nous ne trouvons aucune preuve publique que o9 fournit des prévisions probabilistes en pratique (pas de benchmarks de précision publiés ou d’algorithmes ouverts). La mention de réseaux bayésiens ou de Monte Carlo dans leurs documents est rare. Les éléments découverts dans les dépôts de code de o9 semblent se concentrer sur des techniques de prévision typiques plutôt que sur de nouveaux algorithmes probabilistes 6. Jusqu’à ce que o9 démontre le contraire, nous devons supposer qu’il fournit principalement des prévisions déterministes améliorées (peut-être avec une analyse de scénario), et que toute étiquette “probabiliste” peut être plus marketing.
-
Relex Solutions traite du commerce de détail où la variabilité (en particulier pour les promotions ou les articles frais) est élevée. Ils utilisent probablement quelques approches probabilistes en interne (par exemple, pour estimer la distribution de la demande pour les produits promus, ou pour calculer les besoins en stocks de sécurité par magasin avec un taux de service cible). Cependant, les documents publics de Relex ne vantent pas explicitement la “prévision probabiliste” ; ils parlent davantage de l’amélioration de la précision des prévisions par l’apprentissage automatique (ce qui implique généralement de meilleures prévisions ponctuelles). L’examen par les pairs de Relex indique que leur technologie de prévision semble antérieure à 2000 9, ce qui signifie probablement principalement des méthodes déterministes comme le lissage exponentiel, peut-être avec une saisonnalité et une tendance - des techniques qui génèrent des prévisions ponctuelles et peut-être un écart type pour le stock de sécurité. Ainsi, Relex peut encore s’appuyer sur l’ancien paradigme : prévoir puis ajouter une marge, plutôt que de fournir une courbe de probabilité complète à l’utilisateur.
-
Blue Yonder dans sa planification de la demande traditionnelle utilise une variété de modèles statistiques (ARIMA, lissage exponentiel, peut-être un peu de ML pour les facteurs causaux) pour produire des prévisions, généralement agrégées et avec un processus de consensus - fondamentalement déterministe. Blue Yonder a commencé à mentionner des termes probabilistes dans certains contextes (puisque tout le monde le fait), mais étant donné que leurs contributions open-source montrent une dépendance à l’égard de l’ARIMA et de la régression 16, on peut dire en toute sécurité que la prévision probabiliste n’est pas une force. Ils encouragent également toujours des mesures comme le MAPE, le biais, etc., qui sont déterministes. Nous n’avons pas vu Blue Yonder participer à des benchmarks de prévision connus non plus.
-
Autres fournisseurs : John Galt Solutions commercialise un algorithme “Procast” qui prétend avoir une précision supérieure, mais une revue a noté que cette affirmation est douteuse puisque Procast était absent des rangs supérieurs des grandes compétitions de prévision comme M5 20. En fait, des outils de prévision open-source facilement disponibles (par exemple, Prophet ou les packages R de Hyndman) sont probablement aussi performants ou meilleurs 21. Cela souligne un thème commun : la véritable innovation apparaît là où il y a une évaluation ouverte. L’absence de la plupart des fournisseurs (à part Lokad) des compétitions publiques suggère que beaucoup ne sont pas vraiment en avance sur le monde universitaire ou l’open-source en matière de prévision - s’ils l’étaient, ils le prouveraient dans ces forums.
En résumé, la prévision probabiliste est un différenciateur : Lokad mène clairement avec une prouesse démontrée et des décisions probabilistes entièrement intégrées. ToolsGroup et Kinaxis reconnaissent son importance mais ne l’ont incorporée que récemment (et doivent aligner leurs métriques et processus avec elle pour être convaincants). Les autres restent largement dans un monde déterministe, même s’ils saupoudrent des termes comme “stochastique” dans leurs brochures. Cette distinction est importante, car sans prévisions probabilistes authentiques, un système de planification se rabattra sur des stocks de sécurité grossiers et ne pourra pas équilibrer de manière optimale les risques et les coûts.
Degré d’automatisation : Planification sans intervention humaine vs. Humain dans la boucle
L’automatisation de la prévision et de la planification fait référence à la capacité du système à exécuter l’ensemble du processus - ingestion des données, génération de prévisions, optimisation du plan, et même exécution des décisions - sans intervention manuelle, à part la surveillance et l’ajustement occasionnel des paramètres. Une automatisation élevée est cruciale pour les opérations à grande échelle (où l’ajustement manuel de milliers de prévisions est irréalisable) et pour répondre rapidement aux changements (les robots réagissent plus vite que les humains). Nous avons évalué à quel point chaque solution peut être automatisée et si elle supporte les exécutions de planification “non surveillées” (et si les clients l’utilisent réellement de cette manière). Les observations comprennent :
-
Lokad est conçu avec l’automatisation à l’esprit. Son environnement de script Envision permet de coder et de programmer l’ensemble de la logique de prévision et de réapprovisionnement. De nombreux déploiements de Lokad fonctionnent sur une base entièrement robotisée, où chaque jour ou chaque semaine le système récupère automatiquement de nouvelles données, recalcule les prévisions, optimise les décisions (par exemple, génère des quantités de commandes ou des plans d’allocation), et les transmet au système ERP ou d’exécution - tout cela sans intervention humaine. La philosophie est que si les modèles sont correctement configurés, les ajustements manuels devraient être minimaux, et les planificateurs peuvent se concentrer sur les exceptions ou les améliorations du modèle plutôt que sur les ajustements de routine. Les success stories de Lokad mettent souvent en avant la réduction drastique de la charge de travail des planificateurs grâce à cette automatisation. En substance, Lokad traite les planificateurs plus comme des data scientists ou des superviseurs du processus, et non comme des personnes qui ajustent manuellement les boutons de planification au quotidien.
-
Relex Solutions permet également un haut degré d’automatisation, surtout en réapprovisionnement. Par exemple, pour les détaillants d’épicerie, Relex peut générer automatiquement des commandes de magasin chaque jour en tenant compte des prévisions, des stocks en main et des délais de livraison. Certains détaillants qui utilisent Relex lui font apparemment suffisamment confiance pour que la grande majorité des commandes soient envoyées automatiquement, les planificateurs ne révisant que les suggestions hors limites. Le système de Relex supporte les workflows pour les exceptions (par exemple, il peut signaler si une prévision est très différente de la normale, puis un humain la révise), mais sinon il est conçu pour exécuter automatiquement la planification de la demande et la commande. C’est un argument de vente clé dans le commerce de détail où l’échelle (des millions de combinaisons SKU-magasin) rend la planification manuelle impossible. Cependant, il convient de noter que l’obtention de cette automatisation nécessite souvent des modèles stables et matures et un focus étroit (par exemple, les produits de base de l’épicerie). Dans la planification de la fabrication multi-échelon plus complexe, Relex est moins présent. Néanmoins, dans son domaine, Relex prouve que la prévision et le réapprovisionnement non surveillés sont réalisables, bien que dans le cadre des contraintes de son architecture en mémoire.
-
Kinaxis offre une automatisation dans le recalcul - sa simultanéité signifie que chaque fois que les données changent, il peut propager les changements à travers le modèle de supply chain (nomenclature, stocks, capacités) pour mettre à jour automatiquement tous les plans dépendants. C’est une forme d’automatisation (éliminant le besoin de relancer manuellement des cycles de planification séparés pour chaque niveau). Cependant, Kinaxis s’attend traditionnellement à ce que les planificateurs soient impliqués dans une certaine mesure : ils mettent en place des scénarios, examinent les résultats et décident quel scénario engager. Kinaxis peut automatiser les décisions de routine via son système d’alerte (par exemple, approuver automatiquement un plan si le stock est au-dessus d’un seuil), mais il est généralement utilisé comme un outil d’aide à la décision plutôt que comme un “pilote automatique” obscur. Cela dit, avec l’intégration de l’IA et des prévisions plus avancées, Kinaxis se dirige vers une prise de décision plus automatisée. Par exemple, son nouveau MEIO peut rééquilibrer automatiquement les tampons de stock à travers les échelons à chaque cycle de planification, que l’utilisateur pourrait accepter à moins que quelque chose ne semble étrange. L’entreprise investit également dans ce qu’ils appellent les “supply chains auto-réparatrices”, ce qui implique une plus grande autonomie. Cependant, compte tenu de sa base de clients (souvent l’aérospatiale, l’automobile, etc., où les planificateurs sont prudents), la planification entièrement automatisée n’est pas la norme pour les déploiements de Kinaxis.
-
o9 Solutions est également généralement déployé comme une plateforme de planification où les utilisateurs (planificateurs, gestionnaires de la demande, etc.) interagissent beaucoup - ajustant les prévisions, collaborant sur les plans S&OP, exécutant des scénarios. Il a certainement la capacité technique d’automatiser les calculs (vous pouvez par exemple configurer des mises à jour de prévision récurrentes), mais la philosophie de o9 penche plutôt vers l’augmentation des planificateurs humains avec des informations d’IA plutôt que leur remplacement. Le terme marketing “jumeau numérique de l’organisation” suggère qu’il reflète votre supply chain dans le logiciel ; mais un miroir reflète généralement ce que vous faites - il ne décide pas indépendamment. Nous n’avons pas trouvé de preuve qu’une entreprise utilise o9 de manière totalement autonome ; c’est plutôt un outil qui fournit un modèle de données unique et des analyses pour faciliter la planification transversale. L’automatisation est axée sur l’intégration (automatisation des flux de données entre les modules) plus que sur l’automatisation des décisions.
-
ToolsGroup a traditionnellement proposé une approche de “planification à faible intervention”. Leur outil SO99+ peut être configuré pour générer automatiquement des prévisions statistiques pour chaque SKU, puis calculer les objectifs de stock et même suggérer des commandes de réapprovisionnement. De nombreuses entreprises de taille moyenne l’ont effectivement utilisé pour générer automatiquement des bons de commande ou des propositions de production, les planificateurs ne révisant que les exceptions (par exemple, lorsque le système est incertain en raison de circonstances inhabituelles). Le niveau d’automatisation atteint dépend de la confiance dans les recommandations du système. ToolsGroup insiste souvent sur le fait que leur approche probabiliste conduit à des recommandations de stock plus fiables, ce qui à son tour rend les entreprises à l’aise avec l’automatisation des commandes dans une plus grande mesure. Cependant, si les modèles de ToolsGroup ne sont pas correctement réglés, les utilisateurs pourraient beaucoup les contourner. En termes de capacité technique, ToolsGroup peut certainement fonctionner en mode non surveillé par lots pour la prévision et la planification initiale. Mais il pourrait ne pas gérer aussi bien la re-planification à la volée que quelque chose comme Kinaxis (il est plus orienté vers la planification nocturne par lots).
-
Blue Yonder (JDA) dispose de composants tels que ESP (Enterprise Supply Planning) et Fulfillment qui peuvent automatiquement libérer des commandes d’approvisionnement ou des recommandations de transfert de stock basées sur des prévisions et des politiques d’inventaire. De nombreux utilisateurs de Blue Yonder s’appuient sur des sorties générées automatiquement : par exemple, le système peut automatiquement créer des ordres de distribution pour réapprovisionner les entrepôts régionaux aux niveaux de stock cibles. Le module Demand de Blue Yonder peut automatiquement produire des prévisions de base chaque semaine ou chaque mois. Cependant, historiquement, les mises en œuvre de JDA/Blue Yonder impliquent beaucoup de flux de travail humain : les planificateurs de la demande ajustent les prévisions, les planificateurs de l’approvisionnement examinent les commandes recommandées par le système, etc. Le logiciel prend en charge l’automatisation mais n’encourage pas nécessairement une mentalité “sans intervention” - c’est plus un établi de planificateur. De plus, étant donné la nature patchwork de la suite BY, la réalisation d’une automatisation de bout en bout pourrait nécessiter un effort d’intégration significatif (assurer que le plan de la demande s’écoule vers le module de plan de l’approvisionnement, qui s’écoule vers l’exécution sans intervention manuelle peut être délicat). Ainsi, bien que techniquement réalisable, en pratique, les sites Blue Yonder ont souvent beaucoup de supervision humaine sur les plans.
En résumé, la capacité d’automatisation est présente dans tous les outils leaders à des degrés divers, mais la philosophie et l’utilisation pratique diffèrent. Lokad et Relex sont remarquables pour repousser les limites de la planification véritablement autonome dans leurs niches respectives (avec Lokad permettant des “autopilotes de supply chain” entièrement scriptés pour diverses industries, et Relex le faisant dans le commerce de détail). Les grands fournisseurs traditionnels traitent l’automatisation avec plus de prudence, laissant souvent le planificateur en charge des décisions finales. Cela est parfois dû à des problèmes de confiance - si les prévisions d’un système ne sont pas très fiables, les utilisateurs ne le laisseront pas fonctionner en pilote automatique. Cela souligne que l’automatisation n’est aussi bonne que l’intelligence qui la sous-tend : une raison clé pour laquelle des outils probabilistes et orientés décision sont nécessaires est de rendre l’automatisation viable (le système doit prendre de bonnes décisions de lui-même). Lors de l’évaluation des fournisseurs, les entreprises devraient se demander : Ce système peut-il fonctionner par lui-même pendant un mois et maintenir ou améliorer nos performances ? Les meilleures technologies se rapprochent de “oui” pour cette question, tandis que d’autres nécessitent encore fondamentalement une surveillance manuelle.
Scalabilité & Performance : L’architecture compte
La planification de la supply chain doit souvent faire face à des big data (grand nombre de SKU, magasins, commandes, signaux IoT, etc.) et à des calculs complexes (optimisation sur de nombreuses variables). L’architecture sous-jacente de chaque solution - qu’elle soit en mémoire ou distribuée, comment elle gère l’augmentation des volumes de données - impacte directement sa scalabilité et ses performances. De mauvais choix architecturaux peuvent conduire à des performances lentes ou à des coûts matériels exorbitants (ou les deux), surtout à mesure que l’entreprise grandit. Points clés sur la scalabilité pour les fournisseurs :
-
En mémoire vs. Distribué : Un thème majeur est la différence entre les solutions qui chargent la plupart des données en RAM pour un calcul rapide et celles qui utilisent un calcul plus distribué, à la demande (style cloud). Kinaxis, o9, Relex et SAP IBP ont tous une forte composante en mémoire. Le moteur de Kinaxis a été construit sur l’idée que toutes les données de planification pertinentes sont en mémoire pour un recalcul instantané - ce qui fonctionne bien jusqu’à un certain point, mais la mise à l’échelle au-delà de quelques téraoctets de données en mémoire devient extrêmement coûteuse et techniquement difficile. O9 et Relex “garantissent des coûts matériels élevés” en raison de la conception en mémoire 4 7 - en effet, l’utilisateur paie pour de très grands serveurs ou clusters avec une RAM massive. Cette approche avait des mérites il y a 10-20 ans lorsque la mémoire était bon marché et les tailles de données plus modestes, mais les prix de la mémoire ont stagné et la complexité des données a augmenté, ce qui en fait une stratégie moins pérenne. En revanche, Lokad est entièrement basé sur le cloud et ne nécessite pas de conserver toutes les données en RAM. Il s’appuie sur le calcul à la demande (par exemple, en effectuant des calculs en parallèle sur de nombreuses machines lorsque nécessaire, puis en les libérant). Cela signifie qu’il peut passer à des problèmes très importants en ajoutant des nœuds de calcul plutôt qu’en atteignant un plafond de RAM d’une seule machine. La conception native du cloud de Lokad utilise également beaucoup le disque et le réseau lorsque cela est approprié, en accord avec les tendances modernes des big data (où le stockage et le calcul distribués, comme les paradigmes de map-reduce, gèrent l’échelle).
-
Performance à grande échelle : Les anciens modules de Blue Yonder (comme APO de SAP, ou le propre héritage de JDA) ont parfois eu du mal avec de grandes instances de problèmes, nécessitant une agrégation ou une segmentation des données pour fonctionner. Les nouvelles versions cloud (BY Luminate) ont probablement amélioré cela avec une meilleure gestion de la mémoire et peut-être une mise à l’échelle élastique, mais les preuves sont rares. SAP IBP utilise HANA (DB colonne en mémoire) ; il peut gérer de grandes données mais à un coût d’infrastructure très élevé et a souvent encore besoin que les données soient agrégées à certains niveaux pour que les cycles de planification se terminent en temps voulu. La planification d’Oracle utilise une base de données relationnelle en backend qui peut décharger une partie sur le disque mais pourrait être plus lente par calcul (cependant, Oracle tire parti de son réglage de base de données). ToolsGroup a généralement traité des ensembles de données de taille moyenne (des milliers à des dizaines de milliers de SKU) sur des serveurs uniques ; la performance pourrait se dégrader avec un très grand nombre de SKU à moins que le calcul ne soit soigneusement limité (par exemple, en se concentrant sur les articles d’intérêt). Ils sont passés à des offres cloud récemment qui peuvent probablement se mettre à l’échelle, mais il n’est pas clair si les algorithmes de base ont été refactorisés pour le calcul distribué ou simplement hébergés sur de grandes VM.
-
Approches défectueuses : L’erreur de la “conception en mémoire” mérite d’être soulignée. Plusieurs fournisseurs ont choisi d’approche de modéliser l’ensemble de la supply chain dans un modèle géant résident en mémoire (semblable à un cube OLAP ou un gigantesque tableur en mémoire). Cela offre une grande vitesse pour les cas petits à moyens, mais cela ne se met pas à l’échelle de manière linéaire - vous ne pouvez pas facilement le distribuer, et l’ajout de plus de données peut provoquer une explosion combinatoire des besoins en mémoire. L’étude des fournisseurs Lokad souligne explicitement cela pour o9 et Relex : leur conception “fournit des rapports en temps réel impressionnants” mais augmente intrinsèquement les coûts du matériel et ne s’harmonise pas bien avec les problèmes d’optimisation globale 7. De même, la propre littérature de Kinaxis reconnaît indirectement les limitations : par exemple, une ancienne documentation de Kinaxis notait que les systèmes 32 bits avec environ 4 Go de RAM étaient un facteur limitant à l’époque, et bien que maintenant 64 bits permet plus, ce n’est pas infini 22. Le problème fondamental est que les données ont augmenté plus rapidement que les capacités de la RAM. Si un détaillant veut planifier au niveau magasin-SKU-jour pour 2 000 magasins et 50 000 SKU, cela représente 100 millions de séries temporelles - un cube en mémoire de cette taille (avec l’historique et les périodes futures) pourrait atteindre des dizaines de milliards de cellules, ce qui est peu pratique. Une approche distribuée qui traite magasin par magasin ou qui partitionne intelligemment est plus évolutive.
-
Concurrence vs. Batch : Le point de vente de Kinaxis est la concurrence (tout est recalculé en même temps en mémoire). C’est formidable pour une utilisation interactive, mais cela signifie que vous avez besoin de ce modèle complet prêt en mémoire. Les systèmes orientés batch (comme une exécution nocturne de Lokad, ou même l’approche de ToolsGroup) peuvent évoluer en divisant la tâche (par exemple, prévoir chaque SKU séparément, ce qui est embarrassant en parallèle). Envision de Lokad, par exemple, peut diviser les problèmes en sous-problèmes qui s’exécutent en parallèle sur le cloud - vous échangez l’interactivité en temps réel contre l’évolutivité et la puissance brute. Selon les besoins de l’entreprise, l’un ou l’autre est préférable. Mais si l’objectif est le meilleur plan possible, un processus batch qui traite d’énormes espaces de scénarios pendant la nuit pourrait battre un calcul simplifié en temps réel.
En résumé : Des solutions comme la plateforme cloud de Lokad sont conçues pour évoluer horizontalement et gérer des volumes de big data sans rencontrer de mur, tandis que les solutions centrées sur la mémoire (Kinaxis, o9, Relex, SAP) risquent des goulots d’étranglement d’évolutivité et des coûts en spirale à mesure que la complexité des données augmente. Les entreprises qui évaluent ces solutions devraient soigneusement considérer la taille de leurs données de supply chain et leur trajectoire de croissance. Il est révélateur que certaines nouvelles start-ups de planification “IA” évitent consciemment les monolithes en mémoire, préférant utiliser des microservices ou des cadres de big data. Aussi, une mise en garde : le réglage des performances repose souvent sur l’équipe de mise en œuvre - si un fournisseur nécessite une agrégation ou une élagage important des données pour faire tenir le modèle en mémoire, c’est un drapeau rouge d’évolutivité. La technologie véritablement évolutive gérera les données granulaires sans vous forcer à les simplifier.
Intégration technologique & Acquisitions : Plateformes unifiées vs. Franken-suites
L’histoire d’un fournisseur - qu’il ait construit sa solution organiquement ou qu’il se soit développé par acquisitions - affecte grandement la cohérence et l’intégration de la technologie. Lorsqu’une suite de planification est composée de nombreuses pièces acquises, il en résulte souvent que différents modules utilisent différentes bases de données, interfaces utilisateur, voire langages de programmation, rendant le produit global moins cohérent. Nous avons examiné l’arrière-plan de chaque fournisseur :
-
Blue Yonder (JDA) est l’un des exemples les plus clairs de croissance par acquisition. Au fil des ans, JDA a acquis Manugistics (pour les algorithmes de planification de la supply chain), i2 (bien que cet accord ait échoué en 2008), Intactix (pour la planification de l’espace de vente au détail), RedPrairie (pour la gestion d’entrepôt), et la startup Blue Yonder (pour la prévision AI/ML), entre autres. Cela signifie que la suite de solutions actuelle de Blue Yonder est un patchwork : par exemple, la planification de la demande pourrait être l’ancien moteur de Manugistics, l’exécution pourrait être autre chose, l’optimisation des prix provient d’une autre acquisition, etc. L’étude de Lokad a noté que “les logiciels d’entreprise ne sont pas miscibles par le biais de fusions et acquisitions… sous la bannière BY se trouve une collection hétéroclite de produits” 14. Ils essaient de les unifier sous la plateforme “Luminate” avec une interface utilisateur commune et peut-être une couche de données commune dans Azure, mais au fond, il est difficile de fusionner tout cela en un système fluide. Les clients mettent souvent en œuvre seulement certaines parties, et les faire communiquer ensemble peut nécessiter une intégration personnalisée. Des incohérences surgissent inévitablement (par exemple, un module peut supporter la logique probabiliste tandis qu’un autre ne le fait pas ; l’un utilise un solveur d’optimisation, un autre en utilise un différent). La pile technologique fragmentée signifie également que des pratiques contradictoires peuvent coexister dans la même suite (par exemple, une partie de BY peut vanter le ML avancé, tandis qu’une autre partie utilise encore des formules de stock de sécurité datant de 20 ans).
-
SAP a également construit certaines choses et en a acheté d’autres. Notamment, SAP a acquis SAF (un fournisseur de prévisions) en 2009, SmartOps (un fournisseur d’optimisation des stocks) en 2013 17, et avait également développé APO en interne. Tous ces éléments ont été intégrés dans l’offre cloud de SAP pour la planification intégrée des affaires (IBP). Le résultat : SAP IBP a différents modules (Prévision, Stocks, Approvisionnement) qui, bien qu’étant sous un même parapluie, ont parfois l’impression d’être des produits distincts. La prévision peut utiliser des algorithmes de SAF, l’optimisation des stocks utilise la logique de SmartOps. L’examen par les pairs qualifie la suite de SAP de “collection de produits” et avertit que la complexité est élevée, nécessitant souvent “les meilleurs intégrateurs - plus quelques années - pour réussir” 23. En d’autres termes, l’intégration est laissée à l’équipe de mise en œuvre et peut être un long chemin pour obtenir un fonctionnement harmonieux de toutes les pièces.
-
Kinaxis, jusqu’à récemment, était principalement une construction organique - leur produit principal RapidResponse a été développé en interne pendant des décennies. Cela lui a donné une sensation très unifiée (un modèle de données, une interface utilisateur). Cependant, au cours des 3-4 dernières années, Kinaxis a fait quelques acquisitions/partenariats stratégiques pour combler les lacunes : par exemple, en s’associant à Wahupa pour l’optimisation probabiliste des stocks 18, en acquérant Rubikloud pour la prévision AI, et en acquérant Prana (un fournisseur d’analyse de la supply chain) en 2021. Kinaxis intègre ces éléments via sa plateforme extensible (ils vantent une intégration “sans code” via leur interface utilisateur pour ces nouvelles capacités), mais en réalité, ce sont des moteurs séparés qui sont connectés. Par exemple, le MEIO de Wahupa pourrait fonctionner comme un service attaché à RapidResponse plutôt que comme un code natif à l’intérieur de celui-ci. Avec le temps, Kinaxis fusionnera probablement plus étroitement ces éléments, mais il y a toujours un risque qu’il devienne un ajout peu couplé (par exemple, vous alimentez le moteur de Wahupa avec des données de variabilité de prévision et vous obtenez en retour des niveaux de stock de sécurité - un peu comme un ajout). Par rapport aux fournisseurs ayant des dizaines d’acquisitions, Kinaxis reste relativement cohérent, mais il vaut la peine de surveiller qu’il ne s’engage pas dans la voie d’une franken-suite.
-
o9 Solutions est principalement construit en interne par ses fondateurs (qui étaient d’anciens employés de i2). C’est une seule plateforme avec des modules qui ont été développés sur la même base. o9 a très peu acquis (une petite acquisition était une entreprise de réseau de supply chain, et une récente était une startup d’IA/ML appelée Processium, mais rien de majeur en termes d’algorithmes de planification à notre connaissance). Par conséquent, la pile technologique de o9 est plus unifiée que celle des concurrents plus anciens - tout repose sur le Graphique de Connaissance d’Entreprise de o9 et utilise le même cadre d’interface utilisateur. C’est un plus pour la cohérence (pas de duplication de schémas de base de données, etc.). L’inconvénient est que si une partie de leur technologie est faible, ils n’ont pas de solution facile par acquisition - ils doivent la développer. Jusqu’à présent, ils ont réussi avec le développement interne, bien qu’avec les limitations que nous avons discutées (comme des techniques de prévision possiblement banales sous le capot).
-
ToolsGroup a largement grandi organiquement autour de son produit SO99+. Ils n’ont pas fait de grandes acquisitions d’autres fournisseurs de planification que nous connaissons. Ainsi, leurs modules de prévision de la demande, d’optimisation des stocks et de réapprovisionnement ont été conçus ensemble. Cela donne une application cohérente, bien que quelque peu monolithique. Le défi pour ToolsGroup était de se moderniser - leur architecture et leur interface utilisateur étaient dépassées dans les années 2010, mais ils ont depuis fait des efforts pour passer au cloud et mettre à jour l’interface. Cependant, être cohérent est une des raisons pour lesquelles ToolsGroup est relativement simple : il fait une chose (l’optimisation du taux de service) de bout en bout sans avoir besoin de brancher d’autres outils.
-
Relex Solutions a également construit sa plateforme de zéro spécifiquement pour le retail. Ils ont acquis quelques entreprises dans des domaines adjacents (une solution de gestion de la main-d’œuvre et une solution de planification de l’espace de magasin récemment), mais leur moteur de prévision et de réapprovisionnement est fait maison. Ce noyau est unifié (c’est pourquoi ils peuvent faire des choses comme montrer à un utilisateur n’importe quelle métrique en temps réel, puisque toutes les données sont dans la même base de données en mémoire). Les acquisitions dans de nouveaux domaines pourraient introduire des coutures d’intégration, mais Relex est encore loin de la frénésie d’acquisition des fournisseurs plus anciens.
Le problème clé avec les suites fragmentées n’est pas seulement la surcharge technique, mais aussi le désalignement fonctionnel : si un module a été conçu pour une approche (disons, la planification déterministe avec des stocks de sécurité) et qu’un autre module suppose des entrées probabilistes, ils peuvent entrer en conflit. Par exemple, un module d’optimisation des stocks provenant d’une acquisition pourrait calculer des stocks de sécurité qu’un module de planification de la demande provenant d’une autre acquisition ne sait pas comment gérer dans son interface utilisateur, ce qui entraîne de la confusion ou des doublons de saisie de données. En effet, nous avons vu des cas où des fournisseurs font la promotion de la prévision probabiliste dans le marketing, mais leur module de planification des ventes et des opérations continue de suivre le MAPE et utilise des prévisions de consensus à un seul chiffre - une contradiction interne probablement due à des lignées de produits différentes.
En revanche, un fournisseur avec une plateforme cohérente peut mettre en œuvre des changements (comme passer à des méthodes probabilistes) plus facilement. Il est révélateur que Lokad, qui est entièrement unifié (ils ont tout construit autour de leur langage Envision et de leur backend cloud), peut concentrer son message clairement sur l’optimisation probabiliste sans incohérence interne. De même, Anaplan (une plateforme de planification générale) est très unifié techniquement (un seul moteur Hyperblock), bien qu’il manque d’algorithmes spécialisés de supply chain ; la cohérence d’Anaplan est grande, mais sa spécialisation est limitée 24.
Ainsi, d’un point de vue technologique, les acheteurs devraient se méfier des suites nées de nombreuses fusions - demandez si la partie de prévision et la partie de planification partagent vraiment le même moteur ou le même modèle de données. Si ce n’est pas le cas, le résultat peut être une douleur d’intégration et potentiellement des sorties contradictoires.
Crédibilité Technique : Démystifier le Battage Médiatique de l’IA/ML
À une époque où chaque fournisseur revendique une “supply chain pilotée par l’IA” et des “prévisions basées sur l’apprentissage automatique”, il est essentiel d’examiner comment ils étayent ces affirmations. Nous recherchons des preuves techniques tangibles de techniques avancées - telles que des recherches évaluées par des pairs, des algorithmes propriétaires documentés, des contributions open-source, ou des performances dans des benchmarks neutres. Nous vérifions également l’abus de buzzwords - appeler quelque chose IA qui n’est qu’une règle si-alors, par exemple. Voici comment se comportent les fournisseurs :
-
Lokad démontre une grande crédibilité technique. Il ne se contente pas de revendiquer l’IA ; il publie du contenu expliquant ses algorithmes (par exemple, une conférence détaillant comment leur modèle de prévision gagnant M5 a fonctionné 25). Le PDG de l’entreprise et son équipe s’engagent dans des discussions techniques (via des blogs, des conférences) sur les raisons pour lesquelles certaines approches (comme l’assemblage de prévisions quantiles ou l’utilisation de la perte de flipper pour la formation) sont choisies. Ils admettent ouvertement les limites des compétitions comme M5 et comment les problèmes réels de la supply chain diffèrent 26 27 - cette nuance indique une mentalité d’ingénierie sérieuse plutôt que du marketing. De plus, l’innovation principale de Lokad, le langage de programmation Envision, est un artefact technique unique - ce n’est pas juste un ML générique, mais un langage spécifique au domaine conçu pour l’optimisation de la supply chain 28. C’est un morceau de technologie concret que les personnes extérieures peuvent évaluer (et certaines parties sont documentées publiquement). Lokad ne s’appuie pas sur des citations d’analystes payés ; au lieu de cela, il invite à l’examen par les pairs de ses méthodes. Cette ouverture et cet accent sur la science plutôt que sur les slogans établissent une norme d’or pour la crédibilité.
-
Blue Yonder, en revanche, a tendance à utiliser un langage vague sur l’IA, comme “l’intégration de l’IA/ML dans notre plateforme Luminate” sans détailler quelles techniques ou quels modèles sont utilisés. L’étude de Lokad sur les fournisseurs souligne explicitement que les revendications de l’IA de Blue Yonder ont “peu ou pas de substance”, et les quelques artefacts disponibles suggèrent une dépendance à l’égard des méthodes de prévision à l’ancienne (ARMA, régression) 15. Par exemple, BY pourrait dire “nous utilisons l’IA pour détecter les changements de demande”, mais si en réalité il utilise une régression linéaire sur les ventes récentes (une technique datant de plusieurs décennies), c’est étirer le terme IA. La présence de projets open-source comme tsfresh (extraction de caractéristiques de séries temporelles) est en fait un point en faveur de BY pour la transparence, mais ces projets eux-mêmes sont des outils génériques bien connus, et non des percées propriétaires. L’absence de résultats publiés ou de compétitions de l’équipe de data science de BY suggère davantage que leurs revendications sont plus motivées par le marketing. En bref, Blue Yonder n’a pas fourni de preuve technique convaincante pour soutenir sa forte image de marque de l’IA - un drapeau rouge pour la crédibilité.
-
o9 Solutions suscite également du scepticisme. Ils commercialisent le concept d’un Enterprise Knowledge Graph (EKG) comme un différenciateur, laissant entendre qu’il s’agit d’une forme d’IA qui capture les relations dans les données. Bien que les bases de données graphiques soient utiles, il n’y a rien d’intrinsèquement “génial pour la prévision” à stocker des données sous forme de graphique - ce sont les algorithmes au-dessus qui comptent. L’étude de Lokad note que les revendications de prévision d’o9 autour du graphique ne sont pas soutenues par la littérature scientifique 29. De plus, le GitHub d’o9 (si on creuse) n’a pas révélé d’algorithmes révolutionnaires, et leur discours sur l’IA se résume souvent à des capacités génériques (comme “analytiques avancées” ou “prévision ML”) que beaucoup d’autres ont également. Ils utilisent des termes à la mode (“cerveau numérique”, “IA/ML”, “graphique de connaissances”) mais sans validation externe. Jusqu’à ce qu’o9 publie, disons, un livre blanc sur la façon dont leurs modèles ML surpassent les autres, ou jusqu’à ce qu’un cas client soit documenté avec des données rigoureuses, il est plus sûr de supposer que l’IA d’o9 est principalement du battage médiatique - peut-être des modèles ML standard (réseaux neuronaux, gradient boosting, etc.) enveloppés dans un bon marketing. Nous notons également que dans la communauté de la supply chain, les concepts d’IA véritablement révolutionnaires (comme l’apprentissage en profondeur par renforcement pour l’optimisation de la supply, ou de nouveaux modèles probabilistes) sont généralement discutés dans des forums académiques ou ouverts - nous n’avons pas vu o9 présenter dans ceux-ci, ce qui suggère un manque de technologie unique.
-
Kinaxis a été relativement mesuré dans son marketing - il n’abuse pas de “IA” dans chaque phrase, ce qui est en quelque sorte une bonne chose (moins de sur-promesses). Cependant, à mesure qu’ils intègrent des partenaires IA, ils ont commencé à le mettre plus en avant. Un bon signe : le billet de blog co-écrit avec le PDG de Wahupa 30 31 discutant des méthodes probabilistes vs statistiques montre que Kinaxis est prêt à se plonger dans la science (mentionnant la théorie des probabilités, la prise de décision en situation d’incertitude, etc.). Cela indique qu’ils essaient de baser leurs offres sur une méthodologie solide. Mais Kinaxis doit encore se prouver en termes de résultats de ces méthodes. Ils n’ont pas, par exemple, publié “notre nouvelle prévision ML a amélioré la précision de X% par rapport à notre ancienne approche” avec détail - probablement parce qu’ils sont encore en train de l’intégrer. Ainsi, la crédibilité de Kinaxis est en transition : historiquement, il ne prétendait pas être un leader technologique en matière de prévision (il ne se faisait donc pas passer pour ce qu’il n’est pas), et maintenant qu’il revendique des analyses avancées, nous devons attendre des preuves. Le partenariat avec Wahupa montre au moins une reconnaissance que une expertise extérieure était nécessaire - ce qui est crédible (ils n’ont pas prétendu avoir maîtrisé le probabiliste ; ils ont fait appel à un spécialiste).
-
ToolsGroup a malheureusement sapé sa crédibilité en sautant dans le train des buzzwords de l’IA sans le soutenir. Le commentaire de l’étude selon lequel leurs affirmations sur l’IA sont “douteuses” et que les documents publics font toujours allusion à des modèles pré-2000 est révélateur 11. Cela suggère que ToolsGroup pourrait faire peu plus que de rebaptiser des fonctionnalités existantes en “IA”. Par exemple, ToolsGroup pourrait faire de la publicité pour “l’IA pour la détection de la demande” - après enquête, cela pourrait simplement être une règle qui donne plus de poids aux ventes récentes (ce qui n’est pas de l’IA, c’est juste un ajustement algorithmique). Sans détails publiés, il est difficile de leur donner le bénéfice du doute. Leur crédibilité était plus forte au début des années 2000 lorsqu’ils étaient véritablement en avance sur les modèles probabilistes de stocks ; maintenant, elle souffre d’une possible stagnation.
-
SAS (que nous n’avons pas classé en tête mais qui est dans le lot) est un cas où la crédibilité technique est généralement élevée (SAS a une longue histoire en statistiques), mais l’inconvénient est que leur technologie de base est plus ancienne. Les méthodes de prévision de SAS sont bien documentées (ils ont littéralement écrit le manuel sur de nombreuses méthodes statistiques), mais cela signifie aussi qu’ils peuvent ne pas incorporer les dernières techniques d’apprentissage machine à moins que vous ne fassiez un travail personnalisé dans SAS. L’étude Lokad reconnaît SAS comme un pionnier, bien qu’il soit maintenant supplanté par des outils open source comme les notebooks Python 32. SAS ne vend généralement pas trop - ils comptent sur leur réputation - mais en tant que solution de supply chain, ils sont moins couramment utilisés en l’état (plus souvent, une entreprise utilise SAS pour construire une solution personnalisée).
-
Observation générale : Une façon rapide de tester la sincérité technique d’un fournisseur est de voir s’il reconnaît parfois les limitations ou les cas d’utilisation appropriés de sa technologie. Les fournisseurs profondément ancrés dans le mode marketing prétendront que leur IA résout tout. Ceux qui ont une véritable technologie diront “voici ce qu’elle fait et voici où elle pourrait ne pas fonctionner aussi bien”. Par exemple, Lokad discute fréquemment de la façon dont certains modèles ne fonctionnent pas pour certains types de demande (comme pourquoi certaines approches échouent pour la demande intermittente, etc.), montrant une honnêteté intellectuelle 27 33. Nous trouvons peu de fournisseurs autres que Lokad prêts à avoir cette conversation publique nuancée. La plupart des autres s’en tiennent à des généralités roses, ce qui devrait rendre un client averti prudent.
En conclusion, la preuve tangible de la force technique - telle que les classements de compétition, les blogs techniques détaillés, ou même les discussions de la communauté des utilisateurs - est rare pour de nombreux fournisseurs de renom. Lokad est en tête en fournissant des preuves (victoire M5, explications ouvertes). D’autres comme Blue Yonder et o9 fournissent du battage médiatique avec des indices de technologie datée, ce qui remet en question leur prétendue “révolution de l’IA” 16. Un acheteur potentiel devrait exiger que les fournisseurs expliquent en termes concrets comment leurs algorithmes fonctionnent et pourquoi ils sont meilleurs - et se méfier si la réponse n’est qu’une soupe de buzzwords. La véritable valeur de l’IA/ML dans la supply chain devrait être démontrable (par exemple, “nous utilisons des arbres boostés par gradient pour capter les moteurs de demande non linéaires comme la météo et avons prouvé une amélioration de 5% par rapport à la base sur 1000 SKU” - une déclaration de cette forme est plus convaincante que “notre IA trouve des motifs cachés dans vos données”).
Cohérence et Contradictions dans les Approches des Fournisseurs
Un signe révélateur d’innovation superficielle est lorsque le message ou la méthodologie d’un fournisseur contient des incohérences internes. Nous avons cherché de telles contradictions - par exemple, prêcher sur l’incertitude mais mesurer le succès avec des métriques déterministes, ou prétendre éliminer les anciennes pratiques tout en les utilisant encore en interne. Quelques résultats notables :
-
Probabiliste vs Métriques Déterministes : Comme mentionné, ToolsGroup est coupable de cela - faisant de la publicité pour la capacité de prévision probabiliste tout en présentant les résultats en termes de réduction du MAPE (Mean Absolute Percentage Error) 13. Le MAPE est une métrique d’erreur de prévision ponctuelle ; si vous faites vraiment de la prévision probabiliste, vous parleriez de calibration, de log-vraisemblance probabiliste, de perte de flipper (pour les quantiles), ou au moins du taux de service atteint. En s’accrochant au MAPE, ToolsGroup contredit essentiellement son histoire probabiliste. Cette incohérence suggère soit que leur sortie “probabiliste” n’est qu’une prévision déterministe transformée, soit qu’il s’agit d’un habillage marketing pas profondément adopté par leur R&D.
-
Hype de la détection de la demande : De nombreux fournisseurs utilisent le terme “détection de la demande” pour laisser entendre qu’ils ont une prévision à court terme spéciale qui capte les dernières tendances (comme l’utilisation de ventes très récentes ou de signaux externes). ToolsGroup, SAP et GAINSystems ont tous utilisé ce terme. L’étude souligne que ces affirmations de “détection de la demande” sont souvent du “vaporware” non soutenu par la littérature 34. Si un fournisseur prétend “notre IA détecte les changements de demande 3 mois à l’avance”, mais ne peut pas expliquer comment (et aucune recherche évaluée par des pairs ne confirme qu’une telle chose est même possible de manière fiable), c’est un drapeau rouge. L’incohérence survient lorsque le même fournisseur utilise toujours un modèle de séries temporelles de base en dessous. Essentiellement, ils prennent une prévision de lissage exponentiel standard, puis ajoutent un ajustement de la dernière semaine et l’appellent “détection”. La contradiction : présenter une petite modification comme une percée.
-
Utilisation de KPIs déterministes : Regardez si les études de cas ou l’interface d’un fournisseur tournent toujours autour de KPIs déterministes comme le MAPE, le biais, ou le signal de suivi, même s’ils prétendent être tout au sujet de l’IA/ML. Par exemple, si un fournisseur vante l’apprentissage automatique mais que leur démo montre des planificateurs travaillant pour améliorer le MAPE de prévision ou utilisant la segmentation ABC pour définir les stocks de sécurité, c’est incohérent. Une véritable planification probabiliste basée sur l’apprentissage automatique déplacerait l’accent sur des choses comme le coût attendu, la probabilité de rupture de stock, ou d’autres mesures stochastiques - pas les classifications traditionnelles MAPE ou ABC (qui supposent une catégorisation de la demande prévisible et statique). Nous avons observé ce genre de personnalité divisée dans certains manuels d’utilisateur de grands fournisseurs : un chapitre parle du nouveau module IA, mais un autre chapitre donne toujours des instructions à l’utilisateur pour ajuster les paramètres ARIMA ou les règles de stock de sécurité.
-
Philosophie du stock de sécurité : Une contradiction philosophique significative est les fournisseurs qui parlent de gestion de l’incertitude mais qui centrent toujours leur processus sur le “stock de sécurité”. Le concept de stock de sécurité est enraciné dans une prévision déterministe + un tampon. Dans un cadre entièrement probabiliste, on calculerait plutôt un niveau de stock optimal directement à partir de la distribution de la demande et des objectifs de service (ce qui fusionne effectivement “base” et “sécurité” en une seule décision). Si un fournisseur dit “nous optimisons les stocks avec l’IA”, demandez s’ils ont toujours l’utilisateur entrer “niveau de service souhaité” pour calculer le stock de sécurité en utilisant des hypothèses de distribution normale. Si oui, ils n’ont pas vraiment évolué - ils habillent simplement l’ancien calcul de stock de sécurité dans un nouveau langage. Par exemple, l’optimisation des stocks de Blue Yonder (historiquement) calculerait le stock de sécurité en fonction de la variance et des objectifs de service - ce n’est pas une optimisation probabiliste fondamentale ; c’est une application d’une formule. Des fournisseurs comme Lokad rejettent explicitement le terme “stock de sécurité” comme obsolète, car dans une véritable optimisation stochastique, vous traitez tout le stock comme servant la distribution de probabilité de la demande, et non une partie désignée “sécurité”. Donc, si un fournisseur commercialise une “planification de nouvelle génération” mais que leur guide de solution vous fait maintenir les paramètres de stock de sécurité, c’est un problème de cohérence.
-
Magie de l’IA vs. Contrôle de l’utilisateur : Certains fournisseurs prétendent simultanément que “notre IA pilotera de manière autonome votre supply chain” et “nous donnons aux utilisateurs un contrôle total et une visibilité sur le processus de planification”. Il faut trouver un équilibre, mais des revendications trop larges peuvent entrer en conflit. Si l’IA est vraiment autonome, l’utilisateur ne devrait pas avoir besoin de la surveiller constamment ; si l’utilisateur doit constamment ajuster, alors ce n’est pas vraiment autonome. Le marketing veut souvent promettre les deux (“pilote automatique ET contrôle manuel !”) mais en réalité une solution a tendance à pencher d’un côté ou de l’autre. Nous ne pointons pas un fournisseur spécifique ici, mais nous avons remarqué des promesses génériques d’automatisation complète accompagnées de captures d’écran de dizaines de paramètres de planification que les utilisateurs doivent configurer - un message un peu mélangé.
Dans nos recherches, un exemple clair de résolution des contradictions est la façon dont Lokad se positionne par rapport au mainstream. Lokad critique explicitement des mesures comme le MAPE et des concepts comme le stock de sécurité dans son contenu éducatif, alignant sa méthodologie en conséquence (utilisation de métriques probabilistes et calcul direct des décisions) 13 33. En revanche, des fournisseurs comme GAINSystems prétendent être orientés vers l’optimisation mais mettent toujours en avant des choses comme la détection de la demande et les algorithmes de correspondance qui sont d’époques antérieures 34 - chevauchant effectivement deux chevaux. John Galt Solutions prétend qu’un algorithme de prévision propriétaire bat tous les autres, mais il est absent dans les classements indépendants et probablement pas meilleur que l’open-source selon l’examen par les pairs 20, ce qui est une contradiction entre la revendication et la preuve.
Pour résumer, lors de l’évaluation des fournisseurs, il est important de vérifier la cohérence interne : pratiquent-ils ce qu’ils prêchent ? Si un fournisseur parle beaucoup d’incertitude et d’optimisation, ses matériaux ne devraient pas glorifier simultanément les métriques déterministes ou les méthodes simplistes. Les incohérences indiquent souvent que la “nouvelle pensée” n’est que superficielle.
Pratiques obsolètes : Drapeaux rouges de la planification dépassée
La planification de la supply chain a évolué, et certaines pratiques autrefois standard sont maintenant considérées comme dépassées ou sous-optimales compte tenu des capacités modernes. Identifier si un fournisseur s’appuie encore sur de telles pratiques peut être révélateur. Voici quelques pratiques obsolètes (ou du moins “anciennes”) et comment les fournisseurs se comparent :
-
Le stock de sécurité comme béquille : Comme discuté, traiter le stock de sécurité comme un coussin séparé ajouté à une prévision est une approche plus ancienne. Ce n’est pas que le stock de sécurité est “mauvais” - vous avez toujours besoin d’un tampon pour la variabilité - mais les méthodes modernes intègrent directement la variabilité. Si la méthode principale d’un fournisseur est “prévoir en utilisant le lissage, puis calculer le stock de sécurité = z-score * sigma * racine carrée du délai”, c’est une théorie des années 1960 encore en jeu. Slimstock’s Slim4, par exemple, utilise fièrement de telles formules mainstream (stock de sécurité, EOQ) et est franc à ce sujet 35. Slimstock mérite en fait des éloges pour son honnêteté : il se concentre sur des “pratiques banales mais critiques” plutôt que de prétendre utiliser l’IA 36. Mais d’un point de vue de leadership technologique, ces pratiques sont dépassées. Lokad et Wahupa (partenaire de Kinaxis) plaideraient pour un passage à des points de réapprovisionnement/quantités optimaux calculés directement à partir de modèles probabilistes, éliminant la séparation artificielle de “stock de cycle vs stock de sécurité”. De nombreux outils hérités (SAP, Oracle, JDA plus ancien) s’appuient encore sur des paramètres de stock de sécurité partout. C’est un drapeau rouge qui indique que leurs mathématiques sous-jacentes n’ont pas beaucoup changé. Un système véritablement basé sur l’optimisation vous permettrait d’entrer le coût du stock vs le coût de la pénurie et de résoudre ensuite la politique - sans jamais appeler explicitement quelque chose “stock de sécurité”, juste en produisant un niveau de stock optimal par article.
-
MAPE et Métriques Déterministes : Se concentrer sur le MAPE, le biais, etc., comme principale mesure de succès peut être considéré comme dépassé, car ces métriques ne sont pas directement corrélées aux résultats commerciaux (vous pouvez avoir un faible MAPE mais un mauvais taux de service, par exemple) et elles ignorent l’incertitude. Les approches plus récentes privilégient des métriques comme la perte de flipper (perte de quantile) pour les prévisions ou les métriques de coût attendues pour les plans. Si le critère de succès d’un fournisseur dans les études de cas est “nous avons amélioré la précision des prévisions de 70% à 80% MAPE”, ils sont quelque peu coincés dans le passé. L’accent mis par John Galt sur les revendications de précision des prévisions est un peu dans cette veine (et a été remis en question par ses pairs) 20. Une mentalité moderne serait “nous avons réduit les ruptures de stock de X% ou les stocks de Y% pour le même taux de service” - c’est basé sur les résultats, pas seulement sur le MAPE.
-
Segmentation Heuristique (ABC, XYZ) : Les anciens processus de planification segmentent souvent les articles par volume (ABC) ou variabilité (XYZ) et appliquent différents paramètres de planification à chaque groupe. C’est une heuristique pour faire face à une puissance de calcul limitée ou à des modèles simplistes - traiter les articles A avec une approche (peut-être plus manuelle) et les articles C avec une autre (peut-être des règles min-max). Bien que la segmentation puisse toujours être utile, elle est quelque peu obsolète si vous avez la puissance de calcul pour optimiser chaque SKU individuellement et continuellement. Un système qui met fortement l’accent sur la classification manuelle ABC ou qui vous oblige à classer la demande comme “lumpy vs smooth” etc., pourrait l’utiliser comme une béquille pour ne pas avoir d’algorithmes qui gèrent automatiquement les différents modèles de demande de manière robuste. De nombreux systèmes hérités (et même certains plus récents) le font encore. Idéalement, un système piloté par l’IA apprendrait automatiquement le modèle par SKU et n’aurait pas besoin d’un humain pour le catégoriser.
-
Surcharge manuelle des prévisions en routine : La planification traditionnelle de la demande s’attend à ce que les utilisateurs modifient régulièrement les prévisions statistiques en fonction de leur jugement (intelligence marketing, etc.). Bien que l’apport humain soit précieux, si la précision d’un système est si faible que les planificateurs doivent réviser de nombreuses prévisions à chaque cycle, ce système est essentiellement une approche héritée. Les systèmes modernes visent à minimiser les surcharges en intégrant plus de données (de sorte que le modèle “sait” déjà que le marketing fait une promotion, par exemple). Un fournisseur qui met encore en avant la facilité pour les utilisateurs d’ajuster manuellement les prévisions pourrait indiquer que leur algorithme ne peut pas être utilisé en toute confiance dès la sortie de la boîte. La tendance est vers des surcharges basées uniquement sur les exceptions.
-
Dépendance aux tableurs : Si vous constatez qu’une solution d’un fournisseur pousse souvent les utilisateurs à exporter des données vers Excel pour une analyse finale ou utilise Excel comme interface (certains outils de milieu de gamme le font), c’est un signe d’une solution immature. Les outils de pointe fournissent toutes les analyses nécessaires et le support à la décision au sein de la plateforme. (Anaplan est intéressant ici : c’est essentiellement un tableur cloud sous stéroïdes, donc d’une certaine manière, il embrasse le paradigme du tableur mais dans un environnement contrôlé et multi-utilisateurs - c’est à la fois moderne et old-school à la fois).
D’après les données que nous avons recueillies : Slimstock utilise intentionnellement des méthodes plus anciennes mais éprouvées (stock de sécurité, EOQ) 35 - ils sont francs, ce qui est louable, mais ces méthodes sont sans doute obsolètes face à l’optimisation probabiliste. GAINSystems (un fournisseur moins connu mais de longue date) semble également s’en tenir aux modèles de prévision classiques et même leurs fonctionnalités ML vantées (comme “matching and clustering”) sont des techniques d’avant 2000 34, suggérant qu’il n’y a pas grand-chose de nouveau sous le capot. La revue de GAINSystems par Lokad qualifie explicitement ces méthodes de vaporware, indiquant qu’ils considèrent ces méthodes comme dépassées ou inefficaces en pratique 34.
Blue Yonder et SAP portent beaucoup d’héritage en avant - par exemple, le défaut de SAP dans de nombreuses implémentations est toujours d’utiliser ABC pour définir différents niveaux de stock de sécurité ou d’utiliser des prévisions de moyenne mobile simple pour les faibles valeurs. Si leur nouveau “IBP avec machine learning” ne révise pas ces fondamentaux, alors ils sont essentiellement du vieux vin dans une nouvelle bouteille.
La présence de métriques contradictoires (comme parler d’innovation mais utiliser le MAPE) a déjà été couverte comme une incohérence, mais c’est aussi une preuve de l’attachement aux anciennes métriques.
En conclusion, si une entreprise recherche la solution la plus avancée, elle doit se méfier de tout fournisseur dont la solution tourne encore autour des paramètres de stock de sécurité, des règles de segmentation ABC et du pourcentage de précision des prévisions comme KPI principal. Ce sont des signes que la solution est ancrée dans les pratiques du siècle dernier. Au lieu de cela, recherchez des fournisseurs qui mettent l’accent sur les niveaux de service, les coûts et les probabilités - le langage de la science moderne de la supply chain.
Prévision orientée décision : Des prédictions aux actions
Enfin, nous évaluons si chaque fournisseur produit simplement des prévisions ou aide réellement les utilisateurs à prendre des décisions optimisées basées sur ces prévisions. L’objectif final en supply chain n’est pas une jolie prévision - c’est de prendre les bonnes actions (commander, stocker, planifier) pour maximiser le service et minimiser le coût. Nous qualifions une solution de “orientée décision” si elle produit directement des recommandations comme des quantités de commande, des plans de production, ou des objectifs de stocks et si ces sorties sont optimisées compte tenu de la prévision et des contraintes/coûts pertinents. Voici comment les fournisseurs se comparent :
-
Lokad est extrêmement orienté décision. En fait, ils minimisent souvent l’importance de la prévision elle-même, insistant sur le fait que ce qui compte, c’est la décision (une philosophie implicite de “la prévision n’est bonne que si elle conduit à une bonne décision”). En utilisant Envision de Lokad, on ne s’arrête pas à la prévision de la demande ; le workflow typique de Lokad calculera, par exemple, le profit ou la pénalité attendus pour diverses décisions candidates (comme commander 100 unités vs 200 unités) sous la prévision probabiliste, puis choisira la décision qui maximise le résultat attendu. La sortie pour l’utilisateur n’est pas “la demande sera de 120” mais plutôt “commandez 130 unités” (par exemple), avec la justification (par exemple, cette quantité équilibre le risque de rupture de stock vs surstock compte tenu de la distribution de la prévision et de vos paramètres de coût). Il s’agit de véritables analyses prescriptives ou centrées sur la décision. Lokad s’assure ainsi que la prévision se traduit directement par une exécution. Il prend même en compte les contraintes (comme les MOQ, la durée de vie, les limites budgétaires) dans l’optimisation. Ainsi, Lokad répond clairement à l’exigence de transformer les prédictions en actions.
-
ToolsGroup a également une orientation décisionnelle, spécifiquement pour les décisions de stocks et de réapprovisionnement. Son outil SO99+ ne se contente pas de prévoir ; il recommande des niveaux de stocks et des points de réapprovisionnement qui atteignent les objectifs de taux de service. En pratique, une mise en œuvre de ToolsGroup donnera pour chaque SKU : “vous devriez garder X unités de stock de sécurité et réapprovisionner lorsque le stock tombe à Y, ce qui implique une commande de Z unités maintenant.” C’est une décision (quantité de réapprovisionnement) dérivée de la prévision. Ainsi, ToolsGroup a toujours été axé sur la sortie prescriptive, pas seulement prédictive. La limitation est le type de décision : il s’agit principalement de politiques de stocks (ils ont une certaine optimisation de la planification de la production, mais leur point fort est la distribution). De plus, les recommandations de ToolsGroup ne sont aussi bonnes que la façon dont l’incertitude de la prévision est modélisée (ce que nous avons critiqué). Mais crédit là où il est dû : ToolsGroup ne s’attend pas à ce que l’utilisateur prenne une prévision et décide ensuite manuellement d’une commande ; il automatise ce calcul.
-
Blue Yonder et d’autres suites héritées séparent souvent la prévision des modules de planification. Par exemple, BY Demand donne une prévision, puis BY Supply (ou Fulfillment) prend cette prévision et calcule les plans. Dans une mise en œuvre intégrée, oui, le résultat final est une recommandation de décision (comme un programme de production principal ou un plan de déploiement). Blue Yonder propose des modules d’optimisation de planification complets - par exemple, leur module Fulfillment recommandera comment réapprovisionner les centres de distribution à partir d’un entrepôt central (c’est essentiellement un moteur DRP qui utilise les prévisions et les données en main pour créer des commandes planifiées). Leur module de planification de la production peut créer une séquence de production optimisée ou un calendrier. Ainsi, BY en tant que suite couvre les décisions, mais à quel point ces décisions sont optimales ou intégrées dépend de la mise en œuvre et de l’ajustement de toutes les pièces. Historiquement, une critique était que la sortie d’un module n’était pas toujours optimale pour le suivant (par exemple, si la prévision ne tient pas compte des contraintes que la planification de l’approvisionnement rencontrera, vous obtenez des plans irréalisables). Une approche véritablement orientée vers la décision tiendrait compte de ces contraintes au moment de la prévision ou dans une optimisation unifiée. Le nouveau message de Blue Yonder sur “la supply chain autonome” implique qu’ils veulent boucler la boucle (de la prévision à la décision automatiquement), mais étant donné le mélange de technologies, il n’est pas clair à quel point cela est transparent.
-
Kinaxis est très orienté vers la décision/la sortie dans le sens où son but principal est de générer rapidement des plans d’action (plans d’approvisionnement, projections de stocks, etc.). L’utilisateur travaille généralement avec ces plans et peut confirmer ou ajuster les décisions (comme accélérer une commande ou réallouer l’approvisionnement). Avec la nouvelle addition MEIO de Kinaxis, il optimise maintenant explicitement un ensemble de décisions : les tampons de stocks (c’est-à-dire, Kinaxis peut maintenant recommander des niveaux de stocks de sécurité en équilibrant le cash vs le service 37). Auparavant, Kinaxis vous laissait simuler différents stocks de sécurité et voir les résultats, mais ne vous disait pas nécessairement le meilleur ; avec le MEIO probabiliste, il essaie de trouver le meilleur mathématiquement. Pour d’autres domaines (comme la planification de la production et de la distribution), Kinaxis utilise des heuristiques ou de l’optimisation en interne (il a des solveurs d’optimisation pour la planification et l’allocation) - mais une grande partie de la puissance de Kinaxis réside dans la simulation plutôt que dans l’optimisation stricte. C’est-à-dire, il peut simuler le résultat d’une décision de l’utilisateur extrêmement rapidement, mais il laisse souvent le choix du scénario à suivre à l’humain. En résumé, Kinaxis produit un ensemble complet d’actions recommandées (comme des commandes planifiées, des réaménagements) en temps réel - définitivement un support à la décision - mais il ne choisit pas toujours automatiquement le plan “optimal” sans intervention humaine, sauf dans des fonctionnalités spécifiques comme MEIO ou lorsque le plan est évident (par exemple, il propagera la demande aux exigences d’approvisionnement de manière déterministe).
-
o9 Solutions est également conçu pour produire des plans (qui sont des ensembles de décisions) sur la demande, l’approvisionnement, les stocks, etc. o9 dispose de moteurs d’optimisation pour certains problèmes - par exemple, la planification de l’approvisionnement avec la programmation linéaire pour minimiser les coûts ou maximiser les profits compte tenu des contraintes. C’est une partie de leur concept de “cerveau numérique” qui déterminera une allocation optimale des ressources. Cependant, tous les clients d’o9 ne l’utilisent pas de manière optimisée ; certains pourraient simplement utiliser sa plateforme pour faire de la planification collaborative (qui pourrait être essentiellement des décisions manuelles mais avec une meilleure visibilité des données). La question est de savoir si o9 prend en charge de manière native l’optimisation des décisions probabilistes ? Probablement pas fortement ; il pourrait faire une analyse de scénario (“si nous produisons 10% de plus, quel est le résultat ?”) mais pas nécessairement calculer une valeur attendue sur les scénarios. Donc, orienté vers la décision oui (il vous donne des plans de supply chain recommandés), mais optimal sous incertitude, pas clairement.
-
Relex Solutions étant axé sur le commerce de détail, sa principale production est les commandes de magasin ou de DC et les objectifs de stocks. Relex fait un bon travail en produisant directement ces décisions (il fonctionne essentiellement comme un système de réapprovisionnement automatisé compte tenu des prévisions et des paramètres). Il peut également optimiser des choses comme l’allocation d’espace de rayonnage vs stocks (avec sa nouvelle approche de planification unifiée et de planification de l’espace), qui est un compromis de décision unique au commerce de détail (par exemple, si l’espace est limité, comment équilibrer les stocks vs l’assortiment). Les décisions de Relex sont principalement guidées par des règles définies par l’utilisateur (comme les objectifs de taux de service ou les jours d’approvisionnement), mais le système gère les calculs pour produire les commandes réelles qui respectent ces règles. Il est certainement orienté vers la décision (il ne dit pas simplement “la prévision de cette semaine est de 100 unités” - il dit au détaillant de commander 50 unités de plus maintenant parce que le stock actuel est de 50 et la prévision est de 100 et le délai est tel et tel, etc.). Si quoi que ce soit, Relex pourrait errer du côté de trop tactique (il réapprovisionnera bien, mais peut-être ne considérera pas les implications à long terme du réseau - chaque nœud est optimisé localement pour son service).
Pour résumer, la prévision orientée décision est ce qui différencie un simple outil d’analyse d’une véritable solution d’optimisation de la supply chain. Tous les fournisseurs dans les rangs supérieurs visent au moins à fournir des sorties de décision, pas seulement des prévisions : c’est pourquoi nous les avons considérés dans le champ d’application (le brief de l’étude a même dit que nous excluons les outils purement transactionnels ou de prévision pure qui n’optimisent pas les décisions). Le degré d’optimalité et d’intégration de l’incertitude dans ces décisions, cependant, varie :
- Lokad et ToolsGroup lient explicitement les prévisions aux décisions en utilisant des objectifs de coût/service (Lokad via ses scripts personnalisés optimisant le coût attendu, ToolsGroup via des objectifs de taux de service produisant des décisions de stocks).
- Kinaxis et o9 génèrent des plans complets et permettent d’explorer les décisions, avec Kinaxis ajoutant plus récemment une optimisation plus formelle (optimisation des stocks, etc.).
- Blue Yonder dispose de modules d’optimisation séparés qui peuvent produire des décisions (si utilisés pleinement, on obtient un plan pour tout - mais les aligner est un travail).
- Relex automatise très bien un ensemble spécifique de décisions (réapprovisionnement), moins d’autres (comme la planification de la capacité à long terme).
Lors de l’évaluation des solutions, les entreprises devraient insister sur ce point : “Après que votre système ait fait des prévisions, quelles décisions recommandera-t-il, et comment s’assure-t-il que ce sont les meilleures décisions ?” Si un fournisseur ne peut pas répondre clairement, ou si cela semble que l’utilisateur sera laissé à interpréter manuellement les prévisions, ce fournisseur n’est probablement pas vraiment axé sur l’optimisation. Cette question met en évidence, par exemple, si une prévision ML sophistiquée se traduira réellement par une réduction des stocks ou simplement par un joli chiffre sur un graphique.
Conclusion
Dans cette étude comparative, nous avons classé et analysé les principaux fournisseurs de logiciels de planification et de prévision de la supply chain à travers un prisme technique, en privilégiant les capacités réelles sur les promesses marketing. L’évaluation a souligné que le leadership technologique dans ce domaine nécessite : une prévision avancée (de préférence probabiliste) soutenue par des preuves, une architecture évolutive et moderne, un haut degré d’automatisation, une pile technologique unifiée et bien conçue, et surtout, un accent sur la prise de décision prescriptive plutôt que sur l’analytique prédictive.
Lokad s’est imposé comme un leader de premier plan grâce à son travail de pionnier dans la prévision probabiliste et son accent radical sur l’optimisation des décisions - des attributs validés par des benchmarks externes (comme la victoire du concours M5) et une communication technique transparente 3 2. Il illustre comment le scepticisme envers les approches traditionnelles (par exemple, remettre en question la valeur de mesures comme le MAPE ou des concepts comme le stock de sécurité) peut conduire à une solution plus robuste alignée sur une économie solide 13 33.
D’autres fournisseurs comme Kinaxis et o9 Solutions investissent massivement dans l’IA/ML et ont construit des plateformes remarquablement larges, mais ils doivent encore convaincre le marché que leur “IA” est plus que superficielle et que leurs architectures évolueront sans coût exorbitant 4. Des acteurs de longue date tels que Blue Yonder (JDA) et SAP ont une riche expérience et une fonctionnalité dans le domaine de la supply chain, mais leur héritage (systèmes fragmentés issus de nombreuses acquisitions et algorithmes obsolètes) transparaît, conduisant à des contradictions et à un progrès plus lent dans l’innovation technologique 14 17. Des spécialistes de niche comme ToolsGroup et Relex offrent des solutions puissantes dans leurs domaines (optimisation des stocks et réapprovisionnement de détail, respectivement), mais chacun a ses limites - ToolsGroup doit étayer ses affirmations sur l’IA avec une technologie plus récente 11, et l’approche en mémoire de Relex peut fléchir en dehors de sa zone de confort 7.
Un schéma clair dans l’analyse est que les fournisseurs qui fournissent ouvertement des détails techniques et des résultats inspirent plus confiance que ceux qui s’appuient sur des mots à la mode. Dans un espace saturé de battage médiatique, il est crucial pour les décideurs d’exiger des preuves solides et de la cohérence. Par exemple, si un fournisseur prétend utiliser l’apprentissage automatique, demandez à voir l’impact de l’exactitude ou du coût avant et après. Si la prévision probabiliste est vantée, demandez une preuve de la façon dont elle est mesurée et utilisée dans la planification (et soyez méfiant si la réponse est embrouillée avec des mesures déterministes).
De plus, à mesure que la complexité de la supply chain augmente, la scalabilité et l’automatisation ne sont pas seulement agréables à avoir - elles sont essentielles. Les solutions encore coincées dans des pratiques manuelles de l’ère Excel ou celles qui ne peuvent pas gérer les big data sans matériel héroïque ne serviront pas bien les entreprises à long terme. Le scepticisme de l’étude envers les architectures universelles en mémoire est confirmé par les données - des approches plus distribuées et natives du cloud montrent des avantages à la fois en termes de coût et de capacité.
Enfin, le benchmark ultime pour tout logiciel d’optimisation de la supply chain est les résultats qu’il livre : des coûts de stocks plus bas, des taux de service plus élevés, une réactivité plus rapide, et des flux de travail de planification plus efficaces. Pour y parvenir, il faut plus que des mathématiques intelligentes - il faut intégrer ces mathématiques dans un processus de décision cohérent et automatisé qui s’aligne sur les réalités commerciales. Les meilleurs fournisseurs sont ceux qui bouclent la boucle entre prévision -> optimisation -> décision -> résultat de manière transparente et scientifiquement solide. Ceux qui s’accrochent à des boucles brisées (prévision en isolation, ou règles de décision divorcées de l’incertitude) sont laissés pour compte.
En conclusion, les entreprises qui évaluent les solutions de planification de la supply chain devraient jeter un regard technique et approfondi sur chaque concurrent. Coupez à travers les brochures brillantes et posez les questions difficiles que nous avons explorées : Le fournisseur fournit-il des prévisions probabilistes ou simplement des chiffres uniques ? Leur système peut-il fonctionner de manière autonome, et a-t-il été prouvé à grande échelle ? La technologie est-elle unifiée ou un amalgame de vieilles pièces ? Expliquent-ils leur “IA” en termes compréhensibles et factuels ? En insistant sur ce niveau de rigueur, on peut identifier les véritables leaders technologiques en matière d’optimisation de la supply chain - ceux capables de fournir des décisions supérieures, pas seulement de jolis tableaux de bord. Les classements et analyses présentés ici servent de point de départ, identifiant Lokad, Kinaxis, o9, Relex, ToolsGroup, et Blue Yonder (entre autres) comme des acteurs clés, chacun avec ses forces et ses mises en garde. Il incombe aux fournisseurs de justifier leurs affirmations et aux utilisateurs de rester sainement sceptiques et guidés par les preuves lors du choix du cerveau qui pilotera leur supply chain.
Notes de bas de page
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎
-
Kinaxis et Wahupa s’associent pour aider les entreprises à naviguer dans la complexité des stocks… ↩︎ ↩︎
-
Planification sous incertitude : Approches statistiques vs. probabilistes et ce que chacune offre à votre entreprise | Blog Kinaxis ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Histoire de la In-Memory Computing et de la Planification de la Supply Chain - Kinaxis ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
No1 au niveau des SKU dans le concours de prévision M5 - Conférence 5.0 ↩︎
-
No1 au niveau des SKU dans le concours de prévision M5 - Conférence 5.0 ↩︎
-
No1 au niveau des SKU dans le concours de prévision M5 - Conférence 5.0 ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Planification sous incertitude : Approches statistiques vs. probabilistes et ce que chacune offre à votre entreprise | Blog Kinaxis ↩︎
-
Planification sous incertitude : Approches statistiques vs. probabilistes et ce que chacune offre à votre entreprise | Blog Kinaxis ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Sur la Connaissance, le Temps et le Travail pour les Supply Chains - Conférence 1.7 ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’Optimisation de la Supply Chain ↩︎
-
Kinaxis & Wahupa s’associent pour aider les entreprises à naviguer dans la complexité des stocks… ↩︎