Logiciels de planification et de prévision de la chaîne d'approvisionnement, février 2025
Les logiciels de planification de la chaîne d’approvisionnement sont destinés à optimiser les décisions (quoi produire, stocker ou déplacer, et quand) dans l’incertitude - et non pas simplement enregistrer des transactions. Comme le définit une source, la chaîne d’approvisionnement est « la maîtrise quantitative mais pragmatique de l’optionnalité face à la variabilité et aux contraintes… en mettant l’accent sur le développement et le choix des options, plutôt que sur la gestion directe des opérations sous-jacentes. » 1 En d’autres termes, les meilleurs outils de planification se concentrent sur l’optimisation (par exemple, décider des niveaux de stock ou de production optimaux) plutôt que sur la gestion transactionnelle (suivi des commandes et des stocks). Cette étude compare les principaux fournisseurs mondiaux de logiciels de planification et de prévision de la chaîne d’approvisionnement, en mettant l’accent sur des preuves techniques tangibles plutôt que sur le marketing. Nous évaluons chaque fournisseur selon des critères clés :
- Prévision probabiliste - Vont-ils au-delà des prévisions ponctuelles pour fournir des distributions complètes ou des modèles avancés ? Si une prévision “IA/ML” est revendiquée, existe-t-il des preuves (comme de bonnes performances dans des compétitions mondiales de prévision telles que le M5) pour la soutenir ?
- Degré d’automatisation - Le système peut-il exécuter des prévisions et une planification sans surveillance (entièrement automatisée) sans intervention humaine constante ? Dans quelle mesure la capacité de prise de décision est-elle autonome ?
- Scalabilité et performance - La technologie gère-t-elle efficacement les données à grande échelle ? (Méfiez-vous des architectures en mémoire qui ne s’adaptent pas bien à mesure que les données augmentent et que les coûts de mémoire stagnent.)
- Intégration technologique et acquisitions - La solution est-elle construite sur une pile technologique cohérente ou un patchwork de modules acquis ? De longues histoires de fusions et acquisitions peuvent conduire à une technologie fragmentée et incohérente.
- Crédibilité technique - Les revendications technologiques du fournisseur sont-elles étayées par des principes scientifiques ou des preuves d’ingénierie ? Nous dépassons les mots à la mode (“IA/ML”, “détection de la demande”) pour des explications concrètes ou une validation par les pairs.
- Consistance et contradictions - Les messages du fournisseur sont-ils alignés ? (par exemple, revendiquer des prévisions probabilistes tout en vantant des mesures de précision déterministes comme le MAPE serait un signal d’alarme.)
- Pratiques obsolètes - Nous dénonçons les méthodes dépassées (comme les formules de stock de sécurité simplistes) qui entrent en conflit avec l’optimisation probabiliste moderne.
- Production orientée décision - Le logiciel se contente-t-il de produire des prévisions, ou délivre-t-il des décisions optimisées (plans de commande, objectifs de stock) basées sur ces prévisions ? Le véritable objectif est de prendre des décisions, pas seulement des chiffres.
Approche : Pour chaque fournisseur, nous nous appuyons sur la documentation technique publiée, les analyses réputées et (lorsqu’elles sont disponibles) les benchmarks ou compétitions ouverts pour évaluer les capacités. Le battage médiatique des fournisseurs, les rapports d’analystes payés et les études de cas attrayantes sont ignorés sauf s’ils sont vérifiés par des preuves tangibles. Le ton est délibérément sceptique - les revendications doivent être méritées par des données ou une substance d’ingénierie. Les incohérences ou le manque de transparence sont traités comme des faiblesses sérieuses.
Ci-dessous, nous classons d’abord les meilleurs fournisseurs de logiciels de planification de la supply chain en fonction de leur leadership technologique, avec une brève justification pour chacun. Après le résumé du classement, une comparaison détaillée suit, organisée selon les critères techniques ci-dessus. Toutes les déclarations sont étayées par des citations de sources crédibles (au format【source†ligne】).
Principaux fournisseurs classés par excellence technologique
-
Lokad - Optimisation probabiliste de pointe
Lokad est en tête de l’innovation technologique, pionnier de la prévision probabiliste et de la planification véritablement centrée sur la décision. Dès 2012, Lokad a défendu les prévisions probabilistes (près d’une décennie avant les autres) et a construit toute sa solution autour de cela 2. Contrairement aux fournisseurs qui traitent la prévision et la planification comme des étapes distinctes, le système de Lokad (basé sur un langage spécifique au domaine appelé Envision) produit directement des décisions optimisées (commandes, niveaux de stock) à partir de modèles probabilistes. La crédibilité technique de Lokad est exceptionnelle - elle documente ouvertement ses méthodes, et son équipe a obtenu la précision n°1 au niveau du SKU dans la prestigieuse compétition de prévision M5 (sur 909 équipes) 3. Cette victoire réelle dans la prévision granulaire souligne la puissance prédictive de pointe de Lokad. La plateforme est native du cloud et entièrement automatisée (les prévisions et les optimisations s’exécutent sans surveillance selon un calendrier), et elle évite les limitations des conceptions en mémoire en tirant parti du cloud computing évolutif. En résumé, Lokad fixe la norme avec son approche probabiliste, axée sur l’automatisation et étayée par des preuves pour l’optimisation de la supply chain. -
Kinaxis - Planification rapide en mémoire avec l’émergence de l’IA
Kinaxis est un leader bien établi connu pour son moteur de planification “concurrente” ultra-rapide. Sa plateforme RapidResponse utilise une architecture en mémoire pour permettre des simulations de scénarios en temps réel sur l’approvisionnement, la demande et les stocks. Cette conception donne aux planificateurs la capacité d’analyse de type “et si” instantanée, une force majeure en termes de réactivité. Cependant, la forte dépendance au calcul en mémoire peut entraîner des coûts matériels élevés et des limites de scalabilité à mesure que les données augmentent (les déploiements importants nécessitent une RAM massive) 4. Traditionnellement, Kinaxis se concentrait sur la planification déterministe (en exploitant des règles définies par l’utilisateur et des ajustements manuels). Reconnaissant le changement de l’industrie, Kinaxis a récemment adopté des techniques probabilistes en intégrant des acquisitions/partenariats : par exemple, il a ajouté un moteur d’optimisation probabiliste des stocks multi-échelons (MEIO) (de son partenaire Wahupa) et a acquis une entreprise d’IA pour la prévision de la demande (Rubikloud). Ces ajouts apportent des prévisions avancées et une modélisation de l’incertitude à Kinaxis, bien qu’en tant qu’extensions, ils soulèvent des questions de cohérence de la pile technologique. La communication de Kinaxis autour de l’IA et de l’apprentissage automatique est prudente par rapport à certains concurrents - elle met l’accent sur la combinaison de l’intelligence humaine et artificielle. En pratique, Kinaxis excelle dans l’automatisation du recalcul du plan (à chaque changement de données, le système peut rééquilibrer automatiquement les plans d’approvisionnement-demande), mais il reposait historiquement sur les planificateurs pour définir les paramètres et n’automatisait pas entièrement les décisions finales. Avec ses nouveaux modules probabilistes, Kinaxis se dirige vers une automatisation plus grande des décisions sous incertitude, bien que provenant d’un héritage déterministe. En résumé, Kinaxis propose une puissante plateforme de planification en temps réel et rattrape son retard en matière de prévisions basées sur l’IA, mais doit prouver que ses nouvelles fonctionnalités probabilistes sont profondément intégrées plutôt que superficielles. -
o9 Solutions - Grandes ambitions et Big Data
o9 Solutions est un nouvel entrant (fondé en 2009) souvent présenté comme un “cerveau numérique” pour la supply chain. Sur le plan technologique, o9 est extrêmement ambitieux - il a construit une plateforme étendue avec un modèle de données basé sur un graphe (Enterprise Knowledge Graph, “EKG”) et s’adresse à des ensembles de données énormes et complexes (ce qui le rend populaire auprès des grandes entreprises cherchant un outil de planification de bout en bout). Cependant, l’approche d’o9 comporte des compromis. Le système utilise apparemment une conception en mémoire, qui, tout en permettant des analyses rapides, “garantit des coûts matériels élevés” pour une utilisation à grande échelle 4. Cela soulève des préoccupations en termes de scalabilité, car jeter plus de RAM sur le problème devient coûteux et atteint finalement des limites (surtout que les prix de la mémoire ne baissent plus rapidement). o9 mise fortement sur l’IA/ML, mais il faut distinguer le fond de la forme : bon nombre de ses affirmations (par exemple, que son graphe de connaissances améliore de manière unique les prévisions) sont douteuses sans fondement scientifique 5. En fait, des analyses des éléments technologiques d’o9 disponibles publiquement sur GitHub suggèrent qu’il utilise principalement des techniques standard (rien de fondamentalement nouveau pour justifier la grande appellation “IA”) 6. o9 prend en charge la planification de scénarios probabilistes dans une certaine mesure - il peut modéliser plusieurs scénarios de demande et exécuter des simulations - mais il n’est pas clair s’il fournit de véritables distributions de prévisions probabilistes ou simplement une analyse de scénarios. La plateforme peut automatiser certaines tâches de planification, mais o9 se positionne souvent comme un support à la décision, les humains dirigeant finalement le “cerveau numérique”. Dans l’ensemble, o9 est une plateforme technologique lourde avec de larges capacités, mais sa dépendance au calcul en mémoire et le flou entourant ses affirmations en matière d’IA tempèrent son leadership technique perçu. Il est davantage un leader pour sa vision intégrée et sa gestion des big data que pour une précision de prévision unique prouvée. -
Relex Solutions - Automatisation axée sur le commerce de détail (avec des limites) Relex Solutions (fondée en 2005) est spécialisée dans la prévision de la demande, le réapprovisionnement et la planification de l’espace dans le commerce de détail. Elle s’est forgée une réputation en permettant un réapprovisionnement automatisé des magasins - plusieurs grandes enseignes de distribution utilisent Relex pour prévoir automatiquement la demande au niveau du magasin et générer des commandes avec une intervention humaine minimale. Cette automatisation de bout en bout dans un environnement de vente au détail exigeant est une force notable. Relex met également en avant des techniques de prévision modernes basées sur l’apprentissage automatique, adaptées au commerce de détail (tenant compte des promotions, des événements locaux, etc.). Cela dit, un examen approfondi révèle certaines limites architecturales et méthodologiques. Le système de Relex utilise une conception de cube de données en mémoire de type OLAP 7 pour fournir des analyses et des rapports très rapides. Bien que cela permette d’avoir des tableaux de bord réactifs, cela fait augmenter les coûts matériels et ne résout pas intrinsèquement les problèmes d’optimisation complexes. En fait, l’approche en temps réel et granulaire de Relex peut entrer en conflit avec l’optimisation à l’échelle du réseau - elle peut avoir du mal à coordonner de manière optimale les décisions à travers un vaste réseau d’approvisionnement lorsqu’elle est confrontée à des phénomènes tels que la cannibalisation ou les substitutions de produits 8. Il y a aussi des signes indiquant que les modèles de prévision de Relex ne sont pas aussi “nouvelle génération” que ce qui est annoncé - des preuves suggèrent que leur approche repose largement sur des méthodes antérieures à l’an 2000 (par exemple la régression, le lissage des séries temporelles) 9, bien que cela soit appliqué à grande échelle. Ils se vantent souvent d’une disponibilité en stock de plus de 99 % pour les détaillants, mais des enquêtes sectorielles (par exemple, par des associations ECR) montrent que la disponibilité typique en rayon est plus faible, remettant en question de telles affirmations générales 10. Relex dispose d’une pile technologique principalement cohérente (développée en interne pour le commerce de détail) et n’a pas grandi par le biais de grandes acquisitions, ce qui est bon pour la cohérence. En résumé, Relex est un leader de l’automatisation dans le commerce de détail et peut permettre des opérations impressionnantes sans intervention humaine, mais sa profondeur technique en matière de science de la prévision est discutable, et une architecture en mémoire signifie qu’elle partage les préoccupations en termes de scalabilité des autres.
-
ToolsGroup - Précurseur maintenant vantant l’“IA” ToolsGroup (fondé en 1993) propose le logiciel SO99+, historiquement connu pour la prévision axée sur le taux de service et l’optimisation des stocks. Des années avant que l’“IA” ne devienne un mot à la mode, ToolsGroup a contribué à populariser les concepts probabilistes en supply chain - par exemple, modéliser la variabilité de la demande pour déterminer les stocks de sécurité nécessaires pour atteindre un niveau de service souhaité. En pratique, leur outil peut produire une distribution de probabilité de la demande (surtout pour les articles à rotation lente) et calculer des objectifs de stocks pour atteindre un taux de remplissage cible. Cependant, ces dernières années, le discours de ToolsGroup s’est tourné vers l’engouement pour l’IA/ML, et c’est là que les failles de crédibilité apparaissent. Ils font beaucoup de publicité pour la planification “alimentée par l’IA”, mais des indices publics laissent entendre que leurs algorithmes de base sont toujours essentiellement des modèles statistiques hérités (d’avant 2000) 11. Notamment, depuis environ 2018, ils ont commencé à qualifier leur production de “prévisions probabilistes” tout en se vantant simultanément d’améliorations du MAPE 12 - une incohérence flagrante, car le MAPE (une métrique d’erreur de prévision déterministe) « ne s’applique pas aux prévisions probabilistes » 13. Cela suggère soit une incompréhension, soit une manœuvre marketing (par exemple, ils génèrent peut-être des prévisions probabilistes mais les évaluent toujours en comparant la médiane aux valeurs réelles avec le MAPE - ce qui passe à côté du point des méthodes probabilistes). ToolsGroup met également en avant la “détection de la demande” pour des ajustements de prévision à court terme, mais de telles affirmations ne sont pas étayées par la littérature scientifique 13 et se résument souvent à des moyennes mobiles reconditionnées. Du côté positif, la solution de ToolsGroup est assez complète en matière de planification de la supply chain (couvrant la prévision de la demande, l’optimisation des stocks, le S&OP, etc.) et peut être exécutée en mode lights-out (générant automatiquement des propositions de réapprovisionnement chaque nuit). Son focus sur l’optimisation (atteindre les objectifs de service avec un stock minimal) est en phase avec une prévision orientée vers la prise de décision. Mais le récent positionnement d’IA de l’entreprise sans preuves techniques claires, ainsi qu’une architecture qui pourrait ne pas être moderne et native du cloud (probablement plus orientée vers un seul serveur), laissent à désirer en termes de leadership technologique. En résumé, ToolsGroup est un acteur éprouvé dans la modélisation probabiliste des stocks, mais a besoin de plus de transparence pour étayer ses nouvelles revendications en matière d’IA et s’assurer que ses méthodes n’ont pas stagné.
-
Blue Yonder - Puissant héritage, technologie patchwork
Blue Yonder (fondé en 1985 sous le nom de JDA Software, rebaptisé après l’acquisition d’une petite entreprise d’IA nommée Blue Yonder) est un géant de la planification de la supply chain. Il propose des solutions pour la planification de la demande, la planification de l’approvisionnement, le commerce de détail, et bien plus encore. Au fil des décennies, Blue Yonder (BY) a accumulé un large portefeuille via de nombreuses acquisitions - de Manugistics (optimisation de la supply chain) aux éléments de i2 Technologies, et plus récemment la start-up Blue Yonder AI. Le résultat est une “collection disparate de produits, la plupart datés”, même s’ils sont sous une seule marque 14. Technologiquement, les modules hérités de Blue Yonder (comme la Prévision de la demande ou l’Exécution) utilisent souvent des techniques plus anciennes (par exemple, la prévision heuristique, la planification basée sur des règles avec des stocks de sécurité). La société met maintenant en avant l’ “IA/ML” dans son marketing, mais les revendications ont tendance à être vagues et peu substantielles 15. Un indice révélateur : Blue Yonder n’a que quelques projets open source sur GitHub (par exemple, tsfresh, PyDSE, Vikos), qui suggèrent les approches de prévision sous-jacentes - il s’agit principalement de méthodes traditionnelles comme l’extraction de caractéristiques + modèles ARIMA/régression linéaire 16, plutôt que des modèles de deep learning de pointe ou probabilistes. En d’autres termes, l’ “IA” de BY est probablement plus un effet de mode qu’une percée. La cohésion de la plateforme est une préoccupation - la planification, le réapprovisionnement et l’optimisation des stocks peuvent exister en tant que moteurs séparés qui ne fonctionnent pas de manière transparente comme un seul (l’intégration repose sur un effort de mise en œuvre important). Blue Yonder possède cependant des capacités d’optimisation très solides dans des domaines spécifiques (par exemple, leurs anciens algorithmes i2 pour l’optimisation du réseau de la supply chain, s’ils sont modernisés, peuvent être puissants). Et de nombreuses grandes entreprises utilisent Blue Yonder pour automatiser les tâches de planification (par exemple, générer des prévisions qui alimentent un processus MRP, définir des niveaux de stock de sécurité, etc., les planificateurs ajustant par exception). Cependant, par rapport aux nouveaux leaders technologiques, Blue Yonder semble techniquement stagnant : il se limite largement à la prévision déterministe (souvent mesurée par d’anciennes métriques comme le MAPE ou le biais), utilise des pratiques obsolètes comme les formules de stock de sécurité comme élément central de la planification, et ne fait que superposer légèrement des termes d’IA. Avec ses ressources, Blue Yonder pourrait évoluer, mais pour l’instant il illustre le compromis d’un grand fournisseur : une fonctionnalité étendue mais une pile technologique fragmentée et vieillissante 14. Nous le classons en dessous de concurrents plus visionnaires d’un point de vue technologique.
(Autres fournisseurs notables : SAP IBP et Oracle SCM Cloud proposent également des suites de planification de la supply chain, mais il s’agit principalement d’extensions de leurs systèmes ERP transactionnels. Ils héritent d’une dette technique et d’une complexité significatives des systèmes et acquisitions hérités. Par exemple, l’offre de planification de SAP est un mélange de composants comme SAP APO, SAP HANA, plus des outils acquis (SAF pour la prévision, SmartOps pour les stocks) - essentiellement “une collection de produits” nécessitant beaucoup d’efforts d’intégration 17. Ces solutions liées aux ERP, bien que puissantes à certains égards, ne sont généralement pas des leaders en science de la prévision ou en automatisation, elles sont donc exclues des premières places.)
Après avoir présenté les principaux fournisseurs, nous nous plongeons maintenant dans une analyse critère par critère, mettant en évidence la manière dont chaque fournisseur se positionne en matière de prévision probabiliste, d’automatisation, de scalabilité, etc., en mettant l’accent sur les preuves et les exemples. Cette vue comparative met en lumière les forces et les faiblesses de chaque solution en profondeur.
Prévision Probabiliste : Au-delà des Modèles Déterministes
L’optimisation moderne de la supply chain bénéficie énormément de la prévision probabiliste - estimant une gamme ou une distribution de résultats possibles (avec des probabilités), plutôt qu’un seul chiffre “le plus probable”. Les prévisions probabilistes capturent mieux la variabilité de la demande, permettant des décisions plus robustes (par exemple, connaître la probabilité d’une rupture de stock si vous avez X unités en stock). Nous avons examiné quels fournisseurs adoptent véritablement des méthodes probabilistes par rapport à ceux qui restent fidèles aux prévisions déterministes. Principales conclusions :
-
Lokad se distingue par son intégration profonde de la prévision probabiliste. Il a été précoce à promouvoir les modèles probabilistes (depuis 2012) 2 et a continuellement amélioré cette capacité. L’approche de Lokad utilise des distributions de demande probabilistes comme base pour toutes les optimisations - par exemple, calculer le profit attendu de diverses quantités de stock en intégrant la distribution de la demande. La crédibilité de la technologie de prévision de Lokad est confirmée par des compétitions mondiales : une équipe de Lokad a obtenu la meilleure précision au niveau du SKU dans la compétition de prévision M5 3, un défi de référence très respecté. Importamment, M5 portait entièrement sur la prévision probabiliste (les classements étaient basés sur des métriques d’erreur de distribution pondérées), et la performance de Lokad indique que ses méthodes sont vraiment à la pointe pour générer des distributions de probabilité précises à un niveau granulaire. En pratique, Lokad ne produit pas seulement un chiffre mais une distribution complète de probabilité (ou des scénarios) pour la demande de chaque article, qui alimente directement les scripts d’optimisation des décisions.
-
ToolsGroup, à son crédit, propose depuis des années des fonctionnalités probabilistes dans le contexte de l’optimisation du taux de service. Leur logiciel peut créer une distribution de demande explicite (souvent via un modèle de demande intermittente ou autre ajustement statistique) puis calculer des objectifs de stock pour atteindre une probabilité de service souhaitée. Cependant, il y a une différence entre avoir un modèle probabiliste sous le capot et l’embrasser pleinement dans l’esprit. Le marketing de ToolsGroup en 2018+ suggère une tentative de se repositionner en tant que leader de la prévision probabiliste, mais ils ont sapé cela en parlant simultanément d’améliorations MAPE aux côtés des prévisions probabilistes 13. C’est une contradiction - si l’on prévoit vraiment une distribution, on ne mesurerait pas principalement le succès par MAPE (qui suppose un seul chiffre “correct”). Le fait qu’ils s’appuient toujours sur des mesures déterministes indique qu’ils pourraient encore générer des prévisions ponctuelles et utiliser des distributions uniquement pour simuler les besoins en stock. Ainsi, bien que ToolsGroup ait des capacités probabilistes, la sophistication de ces méthodes pourrait ne pas être à la pointe, et dans quelle mesure ils sont pleinement engagés dans le probabiliste par rapport à simplement l’utiliser comme un ajout est incertain.
-
Kinaxis n’a historiquement pas fourni de prévisions probabilistes dans son offre principale (il s’appuyait sur des prévisions ponctuelles saisies par les utilisateurs ou générées via des statistiques simples). Reconnaissant cette lacune, Kinaxis s’est associé à Wahupa pour intégrer un moteur d’optimisation des stocks multi-niveaux probabiliste (MEIO) 18. De plus, Kinaxis a acquis une entreprise d’IA (Rubikloud) spécialisée dans la prévision de la demande par apprentissage automatique (probablement probabiliste par nature, par exemple en produisant des intervalles de prédiction). En 2023, Kinaxis a commencé à commercialiser “Planning.AI” ou des capacités similaires, reconnaissant explicitement la nécessité d’“embrasser l’incertitude” et d’utiliser la science des probabilités dans la prise de décision 19. Il s’agit d’un développement positif, mais étant donné que c’est relativement récent, la maturité de Kinaxis en matière de prévisions probabilistes est encore en évolution. Nous n’avons pas vu Kinaxis ou ses associés participer à des compétitions de prévisions publiques ou publier de méthodologie détaillée, donc la preuve technique de leur expertise en prévisions probabilistes est limitée à ce qu’ils revendiquent.
-
o9 Solutions met également l’accent sur la modélisation de l’incertitude en concept - leur graphe de connaissances peut stocker de nombreux facteurs causaux, et ils prétendent générer de meilleures prédictions en liant les données. Mais encore une fois, nous ne trouvons aucune preuve publique qu’o9 fournit des prévisions probabilistes en pratique (pas de benchmarks de précision publiés ou d’algorithmes ouverts). La mention de réseaux bayésiens ou de Monte Carlo dans leurs documents est rare. Les éléments découverts dans les dépôts de code d’o9 semblent se concentrer sur des techniques de prévision typiques plutôt que sur des algorithmes probabilistes novateurs 6. Jusqu’à ce qu’o9 démontre le contraire, nous devons supposer qu’il fournit principalement des prévisions améliorées déterministes (peut-être avec une analyse de scénario), et toute étiquette “probabiliste” peut être davantage liée au marketing.
-
Relex Solutions traite du commerce de détail où la variabilité (surtout pour les promotions ou les produits frais) est élevée. Ils utilisent probablement quelques approches probabilistes en interne (par exemple, pour estimer la distribution de la demande pour les produits promus, ou pour calculer les besoins en stock de sécurité par magasin avec un niveau de service cible). Cependant, les documents publics de Relex ne mettent pas explicitement en avant la “prévision probabiliste”; ils parlent davantage de l’amélioration de la précision des prévisions par l’apprentissage automatique (sous-entendant généralement de meilleures prévisions ponctuelles). L’évaluation par les pairs de Relex indique que leur technologie de prévision semble dater d’avant 2000 9, ce qui signifie probablement qu’ils utilisent principalement des méthodes déterministes comme le lissage exponentiel, peut-être avec saisonnalité et tendance - des techniques qui génèrent des prévisions ponctuelles et peut-être un écart type pour le stock de sécurité. Ainsi, Relex peut encore s’appuyer sur l’ancien paradigme : prévoir puis ajouter une marge, plutôt que de fournir une courbe de probabilité complète à l’utilisateur.
-
Blue Yonder dans sa planification de la demande traditionnelle utilise une variété de modèles statistiques (ARIMA, lissage exponentiel, peut-être un peu d’apprentissage automatique pour les facteurs causaux) pour produire des prévisions, généralement agrégées et avec un processus de consensus - fondamentalement déterministes. Blue Yonder a commencé à mentionner des termes probabilistes dans certains contextes (puisque tout le monde le fait), mais étant donné que leurs contributions open-source montrent une dépendance à l’ARIMA et à la régression 16, on peut dire en toute sécurité que la prévision probabiliste n’est pas une force. Ils encouragent également toujours des métriques comme le MAPE, le biais, etc., qui sont déterministes. Nous n’avons pas vu Blue Yonder participer à des benchmarks de prévisions connus non plus.
-
Autres fournisseurs : John Galt Solutions commercialise un algorithme “Procast” affirmant une précision supérieure, mais une critique a noté que cette affirmation est douteuse puisque Procast était absent des premiers rangs des grandes compétitions de prévisions comme M5 20. En fait, des outils de prévision open-source facilement disponibles (par exemple, Prophet ou les packages R de Hyndman) ont probablement des performances aussi bonnes, voire meilleures 21. Cela met en évidence un thème commun : l’innovation réelle se manifeste là où il y a une évaluation ouverte. L’absence de la plupart des fournisseurs (à part Lokad) des compétitions publiques suggère que beaucoup ne sont pas vraiment en avance sur le monde universitaire ou open-source en matière de prévisions - s’ils l’étaient, ils le prouveraient dans ces forums.
En résumé, la prévision probabiliste est un différenciateur : Lokad mène clairement avec une expertise démontrée et des décisions probabilistes entièrement intégrées. ToolsGroup et Kinaxis reconnaissent son importance mais l’ont seulement récemment incorporée (et doivent aligner leurs métriques et processus avec elle pour être convaincants). D’autres restent largement dans un monde déterministe, même s’ils parsèment leurs brochures de termes comme “stochastique”. Cette distinction est importante, car sans des prévisions probabilistes authentiques, un système de planification recourra à des stocks de sécurité rudimentaires et ne pourra pas équilibrer de manière optimale les risques et les coûts.
Degré d’automatisation : Planification sans intervention humaine vs. Humain dans la boucle
L’automatisation dans la prévision et la planification fait référence à la capacité du système à exécuter l’ensemble du processus - ingestion des données, génération de prévisions, optimisation du plan, et même exécution des décisions - sans intervention manuelle, à part la surveillance et l’ajustement occasionnel des paramètres. Une automatisation élevée est cruciale pour les opérations à grande échelle (où ajuster manuellement des milliers de prévisions est irréalisable) et pour répondre rapidement aux changements (les robots réagissent plus rapidement que les humains). Nous avons évalué dans quelle mesure chaque solution peut être automatisée et si elle prend en charge les exécutions de planification “non surveillées” (et si les clients l’utilisent effectivement de cette manière). Les observations incluent :
-
Lokad est conçu en gardant à l’esprit l’automatisation. Son environnement de script Envision permet de coder et de planifier l’ensemble de la logique de prévision et de réapprovisionnement. De nombreuses implémentations de Lokad fonctionnent sur une base entièrement robotisée, où chaque jour ou chaque semaine, le système importe automatiquement de nouvelles données, recalcule les prévisions, optimise les décisions (par exemple, génère des quantités de commande ou des plans d’allocation) et les transmet au système ERP ou d’exécution - le tout sans ajustement humain. La philosophie est que si les modèles sont correctement configurés, les remplacements manuels devraient être minimes, et les planificateurs peuvent se concentrer sur les exceptions ou les améliorations du modèle plutôt que sur les ajustements de routine. Les histoires à succès de Lokad mettent souvent en avant la réduction drastique de la charge de travail des planificateurs grâce à cette automatisation. Fondamentalement, Lokad traite les planificateurs plus comme des data scientists ou des superviseurs du processus, et non comme des personnes ajustant manuellement les paramètres de planification quotidiennement.
-
Relex Solutions permet également un haut degré d’automatisation, notamment en matière de réapprovisionnement. Par exemple, pour les détaillants d’alimentation, Relex peut générer automatiquement des commandes de magasin chaque jour en tenant compte des prévisions, des stocks disponibles et des délais de livraison. Certains détaillants utilisant Relex font confiance au point que la grande majorité des commandes partent automatiquement, les planificateurs ne faisant que passer en revue les suggestions hors normes. Le système de Relex prend en charge les flux de travail pour les exceptions (par exemple, il peut signaler si une prévision est très différente de la normale, puis un humain la vérifie), mais sinon il est conçu pour exécuter automatiquement la planification de la demande et les commandes. C’est un point de vente clé dans le commerce de détail où l’échelle (des millions de combinaisons SKU-magasin) rend la planification manuelle impossible. Cependant, il convient de noter que pour atteindre cette automatisation, des modèles stables et matures ainsi qu’une focalisation étroite (par exemple, les produits d’épicerie de base) sont souvent nécessaires. Dans une planification de fabrication multi-échelons plus complexe, Relex est moins présent. Néanmoins, dans son domaine, Relex prouve que la prévision et le réapprovisionnement sans surveillance sont réalisables, bien que dans le cadre de ses contraintes d’architecture en mémoire.
-
Kinaxis offre l’automatisation dans le recalcul - sa concurrence signifie que chaque fois que les données changent, les changements peuvent se propager à travers le modèle de la chaîne d’approvisionnement (nomenclature, stocks, capacités) pour mettre à jour automatiquement tous les plans dépendants. Il s’agit d’une forme d’automatisation (éliminant le besoin de relancer manuellement des cycles de planification séparés pour chaque niveau). Cependant, Kinaxis s’attend traditionnellement à ce que les planificateurs soient en partie impliqués : ils mettent en place des scénarios, examinent les résultats et décident quel scénario valider. Kinaxis peut automatiser les décisions de routine via son système d’alerte (par exemple, approuver automatiquement un plan si les stocks sont au-dessus d’un seuil), mais il est généralement utilisé comme un outil de support à la décision plutôt que comme un pilote automatique “sombre”. Cela dit, avec l’intégration de l’IA et des prévisions plus avancées, Kinaxis tend vers une prise de décision plus automatisée. Par exemple, son nouveau MEIO peut rééquilibrer automatiquement les tampons de stock à travers les échelons à chaque cycle de planification, que l’utilisateur pourrait accepter sauf si quelque chose semble incorrect. La société investit également dans ce qu’elle appelle des “chaînes d’approvisionnement auto-guérissantes”, impliquant une plus grande autonomie. Cependant, étant donné sa clientèle (souvent aérospatiale, automobile, etc., où les planificateurs sont prudents), une planification entièrement automatisée n’est pas la norme pour les déploiements de Kinaxis.
-
o9 Solutions est généralement déployé en tant que plateforme de planification où les utilisateurs (planificateurs, responsables de la demande, etc.) interagissent beaucoup - ajustant les prévisions, collaborant sur les plans S&OP, exécutant des scénarios. Il a certainement la capacité technique d’automatiser les calculs (vous pouvez par exemple configurer des mises à jour récurrentes des prévisions), mais la philosophie d’o9 penche plutôt vers l’augmentation des planificateurs humains avec des insights IA plutôt que de les remplacer. Le terme marketing “jumeau numérique de l’organisation” suggère qu’il reflète votre supply chain dans le logiciel; mais un miroir reflète généralement ce que vous faites - il ne décide pas indépendamment. Nous n’avons trouvé aucune preuve d’une entreprise utilisant o9 de manière entièrement autonome; c’est plutôt un outil qui fournit un modèle de données unique et des analyses pour faciliter la planification interfonctionnelle. L’automatisation est axée sur l’intégration (automatisation des flux de données entre les modules) plus que sur l’automatisation des décisions.
-
ToolsGroup a traditionnellement proposé une approche de planification “à faible intervention”. Leur outil SO99+ peut être configuré pour générer automatiquement des prévisions statistiques pour chaque SKU, puis calculer les objectifs de stocks et même suggérer des commandes de réapprovisionnement. De nombreuses entreprises de taille moyenne l’ont effectivement utilisé pour générer automatiquement des bons de commande ou des propositions de production, les planificateurs ne faisant que passer en revue les exceptions (par exemple, lorsque le système est incertain en raison de circonstances inhabituelles). Le niveau d’automatisation atteint dépend de la confiance dans les recommandations du système. ToolsGroup souligne souvent que leur approche probabiliste conduit à des recommandations de stocks plus fiables, ce qui rend les entreprises plus à l’aise pour automatiser davantage les commandes. Cependant, si les modèles de ToolsGroup ne sont pas correctement réglés, les utilisateurs pourraient les outrepasser en grande partie. En termes de capacité technique, ToolsGroup peut certainement fonctionner en mode batch non surveillé pour la prévision et la planification initiale. Mais il pourrait ne pas gérer le repositionnement en temps réel aussi bien que quelque chose comme Kinaxis (il est plus orienté vers la planification nocturne en mode batch).
-
Blue Yonder (JDA) a des composants comme ESP (Enterprise Supply Planning) et Fulfillment qui peuvent automatiquement libérer des commandes d’approvisionnement ou des recommandations de transfert de stocks basées sur les prévisions et les politiques de stocks. De nombreux utilisateurs de Blue Yonder se fient effectivement aux sorties générées automatiquement : par exemple, le système pourrait créer automatiquement des commandes de distribution pour reconstituer les entrepôts régionaux aux niveaux de stocks cibles. Le module Demand de Blue Yonder peut générer automatiquement des prévisions de base chaque semaine ou chaque mois. Cependant, historiquement, les implémentations de JDA/Blue Yonder impliquent beaucoup de flux de travail humain : les planificateurs de la demande ajustent les prévisions, les planificateurs de l’approvisionnement examinent les commandes recommandées par le système, etc. Le logiciel prend en charge l’automatisation mais n’encourage pas nécessairement une mentalité “sans intervention” - c’est plutôt un établi du planificateur. De plus, compte tenu de la nature morcelée de la suite BY, réaliser une automatisation de bout en bout pourrait nécessiter des efforts d’intégration importants (s’assurer que le plan de demande passe au module de planification de l’approvisionnement, qui passe à l’exécution sans intervention manuelle peut être délicat). Donc, bien que techniquement faisable, dans la pratique, les sites Blue Yonder ont souvent beaucoup de supervision humaine sur les plans.
En résumé, la capacité d’automatisation est présente dans tous les principaux outils à des degrés divers, mais la philosophie et l’utilisation pratique diffèrent. Lokad et Relex se distinguent par leur volonté de repousser les limites de la planification vraiment autonome dans leurs niches respectives (Lokad permettant des “pilotes automatiques de la chaîne d’approvisionnement entièrement scriptés” pour diverses industries, et Relex le faisant dans le secteur de la vente au détail). Les grands fournisseurs traditionnels traitent l’automatisation de manière plus prudente, laissant souvent le planificateur responsable des décisions finales. Cela est parfois dû à des problèmes de confiance - si les prévisions d’un système ne sont pas très fiables, les utilisateurs ne le laisseront pas fonctionner en pilote automatique. Cela souligne que l’automatisation n’est aussi bonne que l’intelligence qui la sous-tend : une raison clé pour laquelle des outils probabilistes et orientés vers la prise de décision sont nécessaires est de rendre l’automatisation viable (le système doit prendre de bonnes décisions de lui-même). Lors de l’évaluation des fournisseurs, les entreprises devraient se demander : Ce système peut-il fonctionner seul pendant un mois et maintenir ou améliorer nos performances ? Les meilleures technologies approchent d’un “oui” à cette question, tandis que d’autres nécessitent encore fondamentalement une surveillance manuelle.
Scalabilité et Performance : L’Architecture Compte
La planification de la chaîne d’approvisionnement doit souvent traiter de big data (grand nombre de références, de magasins, de commandes, de signaux IoT, etc.) et de calculs complexes (optimisation à travers de nombreuses variables). L’architecture sous-jacente de chaque solution - qu’il s’agisse de mémoire ou de distribution, de la manière dont elle gère l’augmentation des volumes de données - impacte directement sa scalabilité et ses performances. De mauvais choix architecturaux peuvent entraîner soit des performances médiocres, soit des coûts matériels exorbitants (ou les deux), surtout lorsque l’entreprise se développe. Points clés sur la scalabilité pour les fournisseurs :
-
Mémoire vs. Distribution : Un thème majeur est la différence entre les solutions qui chargent la plupart des données en RAM pour une computation rapide par rapport à celles qui utilisent une computation plus distribuée, à la demande (style cloud). Kinaxis, o9, Relex et SAP IBP ont tous une composante importante en mémoire. Le moteur de Kinaxis a été construit sur l’idée que toutes les données de planification pertinentes se trouvent en mémoire pour un recalcul instantané - ce qui fonctionne bien jusqu’à un certain point, mais l’extension au-delà de quelques téraoctets de données en mémoire devient extrêmement coûteuse et techniquement difficile. O9 et Relex “garantissent des coûts matériels élevés” en raison de la conception en mémoire 4 7 - en effet, l’utilisateur paie pour des serveurs ou des clusters très volumineux avec une RAM massive. Cette approche avait des mérites il y a 10-20 ans lorsque la mémoire était bon marché et les tailles de données plus modestes, mais les prix de la mémoire se sont stabilisés et la complexité des données a augmenté, rendant cette stratégie moins pérenne. En revanche, Lokad est entièrement basé sur le cloud et ne nécessite pas de stocker toutes les données en RAM. Il exploite la computation à la demande (par exemple, en traitant les chiffres en parallèle sur de nombreuses machines lorsque cela est nécessaire, puis en les libérant). Cela signifie qu’il peut s’adapter à des problèmes très volumineux en ajoutant des nœuds de calcul plutôt qu’en atteignant un plafond de RAM sur une seule machine. La conception native cloud de Lokad fait également un usage intensif du disque et du réseau lorsque cela est approprié, en accord avec les tendances modernes du big data (où le stockage et le calcul distribués, comme les paradigmes de map-reduce, gèrent l’échelle).
-
Performance à grande échelle: Les anciens modules de Blue Yonder (comme APO de SAP, ou l’héritage propre de JDA) rencontraient parfois des difficultés avec de grands cas de problèmes, nécessitant une agrégation ou une segmentation des données pour fonctionner. Les nouvelles versions cloud (BY Luminate) ont probablement amélioré cela avec une meilleure gestion de la mémoire et peut-être une mise à l’échelle élastique, mais les preuves sont rares. SAP IBP utilise HANA (base de données colonne en mémoire); il peut gérer de grandes données mais à un coût d’infrastructure très élevé et a souvent besoin d’agrégation de données à certains niveaux pour que les exécutions de planification se terminent en temps voulu. La planification d’Oracle utilise une base de données relationnelle en backend qui peut décharger certaines données sur le disque mais pourrait être plus lent par calcul (cependant, Oracle tire parti de son accordage de base de données). ToolsGroup traitait généralement des ensembles de données de taille moyenne (des milliers à des dizaines de milliers de références) sur des serveurs uniques; les performances pourraient se dégrader avec un très grand nombre de références, sauf si le calcul est soigneusement limité (par exemple, en se concentrant sur les éléments d’intérêt). Ils sont récemment passés à des offres cloud qui peuvent probablement être mises à l’échelle, mais il n’est pas clair si les algorithmes de base ont été refactorisés pour le calcul distribué ou simplement hébergés sur de gros VM.
-
Approches défectueuses: La faille de conception de “l’in-memory design” mérite d’être soulignée. Plusieurs fournisseurs ont adopté l’approche de modéliser l’ensemble de la supply chain dans un seul modèle résident en mémoire (semblable à un cube OLAP ou une feuille de calcul géante en mémoire). Cela offre une grande rapidité pour les petits à moyens cas, mais cela ne s’échelonne pas de manière linéaire - vous ne pouvez pas facilement le distribuer, et l’ajout de plus de données peut entraîner une explosion combinatoire des besoins en mémoire. L’étude des fournisseurs de Lokad souligne explicitement cela pour o9 et Relex: leur conception “fournit des rapports en temps réel impressionnants” mais entraîne intrinsèquement une augmentation des coûts matériels et ne s’harmonise pas bien avec les problèmes d’optimisation globale 7. De même, la littérature de Kinaxis reconnaît indirectement des limitations: par exemple, une ancienne documentation de Kinaxis notait que les systèmes 32 bits avec ~4 Go de RAM étaient un facteur limitant à l’époque, et bien que maintenant le 64 bits permette davantage, ce n’est pas infini 22. Le problème fondamental est que les données ont augmenté plus rapidement que les capacités de RAM. Si un détaillant souhaite planifier au niveau magasin-SKU-jour pour 2 000 magasins et 50 000 SKUs, cela représente 100 millions de séries temporelles - un cube en mémoire de cette taille (avec l’historique et les périodes futures) pourrait pousser des dizaines de milliards de cellules, ce qui est impraticable. Une approche distribuée qui traite magasin par magasin ou partitionne intelligemment est plus évolutive.
-
Concurrence vs. Batch: Le point de vente de Kinaxis est la concurrence (tout recalculé en même temps en mémoire). C’est idéal pour une utilisation interactive mais signifie que vous avez besoin de ce modèle complet prêt en mémoire. Les systèmes orientés lot (comme une exécution nocturne Lokad, ou même l’approche de ToolsGroup) peuvent s’échelonner en divisant la tâche (par exemple, prévoir chaque SKU séparément, ce qui est parallèle de manière embarrassante). Envision de Lokad, par exemple, peut diviser les problèmes en sous-problèmes qui s’exécutent en parallèle sur le cloud - vous échangez l’interactivité en temps réel contre la scalabilité et la puissance brute. Selon les besoins de l’entreprise, l’un ou l’autre est préférable. Mais si l’objectif est le meilleur plan possible, un processus par lot qui parcourt d’énormes espaces de scénarios pendant la nuit pourrait battre un calcul en temps réel simplifié.
Conclusion: Des solutions telles que la plateforme cloud de Lokad sont conçues pour évoluer horizontalement et gérer des volumes de données massifs sans rencontrer de limites, tandis que les solutions centrées sur la mémoire (Kinaxis, o9, Relex, SAP) risquent des goulots d’étranglement en termes de scalabilité et des coûts exponentiels à mesure que la complexité des données augmente. Les entreprises évaluant ces solutions devraient soigneusement considérer la taille de leurs données de supply chain et leur trajectoire de croissance. Il est révélateur que certaines nouvelles startups de planification “IA” évitent délibérément les monolithes en mémoire, préférant utiliser des microservices ou des frameworks big data. De plus, une mise en garde : l’optimisation des performances revient souvent à l’équipe de mise en œuvre - si un fournisseur exige une agrégation importante ou une réduction des données pour que le modèle rentre en mémoire, c’est un signal d’alerte en termes de scalabilité. La technologie vraiment évolutive gérera des données granulaires sans vous obliger à les simplifier.
Intégration technologique et acquisitions : Plateformes unifiées vs. Franken-suites
L’histoire d’un fournisseur - qu’il ait construit sa solution de manière organique ou étendu via des acquisitions - affecte grandement la cohérence et l’intégration de la technologie. Lorsqu’une suite de planification est composée de nombreuses pièces acquises, cela se traduit souvent par l’utilisation de différentes bases de données, interfaces utilisateur ou même langages de programmation pour différents modules, rendant le produit global moins cohérent. Nous avons examiné l’histoire de chaque fournisseur :
-
Blue Yonder (JDA) est l’un des exemples les plus clairs de croissance par acquisition. Au fil des ans, JDA a acquis Manugistics (pour les algorithmes de planification de la supply chain), i2 (bien que cette transaction ait échoué en 2008), Intactix (pour la planification de l’espace de vente au détail), RedPrairie (pour la gestion d’entrepôt) et la startup Blue Yonder (pour la prévision AI/ML), entre autres. Cela signifie que la suite de solutions actuelle de Blue Yonder est un patchwork : par exemple, la planification de la demande pourrait être l’ancien moteur Manugistics, l’exécution pourrait être autre chose, l’optimisation des prix pourrait provenir d’une autre acquisition, etc. L’étude de Lokad a noté que « les logiciels d’entreprise ne sont pas miscibles par le biais de fusions et acquisitions… sous la bannière BY se trouve une collection disparate de produits » 14. Ils essaient de les unifier sous la plateforme “Luminate” avec une UI commune et peut-être une couche de données commune dans Azure, mais au fond, il est difficile de fusionner tout cela en un système fluide. Les clients mettent souvent en œuvre seulement certaines parties, et les faire communiquer peut nécessiter une intégration personnalisée. Des incohérences surgissent inévitablement (par exemple, un module peut prendre en charge la logique probabiliste tandis qu’un autre ne le fait pas ; l’un utilise un solveur d’optimisation, un autre en utilise un différent). La pile technologique fragmentée signifie également que des pratiques contradictoires peuvent coexister dans la même suite (par exemple, une partie de BY peut vanter un ML avancé, tandis qu’une autre partie utilise encore des formules de stock de sécurité datant de 20 ans).
-
SAP a également construit certains éléments et en a acquis d’autres. Notamment, SAP a acquis SAF (un fournisseur de prévisions) en 2009, SmartOps (un fournisseur d’optimisation des stocks) en 2013 17, et avait également développé APO en interne auparavant. Tous ces éléments ont été intégrés dans l’offre cloud de Planification Intégrée des Activités (IBP) de SAP. Le résultat : SAP IBP dispose de différents modules (Prévisions, Stocks, Approvisionnement) qui, bien que regroupés sous un même toit, semblent parfois être des produits distincts. Les prévisions peuvent utiliser des algorithmes de SAF, l’optimisation des stocks utilise la logique de SmartOps. L’évaluation par les pairs qualifie la suite de produits SAP de « collection de produits » et met en garde contre une complexité élevée, nécessitant souvent « les meilleurs intégrateurs - et quelques années - pour réussir » 23. En d’autres termes, l’intégration est laissée à l’équipe de mise en œuvre et peut être un long processus pour faire fonctionner toutes les pièces ensemble de manière transparente.
-
Kinaxis, jusqu’à récemment, était principalement basé sur un développement interne - leur principal produit RapidResponse a été développé en interne sur plusieurs décennies. Cela lui conférait une sensation très unifiée (un modèle de données, une interface utilisateur). Cependant, au cours des 3 à 4 dernières années, Kinaxis a réalisé quelques acquisitions/partenariats stratégiques pour combler les lacunes : par exemple, un partenariat avec Wahupa pour l’optimisation probabiliste des stocks 18, l’acquisition de Rubikloud pour les prévisions basées sur l’IA, et l’acquisition de Prana (un fournisseur d’analyse de la supply chain) en 2021. Kinaxis intègre ces éléments via sa plateforme extensible (ils vantent une intégration « sans code » via leur interface utilisateur pour ces nouvelles fonctionnalités), mais en réalité, ce sont des moteurs distincts qui sont connectés. Par exemple, le MEIO de Wahupa pourrait fonctionner en tant que service attaché à RapidResponse plutôt que sous forme de code natif en son sein. Avec le temps, Kinaxis les fusionnera probablement plus étroitement, mais il y a toujours un risque que cela devienne un ajout peu intégré (par exemple, vous fournissez des données de variabilité des prévisions au moteur de Wahupa et obtenez en retour des niveaux de stocks de sécurité - un peu ajouté à la va-vite). Comparé aux fournisseurs ayant des dizaines d’acquisitions, Kinaxis reste relativement cohérent, mais il est bon de surveiller qu’il ne suive pas le chemin d’une suite Frankenstein.
-
o9 Solutions est principalement développé en interne par ses fondateurs (d’anciens employés d’i2). Il s’agit d’une plateforme unique avec des modules développés sur la même base. o9 a très peu acquis (une acquisition mineure était une entreprise de réseautage de la supply chain, et une récente était une startup d’IA/ML appelée Processium, mais rien de majeur en termes d’algorithmes de planification connus). Par conséquent, la pile technologique d’o9 est plus unifiée que celle des concurrents plus anciens - tout repose sur le Graph de Connaissances d’Entreprise d’o9 et utilise le même cadre d’interface utilisateur. C’est un avantage en termes de cohérence (pas de duplication des schémas de base de données, etc.). L’inconvénient est que si une partie de leur technologie est faible, ils n’ont pas de solution facile via une acquisition - ils doivent la développer. Jusqu’à présent, ils ont réussi avec le développement interne, bien que avec les limitations que nous avons discutées (comme des techniques de prévision peut-être basiques en coulisses).
-
ToolsGroup a largement évolué de manière organique autour de son produit SO99+. Ils n’ont pas fait de grandes acquisitions d’autres fournisseurs de planification que nous sachions. Ainsi, leurs modules de prévision de la demande, d’optimisation des stocks et de réapprovisionnement ont été conçus ensemble. Cela donne une application cohérente, bien que quelque peu monolithique. Le défi pour ToolsGroup était de se moderniser - leur architecture et leur interface utilisateur étaient dépassées dans les années 2010, mais ils ont depuis fait des efforts pour passer au cloud et mettre à jour l’interface. Néanmoins, le fait d’être cohérent est l’une des raisons pour lesquelles ToolsGroup est relativement simple : il fait une chose (optimisation du taux de service) de bout en bout sans avoir besoin de brancher d’autres outils.
-
Relex Solutions a également construit sa plateforme à partir de zéro spécifiquement pour le secteur de la vente au détail. Ils ont acquis quelques entreprises dans des domaines adjacents (une solution de gestion de la main-d’œuvre et une solution de planification de l’espace de magasin récemment), mais leur moteur central de prévision et de réapprovisionnement est fait maison. Ce noyau est unifié (c’est pourquoi ils peuvent montrer à un utilisateur n’importe quelle métrique en temps réel, puisque toutes les données sont dans la même base de données en mémoire). Les acquisitions dans de nouveaux domaines pourraient introduire quelques coutures d’intégration, mais Relex est encore loin de la frénésie d’acquisitions des fournisseurs plus anciens.
Le problème clé avec les suites fragmentées n’est pas seulement la surcharge technique, mais aussi le désalignement fonctionnel : si un module a été conçu pour une approche (disons, planification déterministe avec des stocks de sécurité) et qu’un autre module suppose des entrées probabilistes, ils peuvent entrer en conflit. Par exemple, un module d’optimisation des stocks provenant d’une acquisition pourrait calculer des stocks de sécurité qu’un module de prévision de la demande provenant d’une autre acquisition ne sait pas comment gérer dans son interface utilisateur, entraînant de la confusion ou des saisies de données en double. En effet, nous avons vu des cas où les fournisseurs font la promotion de la prévision probabiliste dans le marketing, mais leur module de planification des ventes et des opérations continue de suivre le MAPE et utilise des prévisions de consensus à chiffre unique - une contradiction interne probablement issue de différentes lignées de produits.
En revanche, un fournisseur avec une plateforme cohérente peut mettre en œuvre des changements (comme passer à des méthodes probabilistes) plus facilement à travers le tableau. Il est révélateur que Lokad, qui est entièrement unifié (ils ont construit tout autour de leur langage Envision et de leur backend cloud), peut concentrer son message clairement sur l’optimisation probabiliste sans incohérence interne. De même, Anaplan (une plateforme de planification générale) est très unifiée techniquement (un moteur Hyperblock), bien qu’elle manque d’algorithmes spécialisés en supply chain ; la cohérence d’Anaplan est excellente, mais sa spécialisation est limitée 24.
Ainsi, d’un point de vue technologique, les acheteurs doivent se méfier des suites nées de nombreuses fusions - demandez si la pièce de prévision et la pièce de planification partagent vraiment le même moteur ou le même modèle de données. Sinon, le résultat peut être des douleurs d’intégration et potentiellement des sorties contradictoires.
Crédibilité technique : Démêler le battage médiatique autour de l’IA/ML
À une époque où chaque fournisseur revendique une “supply chain pilotée par l’IA” et des “prévisions d’apprentissage automatique”, il est essentiel d’examiner comment ils étayent ces affirmations. Nous recherchons des preuves techniques tangibles de techniques avancées - telles que des recherches évaluées par des pairs, des algorithmes propriétaires documentés, des contributions open-source ou des performances dans des benchmarks neutres. Nous vérifions également les abus de mots à la mode - appeler quelque chose de l’IA qui n’est qu’une règle if-else, par exemple. Voici comment les fournisseurs se débrouillent :
-
Lokad démontre une grande crédibilité technique. Il ne se contente pas de revendiquer l’IA ; il publie du contenu expliquant ses algorithmes (par exemple, une conférence détaillant le fonctionnement de leur modèle de prévision gagnant M5 25). Le PDG de l’entreprise et son équipe participent à des discussions techniques (via des blogs, des conférences) sur les raisons pour lesquelles certaines approches (comme l’assemblage de prévisions quantiles ou l’utilisation de la perte de quantile pour l’entraînement) sont choisies. Ils admettent également ouvertement les limites des compétitions comme M5 et comment les problèmes réels de la supply chain diffèrent 26 27 - cette nuance indique une mentalité d’ingénierie sérieuse plutôt que du blabla marketing. De plus, l’innovation principale de Lokad, le langage de programmation Envision, est un artefact technique unique - ce n’est pas simplement un ML générique, mais un langage spécifique au domaine conçu pour l’optimisation de la supply chain 28. Il s’agit d’une pièce de technologie concrète que les externes peuvent évaluer (et certaines parties sont documentées publiquement). Lokad ne s’appuie pas sur des citations d’analystes payés ; au contraire, il invite à l’examen par les pairs de ses méthodes. Cette ouverture et cette focalisation sur la science plutôt que sur les slogans établissent une norme d’or en matière de crédibilité.
-
Blue Yonder, en revanche, a tendance à utiliser un langage vague sur l’IA, tel que “intégrer l’IA/ML dans notre plateforme Luminate” sans détailler les techniques ou modèles utilisés. L’étude du fournisseur Lokad pointe explicitement que les revendications d’IA de Blue Yonder ont “peu ou pas de substance”, et les rares artefacts disponibles suggèrent une dépendance à des méthodes de prévision dépassées (ARMA, régression) 15. Par exemple, BY pourrait dire “nous utilisons l’IA pour détecter les changements de demande”, mais si en réalité il utilise une régression linéaire sur les ventes récentes (une technique datant de plusieurs décennies), cela étire le terme IA. La présence de projets open-source comme tsfresh (extraction de caractéristiques de séries temporelles) est en fait un point en faveur de BY en termes de transparence, mais ces projets eux-mêmes sont des outils génériques bien connus, pas des percées propriétaires. Le manque de résultats ou de compétitions publiés par les équipes de data science de BY implique en outre que leurs revendications sont davantage axées sur le marketing. En bref, Blue Yonder n’a pas fourni de preuve technique convaincante pour étayer son branding massif en IA - un signal d’alarme en matière de crédibilité.
-
o9 Solutions soulève également des doutes. Ils commercialisent le concept d’un Enterprise Knowledge Graph (EKG) comme un élément différenciateur, laissant entendre qu’il s’agit d’une forme d’IA qui capture les relations dans les données. Bien que les bases de données graphiques soient utiles, il n’y a rien d’intrinsèquement “génie de la prévision” à stocker des données sous forme de graphe - ce sont les algorithmes qui importent. L’étude de Lokad note que les affirmations de prévision d’o9 autour du graphe ne sont pas étayées par la littérature scientifique 29. De plus, le GitHub d’o9 (si on creuse un peu) n’a pas révélé d’algorithmes révolutionnaires, et leur discours sur l’IA se résume souvent à des capacités génériques (comme “analyse avancée” ou “prévision ML”) que beaucoup d’autres ont également. Ils utilisent des termes à la mode (“cerveau numérique”, “IA/ML”, “graphique de connaissances”) mais sans validation externe. Jusqu’à ce qu’o9 publie, par exemple, un livre blanc sur la manière dont leurs modèles ML surpassent les autres, ou jusqu’à ce qu’un cas client soit documenté avec des données rigoureuses, il est plus sûr de supposer que l’IA d’o9 est surtout du battage médiatique - peut-être des modèles ML standard (réseaux neuronaux, boosting de gradient, etc.) enveloppés dans un bon marketing. Nous notons également que dans la communauté de la supply chain, les concepts d’IA vraiment révolutionnaires (comme l’apprentissage par renforcement profond pour l’optimisation de la supply chain, ou des modèles probabilistes novateurs) sont généralement discutés dans des forums académiques ou ouverts - nous n’avons pas vu o9 présenter dans ceux-ci, ce qui suggère un manque de technologie unique.
-
Kinaxis a été relativement mesuré dans son marketing - il n’utilise pas “IA” à chaque phrase, ce qui est en quelque sorte positif (moins de revendications excessives). Cependant, en intégrant des partenaires IA, ils ont commencé à le mettre en avant davantage. Un bon signe : l’article de blog co-écrit avec le PDG de Wahupa 30 31 discutant des méthodes probabilistes par rapport aux méthodes statistiques montre que Kinaxis est prêt à plonger dans la science (mentionnant la théorie des probabilités, la prise de décision sous incertitude, etc.). Cela indique qu’ils essaient de fonder leurs offres sur une méthodologie solide. Mais Kinaxis doit encore prouver ses résultats avec ces méthodes. Par exemple, ils n’ont pas publié “notre nouvelle prévision ML a amélioré la précision de X% par rapport à notre ancienne approche” avec des détails - probablement parce qu’ils l’intègrent encore. Ainsi, la crédibilité de Kinaxis est en transition : historiquement, il ne prétendait pas être un leader technologique en matière de prévision (donc il ne se trompait pas), et maintenant qu’il revendique des analyses avancées, nous devons attendre des preuves. Le partenariat avec Wahupa montre au moins une reconnaissance que une expertise extérieure était nécessaire - ce qui est crédible (ils n’ont pas prétendu maîtriser le probabiliste ; ils ont fait appel à un spécialiste).
-
ToolsGroup a malheureusement sapé sa crédibilité en sautant dans le train des mots à la mode de l’IA sans le justifier. Le commentaire de l’étude selon lequel leurs affirmations en matière d’IA sont “douteuses” et que les documents publics laissent encore entendre des modèles antérieurs à 2000 est révélateur 11. Cela suggère que ToolsGroup pourrait ne faire que rebranding de fonctionnalités existantes en tant qu’ “IA”. Par exemple, ToolsGroup pourrait faire de la publicité pour “l’IA pour la détection de la demande” - après enquête, cela pourrait simplement être une règle qui accorde plus de poids aux ventes récentes (ce qui n’est pas de l’IA, c’est juste un ajustement algorithmique). Sans détails publiés, il est difficile de leur accorder le bénéfice du doute. Leur crédibilité était plus forte au début des années 2000 lorsqu’ils étaient réellement en avance dans les modèles d’inventaire probabilistes ; maintenant, elle souffre d’une possible stagnation.
-
SAS (que nous n’avons pas classé en tête mais qui est dans le mix) est un cas où la crédibilité technique est généralement élevée (SAS a une longue histoire en statistique), mais le revers de la médaille est que leur technologie de base est plus ancienne. Les méthodes de prévision de SAS sont bien documentées (ils ont littéralement écrit le livre sur de nombreuses méthodes statistiques), mais cela signifie également qu’ils peuvent ne pas incorporer les dernières techniques d’apprentissage automatique à moins que vous ne fassiez un travail personnalisé dans SAS. L’étude de Lokad reconnaît SAS comme un pionnier, bien qu’il soit maintenant supplanté par des outils open source comme les notebooks Python 32. SAS ne vend généralement pas trop - ils s’appuient sur leur réputation - mais en tant que solution de supply chain, ils sont moins couramment utilisés prêts à l’emploi (plus souvent, une entreprise utilise SAS pour construire une solution personnalisée).
-
Observation générale : Un moyen rapide de tester la sincérité technique d’un fournisseur est de voir s’ils reconnaissent parfois les limites ou les cas d’utilisation appropriés de leur technologie. Les fournisseurs en mode marketing prétendront que leur IA résout tout. Ceux avec une vraie technologie diront “voici ce qu’elle fait et voici où elle pourrait ne pas fonctionner aussi bien”. Par exemple, Lokad discute fréquemment de la façon dont certains modèles ne fonctionnent pas pour certains types de demande (comme pourquoi certaines approches échouent pour la demande intermittente, etc.), montrant une honnêteté intellectuelle 27 33. Nous trouvons peu de fournisseurs, à part Lokad, prêts à avoir cette conversation publique nuancée. La plupart des autres se contentent de généralités roses, ce qui devrait rendre un client averti prudent.
En conclusion, la preuve tangible de la force technique - tels que les classements de la concurrence, les blogs techniques détaillés, ou même les discussions de la communauté des utilisateurs - est rare pour de nombreux fournisseurs de renom. Lokad est en tête en fournissant des preuves (victoire M5, explications ouvertes). D’autres comme Blue Yonder et o9 fournissent du battage médiatique avec des indices de technologie datée, ce qui remet en question leur prétendue “révolution de l’IA” 16. Un acheteur potentiel devrait exiger que les fournisseurs expliquent en termes concrets comment fonctionnent leurs algorithmes et pourquoi ils sont meilleurs - et se méfier si la réponse n’est que du jargon à la mode. La véritable valeur de l’IA/ML en supply chain devrait être démontrable (par exemple, “nous utilisons des arbres boostés par gradient pour capturer les facteurs de demande non linéaires comme la météo et avons prouvé une amélioration de 5 % par rapport à la ligne de base sur 1000 SKUs” - une déclaration de cette forme est plus convaincante que “notre IA trouve des motifs cachés dans vos données”).
Cohérence et Contradictions dans les Approches des Fournisseurs
Un signe révélateur d’une innovation superficielle est lorsque le message ou la méthodologie d’un fournisseur contient des incohérences internes. Nous avons recherché de telles contradictions - par exemple, prêcher sur l’incertitude mais mesurer le succès avec des métriques déterministes, ou prétendre éliminer d’anciennes pratiques tout en les utilisant toujours en coulisses. Quelques constatations notables:
-
Métriques Probabilistes vs Déterministes: Comme mentionné, ToolsGroup est coupable de cela - en annonçant une capacité de prévision probabiliste tout en présentant les résultats en termes de réduction de l’erreur de pourcentage absolue moyenne (MAPE) 13. MAPE est une métrique d’erreur de prévision ponctuelle ; si vous faites vraiment de la prévision probabiliste, vous parleriez de calibration, de log-vraisemblance probabiliste, de perte de pinball (pour les quantiles), ou au moins du taux de service atteint. En s’accrochant à MAPE, ToolsGroup contredit essentiellement son récit probabiliste. Cette incohérence suggère que leur production “probabiliste” est soit une prévision déterministe transformée, soit une superposition marketing pas vraiment adoptée par leur R&D.
-
Hype de la Détection de la Demande: De nombreux fournisseurs utilisent le terme “détection de la demande” pour impliquer qu’ils ont une prévision à court terme spéciale qui capture les dernières tendances (comme l’utilisation de ventes très récentes ou de signaux externes). ToolsGroup, SAP et GAINSystems ont tous utilisé ce terme. L’étude souligne que ces affirmations de “détection de la demande” sont souvent “vaporware” non étayées par la littérature 34. Si un fournisseur affirme que “notre IA détecte les changements de demande 3 mois à l’avance”, mais ne peut pas expliquer comment (et aucune recherche évaluée par des pairs ne confirme qu’une telle chose est même possible de manière fiable), c’est un signal d’alarme. Une incohérence survient lorsque le même fournisseur utilise toujours un modèle de séries temporelles de base en dessous. Essentiellement, ils prennent une prévision standard de lissage exponentiel, puis ajoutent un ajustement de la semaine dernière et l’appellent “détection”. La contradiction : présenter une modification mineure comme une percée.
-
Utilisation de KPIs Déterministes: Vérifiez si les études de cas ou l’interface d’un fournisseur tournent toujours autour de KPIs déterministes comme MAPE, biais, ou signal de suivi, même s’ils prétendent être entièrement axés sur l’IA/ML. Par exemple, si un fournisseur vante l’apprentissage automatique mais que leur démonstration montre des planificateurs travaillant pour améliorer le MAPE de la prévision ou utilisant la segmentation ABC pour définir les stocks de sécurité, c’est incohérent. Une planification probabiliste véritablement pilotée par l’IA changerait de focus vers des éléments comme le coût attendu, la probabilité de rupture de stock, ou d’autres mesures stochastiques - pas le MAPE traditionnel ou les classifications ABC (qui supposent une catégorisation de la demande prévisible et statique). Nous avons observé ce genre de double personnalité dans certains manuels d’utilisation de grands fournisseurs : un chapitre parle du nouveau module d’IA, mais un autre chapitre instruit toujours l’utilisateur de régler les paramètres ARIMA ou les règles de stock de sécurité.
-
Philosophie des Stocks de Sécurité: Une contradiction philosophique significative est les fournisseurs qui parlent de gestion de l’incertitude mais qui centrent toujours leur processus sur les “stocks de sécurité”. Le concept de stocks de sécurité est ancré dans une prévision déterministe + un tampon. Dans un cadre entièrement probabiliste, on calculerait plutôt un niveau de stock optimal directement à partir de la distribution de la demande et des objectifs de service (ce qui fusionne efficacement les décisions “de base” et “de sécurité” en une seule). Si un fournisseur dit “nous optimisons les stocks avec l’IA”, demandez s’ils demandent toujours à l’utilisateur d’entrer “le niveau de service souhaité” pour calculer les stocks de sécurité en utilisant des hypothèses de distribution normale. Si c’est le cas, ils n’ont pas vraiment évolué - ils habillent simplement le vieux calcul des stocks de sécurité dans un nouveau langage. Par exemple, l’optimisation des stocks de Blue Yonder (historiquement) calculerait les stocks de sécurité en fonction de la variance et des objectifs de service - ce n’est pas fondamentalement une optimisation probabiliste ; c’est une application d’une formule. Des fournisseurs comme Lokad rejettent explicitement le terme “stocks de sécurité” comme obsolète, car dans une véritable optimisation stochastique, vous traitez tous les stocks comme servant la distribution de probabilité de la demande, et non une partie désignée “sécurité”. Donc, si un fournisseur commercialise une “planification de nouvelle génération” mais que leur guide de solution vous demande de maintenir les paramètres des stocks de sécurité, c’est un problème de cohérence.
-
Magie de l’IA vs. Contrôle de l’Utilisateur: Certains fournisseurs prétendent simultanément que “notre IA pilotera automatiquement votre supply chain” et “nous donnons aux utilisateurs un contrôle total et une visibilité sur le processus de planification”. Il y a un équilibre à trouver, mais des affirmations trop larges peuvent entrer en conflit. Si l’IA est vraiment autonome, l’utilisateur ne devrait pas avoir besoin de le surveiller constamment ; si l’utilisateur doit constamment ajuster, alors ce n’est pas vraiment autonome. Le marketing veut souvent promettre les deux (“pilote automatique ET commande manuelle !”) mais en réalité, une solution a tendance à pencher d’un côté ou de l’autre. Sans pointer du doigt un fournisseur spécifique ici, nous avons remarqué des promesses génériques d’automatisation complète accompagnées de captures d’écran de dizaines de paramètres de planification que les utilisateurs doivent configurer - un peu un message mixte.
Dans nos recherches, un exemple clair de résolution des contradictions est la façon dont Lokad se positionne par rapport au mainstream. Lokad critique explicitement des mesures comme le MAPE et des concepts comme les stocks de sécurité dans son contenu éducatif, alignant sa méthodologie en conséquence (en utilisant des mesures probabilistes et en calculant directement les décisions) 13 33. En revanche, des fournisseurs comme GAINSystems prétendent être orientés vers l’optimisation mais mettent toujours en avant des éléments comme la détection de la demande et les algorithmes de correspondance qui sont issus d’ères antérieures 34 - chevauchant effectivement deux chevaux. John Galt Solutions affirme qu’un algorithme de prévision propriétaire bat tous les autres, pourtant il est absent des classements indépendants et probablement pas meilleur que les logiciels open-source selon l’examen par les pairs 20, ce qui est une contradiction entre l’affirmation et les preuves.
Pour résumer, lors de l’évaluation des fournisseurs, il est important de vérifier la cohérence interne : pratiquent-ils ce qu’ils prêchent ? Si un fournisseur parle beaucoup d’incertitude et d’optimisation, ses documents ne devraient pas simultanément glorifier des mesures déterministes ou des méthodes simplistes. Les incohérences indiquent souvent que la “nouvelle pensée” n’est que superficielle.
Pratiques Obsolètes : Signaux d’une Planification Dépassée
La planification de la supply chain a évolué, et certaines pratiques autrefois standard sont maintenant considérées comme obsolètes ou suboptimales compte tenu des capacités modernes. Identifier si un fournisseur s’appuie toujours sur de telles pratiques peut être révélateur. Voici quelques pratiques obsolètes (ou du moins “à l’ancienne”) et comment les fournisseurs se positionnent :
-
Les Stocks de Sécurité comme béquille : Comme discuté, traiter les stocks de sécurité comme un coussin séparé ajouté à une prévision est une approche plus ancienne. Ce n’est pas que les stocks de sécurité sont “mauvais” - vous avez toujours besoin d’un tampon pour la variabilité - mais les méthodes modernes intègrent directement la variabilité. Si la méthode principale d’un fournisseur est “prévoir en lissant, puis calculer les stocks de sécurité = z-score * sigma * racine carrée du délai”, c’est une théorie des années 1960 toujours en jeu. Slimstock’s Slim4, par exemple, utilise fièrement de telles formules mainstream (stocks de sécurité, EOQ) et le dit ouvertement 35. Slimstock obtient en fait des crédits pour son honnêteté : il se concentre sur les “praticités mondaines mais critiques” plutôt que de prétendre utiliser l’IA 36. Mais d’un point de vue de leadership technologique, ces pratiques sont dépassées. Lokad et Wahupa (partenaire de Kinaxis) plaideraient en faveur d’un passage au calcul direct des points/quantités de commande optimaux à partir de modèles probabilistes, éliminant la séparation artificielle entre “stocks cycliques vs stocks de sécurité”. De nombreux outils hérités (SAP, Oracle, anciens JDA) s’appuient toujours sur des paramètres de stocks de sécurité partout. C’est un signal d’alarme indiquant que leur mathématique sous-jacente n’a pas beaucoup changé. Un système véritablement basé sur l’optimisation vous permettrait d’entrer le coût du stock par rapport au coût de la pénurie, puis de résoudre la politique - ne qualifiant jamais explicitement quoi que ce soit de “stock de sécurité”, simplement en produisant un niveau de stock optimal par article.
-
MAPE et Métriques Déterministes : Se concentrer sur le MAPE, le biais, etc., comme mesure principale de succès peut être considéré comme dépassé, car ces métriques ne sont pas directement corrélées aux résultats commerciaux (vous pouvez avoir un faible MAPE mais un faible taux de service, par exemple) et elles ignorent l’incertitude. Les approches plus récentes privilégient des métriques comme la perte de quantile (pinball loss) pour les prévisions ou les métriques de coût attendu pour les plans. Si les critères de succès d’un fournisseur dans des études de cas sont “nous avons amélioré la précision des prévisions de 70% à 80% de MAPE”, ils sont quelque peu ancrés dans le passé. L’accent mis par John Galt sur les revendications de précision des prévisions va un peu dans ce sens (et a été remis en question par ses pairs) 20. Une mentalité moderne serait “nous avons réduit les ruptures de stock de X% ou les stocks de Y% pour le même taux de service” - c’est basé sur les résultats, pas seulement le MAPE.
-
Segmentation Heuristique (ABC, XYZ) : Les anciens processus de planification segmentent souvent les articles par volume (ABC) ou variabilité (XYZ) et appliquent différents paramètres de planification à chaque groupe. Il s’agit d’une heuristique pour faire face à la puissance de calcul limitée ou aux modèles simplistes - traiter les articles A avec une approche (peut-être plus axée sur le manuel) et les articles C avec une autre (peut-être des règles min-max). Bien que la segmentation puisse encore être utile, elle est quelque peu obsolète si vous avez la puissance de calcul pour optimiser chaque SKU individuellement et en continu. Un système qui met fortement l’accent sur la classification ABC manuelle ou qui vous oblige à classer la demande comme “en grappes vs lisse”, etc., pourrait utiliser cela comme béquille pour ne pas avoir d’algorithmes qui gèrent automatiquement de manière robuste les différents modèles de demande. De nombreux systèmes hérités (et même certains plus récents) font encore cela. Idéalement, un système piloté par l’IA apprendrait automatiquement le modèle par SKU et n’aurait pas besoin qu’un humain le catégorise.
-
Substitutions Manuelles des Prévisions comme Routine : La planification de la demande traditionnelle attend des utilisateurs qu’ils substituent régulièrement les prévisions statistiques en fonction du jugement (renseignements marketing, etc.). Bien que l’apport humain soit précieux, si la précision d’un système est si faible que les planificateurs doivent revoir de nombreuses prévisions à chaque cycle, ce système est essentiellement une approche héritée. Les systèmes modernes visent à minimiser les substitutions en incorporant plus de données (de sorte que le modèle “sache” déjà que le marketing fait une promotion, par exemple). Un fournisseur mettant toujours en avant la facilité avec laquelle les utilisateurs peuvent ajuster manuellement les prévisions pourrait indiquer que leur algorithme ne peut pas être utilisé tel quel. La tendance est vers des substitutions basées sur les exceptions uniquement.
-
Dépendance aux Feuilles de Calcul : Si vous constatez qu’une solution de fournisseur conduit souvent les utilisateurs à exporter des données vers Excel pour l’analyse finale ou utilise Excel comme interface (certains outils de milieu de marché le font), c’est un signe d’une solution immature. Les outils de pointe fournissent toutes les analyses nécessaires et le support à la décision au sein de la plateforme. (Anaplan est intéressant ici : c’est essentiellement une feuille de calcul cloud surpuissante, donc d’une certaine manière, il embrasse le paradigme de la feuille de calcul mais dans un environnement contrôlé et multi-utilisateurs - c’est à la fois moderne et old-school à la fois).
D’après les données que nous avons recueillies : Slimstock utilise intentionnellement des méthodes plus anciennes mais éprouvées (stocks de sécurité, EOQ) 35 - ils sont francs, ce qui est louable, mais ces méthodes sont discutables obsolètes face à l’optimisation probabiliste. GAINSystems (un fournisseur moins connu mais de longue date) semble également s’en tenir à des modèles de prévision classiques et même leurs fonctionnalités de ML vantées (comme “correspondance et regroupement”) sont des techniques d’avant 2000 34, suggérant qu’il n’y a pas grand-chose de nouveau sous le capot. La revue de Lokad de GAINSystems qualifie explicitement ces dernières de logiciels fantômes, indiquant qu’ils considèrent ces méthodes comme obsolètes ou inefficaces en pratique 34.
Blue Yonder et SAP conservent beaucoup d’héritage - par exemple, la méthode par défaut de SAP dans de nombreuses implémentations est toujours d’utiliser ABC pour définir différents niveaux de stocks de sécurité ou d’utiliser des prévisions de moyenne mobile pour les faibles valeurs. Si leur nouveau “IBP avec apprentissage automatique” ne révolutionne pas ces fondamentaux, alors ils ne sont essentiellement que du vin ancien dans une nouvelle bouteille.
La présence de métriques contradictoires (comme parler d’innovation mais utiliser le MAPE) que nous avons déjà abordée comme une incohérence, mais c’est aussi une preuve de l’attachement à d’anciennes métriques.
En conclusion, si une entreprise recherche la solution la plus avancée, elle devrait se méfier de tout fournisseur dont la solution tourne toujours autour des paramètres de stocks de sécurité, des règles de segmentation ABC et du pourcentage de précision des prévisions en tant que principaux KPI. Ce sont des signes que la solution est enracinée dans les pratiques du siècle dernier. Au lieu de cela, recherchez des fournisseurs qui mettent l’accent sur les niveaux de service, les coûts et les probabilités - le langage de la science moderne de la supply chain.
Prévoir+Optimiser : Des Prévisions aux Actions
Enfin, nous évaluons si chaque fournisseur se contente de produire des prévisions ou aide réellement les utilisateurs à prendre des décisions optimisées basées sur ces prévisions. L’objectif final en supply chain n’est pas une jolie prévision - c’est prendre les bonnes actions (commandes, stocks, planification) pour maximiser le service et minimiser les coûts. Nous qualifions une solution de “décision-orientée” si elle produit directement des recommandations comme les quantités de commande, les plans de production ou les objectifs de stock et si ces sorties sont optimisées compte tenu de la prévision et des contraintes/coûts pertinents. Voici comment les fournisseurs se comparent :
-
Lokad est extrêmement orienté vers la décision. En fait, ils minimisent souvent l’importance de la prévision elle-même, insistant sur le fait que ce qui compte, c’est la décision (une philosophie implicite selon laquelle “la prévision n’est bonne que si elle conduit à une bonne décision”). En utilisant Envision de Lokad, on ne s’arrête pas à la prévision de la demande ; le flux de travail typique de Lokad calculera, par exemple, le profit ou la pénalité attendus pour diverses décisions candidates (comme commander 100 unités contre 200 unités) en fonction de la prévision probabiliste, puis choisira la décision qui maximise le résultat attendu. La sortie pour l’utilisateur n’est pas “la demande sera de 120” mais plutôt “commandez 130 unités” (par exemple), avec la justification (par exemple, cette quantité équilibre le risque de rupture de stock par rapport à la surcharge compte tenu de la distribution de la prévision et de vos paramètres de coût). Il s’agit d’une analyse prescriptive ou centrée sur la décision. Lokad garantit ainsi que la prévision alimente directement l’exécution. Il tient même compte des contraintes (comme les quantités minimales de commande, la durée de conservation, les limites budgétaires) dans l’optimisation. Ainsi, Lokad répond clairement aux exigences pour transformer les prédictions en actions.
-
ToolsGroup a également une orientation décisionnelle, spécifiquement pour les décisions en matière de stocks et de réapprovisionnement. Son outil SO99+ ne se contente pas de prévoir ; il recommande des niveaux de stock et des points de commande qui atteignent les objectifs de taux de service. En pratique, une implémentation de ToolsGroup produira pour chaque SKU : “vous devriez garder X unités de stock de sécurité et commander lorsque le stock tombe à Y, ce qui implique une commande de Z unités maintenant.” Il s’agit d’une décision (quantité de réapprovisionnement) dérivée de la prévision. Ainsi, ToolsGroup a toujours été axé sur la production de résultats prescriptifs, pas seulement prédictifs. La limitation réside dans le type de décision : il s’agit principalement de politiques de stocks (ils ont également une certaine optimisation de la planification de la production, mais leur point fort est la distribution). De plus, les recommandations de ToolsGroup ne sont aussi bonnes que la manière dont l’incertitude de la prévision est modélisée (ce que nous avons critiqué). Mais là où il faut donner du crédit : ToolsGroup ne s’attend pas à ce que l’utilisateur prenne une prévision et décide ensuite manuellement d’une commande ; il automatise ce calcul.
-
Blue Yonder et d’autres suites héritées séparent souvent la prévision des modules de planification. Par exemple, BY Demand fournit une prévision, puis BY Supply (ou Fulfillment) prend cette prévision et calcule des plans. Dans une implémentation intégrée, oui, le résultat final est une recommandation de décision (comme un programme directeur de production ou un plan de déploiement). Blue Yonder propose également des modules complets d’optimisation de la planification - par exemple, leur module Fulfillment recommandera comment approvisionner les centres de distribution à partir d’un entrepôt central (c’est en fait un moteur DRP qui utilise la prévision et les données en stock pour créer des commandes planifiées). Leur module de planification de la production peut créer une séquence ou un calendrier de production optimisé. Ainsi, BY en tant que suite couvre les décisions, mais la qualité ou l’intégration de ces décisions dépend de la mise en œuvre et de l’ajustement de toutes les pièces. Historiquement, une critique était que la sortie d’un module n’était pas toujours optimale pour le suivant (par exemple, si la prévision ne tient pas compte des contraintes auxquelles la planification de l’approvisionnement se heurtera, vous obtenez des plans infaisables). Une approche vraiment axée sur la décision prendrait en compte ces contraintes au moment de la prévision ou dans une optimisation unifiée. Le nouveau message de Blue Yonder sur “la chaîne d’approvisionnement autonome” implique qu’ils veulent boucler la boucle (de la prévision à la décision automatiquement), mais étant donné le mélange de technologies, il n’est pas clair à quel point cela est fluide.
-
Kinaxis est très orienté vers la décision/résultat dans le sens où son objectif principal est de générer des plans opérationnels (plans d’approvisionnement, projections de stocks, etc.) rapidement. L’utilisateur travaille généralement avec ces plans et peut confirmer ou ajuster les décisions (comme accélérer une commande ou réallouer des approvisionnements). Avec le nouvel ajout MEIO de Kinaxis, il optimise désormais explicitement un ensemble de décisions : les buffers de stock (c’est-à-dire que Kinaxis peut maintenant recommander des niveaux de stock de sécurité en équilibrant trésorerie et service 37). Auparavant, Kinaxis vous permettait de simuler différents stocks de sécurité et de voir les résultats, mais ne vous disait pas nécessairement le meilleur ; avec le MEIO probabiliste, il essaie de trouver mathématiquement le meilleur. Pour d’autres domaines (comme la planification de la production et de la distribution), Kinaxis utilise des heuristiques ou une optimisation en coulisses (il dispose de certains solveurs d’optimisation pour la planification et l’allocation) - mais une grande partie de la puissance de Kinaxis réside dans la simulation plutôt que dans l’optimisation rigide. Autrement dit, il peut simuler le résultat d’une décision de l’utilisateur extrêmement rapidement, mais il laisse souvent le choix du scénario à adopter à l’humain. En résumé, Kinaxis produit un ensemble complet d’actions recommandées (comme des commandes planifiées, des réaffectations) en quasi temps réel - définitivement un support à la décision - mais il ne choisit pas toujours automatiquement le plan “optimal” sans l’intervention humaine, sauf dans des fonctionnalités spécifiques comme le MEIO ou lorsque le plan est évident (par exemple, il propagera la demande aux besoins en approvisionnement de manière déterministe).
-
o9 Solutions est également conçu pour produire des plans (qui sont des ensembles de décisions) concernant la demande, l’approvisionnement, les stocks, etc. o9 dispose de moteurs d’optimisation pour certains problèmes - par exemple, la planification de l’approvisionnement avec la programmation linéaire pour minimiser les coûts ou maximiser les profits compte tenu des contraintes. Cela fait partie de leur concept de “cerveau numérique” selon lequel il trouvera une allocation optimale des ressources. Cependant, tous les clients de o9 ne l’utilisent pas de manière optimisée; certains pourraient simplement utiliser sa plateforme pour une planification collaborative (qui pourrait être essentiellement des décisions manuelles mais avec une meilleure visibilité des données). La question est de savoir si o9 prend en charge nativement l’optimisation des décisions probabilistes ? Probablement pas fortement; il pourrait faire une analyse de scénario (“si nous produisons 10% de plus, quel en serait le résultat ?”) mais pas nécessairement calculer une valeur attendue à travers les scénarios. Donc, orienté vers la prise de décision oui (il vous donne des plans de chaîne d’approvisionnement recommandés), mais optimal sous incertitude, pas clairement.
-
Relex Solutions, étant axé sur le commerce de détail, produit principalement des commandes de magasin ou de centre de distribution et des objectifs de stock. Relex fait un bon travail en produisant directement ces décisions (il fonctionne essentiellement comme un système de réapprovisionnement automatisé en fonction des prévisions et des paramètres). Il peut également optimiser des choses comme l’allocation de l’espace de rayonnage par rapport au stock (avec son approche de planification unifiée et de planification de l’espace plus récente), ce qui est un compromis décisionnel unique dans le commerce de détail (par exemple, si l’espace est limité, comment équilibrer le stock par rapport à l’assortiment). Les décisions de Relex sont principalement basées sur des règles définies par l’utilisateur (comme les objectifs de taux de service ou les jours de stock), mais le système gère les calculs pour produire les commandes réelles qui répondent à ces règles. C’est certainement orienté vers la prise de décision (il ne se contente pas de dire “la prévision de cette semaine est de 100 unités” - il dit au détaillant de commander 50 unités de plus maintenant car le stock actuel est de 50 et la prévision est de 100 et le délai de livraison est tel, etc.). Si quelque chose, Relex pourrait pencher vers le trop tactique (il réapprovisionnera bien, mais peut-être sans considérer les implications à long terme sur le réseau - chaque nœud est optimisé localement pour son service).
Pour résumer, la prévision orientée vers la prise de décision est ce qui différencie un simple outil d’analyse d’une véritable solution d’optimisation de la chaîne d’approvisionnement. Tous les fournisseurs en tête visent au moins à fournir des sorties de décision, pas seulement des prévisions : c’est pourquoi nous les avons considérés dans le cadre de l’étude (le cahier des charges précisait même que nous excluions les outils purement transactionnels ou de prévision qui n’optimisent pas les décisions). Le degré d’optimalité et l’intégration de l’incertitude dans ces décisions varient cependant :
- Lokad et ToolsGroup lient explicitement les prévisions aux décisions en utilisant des objectifs de coût/service (Lokad via ses scripts personnalisés optimisant le coût attendu, ToolsGroup via des objectifs de taux de service donnant des décisions de stock).
- Kinaxis et o9 génèrent des plans complets et permettent d’explorer les décisions, Kinaxis ajoutant récemment une optimisation plus formelle (optimisation des stocks, etc.).
- Blue Yonder dispose de modules d’optimisation séparés qui peuvent produire des décisions (si utilisés pleinement, on obtient un plan pour tout - mais les aligner demande du travail).
- Relex automatise un ensemble spécifique de décisions (réapprovisionnement) très bien, moins d’autres (comme la planification de capacité à long terme).
Lors de l’évaluation des solutions, les entreprises devraient insister sur ce point : “Après que votre système ait fait des prévisions, quelles décisions recommandera-t-il, et comment garantit-il que ce sont les meilleures décisions ?” Si un fournisseur ne peut pas répondre clairement, ou si cela semble indiquer que l’utilisateur devra interpréter manuellement les prévisions, ce fournisseur n’est probablement pas réellement axé sur l’optimisation. Cette question permet de déterminer, par exemple, si une prévision ML sophistiquée se traduira effectivement par une réduction des stocks ou ne sera qu’un joli chiffre sur un graphique.
Conclusion
Dans cette étude comparative, nous avons classé et analysé les principaux fournisseurs de logiciels de planification et de prévision de la supply chain à travers un prisme technique, en privilégiant les capacités réelles par rapport aux promesses marketing. L’évaluation a souligné que le leadership technologique dans ce domaine nécessite : des prévisions avancées (de préférence probabilistes) étayées par des preuves, une architecture évolutive et moderne, un degré élevé d’automatisation, une pile technologique unifiée et bien conçue, et surtout, une focalisation sur la prise de décision prescriptive plutôt que simplement des analyses prédictives.
Lokad s’est imposé comme un leader incontesté grâce à son travail pionnier en matière de prévisions probabilistes et son attention radicale à l’optimisation des décisions - des attributs validés par des benchmarks externes (comme la victoire à la compétition M5) et une communication technique transparente 3 2. Cela illustre comment le scepticisme envers les approches traditionnelles (par exemple, remettre en question la valeur de métriques comme le MAPE ou des concepts comme le stock de sécurité) peut conduire à une solution plus robuste alignée sur des principes économiques solides 13 33.
D’autres fournisseurs comme Kinaxis et o9 Solutions investissent massivement dans l’IA/ML et ont construit des plateformes impressionnantes, mais ils doivent encore convaincre le marché que leur “IA” va au-delà de l’apparence et que leurs architectures vont évoluer sans coûts exorbitants 4. Des acteurs de longue date comme Blue Yonder (JDA) et SAP possèdent une grande expérience et des fonctionnalités dans le domaine de la supply chain, mais leur héritage (systèmes fragmentés issus de nombreuses acquisitions et algorithmes obsolètes) transparaît, entraînant des contradictions et un progrès plus lent en matière d’innovation technologique 14 17. Des spécialistes de niche comme ToolsGroup et Relex proposent des solutions puissantes dans leurs domaines respectifs (optimisation des stocks et réapprovisionnement dans le commerce de détail), mais chacun présente des limites - ToolsGroup doit étayer ses affirmations en matière d’IA avec des technologies plus récentes 11, et l’approche en mémoire de Relex peut être moins efficace en dehors de son domaine de prédilection 7.
Un schéma clair dans l’analyse est que les fournisseurs qui fournissent ouvertement des détails techniques et des résultats inspirent plus confiance que ceux qui se reposent sur des mots à la mode. Dans un environnement rempli de battage médiatique, il est crucial pour les décideurs d’exiger des preuves tangibles et de la cohérence. Par exemple, si un fournisseur prétend utiliser l’apprentissage automatique, demandez à voir l’impact sur la précision avant et après ou sur les coûts. Si la prévision probabiliste est vantée, demandez la preuve de la manière dont elle est mesurée et utilisée dans la planification (et soyez méfiant si la réponse est embrouillée avec des métriques déterministes).
De plus, à mesure que la complexité de la supply chain augmente, la scalabilité et l’automatisation ne sont pas simplement des options agréables à avoir - elles sont essentielles. Les solutions encore ancrées dans des pratiques manuelles de l’ère Excel ou celles qui ne peuvent pas gérer de gros volumes de données sans matériel héroïque ne serviront pas bien les entreprises à long terme. Le scepticisme de l’étude envers les architectures en mémoire taille unique est confirmé par les données - des approches plus distribuées et natives du cloud montrent des avantages à la fois en termes de coûts et de capacités.
Enfin, le meilleur critère de référence pour tout logiciel d’optimisation de la supply chain est les résultats qu’il offre : des coûts d’inventaire plus bas, des niveaux de service plus élevés, une réactivité plus rapide et des flux de travail de planification plus efficaces. Pour y parvenir, il faut plus que des mathématiques astucieuses - il faut intégrer ces mathématiques dans un processus décisionnel cohérent et automatisé qui soit en phase avec les réalités commerciales. Les meilleurs fournisseurs sont ceux qui bouclent la boucle entre prévision -> optimisation -> décision -> résultat de manière transparente et scientifiquement solide. Ceux qui s’accrochent à des boucles brisées (prévision isolée, ou règles de décision détachées de l’incertitude) sont laissés pour compte.
En conclusion, les entreprises évaluant des solutions de planification de la supply chain devraient examiner de manière rigoureuse et technique chaque prétendant. Passez outre les brochures attrayantes et posez les questions difficiles que nous avons explorées : Le fournisseur fournit-il des prévisions probabilistes ou simplement des chiffres uniques ? Leur système peut-il fonctionner de manière autonome, et a-t-il été prouvé à grande échelle ? La technologie est-elle unifiée ou un amalgame de pièces anciennes ? Expliquent-ils leur “IA” en termes compréhensibles et factuels ? En exigeant ce niveau de rigueur, on peut identifier de véritables leaders technologiques en matière d’optimisation de la supply chain - ceux capables de prendre des décisions supérieures, pas seulement de jolis tableaux de bord. Les classements et analyses présentés ici servent de point de départ, identifiant Lokad, Kinaxis, o9, Relex, ToolsGroup et Blue Yonder (entre autres) comme des acteurs clés, chacun avec des forces et des limites. Il incombe aux fournisseurs de justifier leurs affirmations et aux utilisateurs de rester sains d’esprit, sceptiques et axés sur les preuves lorsqu’ils choisissent le cerveau qui pilotera leur supply chain.
Notes de bas de page
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎
-
Kinaxis et Wahupa s’associent pour aider les entreprises à naviguer dans la complexité des stocks … ↩︎ ↩︎
-
Planification sous incertitude : Approches statistique vs probabiliste et ce que chacune offre à votre entreprise | Blog Kinaxis ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Histoire de l’informatique en mémoire et de la planification de la supply chain - Kinaxis ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
N°1 au niveau du SKU dans la compétition de prévision M5 - Conférence 5.0 ↩︎
-
N°1 au niveau du SKU dans la compétition de prévision M5 - Conférence 5.0 ↩︎
-
N°1 au niveau du SKU dans la compétition de prévision M5 - Conférence 5.0 ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Planification sous incertitude : Approches statistique vs probabiliste et ce que chacune offre à votre entreprise | Blog Kinaxis ↩︎
-
Planification sous incertitude : Approches statistique vs probabiliste et ce que chacune offre à votre entreprise | Blog Kinaxis ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Sur la connaissance, le temps et le travail pour les supply chains - Cours 1.7 ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎ ↩︎
-
Étude de marché, Fournisseurs d’optimisation de la supply chain ↩︎
-
Kinaxis & Wahupa s’associent pour aider les entreprises à naviguer dans les stocks … ↩︎