Logiciel d'optimisation de la Supply Chain

Par Léon Levinas-Ménard
Dernière modification : 2 février 2025

Classement des fournisseurs & Résumé (Basé sur la rigueur technique)

  1. LokadCrédibilité technique supérieure. Lokad se distingue par sa transparence et sa profondeur technique. Il a été pionnier dans la prévision probabiliste et a prouvé ses méthodes en compétition ouverte (classé #1 au niveau SKU et #6 au total sur 909 équipes dans le concours de précision de prévision M5 1la seule équipe dirigée par un fournisseur dans les rangs supérieurs). Lokad publie des informations détaillées sur son architecture (par exemple, un langage spécifique à un domaine appelé Envision, automatisation basée sur le cloud) et met l’accent sur les décisions optimisées financièrement plutôt que sur des métriques simplistes. Son accent sur les mathématiques rigoureuses (prévisions quantiles, optimisation stochastique) et les flux de travail entièrement scriptables et automatisés (via les API et le codage) démontre une conception axée sur l’ingénierie. Aucune grande affirmation d’IA/ML n’est faite sans preuve – au lieu de cela, Lokad fournit des livres blancs techniques et même des outils open source pour la mise à l’échelle des données au-delà des limites de la RAM 2 3. Ce niveau d’ouverture et de performance prouvée place Lokad en tête.

  2. AnaplanPlateforme “Excel 2.0”. Anaplan est essentiellement la version SaaS d’entreprise d’un tableur, alimentée par son moteur propriétaire Hyperblock en mémoire 4. Techniquement, Hyperblock est un moteur de calcul multidimensionnel robuste qui permet à des milliers d’utilisateurs de collaborer sur des modèles de planification en temps réel – semblable à un Excel surchargé, basé sur le cloud. Bien qu’Anaplan ne soit pas un optimiseur de supply chain spécialisé en soi (la prévision et l’optimisation algorithmique sont des “citoyens de seconde classe” sur cette plateforme 5), sa force réside dans son architecture solide pour la modélisation et la planification de scénarios. Il ne vend pas d’IA mystique ; au lieu de cela, il offre un bac à sable fiable et performant pour construire une logique de planification personnalisée. En bref, c’est un outil de planification générale puissant avec une approche honnête – pas de revendications exagérées sur la magie de la prévision, juste un système de type tableur bien conçu et évolutif. Cette proposition technique directe vaut à Anaplan un rang élevé en crédibilité.

  3. Kinaxis (RapidResponse)Moteur de simulation en mémoire. Kinaxis est connu pour son moteur de concurrence unique qui permet de recalculer les plans d’approvisionnement à la volée dans toute l’entreprise. Techniquement, Kinaxis a construit son propre moteur de base de données à partir de zéro pour supporter cela 6 7. Le résultat est une plateforme optimisée pour des simulations “what-if” rapides : les utilisateurs peuvent créer des scénarios (comme Git pour les données) et obtenir un retour instantané sur l’impact des changements 8. Le système conserve toutes les données de la supply chain en mémoire pour la vitesse, avec des algorithmes ayant un accès direct à la mémoire pour les données pour un débit maximum 9. Cette conception permet une véritable planification concurrente (par exemple, les plans de vente, de production et de stocks sont mis à jour en temps réel ensemble). D’un point de vue ingénierie, la construction d’un magasin de données personnalisé en mémoire et contrôlé par version est un exploit impressionnant qui offre de l’agilité. Le compromis, cependant, est une demande matérielle élevée – une approche entièrement en mémoire signifie que la mise à l’échelle à des tailles de données massives peut être coûteuse (car les exigences en RAM augmentent) 10. Dans l’ensemble, Kinaxis montre une rigueur technique forte en architecture et en performance, tout en évitant les revendications à la mode de l’IA. Il excelle dans la planification de la supply chain et les simulations S&OP, bien qu’il offre moins de fonctionnalités de prévision ML prêtes à l’emploi par rapport à certains pairs.

  4. SAS - Puissance statistique. SAS est une entreprise de logiciels d’analyse vétéran (fondée en 1976) et apporte un moteur de modélisation statistique redoutable aux problèmes de supply chain. Son produit phare comprend un langage spécifique au domaine pour les statistiques (le langage SAS) datant des années 1970 11 - sans doute la plateforme de science des données originale. La force de SAS réside dans la profondeur de ses algorithmes : une vaste bibliothèque de modèles de prévision de séries temporelles, de routines d’optimisation et de techniques d’apprentissage automatique construites sur des décennies. Il emploie certains des ingénieurs et statisticiens les plus talentueux de l’industrie 11, et il a été pionnier dans la prévision avancée bien avant que “AI” ne devienne un buzzword. Dans les contextes de supply chain, SAS est souvent utilisé pour la prévision de la demande et l’analyse des stocks. Techniquement, il est robuste et éprouvé - mais aussi lourd. Les outils peuvent sembler archaïques (le monde a largement basculé vers des langages open source comme Python/R, et en effet, les cahiers Jupyter sont maintenant une alternative ouverte supérieure 12). SAS ne revendique pas bruyamment une IA magique ; il s’appuie sur sa réputation et sa technologie solide. Pour les organisations ayant l’expertise pour l’exploiter, SAS offre une puissance analytique sérieuse basée sur de vrais algorithmes (ARIMA, ETS, etc.) plutôt que sur le battage médiatique. Son principal inconvénient est qu’il s’agit d’une plateforme d’analyse générale - extrêmement puissante sous le capot, mais nécessitant des utilisateurs qualifiés pour l’appliquer à la supply chain, et elle n’a pas été spécifiquement évaluée dans les récents concours de prévision (les outils open source rivalisent souvent avec elle 13).

  5. Dassault Systèmes (Quintiq) - Spécialiste de l’optimisation. Quintiq (acquis par Dassault Systèmes en 2014) est une plateforme axée sur l’optimisation et la planification complexes de la supply chain. Elle dispose d’un langage spécifique au domaine propriétaire appelé Quill pour modéliser les contraintes commerciales 14. Ce DSL permet aux ingénieurs de coder des solutions sur mesure (par exemple, des plans de production ou de routage personnalisés) et d’utiliser des solveurs mathématiques. L’existence même d’un DSL dans le produit est la preuve d’une compétence en deep-tech sérieuse - concevoir un langage de programmation pour les problèmes de planification n’est pas trivial 15. Quintiq excelle dans des scénarios comme la planification d’usine, l’optimisation du réseau logistique et d’autres problèmes NP-difficiles où un modèle d’optimisation personnalisé est nécessaire. Techniquement, c’est l’un des moteurs d’optimisation les plus flexibles et puissants disponibles dans les logiciels de supply chain. Cependant, l’accent mis par Quintiq sur l’optimisation se fait au détriment d’autres domaines : par exemple, il a des capacités de prévision natives relativement limitées 16. Une autre préoccupation est que les mises à jour techniques publiques sur Quill sont rares, laissant supposer que la technologie pourrait vieillir ou du moins ne pas évoluer rapidement 17. Les utilisateurs comptent souvent sur les consultants de Dassault pour configurer les solutions, et sans une documentation publique claire, il est difficile d’évaluer les innovations récentes. En résumé, Quintiq est un choix de premier ordre pour les besoins d’optimisation complexes et démontre une forte ingénierie grâce à son DSL - mais il n’est pas aussi transparent ou à jour dans des domaines comme l’IA/prévision, et ses points forts résident dans ce que les implémenteurs construisent avec lui plutôt que dans une “intelligence” prête à l’emploi.

  6. ToolsGroup (SO99+)Pionnier probabiliste avec des réserves. Le logiciel de ToolsGroup (SO99+) est depuis longtemps spécialisé dans la prévision de la demande et l’optimisation des stocks, avec un accent sur les modèles probabilistes. Il offre une fonctionnalité de supply chain étendue (planification de la demande, réapprovisionnement, optimisation de l’inventaire multi-échelons) et a été l’un des premiers fournisseurs à promouvoir la “Powerfully Simple” prévision probabiliste. Sur le papier, cela semble avancé - ToolsGroup dit qu’il modélise l’incertitude de la demande et “auto-ajuste” les prévisions, ce qui devrait permettre des objectifs de stocks plus précis. Cependant, un examen technique approfondi soulève des préoccupations. Les documents publics de ToolsGroup laissent encore entendre qu’ils utilisent des modèles de prévision de l’ère pré-2000 sous le capot 18 - ils ont ajouté une touche “IA” dans le marketing, mais sans spécificités. De manière révélatrice, depuis 2018, ils font la publicité des prévisions probabilistes tout en se vantant simultanément des améliorations de MAPE 19. C’est une contradiction flagrante : si les prévisions sont vraiment des distributions probabilistes, des mesures comme le MAPE (qui mesure la précision d’une seule valeur) ne s’appliquent plus directement 19. De telles incohérences suggèrent que la partie “probabiliste” pourrait être superficielle ou qu’ils s’adaptent aux anciennes mesures malgré les nouvelles méthodes. De plus, ToolsGroup a utilisé des mots à la mode comme “demand sensing AI”, mais ces affirmations ne sont soutenues par aucune littérature scientifique ou benchmark connu 20. En pratique, de nombreux déploiements de ToolsGroup fonctionnent encore comme des systèmes automatisés basés sur des règles avec des alertes d’exception. En résumé : ToolsGroup a une large fonctionnalité et était en avance dans la promotion de la modélisation de l’incertitude, mais son manque de transparence sur les algorithmes et l’écart entre le marketing et la réalité sur l’IA/ML rendent sa crédibilité technique seulement modérée. C’est un ensemble d’outils solide et axé sur le domaine, mais pas clairement à la pointe de la technologie selon les normes d’aujourd’hui.

  7. Slimstock (Slim4)Simple et solide. Slimstock est un outsider rafraîchissant qui ne suit pas les tendances. Son logiciel Slim4 se concentre sur les techniques de supply chain traditionnelles - des choses comme les calculs de stock de sécurité, les points de réapprovisionnement, la quantité de commande économique (EOQ), etc. 21. En d’autres termes, Slimstock s’en tient à des méthodes bien établies et éprouvées enseignées dans les manuels. Bien que cela signifie pas d’IA/ML sophistiquée ou d’algorithmes de pointe, cela signifie également que Slim4 est fiable et facile à comprendre. Le fournisseur évite explicitement les revendications vagues de l’IA et met plutôt l’accent sur des fonctionnalités pratiques qui correspondent aux besoins quotidiens de la supply chain 22. Cette honnêteté est un mérite technique : les utilisateurs savent exactement ce qu’ils obtiennent, et le comportement du système est prévisible. Bien sûr, être simple peut aussi être une limitation - vous n’obtiendrez pas de prévisions de demande probabilistes ou d’optimiseurs avancés de Slim4. Il n’est pas conçu pour des réseaux très complexes ou des volumes de données massifs (et en effet, son architecture technologique est probablement une base de données standard avec mise en cache en mémoire, adaptée aux problèmes de taille moyenne). Mais pour de nombreuses entreprises, plus simple est mieux si cela signifie que l’outil fonctionne de manière constante. Slimstock gagne des points de crédibilité pour avoir évité le bingo des mots à la mode ; son approche “à l’essentiel” est saluée par ses pairs comme un contraste avec la posture IA des autres 23. En résumé, Slim4 ne repousse pas les limites technologiquement, mais c’est un choix judicieux pour la prévision fondamentale et la gestion des stocks avec un minimum de battage médiatique et une architecture claire et à faible risque.

  8. o9 Solutions - Machine à hype High-Tech. o9 se présente comme un “Cerveau Numérique” pour la supply chain de l’entreprise, combinant la prévision de la demande, la planification de l’approvisionnement, le S&OP, et même la gestion des revenus sur une seule plateforme. Techniquement, o9 a intégré beaucoup de concepts technologiques modernes dans son produit : un modèle de données en mémoire, une base de données graphique appelée “Enterprise Knowledge Graph (EKG)”, et divers composants IA/ML. La pure “masse technologique” de o9 est hors normes 24 - selon les standards des logiciels d’entreprise, c’est une architecture très ambitieuse qui tente d’unifier toutes les données et les analyses de planification. Cependant, en appliquant un certain scepticisme : beaucoup de cela semble être de la technologie pour la technologie, sans bénéfice clair. La conception en mémoire de o9 garantit des coûts matériels extrêmement élevés à grande échelle 25, similaires à l’exécution d’un gigantesque cube BI en continu. o9 vante son EKG (graphique de connaissances) comme permettant une prévision supérieure et des insights guidés par l’IA, mais aucune preuve scientifique ou benchmarks crédibles ne sont fournis 25. En fait, beaucoup des affirmations tape-à-l’œil de o9 s’effondrent sous l’examen : l’entreprise parle d’IA partout, mais des morceaux de leur code visible publiquement sur GitHub révèlent des techniques plutôt banales 26. Par exemple, o9 a fait la publicité de fonctionnalités comme la prévision de la demande par apprentissage automatique et les simulations “jumeau numérique”, mais elle ne les a démontrées dans aucune compétition publique ou étude de cas évaluée par des pairs. Sans preuve, nous devons traiter ses affirmations sur l’IA comme de la hype marketing. Cela dit, o9 n’est pas sans atouts - c’est une plateforme unifiée (construite en interne, pas une amalgamation d’acquisitions) et peut gérer l’intégration de données à grande échelle. Pour une entreprise prête à investir dans le matériel et à faire face à une courbe d’apprentissage abrupte, o9 offre la flexibilité de construire des modèles de planification complexes. Mais d’un point de vue ingénierie, c’est une solution sur-conçue : beaucoup de complexité, un ROI incertain sur la technologie sophistiquée, et des problèmes de performance potentiels si les données dépassent ce que la mémoire peut contenir. Jusqu’à ce que o9 fournisse des preuves concrètes (par exemple, de la documentation sur les algorithmes ou des résultats de benchmark), sa crédibilité reste discutable.

  9. SAP IBP (Integrated Business Planning)Complet mais complexe. La suite IBP de SAP est l’évolution de l’ancien APO de SAP, désormais proposée comme une solution cloud sur la base de données in-memory SAP HANA. SAP IBP vise à couvrir tout le spectre : prévision de la demande, optimisation des stocks, planification de la supply chain, planification des ventes et des opérations, et plus encore - le tout étroitement intégré à l’ERP de SAP. La force de SAP IBP est sa largeur : il dispose d’un module pour presque chaque aspect de la planification, souvent avec une fonctionnalité très riche héritée de décennies d’expérience SAP. Cependant, cette largeur est le résultat d’acquisitions et de systèmes hérités. SAP a acquis des spécialistes comme SAF (prévision de la demande), SmartOps (optimisation des stocks), et d’autres 27 et a superposé ceux-ci à ses outils internes (comme APO et HANA). Le résultat sous le capot est un patchwork de différents moteurs et approches 27. En conséquence, l’architecture technique de IBP n’est pas élégante - c’est une collection de composants qui ne se “mélangent” pas naturellement, nécessitant un effort d’intégration important. Même la documentation de SAP reconnaît la haute complexité et la nécessité de disposer d’intégrateurs de systèmes de premier ordre (et d’un temps substantiel) pour que tout fonctionne sans accroc 28. Sur le plan technologique, IBP s’appuie fortement sur SAP HANA, une base de données colonne en mémoire, pour obtenir des performances en temps réel. HANA est certes rapide, mais elle est aussi coûteuse - le stockage de grandes données de planification uniquement en RAM est intrinsèquement coûteux (la RAM est environ 100 fois plus chère par To que le stockage sur disque) 10. Cela signifie que le passage à l’échelle de IBP à de très grands ensembles de données de supply chain entraîne des coûts d’infrastructure significatifs, et si les données dépassent la mémoire, les performances peuvent chuter brutalement. SAP a commencé à ajouter quelques fonctionnalités d’apprentissage automatique (par exemple, “Demand Driven MRP” et IBP for Demand a quelques options de prévision ML), mais ce sont surtout des ajouts optionnels avec une transparence limitée. Il n’y a aucune preuve que le ML de SAP est supérieur aux alternatives ; en fait, aucun algorithme SAP n’a fait une apparition dans les compétitions de prévision indépendantes. En résumé, SAP IBP est riche en fonctionnalités et testé en entreprise - il coche toutes les cases en termes de fonctionnalité - mais d’un point de vue de pureté technique, c’est un mélange : vitesse en mémoire mariée à une logique héritée, beaucoup de complexité provenant de produits fusionnés, et aucune innovation technique claire en matière de prévision ou d’optimisation au-delà de ce que les pièces acquises faisaient déjà. Les entreprises le choisissent souvent pour son intégration avec l’ERP SAP plutôt que pour son excellence en matière d’optimisation.

  10. Blue YonderAncien leader devenu patchwork. Blue Yonder (anciennement JDA Software) propose une suite complète couvrant la prévision, la planification de la supply chain, le merchandising et l’exécution. C’est le résultat de nombreuses années de fusions et acquisitions, y compris l’acquisition par JDA de i2 Technologies (planification de la supply chain), Manugistics, et la startup d’IA Blue Yonder (dont il a adopté le nom) parmi d’autres 29. Malheureusement, le logiciel d’entreprise n’est pas une simple somme de parties : sous la marque unifiée Blue Yonder se trouve un patchwork de produits (beaucoup d’entre eux assez datés) vaguement cousus ensemble 29. D’un point de vue technique, les solutions de Blue Yonder vont des moteurs de prévision déterministes à l’ancienne aux modules d’optimisation de stocks qui n’ont pas fondamentalement changé depuis plus de 15 ans. L’entreprise fait beaucoup de publicité pour les capacités “IA” et “ML” de sa plateforme Luminate, mais les détails sont rares. En fait, les quelques artefacts publics que nous pouvons trouver - tels que des projets open-source et des brevets attribués à l’équipe de data science de Blue Yonder - suggèrent qu’ils utilisent des méthodes assez traditionnelles (par exemple, l’extraction de caractéristiques de séries temporelles, les modèles ARMA et de régression linéaire) 30. Ces techniques sont correctes, mais ce sont des approches vieilles de plusieurs décennies qui sont souvent surpassées par des méthodes plus récentes. Il semble que l’IA tant vantée de Blue Yonder pourrait simplement être une régression et des heuristiques reconditionnées. Sans études de cas transparentes ou de documents techniques, on doit supposer que les affirmations de Blue Yonder sur une “prévision révolutionnaire par l’IA” sont du bluff marketing. De plus, l’intégration de tous ses composants acquis est un défi constant - de nombreux clients notent des difficultés à obtenir la promesse “de bout en bout” parce que les modules (demande, approvisionnement, exécution, etc.) ne se branchent pas naturellement sans une personnalisation importante. En mémoire vs. sur disque ? Blue Yonder n’annonce pas une architecture entièrement en mémoire comme certains autres ; des parties du système fonctionnent probablement sur des bases de données relationnelles standard. Cela pourrait en fait être une grâce salvatrice en termes de coût, mais cela signifie aussi que les performances peuvent être à la traîne à moins que les données ne soient agrégées (par exemple, leurs anciens systèmes utilisaient souvent des runs de planification par lots). En résumé, Blue Yonder est un conte édifiant : autrefois leader de l’industrie, il propose maintenant une suite large mais techniquement incohérente. Ses points forts résident dans l’expérience du domaine et un large ensemble de fonctionnalités, mais ses points faibles sont une technologie dépassée sous une nouvelle couche de peinture et un manque de preuves crédibles pour ses nouvelles capacités “IA”.

(Note : D’autres fournisseurs comme Infor (avec les composants hérités de GT Nexus et Mercia), GAINS Systems (un autre spécialiste de l’optimisation des stocks), John Galt Solutions (planification de la demande pour le marché intermédiaire), Relex Solutions (prévision de la vente au détail avec un moteur en mémoire), etc., existent également. Dans un souci de concentration, nous avons classé les exemples les plus importants ou instructifs ci-dessus. Les mêmes critères sceptiques s’appliquent à ceux qui ne sont pas classés individuellement : par exemple, Relex utilise une conception de type cube OLAP en mémoire - idéale pour la vitesse, mais garantit un coût matériel élevé pour les grands détaillants 31 ; Infor a grandi grâce à des acquisitions entraînant des problèmes d’intégration similaires à SAP/Blue Yonder ; GAINS et John Galt offrent une fonctionnalité de base solide mais peu de documentation publique sur des techniques nouvelles. Tout fournisseur ne partageant pas ouvertement les détails techniques ou les preuves serait de toute façon classé bas dans la méthodologie de cette étude.)*

Analyse Technique Approfondie

Dans cette section, nous approfondissons des aspects techniques spécifiques des meilleurs logiciels d’optimisation de la supply chain, en nous concentrant sur quatre domaines clés : Prévision & IA, Capacités d’automatisation, Architecture du système, et Intégration des modules. Toutes les analyses sont basées sur des informations techniques publiées ou des preuves concrètes, en évitant explicitement tout langage marketing.

Capacités de Prévision & IA

La planification moderne de la supply chain repose sur la précision de la prévision de la demande, pourtant les affirmations de supériorité en matière de prévision sont courantes et souvent infondées. Notre enquête a révélé que la plupart des capacités de prévision des fournisseurs ne dépassent pas significativement les méthodes statistiques standard - malgré des mots à la mode comme “IA” ou “apprentissage automatique” dans leur marketing.

  • Performance prouvée vs. Hype : Parmi tous les fournisseurs, Lokad est le seul à avoir un historique de prévision de classe mondiale vérifiable, grâce à la compétition ouverte M5. Lokad a démontré sa maîtrise de la prévision probabiliste en se classant en tête pour la précision au niveau des SKU 1. Cela donne de la crédibilité aux affirmations de Lokad d’une meilleure précision de prévision. En revanche, aucun autre fournisseur n’a publié de résultats comparables sur un benchmark indépendant. Par exemple, certains fournisseurs font la publicité d’algorithmes propriétaires (l’un appelle sa méthode “Procast”) prétendant une précision supérieure, mais ces méthodes étaient absentes des premiers rangs de la compétition M5 32. En pratique, les approches open-source académiques (comme les packages de prévision R du Prof. Rob Hyndman) sont probablement aussi bonnes ou meilleures que la plupart des moteurs propriétaires fermés 13. Par conséquent, toute affirmation de fournisseur de “meilleure précision de prévision de l’industrie” sans preuve publique doit être considérée comme non étayée.

  • Affirmations sur l’IA et l’apprentissage automatique : Nous avons appliqué un scepticisme extrême à l’égard du buzz autour de l’IA/ML. Des fournisseurs tels que o9 Solutions et Blue Yonder utilisent beaucoup des termes comme “prévision basée sur l’IA/ML” dans leurs brochures. Cependant, lorsque nous cherchons du concret, nous trouvons peu de choses. Dans le cas de o9, leurs affirmations selon lesquelles le “Enterprise Knowledge Graph” basé sur des graphes donne de meilleures prévisions sont douteuses sans aucun soutien scientifique 25. Blue Yonder fait également la promotion de l’IA mais ne fournit aucun détail - le seul aperçu de leur technologie provient de quelques dépôts open-source qui montrent l’utilisation de techniques de séries temporelles assez ordinaires (ARMA, régression linéaire, ingénierie des caractéristiques) 30. Il n’y a aucune preuve d’apprentissage profond, de méthodes probabilistes avancées, ou d’autres IA modernes qui justifieraient leur marketing. ToolsGroup a incorporé des concepts d’apprentissage automatique (ils parlent de “détection de la demande” en utilisant l’apprentissage automatique), mais là encore aucune étude évaluée par des pairs ou victoire en compétition pour le valider 20. En fait, l’association par ToolsGroup de la “prévision probabiliste” avec de vieux indicateurs comme le MAPE suggère que leur IA est plus du buzz que de la percée 19. Conclusion : En dehors de Lokad (et dans une certaine mesure SAS, qui utilise des modèles statistiques éprouvés), la prévision dans la plupart des logiciels de supply chain reste basée sur des méthodes connues (lissage exponentiel, régression, peut-être un peu de ML basé sur des arbres) et non sur une IA géniale propriétaire. Les fournisseurs qui ont de véritables algorithmes novateurs les démontreraient publiquement. Le manque de validation indépendante est révélateur.

  • Approches probabilistes vs déterministes : Un différenciateur technique notable est de savoir si un fournisseur adopte la prévision probabiliste (prédiction d’une distribution complète des résultats de la demande) ou s’en tient à des prévisions à un seul point. Lokad est un fervent défenseur des distributions de probabilité complètes depuis 2012, et en effet, il optimise les décisions (comme les niveaux de stocks) directement à partir des prévisions probabilistes. ToolsGroup prétend également produire des prévisions probabilistes (probablement via des simulations de Monte Carlo de la demande). Cependant, nous avons constaté que beaucoup de ceux qui prétendent être “probabilistes” reviennent encore à des mesures et des processus déterministes en interne. Par exemple, le marketing de ToolsGroup sur la réduction du MAPE en utilisant des modèles probabilistes est incohérent, puisque le MAPE ne peut même pas être calculé sur une sortie de prévision probabiliste 19. Cela suggère que leur processus finit par se réduire à une prévision ponctuelle (moyenne ou médiane) pour l’évaluation, sapant l’avantage probabiliste. D’autres fournisseurs comme SAP, Oracle, Blue Yonder ont commencé à mentionner des termes probabilistes (SAP IBP a maintenant des “ensembles statistiques” et des intervalles de confiance), mais encore une fois, leurs interfaces utilisateur et leurs rapports reviennent souvent à des prévisions à un seul chiffre avec des mesures d’erreur traditionnelles. Adopter une véritable prévision probabiliste nécessite de repenser les KPI (en utilisant la perte de Pinball, le CRPS, ou l’atteinte du taux de service au lieu du MAPE). Nous n’avons pas trouvé de preuve qu’un grand fournisseur, à part Lokad, ait été aussi loin dans la pratique. En résumé, la prévision probabiliste est un domaine où le marketing est en avance sur la réalité pour la plupart des fournisseurs - ils peuvent générer certaines distributions en arrière-plan, mais les planificateurs regardent toujours les chiffres de prévision ponctuelle et les KPI classiques, ce qui indique une adoption limitée du paradigme.

  • Métriques de prévision et évaluation : Un aspect important de la rigueur technique est la manière dont un fournisseur évalue la qualité de la prévision. Un drapeau rouge est l’adhérence continue à des métriques comme le MAPE, le WAPE, ou le biais comme seules mesures de succès, surtout si le fournisseur prétend utiliser l’IA ou des méthodes probabilistes. C’est parce que ces métriques encouragent une prévision conservatrice, moyenne et peuvent être manipulées (par exemple, en éliminant les hauts et les bas). Nous avons observé que les fournisseurs ayant une prévision réellement avancée ont tendance à parler de taux de service ou de résultats commerciaux (par exemple, probabilité de rupture de stock, impact sur les coûts) plutôt que de se contenter du MAPE. Lokad, par exemple, met l’accent sur la réduction des “dollars d’erreur” et l’alignement des prévisions avec l’optimisation des décisions 33. En revanche, ToolsGroup, Blue Yonder, et beaucoup d’autres mettent encore en avant les erreurs en pourcentage dans leurs études de cas, montrant une mentalité dépassée. Si la documentation ou la démo d’un fournisseur met en avant les tableaux de bord MAPE/WAPE, c’est un signe que leur prévision est probablement traditionnelle. En effet, l’incohérence de ToolsGroup sur le MAPE a déjà été notée 19. En bref : une véritable prévision de pointe dans la supply chain serait prouvée par des métriques probabilistes et une validation dans le monde réel - des attributs principalement absents en dehors d’un ou deux acteurs.

Capacités d’automatisation et de flux de travail

L’optimisation de la supply chain ne concerne pas seulement les algorithmes ; elle concerne également la manière dont le logiciel peut gérer le processus de planification de manière automatisée et “sans intervention”. Nous avons examiné les affirmations et la documentation de chaque fournisseur pour trouver des preuves d’automatisation, d’intégration API, et de soutien à la prise de décision autonome.

  • Lokad : L’automatisation est l’une des caractéristiques de Lokad. La solution entière est construite autour d’un langage spécifique au domaine (Envision) qui permet aux planificateurs de la supply chain de coder leur logique et leurs décisions dans des scripts, qui s’exécutent ensuite automatiquement selon un calendrier. Lokad documente clairement ses pipelines de données et son gestionnaire de flux de travail qui rafraîchit les données et recalcule les décisions (prévisions, commandes de réapprovisionnement, etc.) sans intervention manuelle 34 35. Ils discutent même d’avoir des “configurations hautement automatisées” pour ~100 supply chains en production 35, ce qui signifie que le logiciel extrait les données, fait des prévisions, et produit des décisions (comme des propositions de commandes d’achat) de manière autonome. De plus, Lokad fournit des API pour le téléchargement des données et des résultats, et a un concept de “Pilote AI” pour l’automatisation des tâches administratives 36. Tout cela indique un très haut niveau d’automatisation réelle - le rôle de l’utilisateur est principalement de surveiller et d’affiner le code/les paramètres, et non de pousser manuellement des boutons pour chaque plan. L’approche de Lokad en matière d’automatisation est crédible et techniquement détaillée (ils ont même donné des conférences sur la manière de passer de décisions manuelles à des décisions automatisées 37 38).

  • Kinaxis : Kinaxis RapidResponse est conçu pour une analyse rapide des scénarios et une collaboration plutôt que pour une planification entièrement automatisée. Le concept de “planification concurrente” concerne tout le monde travaillant sur le même ensemble de données avec des mises à jour en temps réel, mais il implique généralement des planificateurs humains pour évaluer les scénarios et prendre des décisions. Cela dit, Kinaxis soutient l’automatisation de certaines manières : il peut ingérer des données provenant de systèmes ERP en temps quasi réel, exécuter ses algorithmes de correspondance offre/demande en continu, et déclencher des alertes ou des messages d’exception aux utilisateurs lorsque les choses dépassent les limites. Il expose des fonctionnalités via des API et a des scripts (sous forme d’algorithmes configurables et de macros dans son environnement) pour les utilisateurs avancés. Cependant, Kinaxis se positionne généralement comme un support à la décision, et non comme une boîte noire qui libère automatiquement des commandes. Le fournisseur ne revendique pas haut et fort une “supply chain autonome” ; au contraire, il se concentre sur l’efficacité des planificateurs. C’est une position honnête. Cela signifie que par défaut, RapidResponse s’attend toujours à ce qu’il y ait des humains dans la boucle - ce qui peut être une limitation si l’on cherche un système de supply chain “autonome”. Techniquement, Kinaxis peut être intégré en profondeur (par exemple, il s’intègre souvent avec SAP ERP pour exécuter des plans approuvés), mais une opération de bout en bout sans surveillance nécessiterait beaucoup de configuration personnalisée. Nous n’avons pas trouvé de preuve que Kinaxis fournisse des recommandations de décision basées sur l’IA (leur force est plutôt dans le calcul rapide de scénarios définis par les utilisateurs).

  • o9 Solutions : o9 commercialise fortement des concepts comme un “jumeau numérique” de l’organisation et une IA qui peut faire des recommandations. Ils parlent d’“Automatisation” dans le contexte de leurs assistants numériques - probablement des bots qui peuvent faire remonter des informations ou accomplir certaines tâches. Cependant, en l’absence de documentation technique concrète, il est difficile de déterminer ce qui est réel. Nous n’avons pas pu trouver de spécificités comme “o9 peut automatiquement libérer des commandes de réapprovisionnement via API en fonction de ses plans” ou “o9 utilise l’apprentissage par renforcement pour ajuster ses paramètres de manière autonome.” L’absence de précision de l’histoire de l’automatisation de o9 est préoccupante : beaucoup de discours de haut niveau, peu de détails. Compte tenu de sa base EKG en mémoire, nous soupçonnons que o9 est capable de mises à jour de données en temps réel et de recalculs, mais il s’appuie probablement encore sur les utilisateurs pour configurer ce qu’il faut faire avec ces informations. Sans références crédibles, nous considérons les affirmations d’“autonomie” de o9 comme non vérifiées. Il est possible d’intégrer o9 via des API dans des systèmes d’exécution (c’est un logiciel moderne, donc l’intégration API devrait exister), mais la quantité de prise de décision réellement automatisée par l’IA dans o9 est incertaine. Les preuves suggèrent que l’automatisation actuelle de o9 concerne davantage l’accélération des analyses (par exemple, des scénarios instantanés de type “what-if”) que l’automatisation des sorties de décision.

  • Blue Yonder : Ces dernières années, Blue Yonder (surtout depuis son acquisition par Panasonic) a mis en avant le terme de “supply chain autonome”, suggérant un système capable de fonctionner avec une intervention humaine minimale. Ils disposent de certains composants, comme Luminate Control Tower, qui utilisent l’IA pour détecter les perturbations et éventuellement déclencher des réponses. Cependant, compte tenu du noyau central hérité de Blue Yonder, il est probable que toute autonomie est obtenue en superposant de l’RPA (Robotic Process Automation) ou de simples agents IA sur les modules existants. Par exemple, la planification de la demande de Blue Yonder pourrait produire une prévision, et une couche “IA” pourrait l’ajuster automatiquement en fonction des ventes en temps réel (détection de la demande) ou envoyer une alerte en cas de déviation. Mais la planification entièrement automatisée (comme l’émission automatique de commandes, l’ajustement automatique des politiques de stocks) est probablement rare avec les solutions BY - les clients ont généralement encore des planificateurs qui vérifient et approuvent les actions. Le manque de littérature technique détaillée sur la façon dont Blue Yonder automatise les décisions est révélateur. S’ils avaient un planificateur véritablement autonome, ils publieraient des histoires de réussite ou des blogs techniques à ce sujet. Au lieu de cela, ils publient principalement des webinaires marketing. Nous en déduisons donc que Blue Yonder permet un certain degré d’automatisation (comme les travaux par lots, les mises à jour des plans, peut-être une intégration en boucle fermée avec les systèmes d’exécution), mais il n’est pas démontrablement en avance dans ce domaine. Il utilise probablement une planification basée sur des exceptions similaire aux anciens systèmes (juste avec une nouvelle couche IA sur le système d’alerte).

  • ToolsGroup : ToolsGroup s’est historiquement vanté de son “Powerfully Simple Automation”. Ils prétendaient que leur système pouvait fonctionner en mode sans intervention pendant de longues périodes, n’impliquant les planificateurs que pour les exceptions. En effet, la philosophie de ToolsGroup était de laisser le système recalculer et replanifier automatiquement chaque jour, s’adaptant aux nouvelles données. À son crédit, de nombreux clients de ToolsGroup ont signalé une réduction de la charge de travail des planificateurs car le logiciel ajuste lui-même les objectifs de stocks et recommande automatiquement les commandes. ToolsGroup dispose également d’une boîte à outils d’intégration pour transmettre les commandes approuvées aux systèmes ERP. Cependant, en raison des contradictions précédemment notées, nous avons des doutes sur l’intelligence de cette automatisation. Il se peut qu’elle applique simplement la même formule chaque jour et signale quand quelque chose ne va pas (gestion des exceptions). ToolsGroup fournit une API et prend en charge les exécutions programmées, donc techniquement, l’infrastructure pour l’automatisation est là. La question est la qualité des décisions automatisées. Ils mentionnent beaucoup l’“auto-réglage” - ce qui implique que le logiciel ajuste les paramètres du modèle de prévision de manière autonome à mesure que de nouvelles données arrivent 39. Si c’est vrai, c’est une automatisation utile (éliminant le besoin d’une reconfiguration humaine constante). Sans évaluation indépendante, nous disons prudemment que ToolsGroup offre une grande automatisation dans les tâches de planification de routine, mais le manque de transparence rend difficile de juger à quel point cette automatisation est “intelligente” (par exemple, apprend-elle et s’améliore-t-elle réellement, ou suit-elle simplement des règles prédéfinies ?).

  • Autres fournisseurs : La plupart des autres acteurs soutiennent les capacités d’automatisation standard : intégration de données via des API ou des lots de fichiers, exécutions de planification programmées, et certains workflows basés sur des exceptions. Par exemple, SAP IBP peut être configuré pour exécuter automatiquement un travail de prévision chaque mois et peupler les résultats de la planification, mais généralement un planificateur examine la sortie. Anaplan est moins axé sur l’automatisation - c’est plus une plateforme de modélisation manuelle, bien que vous puissiez utiliser son API pour pousser/tirer des données et peut-être automatiser certains calculs. Dassault/Quintiq peut être programmé pour exécuter des routines d’optimisation sur un calendrier (et le DSL de Quintiq signifie que vous pouvez programmer des comportements automatiques personnalisés), mais encore une fois, il est aussi autonome que le programmeur l’a programmé pour l’être. GAINS, Relex, Netstock et d’autres fournisseurs de niche annoncent tous une “automatisation de bout en bout” dans le réapprovisionnement - signifiant généralement qu’ils peuvent générer automatiquement des bons de commande ou des recommandations de transfert de magasin. La différence clé réside dans le niveau de supervision nécessaire : un système de planification véritablement autonome n’appellerait les humains que pour des situations inhabituelles et documenterait ses décisions avec un raisonnement. Nous n’avons trouvé aucun fournisseur qui atteint pleinement cet idéal pour l’instant. Ils exigent soit que les humains ajustent et approuvent (dans la plupart des cas), soit ils automatisent seulement les décisions les plus faciles et laissent le reste.

Résumé pour l’automatisation : Seuls quelques fournisseurs (notamment Lokad) détaillent publiquement un cadre d’automatisation permettant des cycles de planification non supervisés, pilotés par API. D’autres ont les moyens techniques pour l’automatisation mais s’appuient encore sur les humains pour boucler la boucle. Nous notons également que certains fournisseurs ont déplacé leur focus au cours des dernières décennies de l’automatisation complète vers la “gestion des exceptions” - qui est essentiellement une approche semi-automatisée où le logiciel fait ce qu’il peut et signale le reste aux humains 38. Cette approche, bien que pratique, peut être une béquille pour un logiciel qui n’est pas assez robuste pour être entièrement confié. Notre point de vue sceptique est : si un fournisseur ne peut pas expliquer comment il automatise les décisions (quels algorithmes, quels déclencheurs, quels appels API), alors son “automatisation” est probablement juste du discours marketing.

Architecture du système & Scalabilité

L’architecture sous le capot - en particulier l’utilisation de la mémoire vive par rapport au disque, et les choix de conception globale - a d’énormes implications pour la scalabilité, le coût et les performances d’un logiciel de supply chain. Nous avons examiné la technologie de base de chaque fournisseur en nous concentrant sur la manière dont ils gèrent les grandes données et les calculs complexes.

  • Informatique en mémoire - Avantages et inconvénients : Plusieurs des principaux fournisseurs s’appuient sur une architecture en mémoire, ce qui signifie que le logiciel charge la plupart ou la totalité des données pertinentes en RAM pour un accès rapide lors des calculs. Cela inclut Kinaxis, Anaplan, o9, SAP HANA (IBP), Relex, et peut-être Quintiq (pour résoudre les scénarios). L’avantage est la vitesse : l’accès à la RAM est des ordres de grandeur plus rapide que le disque. Par exemple, le moteur de Kinaxis met toutes les données en mémoire pour permettre le recalcul instantané des scénarios et des opérations algorithmiques directes sur l’ensemble de données 9. HANA de SAP a été construit sur la prémisse que les analyses sur les données en direct devraient se faire en mémoire pour des résultats en temps réel 40 41. Cependant, il y a un problème fondamental avec une conception entièrement en mémoire : le coût et la scalabilité. La mémoire (RAM) est extrêmement chère par rapport au stockage. 1 To de RAM peut coûter 100 fois plus cher que 1 To de disque 10. Et la taille de la mémoire sur les serveurs est physiquement limitée (les systèmes typiques peuvent avoir au plus 0,5 à 2 To de RAM, alors que les ensembles de données de plusieurs téraoctets ou pétaoctets sont courants dans les grandes supply chains). Ces dernières années, la baisse drastique attendue du coût de la RAM ne s’est pas concrétisée - les prix et les capacités de la RAM ont été assez stagnants 42. Cela signifie que tout système qui exige que toutes les données soient en mémoire fera face à des coûts d’infrastructure qui s’envolent à mesure que les données augmentent, ou atteindra un plafond dur où il ne peut tout simplement pas contenir les données. Nous qualifions la forte dépendance à la conception en mémoire comme une erreur architecturale pour les grandes supply chains, à moins qu’elle ne soit atténuée.

  • Mémoire vs. Disque : Pratiques modernes : De manière intéressante, le monde technologique a réalisé que les solutions purement en mémoire ne sont pas l’avenir pour les big data. Les architectures plus récentes utilisent une approche hiérarchisée - garder les données chaudes en mémoire et les données froides sur les SSD, etc. 43 44. Certains logiciels de supply chain ont commencé à adopter cette approche. Par exemple, Lokad utilise explicitement des techniques de “débordement sur disque” dans son infrastructure cloud. Leur CTO a décrit comment ils gèrent un ensemble de données de vente au détail de 10 milliards de lignes en utilisant environ 37 Go de RAM plus un SSD NVMe rapide pour déborder 45 3. Ils obtiennent des performances proches de la RAM en mappant des fichiers en mémoire et en ne gardant que les données les plus chaudes en RAM, le logiciel échangeant intelligemment au besoin 46 47. Cette approche permet de réaliser d’énormes économies - par exemple, pour le coût de 18 Go de RAM haut de gamme, on peut acheter 1 To de SSD NVMe 3, donc c’est 50 fois moins cher par octet tout en étant seulement ~6 fois plus lent en accès brut, un compromis souvent intéressant à faire. Aucun des fournisseurs centrés sur la mémoire (Kinaxis, SAP, o9, etc.) n’a publiquement décrit une telle gestion de la mémoire adaptative, ce qui suggère que leurs solutions pourraient simplement demander beaucoup de RAM ou nécessiter une agrégation de données pour s’adapter. Anaplan est connu pour avoir du mal avec les limites de taille de modèle - certains clients se heurtent aux limites de mémoire de son Hyperblock et doivent diviser les modèles. Kinaxis a probablement aussi besoin de plusieurs serveurs en réseau pour des données très volumineuses (ils ont un concept de distribution de données, mais dans chaque nœud, elles sont résidentes en mémoire). SAP HANA peut décharger sur disque (il a des nœuds d’extension), mais les performances en pâtissent. En conclusion : une conception rigide en mémoire est un signal d’alarme pour la scalabilité. Cela peut fonctionner brillamment pour des données de petite à moyenne taille, mais à mesure que la supply chain grandit (pensez : planification détaillée au niveau SKU-magasin-jour pour un détaillant mondial), les coûts et les risques de performance augmentent. L’ingénierie moderne favorise un mélange d’utilisation de la mémoire et du disque pour équilibrer la vitesse et le coût, et les fournisseurs qui ne le font pas sont à la traîne.

  • Tech Stack et Complexité : Au-delà de la mémoire, un autre élément architectural est la pile technologique globale - monolithique vs. microservices, utilisation de langages de programmation modernes, etc. Sans entrer trop dans les détails, nous avons observé que les fournisseurs plus anciens (SAP APO/IBP, Blue Yonder) fonctionnent sur des piles plus monolithiques et héritées, tandis que les plus récents (o9, Anaplan) ont construit leur propre chose à partir de zéro avec une technologie plus récente. Par exemple, le cœur de SAP IBP comprend toujours des moteurs des années 2000 (comme l’optimiseur d’APO) maintenant enveloppés dans une couche HANA/cloud. Cela introduit de la complexité et une inefficacité potentielle (plusieurs couches d’abstraction). Blue Yonder a également beaucoup de code hérité des jours de i2 et JDA. Kinaxis est quelque peu unique - il est ancien (commencé dans les années 90) mais ils ont continuellement refactorisé dans leur propre noyau de base de données ; cependant, c’est une pile propriétaire qu’ils sont les seuls à utiliser. Anaplan a construit un moteur de calcul très efficace (en Java) pour son cas d’utilisation spécifique (Hyperblock), et il est assez optimisé pour cet objectif - mais il n’est pas ouvert, et vous devez vivre avec ses contraintes (par exemple, pas de requêtes SQL, complexité algorithmique limitée car il s’agit plutôt de calculs basés sur des cellules). La plateforme d’o9 comprend un mélange de technologies (probablement une base de données NoSQL/graph, peut-être Spark ou similaire pour certains ML, etc.), ce qui la rend complexe mais théoriquement flexible.

  • Matériel et Cloud : Une tendance notable est la conception native pour le cloud. De nombreux fournisseurs proposent désormais leur logiciel en tant que SaaS ou au moins hébergé dans le cloud, mais tous ne sont pas vraiment natifs du cloud. Par exemple, Anaplan et o9 sont des SaaS multi-locataires (conçus pour le cloud dès le départ). Lokad est nativement cloud (il fonctionne sur Microsoft Azure et alloue dynamiquement des ressources). SAP IBP est hébergé dans le cloud mais chaque client est essentiellement une instance isolée sur HANA (pas multi-locataire au même sens). ToolsGroup, Blue Yonder ont des offres SaaS mais souvent ce ne sont que leurs logiciels sur site gérés par eux dans le cloud. Pourquoi cela compte-t-il techniquement ? Les architectures natives du cloud sont généralement plus élastiques - elles peuvent augmenter la capacité de calcul lorsque c’est nécessaire (pour une grande exécution de planification) et la réduire ensuite, contrôlant éventuellement les coûts. Les systèmes non cloud nécessitent souvent d’acheter pour une capacité de pointe même si elle est utilisée occasionnellement. De plus, les systèmes natifs du cloud peuvent mieux s’intégrer à d’autres services cloud (par exemple, se connecter à un service ML cloud ou à un lac de données). D’après ce que nous avons trouvé, les solutions les plus natives du cloud, conçues pour être évolutives, semblent être Lokad et o9 (et peut-être Anaplan), tandis que les autres rattrapent leur retard. Cependant, être natif du cloud ne signifie pas forcément avoir une bonne architecture - o9 est natif du cloud mais nous avons remis en question son approche lourde en mémoire ; le fait que SAP IBP soit sur le cloud ne supprime pas ses problèmes de complexité.

  • Concurrence et besoins en temps réel : Un aspect architectural à considérer est la façon dont le système gère les utilisateurs concurrents et les mises à jour en temps réel. Kinaxis brille ici : il a été conçu pour permettre à plusieurs planificateurs de faire de la planification de scénarios simultanément sur le même ensemble de données. Cela nécessite une logique de versionnement et de verrouillage des données soignée - que Kinaxis a réalisée grâce à leur mécanisme de branchement 8. La plupart des autres outils ont traditionnellement suivi un paradigme par lots (planifier, publier, puis collaborer séparément). Maintenant, beaucoup ajoutent des fonctionnalités de planification concurrente. Anaplan permet à plusieurs personnes de travailler dans différentes parties du modèle en même temps (puisqu’il est essentiellement basé sur des cellules comme Google Sheets). SAP IBP a introduit une interface utilisateur “à la Microsoft Excel” qui peut rafraîchir les données du serveur à la demande, mais la vraie concurrence (plusieurs utilisateurs modifiant le même plan simultanément) est limitée. o9 supporte probablement un certain niveau de concurrence grâce à son graphe de connaissances (plusieurs utilisateurs peuvent ajuster différents nœuds). En évaluant le mérite technique, un système qui peut vraiment fonctionner en temps réel avec de nombreux utilisateurs indique une architecture robuste. Kinaxis et Anaplan marquent des points ici. Ce n’est pas que les autres ne peuvent pas le faire, mais souvent leurs architectures plus anciennes rendent cela difficile - ce qui se traduit soit par des performances lentes, soit par l’imposition de processus séquentiels.

Résumé pour l’Architecture : Nous avons identifié un modèle : les conceptions centrées sur la mémoire (Kinaxis, Anaplan, o9, Relex, SAP HANA) offrent de la vitesse mais au détriment de l’évolutivité et des $$, tandis que les conceptions hybrides (le débordement sur disque de Lokad, peut-être des outils utilisant des bases de données modernes) sont plus évolutives et rentables. Un drapeau rouge évident est tout fournisseur insistant sur le fait que tout doit être en RAM pour fonctionner - cette approche est maintenant considérée comme dépassée compte tenu des avancées de la vitesse des SSD et de l’informatique distribuée 43 44. Nous soulignons également que les architectures de fournisseurs nées de multiples acquisitions (comme SAP, Blue Yonder) ont tendance à être excessivement complexes et nécessitent beaucoup de réglages. Les architectures plus simples, développées en interne (le code unique de Kinaxis, le moteur unique d’Anaplan, le moteur unique de Lokad) ont tendance à être plus cohérentes et donc plus faciles à maintenir techniquement. En évaluant un logiciel de supply chain, on devrait se demander : Le fournisseur a-t-il publié quelque chose sur la façon dont son logiciel est construit (microservices ? DB personnalisée ? utilisation de bibliothèques ML ? etc.). L’absence de toute discussion sur l’ingénierie pourrait signifier que l’architecture est juste une boîte noire - indiquant souvent soit un héritage, soit un manque de confiance dans leur unicité.

Intégration & Cohérence des Modules (Impact des F&A)

La planification de la supply chain couvre généralement plusieurs domaines (prévision de la demande, optimisation des stocks, planification de la production, etc.). Certains fournisseurs proposent une suite intégrée construite organiquement, tandis que d’autres ont grandi par acquisitions, ajoutant de nouveaux modules. Nous avons examiné comment chaque ensemble de solutions du fournisseur est intégré et quels drapeaux rouges émergent de leur stratégie de croissance.

  • Blue Yonder (JDA) est l’exemple type de la croissance par acquisition. Comme mentionné, c’est une “collection hétéroclite” de produits de différentes époques 29. JDA a acquis i2 (qui avait lui-même plusieurs modules), a acquis Manugistics plus tôt, puis RedPrairie (pour la gestion d’entrepôt), puis la startup Blue Yonder pour l’IA. Chaque pièce avait son propre schéma de base de données, sa propre logique. Le résultat : même aujourd’hui, la planification de la demande, la planification de l’approvisionnement et l’optimisation des stocks de Blue Yonder peuvent ne pas partager un seul modèle de données unifié - l’intégration repose sur des interfaces. C’est un drapeau rouge car cela signifie que la mise en œuvre de la suite complète revient essentiellement à intégrer plusieurs packages logiciels distincts. Lorsque les produits d’un fournisseur ne sont pas vraiment unifiés, les clients sont confrontés à des problèmes tels que des retards de synchronisation des données, des interfaces utilisateur incohérentes et des fonctionnalités dupliquées. Dans le cas de Blue Yonder : certains de ses modules se chevauchent franchement (après les acquisitions, vous pourriez avoir deux façons de planifier les stocks - une de Manugistics et une de i2). L’entreprise a fait des efforts pour rationaliser cela, mais ce n’est pas entièrement résolu. En termes techniques, le logiciel d’entreprise ne se “mélange” pas magiquement comme des fluides lorsque les entreprises fusionnent 29 - cela prend des années de réingénierie. Nous n’avons pas vu de preuve que Blue Yonder ait achevé cette réingénierie. Ainsi, le manque de cohérence est une faiblesse technique majeure.

  • SAP IBP a également combiné des composants acquis : l’achat par SAP de SAF, SmartOps, et d’autres a apporté des outils séparés que SAP a ensuite intégrés dans le parapluie IBP 27. Les utilisateurs ont noté que IBP a différents modules qui ressemblent à des applications séparées (par exemple, IBP pour la demande vs. IBP pour l’inventaire). La logique d’optimisation des stocks de sécurité dans IBP provient probablement de l’acquisition de SmartOps, tandis que la détection de la demande pourrait provenir de SAF ou de développements internes. L’intégration est meilleure que celle de Blue Yonder (SAP a au moins réécrit l’interface utilisateur et a tout mis sur la base de données HANA), mais encore, sous le capot, IBP n’est pas un seul code source. SAP avertit explicitement que la mise en œuvre de IBP nécessite généralement plusieurs années et des intégrateurs experts pour faire fonctionner tous les modules ensemble de manière optimale 28. Cette déclaration est un drapeau rouge en soi - elle implique un potentiel décalage et une complexité.

  • Infor (bien que non dans le top 10 ci-dessus) a également fusionné divers systèmes de planification (ils avaient acquis la planification de la supply chain de Mercia et GT Nexus, etc.). Le résultat n’a jamais été une véritable plateforme de planification unifiée ; Infor a tendance à se concentrer sur les systèmes d’exécution. C’est donc un autre exemple où l’acquisition n’a pas donné un bon produit de planification intégré.

  • Dassault (Quintiq) : Dans ce cas, l’acquisition (par Dassault) n’a pas impliqué la fusion de Quintiq avec un autre outil de planification - Dassault a plus ou moins laissé Quintiq continuer en tant qu’offre autonome axée sur l’optimisation de la production/planification. Ainsi, la cohérence interne de Quintiq est correcte (elle a été développée en interne et le reste), mais l’inconvénient est qu’elle ne couvre pas tous les domaines (par exemple, pas de prévision de la demande native, comme mentionné 16). Le portefeuille de Dassault a d’autres produits (comme Apriso pour MES, etc.), mais ils ne sont pas intégrés avec Quintiq de manière approfondie. Donc, en termes d’intégration, Quintiq est auto-consistant mais fonctionnellement étroit. Du point de vue de l’utilisateur, vous pourriez avoir à l’intégrer avec un autre outil de prévision, ce qui signifie un travail supplémentaire du côté du client.

  • Kinaxis a principalement grandi de manière organique - elle a acquis une petite entreprise d’IA, Rubikloud, en 2020 (pour le retail AI) et un outil de conception de supply chain (Castle Logistics) en 2022, mais ces acquisitions sont relativement récentes et il reste à voir comment elles s’intègrent. Historiquement, RapidResponse était un produit unique gérant divers aspects de la planification par configuration. Cette cohérence est un plus : tous les modules (demande, approvisionnement, stocks) partagent une seule base de données et une interface utilisateur chez Kinaxis. De même, Anaplan a développé différentes applications de planification sur une seule plateforme - les plans de vente, de finance, de supply chain résident tous dans le même environnement Hyperblock, qui est techniquement très cohérent (juste différents modèles de templates). o9 Solutions est également une plateforme unique développée de manière organique qui couvre de nombreux domaines (elle n’a pas grandi en acquérant d’autres fournisseurs de planification, du moins pas des majeurs). Ces trois - Kinaxis, Anaplan, o9 - ont un avantage architectural d’unité. La prudence avec eux n’est pas à propos de l’intégration de modules disparates, mais de savoir si leur plateforme unique peut vraiment gérer la profondeur dans chaque domaine.

  • ToolsGroup & Slimstock : Ces fournisseurs sont restés concentrés sur leur niche (planification de la demande et des stocks). Ils n’ont pas vraiment acquis d’autres entreprises ; au lieu de cela, ils s’associent ou s’intègrent avec des systèmes d’exécution selon les besoins. Cela signifie que leur logiciel est cohérent en interne (un seul code source), ce qui est bien, mais si un client a besoin de capacités plus larges (comme la planification de la production), il doit utiliser un autre produit et l’intégrer lui-même. ToolsGroup a commencé à ajouter des fonctionnalités S&OP ces dernières années et a même acquis une startup d’IA (Eramos en 2018) pour le machine learning, mais là encore, celles-ci ont été intégrées au produit de base plutôt que vendues séparément. Donc l’intégration n’est pas un gros problème pour ToolsGroup ou Slimstock - le compromis est de savoir si leur conception à focus unique couvre assez de portée pour les besoins de l’utilisateur.

Résumé pour l’Intégration : D’un point de vue sceptique, plusieurs acquisitions majeures dans l’histoire d’un fournisseur sont un signe d’avertissement. Cela conduit souvent à un produit touche-à-tout qui n’est maître en rien, avec une complexité cachée. Blue Yonder et SAP en sont l’exemple - leur complexité technique découle en partie de la tentative de coller ensemble de nombreux éléments hérités. À l’inverse, les fournisseurs avec une seule plateforme unifiée (construite organiquement) évitent ces problèmes, bien qu’ils doivent encore prouver qu’une seule plateforme peut tout faire correctement. Lors de l’évaluation d’un logiciel, on devrait se renseigner sur l’origine de chaque module : Si le module de planification de la demande et le module de planification de l’approvisionnement proviennent de différentes entreprises d’origine, enquêtez sur la façon dont ils partagent les données et si l’intégration est transparente ou via une interface. L’histoire a montré que, à moins que la technologie acquise n’ait été réécrite à partir de zéro dans une architecture unifiée (ce qui est rare en raison du coût et du temps), le résultat est généralement un système Frankenstein. Notre recherche renforce cela - les fournisseurs ayant obtenu les meilleures notes en termes d’élégance technique (Lokad, Kinaxis, Anaplan) ont construit leurs solutions de manière holistique, tandis que ceux ayant obtenu les plus basses (Blue Yonder, Infor) ont accumulé des technologies disparates sans les unifier complètement.

Faiblesses Critiques & Drapeaux Rouges

Dans notre examen rigoureux, nous avons identifié plusieurs faiblesses récurrentes et drapeaux rouges dont les utilisateurs potentiels devraient être conscients. Voici un résumé des principaux problèmes, avec des exemples de fournisseurs spécifiques pour illustrer chaque point :

  • Revendications “IA/ML” non fondées : Soyez extrêmement sceptique envers tout fournisseur proclamant une IA ou un apprentissage automatique supérieurs sans preuves techniques solides. Par exemple, Blue Yonder fait beaucoup de publicité pour l’IA mais ne fournit que des revendications vagues sans substance 30 - ce que nous pouvons voir de leurs méthodes indique qu’ils s’appuient sur des techniques plus anciennes, et non sur une IA de pointe. De même, o9 Solutions vante son intelligence basée sur l’IA et les graphiques, mais l’analyse de leur code public et de leurs matériaux montre “beaucoup de battage médiatique autour de l’IA” avec seulement des analyses banales en réalité 26. Si un fournisseur ne peut pas pointer vers des études évaluées par des pairs, des brevets, des compétitions, ou des articles techniques détaillés pour soutenir leurs revendications d’IA, supposez que c’est du marketing creux. Les fournisseurs véritablement avancés seront fiers de détailler leurs algorithmes.

  • Pas de Benchmarking Concurrentiel (Revendications de Supériorité en Prévision) : De nombreux fournisseurs prétendent avoir une “précision de prévision de classe mondiale” mais aucun à part Lokad ne l’a prouvé dans des compétitions ouvertes ou des publications. Nous considérons toute revendication de ce type comme fausse à moins qu’elle ne soit validée. Par exemple, l’algorithme propriétaire d’un fournisseur vanté comme “plus précis que les autres” était absent des premiers rangs de la compétition M5 32, ce qui suggère fortement que leur revendication est infondée. En fait, pas un seul fournisseur traditionnel de logiciels de supply chain (à part Lokad) n’est apparu dans le top 100 de ce concours mondial de prévision. C’est un drapeau rouge majeur : cela implique que ces fournisseurs n’ont soit pas participé (peut-être pour éviter l’embarras public), soit ont participé et ont mal performé. Conseil pratique : Exigez de voir des résultats de précision objectifs (par exemple, comment leur outil a performé sur un benchmark standard comme le jeu de données M5 ou M4) - s’ils ne peuvent pas en fournir, ne croyez pas le battage médiatique.

  • Dépassement de l’Architecture en Mémoire : Les fournisseurs qui poussent à une conception entièrement en mémoire devraient être interrogés sur la scalabilité et le coût. Le calcul en mémoire offre de la vitesse, mais la RAM est ~100x plus chère par Go que le disque 10 et son prix/performance a stagné ces dernières années 42. Cela rend les solutions purement en mémoire non scalables et coûteuses pour de grands volumes de données. SAP IBP (HANA) et o9 sont des exemples : ils garantissent des performances élevées seulement si vous chargez d’énormes ensembles de données en mémoire, ce qui garantit des factures élevées de matériel (ou de cloud) 24 31. Il est révélateur que la conception moderne des systèmes s’éloigne de cette approche - comme le note un expert, l’engouement initial pour tout faire tenir en RAM a rencontré des limites pratiques, et les bases de données “retrouvent leur amour du disque” pour gérer efficacement les données froides 43 44. Si un fournisseur est encore coincé sur une mentalité uniquement en mémoire, considérez-le comme un drapeau rouge architectural. Les fournisseurs plus scalables parleront de stockage en couches, d’élasticité du cloud, ou de stratégies similaires pour gérer les données à grande échelle sans nécessiter de RAM infinie.

  • Boîte noire issue de fusions et acquisitions (Dysfonctionnement d’intégration) : Si la suite de produits d’un fournisseur est le résultat de nombreuses acquisitions, méfiez-vous des lacunes d’intégration et des fonctionnalités qui se chevauchent. Comme nous l’avons vu, la suite de Blue Yonder est un mélange désordonné de produits obsolètes en raison d’une longue série de fusions 29, et les modules de SAP IBP proviennent de différentes entreprises acquises 27, ce qui entraîne une complexité et une “collection” d’outils plutôt qu’un ensemble homogène. Le logiciel d’entreprise n’est pas facilement “miscible” par le biais de fusions et acquisitions 29 - à moins que le fournisseur n’ait effectué une réingénierie complète (ce qui est rare et prend du temps), le client finit souvent par jouer le rôle d’intégrateur entre les modules. Cela peut signifier des expériences utilisateur incohérentes, une double saisie de données et des interfaces fragiles. Symptôme d’alerte : L’implémentation du fournisseur nécessite un bataillon de consultants pendant un an ou plus pour faire communiquer les modules entre eux - comme l’a même reconnu SAP 28. Préférez les fournisseurs avec une plateforme unifiée ou un chevauchement minimal des composants acquis.

  • Métriques contradictoires et jargon : Un drapeau rouge subtil mais révélateur est lorsque l’histoire technique d’un fournisseur contient des contradictions internes ou des pratiques obsolètes déguisées avec une nouvelle terminologie. Un exemple flagrant était ToolsGroup faisant la publicité de prévisions probabilistes tout en faisant référence simultanément à des améliorations de MAPE 19 - un signe qu’ils ne font que saupoudrer de nouveaux termes sur de vieilles pratiques (puisque l’utilisation de MAPE pour juger des prévisions probabilistes est conceptuellement erronée). Un autre exemple est celui des fournisseurs qui prétendent utiliser une “IA avancée” mais qui mesurent le succès avec de vieilles métriques comme MAPE ou des niveaux de service traditionnels - cela indique qu’ils n’ont pas vraiment adopté le nouveau paradigme. De même, surveillez les méthodologies de stock de sécurité : un fournisseur peut prétendre optimiser les stocks avec l’IA, mais si vous creusez et découvrez qu’ils calculent toujours le stock de sécurité selon une formule des années 1980 (par exemple, hypothèse de distribution normale avec un facteur de sécurité statique), c’est une contradiction. Nous avons effectivement trouvé des cas où les fournisseurs parlent de “stocks probabilistes” ou “optimaux”, mais leur documentation révèle des calculs de stocks de sécurité standard et l’utilisation de métriques obsolètes comme le taux de remplissage. Conclusion : Les incohérences entre ce qu’ils commercialisent et ce qu’ils mesurent/livrent sont un drapeau rouge. Si un fournisseur se vante d’être moderne et piloté par l’IA, mais utilise les mêmes KPI et méthodes qu’il y a des décennies, leur innovation est probablement superficielle.

  • Algorithmes et pratiques obsolètes : La théorie de la supply chain a évolué (par exemple, des modèles déterministes aux modèles stochastiques, de l’optimisation à un seul échelon à l’optimisation à plusieurs échelons), mais certains logiciels n’ont pas suivi. La dépendance à des pratiques vieilles de plusieurs décennies est une faiblesse, surtout si les fournisseurs prétendent le contraire. Par exemple, un outil qui utilise encore principalement la logique de stock de sécurité + point de réapprovisionnement avec des délais fixes pour les stocks est dépassé s’il ne tient pas compte de la variabilité de la demande de manière dynamique. Nous avons remarqué que Slimstock se concentre explicitement sur des formules traditionnelles (stock de sécurité, EOQ) 21 - ils sont transparents à ce sujet, ce qui est bien pour une solution de base, mais ce n’est clairement pas à la pointe de la technologie. Si un fournisseur supposé avancé n’est pas transparent, il pourrait faire la même chose sans l’admettre. Un autre exemple : les extraits de code open source de Blue Yonder pointent vers des modèles ARMA 48, qui sont des techniques de prévision des années 1970, alors que leur argumentaire de vente parle d’IA. Infor, Oracle, John Galt et d’autres dans le bas du classement s’appuient souvent sur des méthodes de séries temporelles et des heuristiques qui existent depuis toujours (comme le lissage exponentiel de Winters, des solveurs d’optimisation simples) - cela fonctionne, mais il n’y a rien de moderne à ce sujet. Le drapeau rouge n’est pas l’utilisation de vieilles méthodes en soi (les vieilles méthodes peuvent toujours être les meilleures dans certains cas), c’est de les utiliser tout en prétendant être innovant, ou de les utiliser exclusivement alors que de meilleures méthodes existent pour le problème. Sondez toujours quels algorithmes sont réellement utilisés (par exemple, “Votre optimisation des stocks prend-elle en compte toute la distribution de la demande ou simplement un seul facteur de service ? Utilisez-vous l’optimisation multi-échelons ou simplement des calculs de nœud unique ?”). Des réponses évasives ou vagues indiquent que la méthodologie pourrait être dépassée.

  • Manque de transparence technique : Enfin, un drapeau rouge métaphorique : si un fournisseur ne fournit aucune documentation technique - pas de livres blancs, pas d’architecture de référence, pas d’explication des algorithmes - c’est en soi un signe d’avertissement. Dans notre recherche, les fournisseurs qui ont obtenu de bons résultats techniques (Lokad, Kinaxis, SAS, etc.) ont tous au moins un certain contenu technique disponible (qu’il s’agisse de blogs, de documents académiques ou de notes techniques). Les fournisseurs qui ont obtenu de mauvais résultats n’ont souvent rien au-delà des brochures marketing. Par exemple, essayez de trouver un livre blanc technique détaillé de o9 ou Blue Yonder - c’est presque impossible, vous obtenez principalement des brochures brillantes. Lokad, en revanche, a publié une étude de marché détaillée de 18 pages (que nous avons largement citée) comparant les approches des fournisseurs 49 29 25, ainsi que des vidéos sur le fonctionnement de leurs algorithmes. Lorsqu’un fournisseur est secret sur comment fonctionne leur solution, on peut se demander si c’est parce qu’elle n’est pas réellement spéciale. La transparence est corrélée à la crédibilité. Un fournisseur qui se cache derrière des mots à la mode et ne divulgue pas ses méthodes a probablement une “technologie ordinaire avec un rouge à lèvres supplémentaire”.

En conclusion, l’application d’une lentille d’ingénierie hautement sceptique révèle que de nombreux logiciels d’optimisation de la supply chain “leaders” sont longs sur les promesses et courts sur l’innovation vérifiable. En coupant à travers le fluff marketing, nous nous sommes concentrés sur ce qui est tangible : les structures de données, les algorithmes, les performances et la preuve de l’efficacité. Les meilleures solutions se sont démarquées en offrant une substance technique - précision de prévision démontrée, choix architecturaux clairs et documentation franche - tandis que les plus faibles se sont révélées par des contradictions, des imprécisions et des fondements dépassés. Cette étude sert de rappel à tout praticien de la supply chain : ne prenez pas les affirmations des fournisseurs pour argent comptant. Exigez des preuves, regardez sous le capot et souvenez-vous que dans la supply chain, comme dans toute l’informatique, les véritables avancées de pointe sont généralement soutenues par la science ouverte et l’ingénierie solide - et pas seulement par des affirmations marketing élevées.

Notes de bas de page


  1. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  2. Spilling to Disk in .NET ↩︎

  3. Spilling to Disk in .NET ↩︎ ↩︎ ↩︎

  4. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎

  5. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎

  6. Nous avons construit une base de données ! | Blog Kinaxis ↩︎

  7. Nous avons construit une base de données ! | Blog Kinaxis ↩︎

  8. Nous avons construit une base de données ! | Blog Kinaxis ↩︎ ↩︎

  9. Nous avons construit une base de données ! | Blog Kinaxis ↩︎ ↩︎

  10. Pourquoi les bases de données ont retrouvé leur ancien amour du disque | TUMuchData  ↩︎ ↩︎ ↩︎ ↩︎

  11. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  12. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎

  13. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  14. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎

  15. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎

  16. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  17. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎

  18. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎

  19. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  20. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  21. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  22. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎

  23. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎

  24. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  25. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎ ↩︎ ↩︎

  26. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  27. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎ ↩︎ ↩︎

  28. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎ ↩︎

  29. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  30. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎ ↩︎

  31. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  32. Étude de marché, Fournisseurs d’optimisation de la Supply Chain ↩︎ ↩︎

  33. La technologie de Lokad ↩︎

  34. La technologie de Lokad ↩︎

  35. Apporter des décisions automatisées de supply chain à la production - Conférence 7.2 ↩︎ ↩︎

  36. Pilotes IA dans la Supply Chain - Ep 159 - Lokad ↩︎

  37. Apporter des décisions automatisées de supply chain à la production - Conférence 7.2 ↩︎

  38. Apporter des décisions automatisées de supply chain à la production - Conférence 7.2 ↩︎ ↩︎

  39. ToolsGroup - Produits, Concurrents, Finances … - CB Insights ↩︎

  40. Pourquoi les bases de données ont retrouvé leur ancien amour pour le disque | TUMuchData  ↩︎

  41. Pourquoi les bases de données ont retrouvé leur ancien amour pour le disque | TUMuchData  ↩︎

  42. Pourquoi les bases de données ont retrouvé leur ancien amour pour le disque | TUMuchData  ↩︎ ↩︎

  43. Pourquoi les bases de données ont retrouvé leur ancien amour pour le disque | TUMuchData  ↩︎ ↩︎ ↩︎

  44. Pourquoi les bases de données ont retrouvé leur ancien amour pour le disque | TUMuchData  ↩︎ ↩︎ ↩︎

  45. Débordement sur disque en .NET ↩︎

  46. Débordement sur disque en .NET ↩︎

  47. Débordement sur disque en .NET ↩︎

  48. Étude de marché, fournisseurs d’optimisation de la supply chain ↩︎

  49. Étude de marché, fournisseurs d’optimisation de la supply chain ↩︎