Software di ottimizzazione della supply chain
Classifica dei fornitori e riassunto (basato sulla rigore tecnico)
-
Lokad – Credibilità tecnica di punta. Lokad si distingue per la sua trasparenza e profondità tecnica. Ha introdotto la previsione probabilistica e ha dimostrato i suoi metodi in competizione aperta (classificata #1 a livello di SKU e #6 in totale su 909 squadre nel concorso di precisione di previsione M5 1 – l’unica squadra guidata da un fornitore nelle prime posizioni). Lokad pubblica dettagliate intuizioni sulla sua architettura (ad es. un linguaggio specifico del dominio chiamato Envision, automazione basata su cloud) e sottolinea decisioni ottimizzate finanziariamente rispetto a metriche semplicistiche. La sua attenzione sulla matematica rigorosa (previsioni di quantile, ottimizzazione stocastica) e workflow completamente scriptabili e automatizzati (tramite API e codifica) dimostra un design orientato all’ingegneria. Non vengono fatte grandi affermazioni sull’IA/ML senza supporto - invece, Lokad fornisce documenti tecnici e persino strumenti open source per scalare i dati oltre i limiti della RAM 2 3. Questo livello di apertura e prestazioni comprovate mette Lokad al primo posto.
-
Anaplan – Piattaforma “Excel 2.0”. Anaplan è essenzialmente la versione SaaS aziendale di un foglio di calcolo, alimentata dal suo motore proprietario Hyperblock in memoria 4. Tecnicamente, Hyperblock è un robusto motore di calcolo multidimensionale che consente a migliaia di utenti di collaborare su modelli di pianificazione in tempo reale - simile a un Excel super potenziato e basato su cloud. Anche se Anaplan non è un ottimizzatore della supply chain specializzato per se (la previsione e l’ottimizzazione algoritmica sono “cittadini di seconda classe” su questa piattaforma 5), la sua forza risiede nella sua solida architettura per la modellazione e la pianificazione degli scenari. Non propone alcuna IA misteriosa; invece offre una sandbox affidabile e ad alte prestazioni per costruire una logica di pianificazione personalizzata. In breve, è uno strumento di pianificazione generale potente con un approccio onesto - nessuna affermazione esagerata sulla magia della previsione, solo un sistema simile a un foglio di calcolo ben ingegnerizzato e scalabile. Questa proposta tecnica diretta guadagna ad Anaplan un alto rango in credibilità.
-
Kinaxis (RapidResponse) – Motore di simulazione in memoria. Kinaxis è conosciuta per il suo unico motore di concorrenza che consente di ricalcolare i piani di fornitura in tempo reale in tutta l’impresa. Tecnicamente, Kinaxis ha costruito il suo proprio motore di database da zero per supportare questo 6 7. Il risultato è una piattaforma ottimizzata per veloci simulazioni “what-if”: gli utenti possono ramificare gli scenari (come Git per i dati) e ottenere un feedback immediato sull’impatto delle modifiche 8. Il sistema mantiene tutti i dati della supply chain in memoria per la velocità, con algoritmi che hanno accesso diretto alla memoria per i dati per il massimo throughput 9. Questo design consente una vera pianificazione simultanea (ad es. piani di vendita, produzione e inventario aggiornati in tempo reale insieme). Da un punto di vista ingegneristico, costruire un data store personalizzato in memoria e con controllo delle versioni è un’impresa impressionante che offre agilità. Il compromesso, tuttavia, è l’alta domanda di hardware - un approccio completamente in memoria significa che l’escalation a dimensioni di dati massicce può essere costosa (poiché le esigenze di RAM crescono) 10. Nel complesso, Kinaxis mostra un forte rigore tecnico nell’architettura e nelle prestazioni, evitando affermazioni alla moda sull’IA. Eccelle nella pianificazione della supply chain e nelle simulazioni S&OP, anche se offre meno funzionalità di previsione ML pronte all’uso rispetto ad alcuni concorrenti.
-
SAS – Potenza Statistica. SAS è una veterana azienda di software di analisi (fondata nel 1976) e porta un formidabile motore di modellazione statistica ai problemi della supply chain. Il suo prodotto di punta include un linguaggio specifico per le statistiche (il linguaggio SAS) risalente agli anni ‘70 11 - probabilmente la piattaforma di data science originale. La forza di SAS è la profondità dei suoi algoritmi: una vasta libreria di modelli di previsione di serie temporali, routine di ottimizzazione e tecniche di apprendimento automatico costruite nel corso dei decenni. Impiega alcuni dei più talentuosi ingegneri e statistici del settore 11, e ha introdotto la previsione avanzata molto prima che “AI” diventasse una parola d’ordine. Nel contesto della supply chain, SAS è spesso utilizzato per la previsione della domanda e l’analisi delle scorte. Tecnicamente, è robusto e collaudato - ma anche pesante. Gli strumenti possono sembrare arcaici (il mondo si è in gran parte spostato verso linguaggi open source come Python/R, e infatti i quaderni Jupyter sono ora un’alternativa aperta superiore 12). SAS non rivendica rumorosamente una magica IA; si affida alla sua reputazione e alla solida tecnologia. Per le organizzazioni con l’esperienza per sfruttarlo, SAS offre una seria potenza analitica basata su algoritmi reali (ARIMA, ETS, ecc.) piuttosto che sull’hype. Il suo principale svantaggio è che è una piattaforma di analisi generale - estremamente potente sotto il cofano, ma richiede utenti esperti per applicarla alla supply chain, e non è stata specificamente valutata nelle recenti competizioni di previsione (gli strumenti open source spesso la eguagliano 13).
-
Dassault Systèmes (Quintiq) – Specialista dell’ottimizzazione. Quintiq (acquisita da Dassault Systèmes nel 2014) è una piattaforma focalizzata sul complesso ottimizzazione e programmazione della supply chain. Presenta un linguaggio specifico di dominio proprietario chiamato Quill per la modellazione dei vincoli aziendali 14. Questo DSL consente agli ingegneri di codificare soluzioni su misura (ad esempio, piani di produzione personalizzati o piani di instradamento) e sfruttare i risolutori matematici. L’esistenza stessa di un DSL nel prodotto è la prova di una seria competenza deep-tech - progettare un linguaggio di programmazione per i problemi di pianificazione non è banale 15. Quintiq eccelle in scenari come la programmazione di fabbrica, l’ottimizzazione della rete logistica e altri problemi NP-hard in cui è necessario un modello di ottimizzazione personalizzato. Tecnicamente, è uno dei motori di ottimizzazione più flessibili e potenti disponibili nel software della supply chain. Tuttavia, l’attenzione di Quintiq sull’ottimizzazione si scontra con altre aree: ad esempio, ha capacità di previsione native relativamente limitate 16. Un’altra preoccupazione è che gli aggiornamenti tecnici pubblici su Quill sono scarsi, suggerendo che la tecnologia potrebbe essere invecchiata o almeno non evolversi rapidamente 17. Gli utenti si affidano spesso ai consulenti di Dassault per configurare le soluzioni, e senza una chiara documentazione pubblica, è difficile valutare le recenti innovazioni. In sintesi, Quintiq è una scelta di primo livello per le esigenze di ottimizzazione complessa e dimostra una forte ingegneria attraverso il suo DSL - ma non è così trasparente o aggiornato in aree come AI/previsione, e i suoi punti di forza risiedono in ciò che gli implementatori costruiscono con esso piuttosto che nell’intelligenza “out-of-box”.
-
ToolsGroup (SO99+) - Pioniere probabilistico con riserve. Il software di ToolsGroup (SO99+) si è da tempo specializzato in previsione della domanda e ottimizzazione delle scorte, con un’enfasi sui modelli probabilistici. Offre un’ampia funzionalità della supply chain (pianificazione della domanda, rifornimento, ottimizzazione dell’inventario multi-echelon) ed è stato uno dei primi fornitori a promuovere la previsione probabilistica “Potentemente Semplice”. Sulla carta, questo suona avanzato - ToolsGroup afferma di modellare l’incertezza della domanda e di “auto-regolare” le previsioni, il che dovrebbe consentire obiettivi di inventario più accurati. Tuttavia, un’analisi tecnica ravvicinata solleva preoccupazioni. I materiali pubblici di ToolsGroup suggeriscono ancora l’uso di modelli di previsione dell’era pre-2000 sotto il cofano 18 - hanno aggiunto una vernice “AI” nel marketing, ma senza specifiche. È significativo che dal 2018 pubblicizzino previsioni probabilistiche mentre contemporaneamente vantano miglioramenti del MAPE 19. Questa è una contraddizione palese: se le previsioni sono veramente distribuzioni probabilistiche, metriche come il MAPE (che misura l’accuratezza del singolo valore) non si applicano più direttamente 19. Tali incongruenze suggeriscono che la parte “probabilistica” potrebbe essere superficiale o che stiano adattando vecchie metriche nonostante i nuovi metodi. Inoltre, ToolsGroup ha utilizzato parole d’ordine come “AI di rilevamento della domanda”, ma queste affermazioni sono non supportate dalla letteratura scientifica o da qualsiasi benchmark noto 20. In pratica, molte implementazioni di ToolsGroup funzionano ancora come sistemi automatizzati basati su regole con avvisi di eccezione. In sintesi: ToolsGroup ha una vasta funzionalità ed era in anticipo nel promuovere la modellazione dell’incertezza, ma la sua mancanza di trasparenza sugli algoritmi e il divario tra marketing e realtà sull’AI/ML rendono la sua credibilità tecnica solo moderata. È un insieme di strumenti solido e focalizzato sul dominio, ma non chiaramente all’avanguardia secondo gli standard odierni.
-
Slimstock (Slim4) - Semplice e solido. Slimstock è un outlier rinfrescante che non insegue le tendenze. Il suo software Slim4 si concentra su tecniche mainstream della supply chain - cose come calcoli di scorte di sicurezza, punti di riordino, quantità di ordine economico (EOQ), ecc. 21. In altre parole, Slimstock si attiene a metodi ben consolidati e collaudati insegnati nei libri di testo. Sebbene ciò significhi nessuna AI/ML sofisticata o algoritmi all’avanguardia, significa anche che Slim4 è affidabile e facile da capire. Il fornitore evita esplicitamente vaghe affermazioni sull’IA e invece enfatizza funzionalità pratiche che si allineano con le esigenze quotidiane della supply chain 22. Questa onestà è un merito tecnico: gli utenti sanno esattamente cosa stanno ottenendo e il comportamento del sistema è prevedibile. Naturalmente, essere semplice può anche essere una limitazione - non otterrai previsioni di domanda probabilistiche o ottimizzatori avanzati da Slim4. Non è progettato per reti altamente complesse o volumi di dati massicci (e infatti la sua architettura tecnologica è probabilmente un database standard con caching in memoria, adatto a problemi di dimensioni medie). Ma per molte aziende, più semplice è meglio se significa che lo strumento funziona costantemente. Slimstock guadagna punti di credibilità per aver evitato il bingo delle parole d’ordine; il suo approccio “al punto” è lodato dai colleghi come un contrasto con la posa dell’IA degli altri 23. In sintesi, Slim4 non sta spingendo l’envelope tecnologicamente, ma è una scelta solida per la previsione fondamentale e la gestione delle scorte con un minimo di hype e un’architettura chiara e a basso rischio.
-
o9 Solutions - Macchina dell’hype ad alta tecnologia. o9 si presenta come un “Cervello Digitale” per la supply chain aziendale, combinando previsioni della domanda, pianificazione della fornitura, S&OP e persino la gestione dei ricavi su una sola piattaforma. Tecnicamente, o9 ha inserito molti concetti tecnologici moderni nel suo prodotto: un modello di dati in memoria, un database a grafo chiamato “Enterprise Knowledge Graph (EKG)”, e vari componenti AI/ML. La pura “massa tecnologica” di o9 è fuori dal comune 24 - secondo gli standard del software aziendale, è un’architettura molto ambiziosa che cerca di unificare tutti i dati e le analisi di pianificazione. Tuttavia, applicando scetticismo: molto di questo sembra essere tecnologia per se stessa, senza un chiaro ritorno sull’investimento. Il design in memoria di o9 garantisce costi hardware estremamente elevati su larga scala 25, simili a quelli di un gigantesco cubo BI in esecuzione continua. o9 vanta il suo EKG (knowledge graph) come abilitatore di previsioni superiori e intuizioni guidate dall’IA, ma non fornisce prove scientifiche o benchmark credibili 25. In effetti, molte delle affermazioni appariscenti di o9 crollano sotto l’esame: l’azienda parla di IA ovunque, ma pezzi del loro codice visibile pubblicamente su GitHub rivelano tecniche piuttosto pedestri 26. Ad esempio, o9 ha pubblicizzato funzionalità come previsioni della domanda basate su machine learning e simulazioni “digital twin”, ma non le ha dimostrate in nessuna competizione pubblica o studio di caso revisionato da pari. Senza prove, dobbiamo trattare le sue affermazioni sull’IA come hype di marketing. Detto questo, o9 non è senza punti di forza - è una piattaforma unificata (costruita internamente, non un amalgama di acquisizioni) e può gestire l’integrazione di dati su larga scala. Per un’azienda disposta a investire in hardware e a gestire una curva di apprendimento ripida, o9 offre la flessibilità per costruire modelli di pianificazione complessi. Ma da un punto di vista ingegneristico, è una soluzione sovraingegnerizzata: molta complessità, ROI poco chiaro sulla tecnologia sofisticata e potenziali problemi di prestazioni se i dati crescono oltre ciò che la memoria può contenere. Fino a quando o9 non fornirà prove concrete (ad es. documentazione degli algoritmi o risultati dei benchmark), la sua credibilità rimane dubbia.
-
SAP IBP (Integrated Business Planning) - Completo ma Complesso. La suite IBP di SAP è l’evoluzione dell’APO legacy di SAP, ora offerta come soluzione cloud sul database in memoria SAP HANA. SAP IBP mira a coprire l’intero spettro: previsioni della domanda, ottimizzazione dell’inventario, pianificazione della fornitura, pianificazione delle vendite e delle operazioni, e altro - tutto strettamente integrato con l’ERP di SAP. La forza di SAP IBP è la ampiezza: ha un modulo per quasi ogni aspetto della pianificazione, spesso con funzionalità molto ricche ereditate da decenni di esperienza SAP. Tuttavia, l’ampiezza è arrivata attraverso acquisizioni e sistemi legacy. SAP ha acquisito specialisti come SAF (previsioni della domanda), SmartOps (ottimizzazione dell’inventario) e altri 27 e li ha stratificati sui suoi strumenti interni (come APO e HANA). Il risultato sotto il cofano è un patchwork di motori e approcci diversi 27. Di conseguenza, l’architettura tecnica di IBP non è elegante - è una collezione di componenti che non si “mescolano” naturalmente, richiedendo un grande sforzo di integrazione. Anche la documentazione di SAP riconosce la alta complessità e la necessità di integratori di sistema di alto livello (e un tempo sostanziale) per far funzionare tutto senza intoppi 28. Sul fronte tecnologico, IBP si basa pesantemente su SAP HANA, un database colonnare in memoria, per ottenere prestazioni in tempo reale. HANA è effettivamente veloce, ma è anche costoso - memorizzare grandi dati di pianificazione puramente in RAM è intrinsecamente costoso (la RAM è circa 100 volte più costosa per TB rispetto allo storage su disco) 10. Ciò significa che scalare IBP a set di dati della supply chain molto grandi comporta costi di infrastruttura significativi, e se i dati superano la memoria, le prestazioni possono precipitare. SAP ha iniziato ad aggiungere alcune funzionalità di machine learning (ad es. “Demand Driven MRP” e IBP for Demand ha alcune opzioni di previsione ML), ma queste sono per lo più componenti aggiuntivi opzionali con trasparenza limitata. Non c’è prova che il ML di SAP sia superiore alle alternative; infatti, nessun algoritmo SAP ha fatto una comparsa nelle competizioni di previsioni indipendenti. In sintesi, SAP IBP è ricco di funzionalità e testato in azienda - spunterà tutte le caselle sulla funzionalità - ma da un punto di vista della purezza tecnica, è un misto: velocità in memoria sposata a logica legacy, molta complessità da prodotti fusi, e nessuna chiara innovazione tecnica nelle previsioni o nell’ottimizzazione oltre a ciò che i pezzi acquisiti facevano già. Le aziende spesso lo scelgono per l’integrazione con l’ERP SAP piuttosto che per l’eccellenza dell’ottimizzazione per se.
-
Blue Yonder - Leader di vecchia data trasformato in un patchwork. Blue Yonder (precedentemente JDA Software) offre una suite completa che copre la previsione, la pianificazione della fornitura, il merchandising e l’esecuzione. È il risultato di molti anni di M&A, tra cui l’acquisizione da parte di JDA di i2 Technologies (pianificazione della supply chain), Manugistics e la startup di intelligenza artificiale Blue Yonder (da cui ha preso il nome) tra gli altri 29. Sfortunatamente, il software aziendale non è una semplice somma di parti: sotto il marchio unificato Blue Yonder si trova un mishmash di prodotti (molti dei quali piuttosto datati) appena cuciti insieme 29. Da un punto di vista tecnico, le soluzioni di Blue Yonder vanno dai vecchi motori di previsione deterministici ai moduli di ottimizzazione dell’inventario che non sono fondamentalmente cambiati in più di 15 anni. L’azienda promuove pesantemente le capacità di “AI” e “ML” nella sua piattaforma Luminate, ma i dettagli sono scarsi. Infatti, i pochi artefatti pubblici che possiamo trovare - come progetti open source e brevetti attribuiti al team di data science di Blue Yonder - suggeriscono che stanno utilizzando metodi piuttosto tradizionali (ad es. estrazione di caratteristiche di serie temporali, modelli ARMA e di regressione lineare) 30. Queste tecniche vanno bene, ma sono approcci vecchi di decenni ora spesso superati da metodi più recenti. Sembra che l’AI tanto decantata di Blue Yonder potrebbe semplicemente essere una regressione e delle euristiche ripacchettate. Senza studi di caso trasparenti o documenti tecnici, si deve presumere che le affermazioni di Blue Yonder di una “previsione rivoluzionaria basata sull’IA” siano solo fuffa di marketing. Inoltre, l’integrazione di tutti i suoi componenti acquisiti è una sfida in corso - molti clienti segnalano difficoltà nel realizzare la promessa “end-to-end” perché i moduli (domanda, fornitura, adempimento, ecc.) non si collegano naturalmente senza una significativa personalizzazione. In memoria vs. su disco? Blue Yonder non pubblicizza un’architettura completamente in memoria come alcuni altri; parti del sistema probabilmente funzionano su database relazionali standard. Questo potrebbe effettivamente essere una grazia salvifica in termini di costi, ma significa anche che le prestazioni possono essere lente a meno che i dati non siano aggregati (ad es. i loro sistemi più vecchi spesso utilizzavano esecuzioni di pianificazione batch). In sintesi, Blue Yonder è un monito: un tempo leader del settore, ora offre una suite ampia ma tecnicamente inconsistente. I suoi punti di forza risiedono nell’esperienza nel settore e in un ampio set di funzionalità, ma i suoi punti deboli sono una tecnologia obsoleta sotto un nuovo strato di vernice e una mancanza di prove credibili per le sue nuove capacità “AI”.
(Nota: Esistono anche altri fornitori come Infor (con i componenti legacy GT Nexus e Mercia), GAINS Systems (un altro specialista nell’ottimizzazione dell’inventario), John Galt Solutions (pianificazione della domanda per il mercato medio), Relex Solutions (previsione al dettaglio con un motore in memoria), ecc. Nell’interesse della focalizzazione, abbiamo classificato gli esempi più prominenti o istruttivi sopra. Gli stessi criteri scettici si applicano a quelli non classificati individualmente: ad esempio, Relex utilizza un design in memoria, stile OLAP-cube - ottimo per la velocità, ma garantisce un alto costo hardware per i grandi rivenditori 31; Infor è cresciuto tramite acquisizioni che hanno portato a problemi di integrazione simili a SAP/Blue Yonder; GAINS e John Galt offrono una solida funzionalità di base ma poco documentato pubblicamente su eventuali tecniche innovative. Qualsiasi fornitore che non condivide apertamente dettagli tecnici o punti di prova sarebbe in ogni caso classificato basso nella metodologia di questo studio.)*
Analisi Tecnica Approfondita
In questa sezione, approfondiamo aspetti tecnici specifici dei migliori software di ottimizzazione della supply chain, concentrandoci su quattro aree chiave: Previsione & AI, capacità di automazione, architettura del sistema e integrazione dei moduli. Tutte le analisi si basano su informazioni tecniche pubblicate o prove concrete, evitando esplicitamente qualsiasi linguaggio di marketing.
Capacità di Previsione & AI
La pianificazione moderna della supply chain si basa sull’accuratezza della previsione della domanda, eppure le affermazioni di superiorità nella previsione sono diffuse e spesso infondate. La nostra indagine ha scoperto che le capacità di previsione della maggior parte dei fornitori non superano significativamente i metodi statistici standard - nonostante parole d’ordine come “AI” o “machine learning” nel loro marketing.
-
Prestazioni Provate vs. Hype: Tra tutti i fornitori, Lokad è l’unico con un track record di previsione di livello mondiale verificabile, grazie alla competizione aperta M5. Lokad ha dimostrato la sua competenza nella previsione probabilistica classificandosi al top per l’accuratezza a livello di SKU 1. Questo dà credibilità alle affermazioni di Lokad di una migliore accuratezza delle previsioni. In netto contrasto, nessun altro fornitore ha pubblicato risultati comparabili su un benchmark indipendente. Ad esempio, alcuni fornitori pubblicizzano algoritmi proprietari (uno chiama il suo metodo “Procast”) che rivendicano una precisione superiore, eppure questi metodi erano assenti dai primi posti della competizione M5 32. In pratica, gli approcci open source accademici (come i pacchetti di previsione R del Prof. Rob Hyndman) sono probabilmente buoni o migliori della maggior parte dei motori proprietari chiusi 13. Pertanto, qualsiasi affermazione del fornitore di “la migliore accuratezza di previsione del settore” senza prova pubblica dovrebbe essere trattata come non supportata.
-
Affermazioni su AI e Machine Learning: Abbiamo applicato un estremo scetticismo al buzz di AI/ML. Fornitori come o9 Solutions e Blue Yonder fanno largo uso di termini come “previsione guidata da AI/ML” nei loro depliant. Tuttavia, quando cerchiamo sostanza, ne abbiamo trovato poca. Nel caso di o9, le loro affermazioni che il “Enterprise Knowledge Graph” basato su grafici produce previsioni migliori sono dubbie e senza supporto scientifico 25. Anche Blue Yonder fa grande uso di AI ma non fornisce dettagli - l’unico sguardo alla loro tecnologia proviene da alcuni repository open source che mostrano l’uso di tecniche di serie temporali piuttosto ordinarie (ARMA, regressione lineare, ingegneria delle caratteristiche) 30. Non c’è evidenza di deep learning, metodi probabilistici avanzati, o altre moderne AI che giustificherebbero il loro marketing. ToolsGroup ha incorporato concetti di machine learning (parlano di “rilevamento della domanda” utilizzando il machine learning), ma ancora nessuno studio peer-reviewed o vittorie in competizioni per convalidarlo 20. Infatti, l’abbinamento di ToolsGroup di “previsione probabilistica” con vecchie metriche come MAPE suggerisce che la loro AI è più buzz che svolta 19. Conclusione: Al di fuori di Lokad (e in parte SAS, che utilizza modelli statistici collaudati nel tempo), la previsione nella maggior parte dei software di supply chain rimane basata su metodi noti (smorzamento esponenziale, regressione, forse qualche ML basato su alberi) e non su qualche geniale AI proprietaria. I fornitori che hanno veramente algoritmi innovativi li dimostrerebbero pubblicamente. La mancanza di validazione indipendente è significativa.
-
Approcci Probabilistici vs Deterministici: Un notevole differenziatore tecnico è se un fornitore abbraccia la previsione probabilistica (prevedendo una distribuzione completa degli esiti della domanda) o si attiene alle previsioni a punto singolo. Lokad è stato un fervente sostenitore delle distribuzioni di probabilità complete dal 2012, e infatti ottimizza le decisioni (come i livelli di stock) direttamente dalle previsioni probabilistiche. Anche ToolsGroup afferma di produrre previsioni probabilistiche (probabilmente tramite simulazioni di Monte Carlo della domanda). Tuttavia, abbiamo scoperto che molti che affermano “probabilistico” tornano ancora a metriche e processi deterministici internamente. Ad esempio, il marketing di ToolsGroup sulla riduzione del MAPE utilizzando modelli probabilistici è incoerente, poiché il MAPE non può nemmeno essere calcolato su un output di previsione probabilistica 19. Questo suggerisce che il loro processo alla fine si riduce a una previsione a punto (media o mediana) per la valutazione, minando il beneficio probabilistico. Altri fornitori come SAP, Oracle, Blue Yonder hanno iniziato a menzionare termini probabilistici (SAP IBP ora ha “ensemble statistici” e intervalli di confidenza), ma ancora le loro interfacce utente e i report spesso predefiniscono previsioni a numero singolo con metriche di errore tradizionali. Abbracciare la vera previsione probabilistica richiede di ripensare i KPI (utilizzando la perdita di Pinball, CRPS, o il raggiungimento del livello di servizio invece del MAPE). Non abbiamo trovato prove che nessun grande fornitore eccetto Lokad sia andato così lontano nella pratica. In sintesi, la previsione probabilistica è un’area in cui il marketing è avanti rispetto alla realtà per la maggior parte dei fornitori - potrebbero generare alcune distribuzioni dietro le quinte, ma i pianificatori stanno ancora guardando numeri di previsione a punto e KPI classici, il che indica una limitata adozione del paradigma.
-
Metriche e valutazione della previsione: Un aspetto importante della rigore tecnico è come un fornitore valuta la qualità della previsione. Un segnale di allarme è la continua dipendenza da metriche come MAPE, WAPE o bias come uniche misure di successo, soprattutto se il fornitore afferma di utilizzare metodi AI o probabilistici. Questo perché queste metriche incoraggiano previsioni conservatrici, di mezzo termine e possono essere manipolate (ad esempio, tagliando alti e bassi). Abbiamo osservato che i fornitori con previsioni veramente avanzate tendono a parlare di livelli di servizio o risultati aziendali (ad es. probabilità di esaurimento scorte, impatto dei costi) invece che solo di MAPE. Lokad, ad esempio, enfatizza la riduzione dei “dollari di errore” e l’allineamento delle previsioni con l’ottimizzazione delle decisioni 33. Al contrario, ToolsGroup, Blue Yonder e molti altri evidenziano ancora errori percentuali nei loro case study, mostrando una mentalità obsoleta. Se una documentazione o demo di un fornitore presenta in modo prominente i cruscotti MAPE/WAPE, è un segno che le loro previsioni sono probabilmente tradizionali. Infatti, l’incoerenza di ToolsGroup su MAPE è già stata notata 19. In breve: una vera previsione all’avanguardia nella supply chain sarebbe evidenziata da metriche probabilistiche e validazione nel mondo reale - attributi per lo più mancanti al di fuori di uno o due giocatori.
Capacità di automazione e flusso di lavoro
Ottenere l’ottimizzazione della supply chain non riguarda solo gli algoritmi; riguarda anche quanto automatico e “senza intervento umano” il software può gestire il processo di pianificazione. Abbiamo esaminato le affermazioni e la documentazione di ciascun fornitore alla ricerca di prove di automazione, integrazione API e supporto alla decisione autonoma.
-
Lokad: L’automazione è uno dei marchi di fabbrica di Lokad. L’intera soluzione è costruita attorno a un linguaggio specifico del dominio (Envision) che permette ai pianificatori della supply chain di codificare la loro logica e le decisioni in script, che poi vengono eseguiti automaticamente secondo un programma. Lokad documenta chiaramente i suoi data pipeline e workflow manager che aggiornano i dati e ricalcolano le decisioni (previsioni, ordini di rifornimento, ecc.) senza intervento manuale 34 35. Discutono anche di avere “set up altamente automatizzati” per ~100 supply chain in produzione 35, il che significa che il software sta estraendo dati, facendo previsioni e producendo decisioni (come proposte di ordini di acquisto) in modo completamente automatico. Inoltre, Lokad fornisce API per il caricamento dei dati e il download dei risultati, e ha un concetto di “AI Pilot” per l’automazione dei compiti di routine 36. Tutto ciò indica un livello molto alto di vera automazione - il ruolo dell’utente è per lo più quello di monitorare e affinare il codice/i parametri, non di premere manualmente i pulsanti per ogni piano. L’approccio di Lokad all’automazione è credibile e tecnicamente dettagliato (hanno persino tenuto lezioni su come passare da decisioni manuali a decisioni automatizzate 37 38).
-
Kinaxis: Kinaxis RapidResponse è progettato per l’analisi rapida di scenari e la collaborazione piuttosto che per la pianificazione completamente automatizzata. Il concetto di “pianificazione simultanea” riguarda tutti che lavorano sullo stesso set di dati con aggiornamenti in tempo reale, ma di solito coinvolge ancora pianificatori umani per valutare gli scenari e prendere decisioni. Detto questo, Kinaxis supporta l’automazione in certi modi: può ingerire dati dai sistemi ERP in tempo quasi reale, eseguire i suoi algoritmi di corrispondenza domanda/offerta continuamente e inviare avvisi o messaggi di eccezione agli utenti quando le cose vanno fuori controllo. Espone funzionalità tramite API e ha scripting (sotto forma di algoritmi configurabili e macro nel suo ambiente) per gli utenti avanzati. Tuttavia, Kinaxis si posiziona generalmente come supporto alla decisione, non come una scatola nera che rilascia automaticamente gli ordini. Il fornitore non afferma apertamente di avere una “supply chain autonoma”; invece, si concentra su come rendere i pianificatori più efficienti. Questa è una posizione onesta. Significa che out-of-the-box, RapidResponse si aspetta ancora la presenza di esseri umani nel ciclo - che può essere una limitazione se si cerca un sistema di supply chain “autoguidato”. Tecnicamente, Kinaxis può essere integrato profondamente (ad esempio, spesso si integra con SAP ERP per eseguire piani approvati), ma l’operazione end-to-end senza intervento umano richiederebbe molta configurazione personalizzata. Non abbiamo trovato prove che Kinaxis fornisca raccomandazioni di decisioni guidate dall’IA (la loro forza è più nel calcolo veloce di scenari definiti dagli utenti).
-
o9 Solutions: o9 promuove intensamente concetti come un “gemello digitale” dell’organizzazione e l’IA che può fare raccomandazioni. Parlano di “Automazione” nel contesto dei loro assistenti digitali - presumibilmente bot che possono evidenziare intuizioni o svolgere alcuni compiti. Tuttavia, in assenza di una concreta documentazione tecnica, è difficile stabilire quanto sia reale. Non siamo riusciti a trovare specifiche come “o9 può automaticamente rilasciare ordini di rifornimento tramite API basati sui suoi piani” o “o9 utilizza l’apprendimento per rinforzo per regolare i parametri da solo.” La vaghezza della storia dell’automazione di o9 è preoccupante: molto parlare ad alto livello, poco dettaglio. Data la sua base EKG in memoria, sospettiamo che o9 sia in grado di aggiornamenti e ricalcoli dei dati in tempo reale, ma probabilmente si affida ancora agli utenti per configurare cosa fare con queste informazioni. Senza riferimenti credibili, consideriamo le affermazioni di “autonomia” di o9 come non verificate. È possibile integrare o9 tramite API nei sistemi di esecuzione (è un software moderno, quindi l’integrazione API dovrebbe esistere), ma quanto la presa di decisioni è veramente automatizzata dall’IA in o9 non è chiaro. Le prove suggeriscono che l’attuale automazione di o9 riguarda più l’accelerazione delle analisi (ad esempio, scenari what-if istantanei) che l’automazione dei risultati decisionali.
-
Blue Yonder: Negli ultimi anni, Blue Yonder (soprattutto da quando è stata acquisita da Panasonic) ha promosso il termine “supply chain autonomo”, implicando un sistema che può funzionare con un minimo intervento umano. Hanno alcuni componenti, come Luminate Control Tower, che utilizzano l’IA per rilevare le interruzioni e possibilmente innescare risposte. Tuttavia, dato il nucleo legacy di Blue Yonder, è probabile che qualsiasi autonomia sia ottenuta sovrapposizione di RPA (Robotic Process Automation) o semplici agenti AI sui moduli esistenti. Ad esempio, la pianificazione della domanda di Blue Yonder potrebbe produrre una previsione, e uno strato “AI” potrebbe regolarla automaticamente in base alle vendite in tempo reale (rilevamento della domanda) o inviare un allarme se devia. Ma la pianificazione completamente automatizzata (come l’emissione automatica di ordini, l’adeguamento automatico delle politiche di inventario) è probabilmente rara con le soluzioni BY - i clienti di solito hanno ancora pianificatori che esaminano e approvano le azioni. La mancanza di letteratura tecnica dettagliata su come Blue Yonder automatizza le decisioni è significativa. Se avessero un pianificatore veramente autonomo, pubblicherebbero storie di successo o blog tecnici su di esso. Invece, pubblicano principalmente webinar di marketing. Quindi, deduciamo che Blue Yonder permette un certo grado di automazione (come lavori batch, aggiornamenti ai piani, forse integrazione a ciclo chiuso ai sistemi di esecuzione), ma non è dimostrabilmente avanti in questo settore. Probabilmente utilizza una pianificazione basata su eccezioni simile ai sistemi più vecchi (solo con una nuova vernice AI sul sistema di allarme).
-
ToolsGroup: Storicamente, ToolsGroup si è vantata di “Automazione Potente e Semplice”. Hanno affermato che il loro sistema potrebbe funzionare in una modalità senza luci per periodi prolungati, coinvolgendo i pianificatori solo per le eccezioni. Infatti, la filosofia di ToolsGroup era di lasciare che il sistema ricalcolasse e ripianificasse automaticamente ogni giorno, adattandosi ai nuovi dati. A suo merito, molti clienti di ToolsGroup hanno segnalato una riduzione del carico di lavoro del pianificatore perché il software si auto-aggiusta i target di inventario e raccomanda automaticamente gli ordini. ToolsGroup ha anche un toolkit di integrazione per alimentare gli ordini approvati ai sistemi ERP. Tuttavia, a causa delle contraddizioni precedentemente notate, abbiamo dubbi sull’intelligenza di questa automazione. Potrebbe semplicemente applicare la stessa formula ogni giorno e segnalare quando qualcosa non va (gestione delle eccezioni). ToolsGroup fornisce un’API e supporta le esecuzioni programmate, quindi tecnicamente l’infrastruttura per l’automazione è lì. La questione è la qualità delle decisioni automatizzate. Menzionano molto l’“auto-tuning” - dando a intendere che il software regola da solo i parametri del modello di previsione man mano che arrivano nuovi dati 39. Se vero, questa è un’automazione utile (rimuovendo la necessità di una costante riconfigurazione umana). Senza una valutazione indipendente, diciamo con cautela che ToolsGroup offre un’alta automazione nei compiti di pianificazione di routine, ma la mancanza di trasparenza rende difficile giudicare quanto sia “intelligente” questa automazione (ad esempio, impara e migliora veramente, o segue solo regole preimpostate?).
-
Altri fornitori: La maggior parte degli altri attori supporta le capacità di automazione standard: integrazione dei dati tramite API o batch di file, programmazione di esecuzioni di pianificazione, e alcuni flussi di lavoro basati su eccezioni. Ad esempio, SAP IBP può essere impostato per eseguire automaticamente un lavoro di previsione ogni mese e popolare i risultati della pianificazione, ma di solito un pianificatore esamina l’output. Anaplan è meno concentrato sull’automazione - è più una piattaforma di modellazione manuale, anche se è possibile utilizzare la sua API per spingere/tirare i dati e forse automatizzare certi calcoli. Dassault/Quintiq può essere programmato per eseguire routine di ottimizzazione su una programmazione (e il DSL di Quintiq significa che è possibile programmare comportamenti automatici personalizzati), ma ancora una volta, è autonomo quanto il programmatore lo programma. GAINS, Relex, Netstock e altri fornitori di nicchia pubblicizzano tutti “l’automazione end to end” nel rifornimento - di solito significano che possono generare automaticamente ordini di acquisto o raccomandazioni di trasferimento di negozio. La differenza chiave risiede in quanto controllo è necessario: un sistema di pianificazione autonomo veramente chiamerebbe gli umani solo per situazioni insolite e documenterebbe le sue decisioni con ragionamento. Non abbiamo trovato nessun fornitore che raggiunga pienamente questo ideale ancora. O richiedono agli umani di modificare e approvare (nella maggior parte dei casi), o automatizzano solo le decisioni più facili e lasciano il resto.
Riassunto per l’Automazione: Solo alcuni fornitori (notabilmente Lokad) dettagliano pubblicamente un framework di automazione che consente cicli di pianificazione guidati da API e non presidiati. Altri hanno i mezzi tecnici per l’automazione ma si affidano ancora agli umani per chiudere il cerchio. Notiamo anche che alcuni fornitori hanno spostato l’attenzione nelle ultime decadi dall’automazione completa alla “gestione delle eccezioni” - che è essenzialmente un approccio semi-automatizzato in cui il software fa quello che può e segnala il resto agli umani 38. Questo approccio, sebbene pratico, può essere una stampella per il software che non è abbastanza robusto da fidarsi completamente. Il nostro scettico punto di vista è: se un fornitore non può spiegare come automatizza le decisioni (quali algoritmi, quali trigger, quali chiamate API), allora la sua “automazione” è probabilmente solo un discorso di marketing.
Architettura del Sistema & Scalabilità
L’architettura sotto il cofano - in particolare l’uso del calcolo in memoria rispetto al disco, e le scelte di progettazione complessive - ha enormi implicazioni per la scalabilità, il costo e le prestazioni del software della supply chain. Abbiamo esaminato la tecnologia core di ogni fornitore con un focus su come gestiscono i grandi dati e i calcoli complessi.
-
Calcolo In-Memory - Pro e Contro: Diversi dei principali fornitori si affidano a un’architettura in-memory, il che significa che il software carica la maggior parte o tutti i dati pertinenti nella RAM per un accesso rapido durante i calcoli. Questo include Kinaxis, Anaplan, o9, SAP HANA (IBP), Relex, e possibilmente Quintiq (per risolvere gli scenari). Il vantaggio è la velocità: l’accesso alla RAM è ordini di grandezza più veloce del disco. Ad esempio, il motore di Kinaxis mette tutti i dati in memoria per consentire il ricalcolo istantaneo degli scenari e le operazioni algoritmiche dirette sul set di dati 9. HANA di SAP è stato costruito sulla premessa che le analisi sui dati live dovrebbero avvenire in memoria per risultati in tempo reale 40 41. Tuttavia, c’è un problema fondamentale con un design tutto in memoria: costo e scalabilità. La memoria (RAM) è estremamente costosa rispetto allo storage. 1 TB di RAM può costare 100 volte più di 1 TB di disco 10. E la dimensione della memoria sui server è fisicamente limitata (i sistemi tipici potrebbero avere al massimo 0,5-2 TB di RAM, mentre i set di dati multi-terabyte o petabyte sono comuni nelle grandi supply chain). Negli ultimi anni, i previsti drastici cali nel costo della RAM non si sono materializzati - i prezzi e le capacità della RAM sono stati abbastanza stagnanti 42. Questo significa che qualsiasi sistema che richiede tutti i dati in memoria si troverà ad affrontare costi di infrastruttura alle stelle man mano che i dati crescono, o raggiungerà un soffitto duro dove semplicemente non può contenere i dati. Etichettiamo la pesante dipendenza dal design in memoria come un errore architettonico per le grandi supply chain, a meno che non sia mitigato.
-
Memoria vs. Disco: Pratiche Moderne: Interessantemente, il mondo tecnologico più ampio ha capito che le soluzioni puramente in memoria non sono il futuro per i big data. Le architetture più recenti utilizzano un approccio stratificato - mantenere i dati caldi in memoria e i dati freddi su SSD, ecc. 43 44. Alcuni software di supply chain hanno iniziato ad adottare questo. Ad esempio, Lokad utilizza esplicitamente tecniche di “spill to disk” nella sua infrastruttura cloud. Il loro CTO ha descritto come gestiscono un dataset di vendita al dettaglio di 10 miliardi di righe utilizzando circa 37 GB di RAM più un veloce SSD NVMe per lo spill overflow 45 3. Raggiungono prestazioni quasi RAM mappando i file in memoria e mantenendo solo i dati più caldi in RAM, con il software che effettua intelligentemente lo swapping secondo necessità 46 47. Questo approccio comporta enormi risparmi di costi - ad es. per il costo di 18 GB di RAM di alta gamma, si può acquistare 1 TB di SSD NVMe 3, quindi è 50 volte più economico per byte pur essendo solo ~6 volte più lento in accesso grezzo, un compromesso spesso vale la pena fare. Nessuno dei fornitori centrati sulla memoria (Kinaxis, SAP, o9, ecc.) ha descritto pubblicamente una tale gestione adattiva della memoria, suggerendo che le loro soluzioni potrebbero semplicemente richiedere molta RAM o richiedere l’aggregazione dei dati per adattarsi. Anaplan è noto per lottare con i limiti di dimensione del modello - alcuni clienti si scontrano con i limiti di memoria del suo Hyperblock e devono dividere i modelli. Kinaxis probabilmente ha anche bisogno di più server collegati in rete per dati molto grandi (hanno un concetto di distribuzione dei dati, ma all’interno di ogni nodo è residente in memoria). SAP HANA può scaricare su disco (ha nodi di estensione), ma le prestazioni ne risentono. Il punto fondamentale: un design rigido in memoria è un segnale di allarme per la scalabilità. Può funzionare brillantemente per dati piccoli e medi, ma man mano che la supply chain cresce (pensa: pianificazione dettagliata a livello di SKU-negozio-giorno per un rivenditore globale), i costi e i rischi di prestazioni aumentano. L’ingegneria moderna favorisce un mix di utilizzo di memoria e disco per bilanciare velocità e costo, e i fornitori che non fanno ciò sono indietro.
-
Tech Stack e Complessità: Oltre alla memoria, un altro elemento architetturale è l’intero tech stack - monolitico vs. microservizi, uso di linguaggi di programmazione moderni, ecc. Senza andare troppo in profondità, abbiamo osservato che i fornitori più vecchi (SAP APO/IBP, Blue Yonder) funzionano su stack più monolitici e legacy, mentre quelli più nuovi (o9, Anaplan) hanno costruito la loro cosa da zero con tecnologia più recente. Ad esempio, il core di SAP IBP include ancora motori degli anni 2000 (come l’ottimizzatore di APO) ora avvolti in un livello HANA/cloud. Ciò introduce complessità e potenziale inefficienza (più livelli di astrazione). Blue Yonder ha analogamente molto codice legacy dai giorni di i2 e JDA. Kinaxis è un po’ unico - è vecchio (iniziato negli anni ‘90) ma hanno continuamente rifattorizzato nel loro kernel di database; tuttavia, è uno stack proprietario che solo loro usano. Anaplan ha costruito un motore di calcolo molto efficiente (in Java) per il suo caso d’uso specifico (Hyperblock), ed è abbastanza ottimizzato per quello scopo - ma non è aperto, e devi vivere con i suoi vincoli (ad es., nessuna interrogazione SQL, limitata complessità algoritmica poiché è più basato su calcoli a livello di cella). La piattaforma di o9 include un mix di tecnologie (probabilmente un database NoSQL/grafico, forse Spark o simile per alcuni ML, ecc.), rendendola complessa ma teoricamente flessibile.
-
Hardware e Cloud: Una tendenza degna di nota è il design nativo per il cloud. Molti fornitori ora offrono il loro software come SaaS o almeno ospitato nel cloud, ma non tutti sono veramente nativi per il cloud. Ad esempio, Anaplan e o9 sono SaaS multi-tenant (costruiti per il cloud da zero). Lokad è nativamente cloud (funziona su Microsoft Azure e assegna dinamicamente le risorse). SAP IBP è ospitato nel cloud ma essenzialmente ogni cliente è un’istanza isolata su HANA (non multi-tenant nello stesso senso). ToolsGroup, Blue Yonder hanno offerte SaaS ma spesso queste sono solo il loro software on-prem gestito da loro nel cloud. Perché questo è tecnicamente importante? Le architetture native per il cloud sono tipicamente più elastiche - possono avviare il calcolo quando necessario (per una grande esecuzione di pianificazione) e spegnersi dopo, controllando possibilmente il costo. I sistemi non cloud spesso richiedono l’acquisto per la capacità di picco anche se usati occasionalmente. Inoltre, i sistemi nativi per il cloud potrebbero integrarsi meglio con altri servizi cloud (ad esempio, collegandosi a un servizio ML cloud o a un data lake). Da quello che abbiamo scoperto, le soluzioni più native per il cloud e scalabili per progettazione sembrano essere Lokad e o9 (e forse Anaplan), mentre gli altri stanno recuperando. Tuttavia, essere nativi per il cloud da soli non equivale a una buona architettura - o9 è nativo per il cloud ma abbiamo messo in discussione il suo approccio pesante sulla memoria; SAP IBP essendo sul cloud non rimuove i suoi problemi di complessità.
-
Concorrenza e necessità in tempo reale: Una considerazione architettonica riguarda il modo in cui il sistema gestisce utenti concorrenti e aggiornamenti in tempo reale. Kinaxis eccelle qui: è stato progettato per permettere a più pianificatori di fare la pianificazione degli scenari simultaneamente sullo stesso set di dati. Questo richiede una logica di versioning e blocco dei dati accurata - che Kinaxis ha ottenuto tramite il loro meccanismo di ramificazione 8. La maggior parte degli altri strumenti ha tradizionalmente seguito un paradigma batch (pianifica, pubblica, poi collabora separatamente). Ora, molti stanno aggiungendo funzionalità di pianificazione concorrente. Anaplan permette a più persone di lavorare in parti diverse del modello contemporaneamente (dato che è essenzialmente basato su celle come Google Sheets). SAP IBP ha introdotto un’interfaccia utente “simile a Microsoft Excel” che può aggiornare i dati dal server su richiesta, ma la vera concorrenza (più utenti che modificano lo stesso piano contemporaneamente) è limitata. o9 probabilmente supporta un certo livello di concorrenza dato il suo grafo di conoscenza (più utenti possono regolare nodi diversi). Nella valutazione del merito tecnico, un sistema che può operare veramente in tempo reale con molti utenti indica un’architettura robusta. Kinaxis e Anaplan guadagnano punti qui. Non è che gli altri non possano farlo, ma spesso le loro architetture più vecchie lo rendono difficile - risultando in prestazioni lente o forzando processi sequenziali.
Riassunto per l’architettura: Abbiamo identificato un modello: i progetti centrati sulla memoria (Kinaxis, Anaplan, o9, Relex, SAP HANA) offrono velocità ma a costo di scalabilità e $$, mentre i progetti ibridi (il spill-to-disk di Lokad, forse strumenti che utilizzano database moderni) sono più scalabili ed economici. Un chiaro segnale di allarme è qualsiasi fornitore che insiste sul fatto che tutto deve essere in RAM per funzionare - questo è ora considerato un approccio superato data l’evoluzione della velocità degli SSD e del calcolo distribuito 43 44. Sottolineiamo anche che le architetture dei fornitori nate da molteplici acquisizioni (come SAP, Blue Yonder) tendono ad essere eccessivamente complesse e richiedono molta messa a punto. Architetture più semplici, sviluppate internamente (il singolo codice sorgente di Kinaxis, il singolo motore di Anaplan, il singolo motore di Lokad) tendono ad essere più coerenti e quindi più facili da mantenere tecnicamente. Nella valutazione di un software per la supply chain, ci si dovrebbe chiedere: Il fornitore ha pubblicato qualcosa su come il loro software è costruito (microservizi? DB personalizzato? uso di librerie ML? ecc.). La mancanza di qualsiasi discussione ingegneristica potrebbe significare che l’architettura è solo una scatola nera - spesso indicando o un’eredità o una mancanza di fiducia nella loro unicità.
Integrazione & Coerenza dei Moduli (Impatto M&A)
La pianificazione della supply chain copre tipicamente diversi domini (previsione della domanda, ottimizzazione dell’inventario, pianificazione della produzione, ecc.). Alcuni fornitori offrono una suite integrata costruita organicamente, mentre altri sono cresciuti tramite acquisizioni, aggiungendo nuovi moduli. Abbiamo esaminato come ciascuna soluzione del fornitore è integrata e quali segnali di allarme emergono dalla loro strategia di crescita.
-
Blue Yonder (JDA) è l’esempio perfetto di crescita tramite acquisizione. Come notato, è una “collezione casuale” di prodotti di diverse epoche 29. JDA ha acquisito i2 (che aveva a sua volta diversi moduli), ha acquisito Manugistics in precedenza, poi RedPrairie (per la gestione dei magazzini), poi la startup Blue Yonder per l’IA. Ogni pezzo aveva il suo schema di database, la sua logica. Il risultato: ancora oggi, la pianificazione della domanda, la pianificazione della fornitura e l’ottimizzazione dell’inventario di Blue Yonder potrebbero non condividere un unico modello di dati - l’integrazione si basa su interfacce. Questo è un segnale di allarme perché significa che implementare la suite completa è essenzialmente integrare diversi pacchetti software distinti. Quando i prodotti di un fornitore non sono veramente unificati, i clienti si trovano di fronte a problemi come ritardi nella sincronizzazione dei dati, interfacce utente inconsistenti e funzionalità duplicate. Nel caso di Blue Yonder: alcuni dei suoi moduli si sovrappongono francamente (dopo le acquisizioni, potresti avere due modi per fare la pianificazione dell’inventario - uno dal Manugistics legacy e uno da i2). L’azienda ha speso sforzi per razionalizzare questo, ma non è completamente risolto. In termini tecnici, il software aziendale non si “mescola” magicamente come i fluidi quando le aziende si fondono 29 - ci vogliono anni di reingegnerizzazione. Non abbiamo visto prove che Blue Yonder abbia completato quella reingegnerizzazione. Quindi, la mancanza di coerenza è una grave debolezza tecnica.
-
SAP IBP ha combinato in modo simile componenti acquisiti: l’acquisto da parte di SAP di SAF, SmartOps e altri ha portato strumenti separati che SAP ha poi integrato nell’ombrello IBP 27. Gli utenti hanno notato che IBP ha diversi moduli che sembrano app separate (ad esempio, IBP per la domanda vs. IBP per l’inventario). La logica di ottimizzazione dello stock di sicurezza in IBP probabilmente proviene dall’acquisizione di SmartOps, mentre il sensing della domanda potrebbe provenire da SAF o da sviluppi interni. L’integrazione è migliore di quella di Blue Yonder (SAP almeno ha riscritto l’interfaccia utente e ha messo tutto sul database HANA), ma comunque, sotto il cofano IBP non è un unico codice sorgente. SAP avverte esplicitamente che l’implementazione di IBP richiede solitamente diversi anni e integratori esperti per far funzionare ottimamente tutti i moduli insieme 28. Questa affermazione è un campanello d’allarme di per sé - implica un potenziale disaccordo e complessità.
-
Infor (anche se non nei primi 10 sopra) ha anche fuso vari sistemi di pianificazione (avevano acquisito la pianificazione della supply chain di Mercia e GT Nexus, ecc.). Il risultato non è mai stata una vera e propria piattaforma di pianificazione unificata; Infor tende a concentrarsi sui sistemi di esecuzione. Quindi è un altro esempio in cui l’acquisizione non ha prodotto un grande prodotto di pianificazione integrato.
-
Dassault (Quintiq): In questo caso, l’acquisizione (da parte di Dassault) non ha comportato la fusione di Quintiq con un altro strumento di pianificazione - Dassault ha più o meno lasciato Quintiq continuare come offerta autonoma focalizzata sull’ottimizzazione della produzione/programmazione. Pertanto, la coerenza interna di Quintiq è buona (è stata sviluppata internamente e rimane tale), ma lo svantaggio è che non copre tutti i settori (ad esempio, non ha una previsione della domanda nativa, come notato 16). Il portafoglio di Dassault ha altri prodotti (come Apriso per MES, ecc.), ma non sono integrati con Quintiq in modo profondo. Quindi, in termini di integrazione, Quintiq è autoconsistente ma funzionalmente stretta. Da un punto di vista dell’utente, potrebbe essere necessario integrarlo con un altro strumento di previsione, il che significa un lavoro extra sul lato del cliente.
-
Kinaxis è cresciuta principalmente in modo organico - ha acquisito una piccola azienda di AI Rubikloud nel 2020 (per la AI al dettaglio) e uno strumento di progettazione della supply chain (Castle Logistics) nel 2022, ma queste sono acquisizioni relativamente recenti e resta da vedere come si integreranno. Storicamente, RapidResponse era un prodotto che gestiva vari aspetti della pianificazione attraverso la configurazione. Questa coerenza è un vantaggio: tutti i moduli (domanda, offerta, inventario) condividono un unico database e interfaccia utente in Kinaxis. Allo stesso modo, Anaplan ha sviluppato diverse “app” di pianificazione su una piattaforma - piani di vendita, finanza, supply chain risiedono tutti nello stesso ambiente Hyperblock, che è tecnicamente molto coerente (solo diversi modelli di template). o9 Solutions è anche una piattaforma singola sviluppata organicamente che copre molte aree (non è cresciuta acquisendo altri fornitori di pianificazione, almeno non quelli principali). Quindi questi tre - Kinaxis, Anaplan, o9 - hanno un vantaggio architettonico di unità. La cautela con loro non riguarda l’integrazione di moduli disparati, ma se la loro unica piattaforma può davvero gestire la profondità in ogni dominio.
-
ToolsGroup & Slimstock: Questi fornitori sono rimasti concentrati sulla loro nicchia (pianificazione della domanda e dell’inventario). Non hanno realmente acquisito altre aziende; invece, si associano o si integrano con i sistemi di esecuzione secondo necessità. Questo significa che il loro software è coerente internamente (un unico codice sorgente), il che è positivo, ma se un cliente ha bisogno di capacità più ampie (come la programmazione della produzione), deve utilizzare un altro prodotto e integrarlo da solo. ToolsGroup negli ultimi anni ha iniziato ad aggiungere funzionalità S&OP e ha persino acquisito una startup di AI (Eramos nel 2018) per l’apprendimento automatico, ma ancora una volta queste sono state incorporate nel prodotto principale piuttosto che vendute come separate. Quindi l’integrazione non è un grosso problema per ToolsGroup o Slimstock - il compromesso è se il loro design a singolo focus copre abbastanza ambito per le esigenze dell’utente.
Riassunto per l’integrazione: Da un punto di vista scettico, più acquisizioni importanti nella storia di un fornitore sono un segnale di allarme. Spesso porta a un prodotto tuttofare che non è maestro in nulla, con una complessità nascosta. Blue Yonder e SAP ne sono l’esempio - la loro complessità tecnica deriva in parte dal tentativo di incollare insieme molti pezzi ereditati. Al contrario, i fornitori con una singola piattaforma unificata (costruita organicamente) evitano questi problemi, anche se devono ancora dimostrare che una sola piattaforma può fare tutto bene. Quando si valuta un software, si dovrebbe chiedere l’origine di ogni modulo: se il modulo di pianificazione della domanda e il modulo di pianificazione dell’offerta provengono da diverse aziende originali, indagare su come condividono i dati e se l’integrazione è senza soluzione di continuità o tramite interfaccia. La storia ha dimostrato che a meno che la tecnologia acquisita non sia stata riscritta da zero in un’architettura unificata (cosa rara a causa dei costi e dei tempi), il risultato è di solito un sistema Frankenstein. La nostra ricerca rafforza questo - i fornitori con i voti più alti in eleganza tecnica (Lokad, Kinaxis, Anaplan) hanno costruito le loro soluzioni in modo olistico, mentre quelli con i voti più bassi (Blue Yonder, Infor) hanno accumulato tecnologie disparate senza unificarle completamente.
Punti Deboli Critici & Segnali d’Allarme
Nella nostra rigorosa revisione, abbiamo identificato diverse debolezze ricorrenti e segnali d’allarme di cui gli utenti potenziali dovrebbero essere consapevoli. Di seguito è riassunto un elenco dei problemi chiave, con esempi di specifici fornitori per illustrare ogni punto:
-
Affermazioni “AI/ML” non suffragate: Siate estremamente scettici nei confronti di qualsiasi fornitore che proclama una superiore AI o apprendimento automatico senza prove tecniche concrete. Ad esempio, Blue Yonder pubblicizza pesantemente l’AI ma fornisce solo affermazioni vaghe senza sostanza 30 - quello che possiamo vedere dei loro metodi indica che si affidano a tecniche più vecchie, non all’AI all’avanguardia. Allo stesso modo, o9 Solutions vanta la sua AI e l’intelligenza basata su grafici, ma l’analisi del loro codice pubblico e dei materiali mostra “tonnellate di hype sull’AI” con solo analisi pedonali nella realtà 26. Se un fornitore non può indicare studi peer-reviewed, brevetti, competizioni o documenti tecnici dettagliati per sostenere le loro affermazioni sull’AI, presumete che sia solo fuffa di marketing. I fornitori veramente avanzati saranno orgogliosi di dettagliare i loro algoritmi.
-
Nessun Benchmarking Competitivo (Affermazioni di Superiorità nella Previsione): Molti fornitori affermano di avere la “migliore precisione di previsione della classe” ma nessuno a parte Lokad l’ha dimostrato in competizioni aperte o pubblicazioni. Trattiamo qualsiasi affermazione del genere come falsa a meno che non sia validata. Ad esempio, l’algoritmo proprietario di un fornitore vantato come “più preciso degli altri” era assente dalle prime posizioni della competizione M5 32, il che suggerisce fortemente che la loro affermazione è infondata. Infatti, nessun fornitore tradizionale di software per la supply chain (tranne Lokad) è apparso nelle prime 100 di quella competizione globale di previsione. Questo è un grosso segnale d’allarme: implica che questi fornitori o non hanno partecipato (forse per evitare imbarazzi pubblici) o hanno partecipato e hanno fatto male. Consiglio pratico: Chiedete di vedere i risultati di precisione oggettivi (ad es., come ha funzionato il loro strumento su un benchmark standard come il dataset M5 o M4) - se non possono fornirne, non comprate l’hype.
-
Eccesso nell’Architettura In-Memory: I fornitori che spingono su un design tutto in-memory dovrebbero essere interrogati sulla scalabilità e sui costi. Il calcolo in memoria offre velocità, ma la RAM è ~100 volte più costosa per GB rispetto al disco 10 e il suo prezzo/prestazioni si è stagnato negli ultimi anni 42. Questo rende le soluzioni puramente in memoria non scalabili e costose per grandi volumi di dati. SAP IBP (HANA) e o9 sono esempi: garantiscono alte prestazioni solo se caricate enormi set di dati in memoria, il che garantisce alte bollette hardware (o cloud) 24 31. È significativo che il design dei sistemi moderni si stia allontanando da questo approccio - come nota un esperto, l’iniziale frenesia di far entrare tutto in RAM ha incontrato limiti pratici, e i database stanno “ritrovando il loro amore per il disco” per gestire i dati freddi in modo efficiente 43 44. Se un fornitore è ancora bloccato su una mentalità solo in memoria, consideratelo un segnale d’allarme architettonico. I fornitori più scalabili parleranno di storage stratificato, elasticità del cloud, o strategie simili per gestire dati su larga scala senza richiedere RAM infinita.
-
Scatola Nera da M&A (Disfunzione dell’Integrazione): Se la suite di prodotti di un fornitore è il risultato di molte acquisizioni, fate attenzione alle lacune di integrazione e alla sovrapposizione di funzionalità. Come abbiamo visto, la suite di Blue Yonder è un mix casuale di prodotti datati a causa di una lunga serie di fusioni 29, e i moduli di SAP IBP provengono da diverse aziende acquisite 27, risultando in complessità e una “collezione” di strumenti piuttosto che un tutto senza soluzione di continuità. Il software aziendale non è facilmente “miscibile” attraverso M&A 29 - a meno che il fornitore non abbia fatto una completa ristrutturazione (cosa rara e che richiede tempo), il cliente finisce spesso per agire come integratore tra i moduli. Questo può significare esperienze utente inconsistenti, doppia immissione di dati, e interfacce fragili. Sintomo di allarme: L’implementazione del fornitore richiede un battaglione di consulenti per un anno o più per far parlare i moduli tra di loro - come anche riconosciuto nel caso di SAP 28. Preferite fornitori con una piattaforma unificata o una sovrapposizione minima nei componenti acquisiti.
-
Metriche Contraddittorie e Parole d’Ordine: Un segnale d’allarme sottile ma significativo è quando la storia tecnica di un fornitore contiene contraddizioni interne o pratiche obsolete mascherate con nuova terminologia. Un esempio lampante era ToolsGroup che pubblicizzava previsioni probabilistiche mentre contemporaneamente faceva riferimento a miglioramenti MAPE 19 - un segno che stanno solo spargendo nuova terminologia su vecchie pratiche (dal momento che usare MAPE per giudicare le previsioni probabilistiche è concettualmente sbagliato). Un altro esempio sono i fornitori che affermano di utilizzare “AI avanzata” ma poi misurano il successo con vecchie metriche come MAPE o livelli di servizio tradizionali - indica che non hanno veramente adottato il nuovo paradigma. Allo stesso modo, fate attenzione alle metodologie di stock di sicurezza: un fornitore potrebbe affermare di ottimizzare l’inventario con l’AI, ma se scavate e scoprite che calcolano ancora lo stock di sicurezza con una formula degli anni ‘80 (ad es. ipotesi di distribuzione normale con un fattore di sicurezza statico), è una contraddizione. Abbiamo infatti trovato casi in cui i fornitori parlano di “inventario probabilistico” o “ottimale”, ma la loro documentazione rivela calcoli standard di stock di sicurezza e l’uso di metriche obsolete come il tasso di riempimento. Conclusione: Le incongruenze tra ciò che commercializzano e ciò che misurano/consegnano sono un segnale d’allarme. Se un fornitore si vanta di essere moderno e guidato dall’IA, ma utilizza gli stessi KPI e metodi di decenni fa, la loro innovazione è probabilmente superficiale.
-
Algoritmi e pratiche obsoleti: La teoria della supply chain è avanzata (ad esempio, dai modelli deterministici a quelli stocastici, dall’ottimizzazione a singolo livello a quella a più livelli), ma alcuni software non hanno tenuto il passo. L’affidamento su pratiche vecchie di decenni è una debolezza, specialmente se i fornitori fingono il contrario. Ad esempio, uno strumento che utilizza ancora principalmente la logica di stock di sicurezza + punto di riordino con tempi di consegna fissi per l’inventario è indietro se non tiene conto della variabilità della domanda in modo dinamico. Abbiamo notato che Slimstock si concentra esplicitamente su formule tradizionali (stock di sicurezza, EOQ) 21 - sono trasparenti al riguardo, il che va bene per una soluzione di base, ma chiaramente non è all’avanguardia. Se un fornitore presumibilmente avanzato non è trasparente, potrebbe fare la stessa cosa ma non ammetterlo. Un altro esempio: i frammenti di codice open-source di Blue Yonder puntano ai modelli ARMA 48, che sono tecniche di previsione degli anni ‘70, anche se il loro sales deck parla di AI. Infor, Oracle, John Galt e altri nel livello inferiore si affidano spesso a metodi di serie temporali e euristiche che esistono da sempre (come lo smoothing esponenziale di Winters, semplici risolutori di ottimizzazione) - funzionano, ma non c’è nulla di moderno in essi. Il segnale d’allarme non è l’uso di metodi vecchi di per sé (i metodi vecchi possono ancora essere i migliori in alcuni casi), è l’uso di essi mentre si sostiene di essere innovativi, o l’uso esclusivo di essi quando esistono metodi migliori per il problema. Indaga sempre quali algoritmi vengono effettivamente utilizzati (ad esempio, “La tua ottimizzazione dell’inventario considera l’intera distribuzione della domanda o solo un singolo fattore di servizio? Utilizzi l’ottimizzazione a più livelli o solo calcoli a nodo singolo?”). Risposte evasive o vaghe indicano che la metodologia potrebbe essere datata.
-
Mancanza di trasparenza tecnica: Infine, un segnale d’allarme meta: se un fornitore non fornisce nessuna documentazione tecnica - nessun white paper, nessuna architettura di riferimento, nessuna spiegazione degli algoritmi - questo è di per sé un segnale d’allarme. Nella nostra ricerca, i fornitori che hanno ottenuto un buon punteggio dal punto di vista tecnico (Lokad, Kinaxis, SAS, ecc.) hanno tutti almeno alcuni contenuti tecnici disponibili (siano essi blog, articoli accademici o note tecniche). I fornitori che hanno ottenuto un punteggio basso spesso non hanno nulla oltre i dépliant di marketing. Ad esempio, prova a trovare un white paper tecnico dettagliato da o9 o Blue Yonder - è quasi impossibile, ottieni principalmente dépliant lucidi. Lokad, al contrario, ha pubblicato uno studio di mercato dettagliato di 18 pagine (che abbiamo citato liberamente) che confronta gli approcci dei fornitori 49 29 25, così come video su come funzionano i loro algoritmi. Quando un fornitore è segreto su come funziona la loro soluzione, ci si deve chiedere se è perché non è effettivamente speciale. La trasparenza si correla con la credibilità. Un fornitore che si nasconde dietro parole d’ordine e non divulga i loro metodi probabilmente ha una “tecnologia ordinaria con un extra di rossetto”.
In conclusione, applicando una lente altamente scettica e orientata all’ingegneria si scopre che molti software di ottimizzazione della supply chain “leader” sono lunghi sulle promesse e corti sull’innovazione verificabile. Tagliando attraverso il fronzolo del marketing, ci siamo concentrati su ciò che è tangibile: strutture di dati, algoritmi, prestazioni e prova di efficacia. Le migliori soluzioni si sono distinte offrendo sostanza tecnica - precisione delle previsioni dimostrata, scelte architettoniche chiare e documentazione sincera - mentre quelle più deboli si sono rivelate attraverso contraddizioni, vaghezze e fondamenti obsoleti. Questo studio serve come promemoria per qualsiasi professionista della supply chain: non prendere per buone le affermazioni dei fornitori. Richiedi prove, guarda sotto il cofano e ricorda che nella supply chain, come in tutta l’IT, i veri progressi all’avanguardia sono solitamente supportati da scienza aperta e ingegneria solida - non solo da affermazioni di marketing altisonanti.
Note a piè di pagina
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Perché i database hanno ritrovato il loro vecchio amore per il disco | TUMuchData ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎ ↩︎
-
Portare le decisioni automatizzate della supply chain alla produzione - Lezione 7.2 ↩︎ ↩︎
-
Portare le decisioni automatizzate della supply chain alla produzione - Lezione 7.2 ↩︎
-
Portare le decisioni automatizzate della supply chain alla produzione - Lezione 7.2 ↩︎ ↩︎
-
ToolsGroup - Prodotti, Competitori, Finanze … - CB Insights ↩︎
-
Perché i database hanno ritrovato il loro vecchio amore per il disco | TUMuchData ↩︎
-
Perché i database hanno ritrovato il loro vecchio amore per il disco | TUMuchData ↩︎
-
Perché i database hanno ritrovato il loro vecchio amore per il disco | TUMuchData ↩︎ ↩︎
-
Perché i database hanno ritrovato il loro vecchio amore per il disco | TUMuchData ↩︎ ↩︎ ↩︎
-
Perché i database hanno ritrovato il loro vecchio amore per il disco | TUMuchData ↩︎ ↩︎ ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎
-
Studio di Mercato, Fornitori di Ottimizzazione della Supply Chain ↩︎