Ci sono parti dell’industria manifatturiera che continuano a esistere nella forma che avevano agli inizi del ‘900. Sussiste tuttora la necessità di utilizzare grasso lubrificante, ingranaggi e rettificatrici insieme alle tute da lavoro e alle pause per il caffè. Si tratta di fondamenti che con ogni probabilità continueranno a esistere ancora a lungo nel futuro automatizzato e autonomo, dal momento che saranno sempre gli umani a giocare un ruolo fondamentale nella narrativa alla base di qualsiasi stabilimento industriale. Ma è noto che la produzione è cambiata.
Nel corso della prima, della seconda e, attualmente, della terza rivoluzione industriale abbiamo visto un’accelerazione legata alla spinta del vapore, quindi la meccanizzazione e oggi l’automazione spinta dall’IT applicata alle attività di produzione in modi che i nostri predecessori non avrebbero mai ritenuto possibili.
Alla soglia dello stabilimento di produzione iper-controllato di domani, con i gemelli digitali (digital twins) e i dati che affiancano le nostre macchine fisiche e i lavoratori umani, ci chiediamo come dovremmo approcciare la scoperta di anomalie. È abbastanza semplice scoprire un calo o un picco su un grafico che rappresenta i risultati di una misurazione significativa, ma che fare se si presenta una lenta diminuzione della qualità o delle prestazioni che si verifica nell’arco di un mese o anche più?
Una supervisione umana annebbiata
Le fabbriche moderne lavorano a ritmi di produzione tali da superare la capacità di qualsiasi persona singola (o persino gruppi di persone) di essere sempre presenti in ogni punto della fabbrica. In questi ambienti, non possiamo essere certi che le osservazioni umane possano offrirci il quadro completo di cui abbiamo bisogno. Negli stabilimenti moderni è raro che ci sia una sola variabile di cui tenere conto: è più facile che il numero di variabili sia più vicino alle centinaia o alle migliaia.
Se un’anomalia di produzione compare nelle nostre attività lentamente, può sfuggire all’attenzione fino a che non è troppo tardi e non si può più far nulla per intervenire. Occorre iniziare a pensare a nuovi modi di lavorare.
Un ago in un pagliaio di dati
Sappiamo che i set di dati industriali sono molto grandi ed estremamente complessi. Scoprire e predire anomalie è quindi più arduo che cercare un ago in un pagliaio, dal momento che spesso non sappiamo che cosa stiamo cercando. Tuttavia, scoprire un’anomalia significa realizzare risparmi, che a loro volta si traducono in rese migliori in produzione, sia immediatamente che più a lungo termine.
Molti produttori sanno di avere insiemi di dati massicci, ma troppo spesso questi data store sono memorizzati in silos o dispersi su sistemi diversi. Questa dispersione e divergenza dei dati rende difficile comprendere quando un’anomalia è legata a molti sistemi di dati, oppure legata a fasi produttive fisiche diverse. In realtà, talvolta si rende necessario recuperare dati da prodotti che sono già sul mercato e che hanno mostrato problemi operativi o funzionali. In ogni caso, il primo passo è quello di unificare tutte le proprie sorgenti di dati.
Oggi si lavora in un mondo dove le analytics stanno diventando una componente fondamentale delle fabbriche moderne; un trend evidenziato dallo sviluppo dei digital twin, i gemelli digitali, dov’è necessario applicare analytics accurate, rapide e intelligenti per ottenere gli insight predittivi che queste macchine virtuali sono in grado di fornire.
Una volta che i dati sono disponibili e accessibili, ci sono le analytics avanzate per cominciare ad analizzare quello che occorre cercare. Le tecniche moderne di data science ci aiutano a scoprire anomalie nascoste che non vengono comprese immediatamente a causa dell’enorme numero di parametri che possono influenzare la qualità del prodotto.
Una lente magica per scoprire le anomalie
Questo ci porta ad oggi: siamo ora ad un punto dove il machine learning (ML) e l’intelligenza artificiale (IA) stanno anch’essi entrando a far parte del processo produttivo.
Alcuni produttori inizialmente hanno utilizzato il ML per ottenere una comprensione delle proprie iniziative di marketing, segmentando i clienti e lanciando azioni specifiche. Tuttavia, negli anni più recenti, i produttori più progressisti e avanzati hanno iniziato a comprendere i benefici dell’utilizzo di tecniche di ML e IA per scoprire anomalie.
Un esempio è l’impiego di autoencoder per imparare dai dati. Un autoencoder è una tecnica artificiale di intelligence basata su una rete neurale utilizzata nel ML. Viene impiegata per codificare e apprendere dalle funzionalità di insiemi di dati non etichettati in quello che di solito chiamiamo apprendimento senza supervisione (unsupervised learning).
Il nostro futuro efficiente in tempo reale
Applicando modelli statistici opportunamente preparati a dati in tempo reale, è possibile predire quando si presenterà un’anomalia. Questo ci porta a un nuovo livello di efficienza nelle operazioni di produzione. Tutto ciò ci conduce a un punto da cui possiamo ora passare dal reagire a un’anomalia al predire l’anomalia con il beneficio di ottenere riduzioni sostanziali dei costi operativi. Si riducono i costi come conseguenza diretta della riduzione dei difetti e dei tassi di scarto, nonché della prevenzione dei tassi di indisponibilità imprevista delle macchine.
Hemlock Semiconductor (HSC) è un produttore che utilizza soluzioni di controllo dei processi, manutenzione predittiva e scoperta delle anomalie per ottimizzare e controllare la propria attività di produzione di semiconduttori.
Introducendo la notifica quasi in tempo reale (near real-time) per i singoli processi di produzione, gli addetti possono ora verificare automaticamente parametri fondamentali con limiti predefiniti, regole statistiche e pattern ottimali scoperti attraverso metodi di machine learning e IA. HSC riceve allarmi generati automaticamente non appena un processo cade all’esterno di bande di parametri accettabili, notificando il personale di produzione che qualcosa richiede la loro attenzione. Gli addetti possono così accedere immediatamente ai dati per verificare con precisione quale variabile possa aver causato il problema. Non appena identificate queste relazioni di causa-effetto, i team possono intraprendere azioni correttive per impedire che i difetti di processo si ripresentino.
Tutto questo progresso alla fine ci porta al nostro domani e al futuro del nostro pianeta. Al crescere dell’impiego dei gemelli digitali in linea con l’applicazione delle data analytics e del ML, ogni produttore diviene una fabbrica guidata dai dati, focalizzata sulla scoperta sempre più precisa di anomalie. Così, i produttori possono lavorare in modo più intelligente con consumi ottimizzati di energia per il bene di tutti.
La produttività degli impianti rappresenterà sempre la preoccupazione principale, e mentre il futuro sarà indubitabilmente guidato dai dati, si tratta di un percorso che si deve logicamente intraprendere. Il risultato è che saremo in grado di lanciare sul mercato prodotti che offrano non solo prestazioni migliori, ma che funzionino meglio e durino più a lungo. Quale impatto ciò abbia sul mercato dei beni di consumo a basso costo – dove la qualità è studiata per ‘deperire’ dopo un certo periodo di tempo – è un’altra questione da risolvere in separata sede.
Ora è possibile migliorare il modo in cui produciamo beni e i relativi servizi attraverso il rilevamento di anomalie e attraverso le potenzialità fornite dalle data analytics e dall’intelligence. Un ottimo incentivo per innovare in modo efficiente ed efficace in tutta tranquillità.
di Alessandro Chimera, Director, Digitalization Strategy, TIBCO