Digitalizzazione delle aziende? Dalla teoria alla pratica

763

Industry 4.0, IoT e Service Provider: quale è il “Go To Market” ideale e cosa serve alle aziende per cogliere questa opportunità

di Stefano Della Valle, VP Sales and Marketing di iNebula

In Italia si è iniziato a parlare di Industry 4.0 solo da pochi mesi, da quando le proposte di Confindustria Digitale sono state recepite dal Governo e inserite nella legge di stabilità. In effetti, la digitalizzazione della produzione industriale è in corso da anni sia per le grandi industrie sia per le piccole e medie imprese. In particolare, la trasformazione digitale delle PMI manifatturiere è iniziata a fine anni novanta, con la digitalizzazione dei cataloghi e l’apertura di “vetrine online”, così come sono stati eliminati tecnigrafi e stampe litografiche sostituiti da strumenti CAD e stampanti laser. Oggi è la volta della digitalizzazione dell’intero processo di business, dal design di prodotto alla logistica, e come per le precedenti evoluzioni, chi non si adegua sarà fuori mercato in breve tempo. Ma c’è anche una novità: il completamento del lungo processo di digitalizzazione iniziato anni fa permette in modo particolare alle PMI, di strutturarsi per offrire ai mercati prodotti “custom” in piccola serie. Non prototipi realizzati con stampanti 3D, non piccole serie di prodotti ad alto valore, ma piccole serie di prodotti con qualità e prezzi standard delle grandi serie, fatte su specifiche del cliente. Si crea quindi un momento di discontinuità e ci chiediamo come faranno le grandi imprese a rispondere a questa nuova minaccia e con quali tecnologie? L’Italia è ricca di PMI con grande capacità di produrre qualità e per queste aziende si tratta di un’occasione unica di crescita, con l’opportunità di poter competere con aziende internazionali. Inoltre, su piccole produzioni di serie, il prezzo è un fattore secondario, mentre più rilevanti sono qualità e contenuto innovativo. Sul tema delle tecnologie richieste serve evidenziare che la “i” di IoT non sta per Internet, ma per Intelligenza. Intelligenza delle cose.

Intelligenza delle cose

Ogni anno gli analisti pubblicano decine di report che illustrano come siamo e saremo sempre più circondati da oggetti che producono informazioni e comunicano via Internet, ma quasi nessuno ci offre una descrizione di come saranno fatti questi dispositivi: assomiglieranno a PC? A piccoli robot? Derivazioni di smartphone privi di monitor ma dotati di un numero maggiore di sensori? Nessuno si sbilancia, perché esistono ed esiteranno sempre più tipologie di oggetti, dai più stupidi ai più intelligenti, che avranno il compito di sostituire alcune attività umane che in un processo produttivo 4.0 diverranno frenetiche, ripetitive e dovranno essere automatizzate il più possibile. Un esempio: il controllo qualità di una produzione massiva viene fatto a campione su poche unità per migliaia di prodotti realizzati, mentre su piccole serie ad elevata qualità il controllo deve essere fatto su ogni singolo prodotto. Riteniamo quindi che l’adozione di sensori, strumenti di misura connessi alla rete e attuatori intelligenti, dovrà entrare massicciamente nelle nostre fabbriche, ma come governare il flusso di dati che arriverà dai tanti oggetti IoT connessi ad in impianto industriale? In questi anni sul tema del governo dei dati si sono spese due parole: Big Data. Purtroppo la questione non è così semplice perché occorre ricordare un principio matematico fondamentale che deve guidare ogni misurazione: la misura è un’informazione composta da tre parametri, valore, un’incertezza e un unità di misura. Parlando di dati IoT nel Big Data Repository, se sul primo e sul terzo parametro, in genere non vi sono dubbi, quasi mai abbiamo informazioni certe sull’attendibilità, affidabilità, ripetibilità del dato. In sintesi sulla sua qualità. Questo perché i Big Data Repository vengono concepiti per applicare principi di statistica che come è noto sono affidabili solo sui grandi numeri. Ma, se abbiamo bisogno di controllare puntualmente un dato tecnico misurato nel processo produttivo e poterlo confrontare con altri per dedurre l’esistenza di un’anomalia, abbiamo assoluta necessità di comprendere l’affidabilità del dato. Per questo non possiamo non prendere in considerazione l’origine del dato ovvero il sensore IoT e controllarlo in modo continuativo. Cosa accade ad esempio se ci accorgiamo che una data serie di sensori produce un valore con un errore superiore alle attese? Possiamo sostituire migliaia di sensori? Come possiamo sapere dove si trovano e chi li sta utilizzando? Quali danni stia producendo l’errore? Etc etc… Con l’approccio “digitale” a questo problema la soluzione è semplice e composta da una serie di requisiti che gli oggetti IoT devono avere:

  1. Il dispositivo deve essere univocamente identificabile
  2. Il dispositivo deve fornire informazioni sul suo “stato di salute”, ore lavoro, anomalie di funzionamento, condizioni ambientali in cui opera, ecc., al fine di poter “pesare” i dati prodotti e normalizzarli per renderli confrontabili con altri dati.
  3. Il dispositivo deve poter ricevere comandi operativi che permettono di attivare test di funzionamento approfondito e fornire gli esiti.
  4. Il dispositivo deve accettare comandi operativi solo da un sistema identificato.
  5. Il firmware o software di base deve essere aggiornabile per garantire la correzione di eventuali errori di programmazione o progetto.
  6. Il dispositivo deve essere in grado di usare tecniche di criptografia sofisticate per evitare che i dati da lui prodotti possano essere manomessi prima di raggiungere il repository.
  7. Il dispositivo deve utilizzare certificati di sicurezza mediante i quali cripta i dati, si identifica ai sistemi di controllo, ottiene le configurazioni di base.

Se analizziamo i punti f) e g) si evidenzia che la qualità dei dati non è necessariamente compromessa da un evento anomalo e casuale, ma ci possono essere manipolazioni per scopi dolosi. Tutto ciò ci porta a considerare che il Big Data Repository non sia una risposta sufficiente per governare i dati ma serve un’applicazione che possa prendersi cura dell’intero processo di produzione dei dati: le “soluzioni verticali”.

Le soluzioni verticali

Un esempio è il sistema antiincendio industriale. In questo settore specifico grandi aziende hanno raggiunto notevoli livelli di sofisticazione, con sensoristica molto efficiente, facile da installare, affidabile, con attuatori in grado di attivare contromisure e una centrale di raccolta dati che è in grado di segnalare l’evento ad operatori umani. Per contro si tratta di una soluzione chiusa, che fornisce poche informazioni attraverso segnali digitali abbastanza limitati. Ma, se ipotizziamo di dover governare la sicurezza fisica di un grande impianto produttivo, il solo impianto di antincendio non basta. Dovremo disporre di un sistema di controllo perimetrale per essere allertati se qualcosa o qualcuno cerca di entrare in modo irregolare nel nostro impianto, dovremo disporre di un sistema di videosorveglianza, di controllo accessi, sia per le persone che per IoT e altro ancora. Occorre una visione integrata di tutte le informazioni, pena l’incapacità di governare fenomeni più complessi di un banale falso allarme: se viene segnalato un incendio e il controllo degli allarmi perimetrali non viene sorvegliato perché il personale è impegnato a verificare l’allarme, qualcuno potrebbe entrare inosservato, come da copione standard di molti film di Hollywood.

La piattaforma IoT

L’approccio corretto non è quello di dotarsi di tante soluzioni verticali perfette per affrontare temi specifici, ma affrontare il problema attraverso una “piattaforma IoT”. Una piattaforma IoT è un sistema articolato in grado di governare in modo efficiente, una serie di tematiche, comuni a ogni soluzione verticale:

  • Attivazione dei dispositivi: se il dispositivo è sufficientemente versatile la piattaforma gli fornirà automaticamente le configurazioni inziali e il software progettato per svolgere determinati compiti.
  • Connettività sicura dei dispositivi: deve fornire strumenti di base per comunicare in modo sicuro nelle varie modalità che la tecnologia wireless, e non wireless, mette a disposizione. Deve inoltre garantire la facilità di installazione in reti remote senza la necessità di configurazioni specifiche di apparati di sicurezza. Ove richiesto, deve fornire strumenti di gestione della connettività di backup via 2G/3G se il collegamento principale viene interrotto.
  • Monitoraggio dei dispositivi: deve controllare costantemente che i dispositivi siano attivi, raggiungibili e correttamente operativi.
  • Aggiornamento software dei dispositivi: deve fornire strumenti per aggiornare in modo massivo migliaia di dispositivi in modo automatico senza dover richiedere l’intervento umano per la gestione di eccezioni e anomalie.
  • Aggiornamento dei certificati di sicurezza: deve fornire strumenti per aggiornare in modo massivo e automatico i certificati utilizzati dai dispositivi per cifrare dati in fase di invio in rete.
  • Raccolta dati: deve fornire uno strumento di base affinché i dati raccolti da dispositivo vengano ricevuti dalla piattaforma senza rischio di perderli. Ove necessario deve applicare le logiche di decodifica del dato per renderlo intellegibile da ogni applicazione.
  • Modellizzazione al dato: la piattaforma deve fornire uno strumento di data modelling che permetta ad ogni applicazione di accedere a qualsiasi dato indipendentemente dal dispositivo di origine e dal modo con cui il dato è stato rilevato. In pratica assegnando una sorta di indirizzo al dato: timepo:dominio/device/applicazione/metrica/topic.
  • Correlazione dati: la piattaforma deve fornire strumenti di descrizione di “eventi significativi” che la piattaforma stessa genererà al verificarsi di date condizioni, correlando i dati ricevuti in tempo reale. Gli eventi devono poter produrre nuovi dati, allarmi, messaggi SMS o Twitter, o invio di dati ad altre applicazioni.
  • Gestione utenze: la piattaforma deve permettere la profilazione di utenti umani e applicativi a cui vengono garantite determinate funzionalità operative sulla piattaforma, device e dati.
  • Auto-monitoraggio: la piattaforma deve controllare costantemente lo stato operativo delle sue componenti funzionali e generare eventi in caso di anomalia.

Una motivazione in più per utilizzare una piattaforma IoT è la gestione del dato proveniente da device di bassissimo profilo (Low Power device) collegati mediante reti LPWAN (Low Power Wide Area Network).

I dati “RAW”

Lo scopo di queste reti e di questi dispositivi è la riduzione dei costi complessivi della raccolta dei dati. Non fanno pertanto uso di reti wireless basate su frequenze licenziate e abbattono i costi degli impianti di alimentazione poiché utilizzano solo energia proveniente da batterie. Tuttavia, visto che le batterie attuali non hanno una grande capacità, per garantire anni di funzionamento questi sensori limitano al minimo necessario i messaggi che inviano e minimizzano le dimensioni del messaggio stesso codificando i dati nel modo più efficace possibile. Sono detti “dati RAW”. Dato che questa codifica non rispecchia alcuno standard, solo l’applicazione che è in grado di decodificare il messaggio inviato sarà in grado di utilizzarlo. Ciò fa venire meno la possibilità di correlare il dato con altri provenienti da altre sorgenti. In altre parole farebbe venir meno la ragion d’essere della piattaforma. Proprio per questo la piattaforma deve essere programmabile per poter decodificare queste tipologie di dati “RAW” e mettere a disposizione delle applicazioni i dati veri. Dopo questo lungo excursus sulle problematiche legate all’IoT e all’Industry 4.0 non resta che sintetizzare le conseguenze per utenti finali, service providers e system integrators.

Conclusioni

Le imprese dovranno avvalersi di un sytem integrator innovativo che a sua volta dovrà evitare di vedere il cliente come l’utilizzatore finale delle proprie expertise, ma guardare all’anello successivo della catena del valore in una logica che si può definire B2B2C: business to business to consumer. E’ fondamentale approcciare l’evoluzione innovativa con uno sguardo al reale beneficiario finale. Solo in questo si potranno di modulare costi, vantaggi, progetti a breve e lungo termine, per permette alla PMI di essere per molto tempo efficacie sul suo mercato e quindi condividere un risultato positivo e in progressiva crescita. Uno dei punti fondamentali è ovviamente la scelta della piattaforma. Qui nuovamente occorre abbandonare le logiche di affiliazione a brand storici che sanno certamente comunicare ma non sono rapidi nell’evolvere tanto quanto deve essere rapido il cliente. Quasi scontato, ma meglio ribadirlo, la piattaforma IoT scelta deve essere “cloud”. Ibrido, privato o pubblico, poco importa. Quello che conta è che deve garantire crescita rapida e costi lineari a vantaggi forniti. Un pensiero anche ai grandi service provider che oggi preferiscono vendere “pacchetti” al posto di vendere “soluzioni”. E’ evidente il salto generazionale che si sta concretizzando: l’opportunità di far proprie le soluzioni commerciali di chi come iNebula offre una potentissima piattaforma. Ogni immobilismo e semplificazione al contrario sono da considerarsi pericolose.

Appartenente al Gruppo Itway, multinazionale quotata in borsa, iNebula offre servizi di cloud computing e soluzioni IoT. Grazie all’ampio ventaglio di servizi cloud e ai data center italiani, iNebula assicura la salvaguardia di dati, spazi fisici e comunicazioni, l’ottimizzazione delle risorse e la gestione dei processi aziendali con un notevole risparmio di tempo e denaro. Obiettivo dell’azienda è quello di supportare il mercato italiano, internazionale e globale con risposte flessibili ed efficaci, progettate anche  per governare la complessità dell’IoT. Per ulteriori informazioni www.inebula.it