Si parla sempre più spesso di Intelligenza Artificiale (AI) e Machine Learning (ML). Se si guarda più da vicino, alcune applicazioni sono così “piccole” che difficilmente si pensa di poterle collegare all’AI, altre sono così difficili da capire in termini di comportamento che il rischio è troppo alto per utilizzarle su un’intera linea di produzione.
In questo scenario, come si possono sfruttare le possibilità del Machine Learning all’interno delle aziende di produzione e, nel contempo, garantire la sicurezza?
Idealmente, le possibilità degli algoritmi di apprendimento e la conoscenza rule-based dovrebbero essere combinate. I metodi di Machine Learning sono efficaci nella previsione dei valori futuri, ma conservano delle debolezze nel reagire agli imprevisti. Gli insiemi di regole, d’altra parte, permettono reazioni immediate a eventi inattesi che possono essere convalidati, ma sono generalmente in grado di identificare tendenze a breve termine.
Una combinazione di entrambi gli approcci porta quindi a processi di produzione autonomi incredibilmente più sicuri ed efficienti.
Come risultato di anni di lavoro e grazie a una tecnologia all’avanguardia, GFT ha saputo combinare entrambi gli aspetti in un software, il cosiddetto “Model in the Middle”, componente centrale della piattaforma IoT sphinx open online, in grado di abilitare sia la reazione autonoma agli eventi spontanei sia l’uso di processi di Machine Learning.
Per fare questo, il modello lavora “in the loop”, è in grado ovvero di guardare al passato a intervalli molto brevi e, su quella base, è in grado di calcolare previsioni per il futuro. Fondamentale a questo scopo è la capacità del Model in the Middle di memorizzare eventi passati senza la necessità di un’applicazione separata. I valori passati vengono ciclicamente trasferiti al modulo AI, che, utilizzando la potenza di calcolo del cloud, fa delle previsioni a partire da essi che, memorizzati di nuovo, rendono possibile guardare nel futuro.
Oggi, queste previsioni possono essere quindi combinate con la conoscenza degli esperti: se è noto che un problema si presenterà tra un’ora, ci si può organizzare in modo specifico e applicare una linea d’azione collaudata sotto forma di regole. Per utilizzare un paragone, è come guidare un’auto quando si ha un’ottima visibilità: se si è in grado di vedere una luce di stop in lontananza, si toglie lentamente il piede dall’acceleratore. Quando si guida nella nebbia, invece, si vedono le luci dei freni dell’auto di fronte solo quando si trova a pochi metri, rendendo necessaria una brusca frenata. Tuttavia, anche questa azione orientata al presente offre vantaggi decisivi se un ostacolo appare improvvisamente.
Spingiamoci ancora più in là e proviamo a immaginare un altro scenario. Quando una persona guida nel traffico normale, frena e accelera a seconda delle luci posteriori che vede nel raggio di cinquanta metri circa. Improvvisamente, però, un bambino appare sulla strada. In questo specifico caso, anche una guida con un’ottima visibilità è inutile, perché in qualunque caso è necessario frenare immediatamente. Se si trasferisce la situazione all’applicazione software, questo significa solo una cosa, ovvero che la frenata è basata su regole. Ci sono circostanze, quindi, che non possono essere previste o anticipate, ed è qui che l’AI mostra i suoi limiti, perché si basa sempre su modelli “addestrati” che possono essere sviluppati solo sperimentando ripetutamente un caso. Tuttavia, questo non è possibile nel caso di eventi improvvisi che si manifestano all’interno dei processi di produzione o di controllo e che richiedono reazioni deterministiche.
Affidarsi all’Intelligenza Artificiale nelle azioni autonome
Un modello non sufficientemente “addestrato” potrebbe generare errori e prendere decisioni sbagliate, o l’algoritmo di Machine Learning potrebbe fallire. Eppure, questo non deve rappresentare un problema: l’AI opera nel cloud ed è continuamente monitorata per capire se fornisce realmente risultati plausibili. Se questo non dovesse accadere, l’applicazione reagisce con la consapevolezza: in altre parole, se arriva la nebbia, bisogna ricorrere a delle regole. Tutto questo crea un quadro affidabile che protegge e controlla il sistema da eventuali danni.
Nella pratica, la procedura è quella di costruire prima il sistema basato su regole. Un passaggio, questo, che risulta essenziale e che non dovrebbe essere sottovalutato anche psicologicamente. La procedura può essere convalidata, cioè si può provocare un malfunzionamento e verificare se il sistema abbia reagito correttamente. Se l’auto, ad esempio, è stata in grado di eseguire una frenata di emergenza. Si può verificare quindi se il sistema di fallback agisce come un esperto, ovvero in maniera deterministica, affidabile, e in grado di essere convalidato. Questo è esattamente paragonabile al tronco encefalico del cervello umano, che contiene regole di base come il meccanismo della respirazione o il riflesso di togliere il proprio dito dal piano di cottura bollente. Quando un sistema del genere viene implementato, il programma di “guida nella nebbia” sta funzionando.
Successivamente, viene installata la guida predittiva, cioè l’AI. Il vantaggio di questa procedura è che, anche se il componente intelligente non dovesse funzionare, il sistema continua a reagire correttamente. Questo modello può essere utilizzato per una varietà di applicazioni, a seconda della conoscenza memorizzata nel set di regole. Ad esempio, per lo spegnimento automatico di un impianto perché è in modalità di guasto o un pericolo è imminente; per la fornitura di materiale e il controllo di un’intera officina; o ancora per regolare la quantità di energia necessaria per la produzione.
Proprio quest’ultimo aspetto è stato il punto di partenza per ZF, fornitore leader mondiale di componenti per l’industria dei trasporti alla ricerca di una soluzione Industry 4.0 per la gestione dei picchi di carico energetico nella produzione di uno dei suoi stabilimenti in Germania. Il risultato è stato un nuovo modello energetico, la cui componente fondamentale è la piattaforma IoT sphinx open online. Essa riceve continuamente dati sulla produzione e sulla domanda di energia, nonché sui componenti del sistema energetico e sul complesso framework. Inoltre, i dati storici, le previsioni meteorologiche e il programma di produzione sono continuamente inclusi. Per ogni scenario, questo si traduce in una prioritizzazione dei componenti che vengono spenti o accesi in modo che il limite di carico non venga mai superato.
Il cuore della soluzione è rappresentato dai “digital twins” dei macchinari più importanti basati su sphinx open online. Qui, i consumatori e i generatori di energia vengono continuamente analizzati. Il sistema reagisce autonomamente ai cambiamenti operativi, a eventuali guasti o malfunzionamenti e avvia autonomamente scenari di risoluzione, memorizzandoli. Questi possono essere, ad esempio, il rinvio di processi ad alta intensità energetica in caso di un guasto imminente o l’arresto temporaneo di determinati impianti. Queste regole vengono poi archiviate e regolarmente confrontate con i requisiti operativi.
Nel dettaglio, al sistema LMS (Load Management System) viene assegnato un obiettivo, in questo caso quello di non superare il limite di carico. Per raggiungerlo, esso raccoglie i dati di tutti i produttori e consumatori, controllandoli ogni minuto. Il collegamento dei dati, la valutazione, il monitoraggio e i calcoli previsionali sono coordinati in un modello centrale, il cosiddetto “Model in the Middle”. Questa architettura mette in rete bidirezionalmente le immagini digitali di tutti i fornitori di dati, in modo che essi possano non solo inviare i dati, ma anche eseguire i comandi di ottimizzazione derivati da questi. Grazie alle interfacce aperte, le applicazioni di controllo possono essere collegate a questo sistema così come ai servizi esterni per le previsioni della temperatura, del vento o del fotovoltaico per creare così un sistema completo di energy management, con la possibilità di ampliarlo in qualsiasi momento.
La gestione dell’energia è solo uno degli innumerevoli scenari che possono essere affrontati e risolti con questo tipo di approccio. Un fattore di successo, in questo caso, è la combinazione di componenti edge e cloud. Il cloud rappresenta la soluzione ideale per la metodologia di Machine Learning ad alta intensità di calcolo, il che significa che non appena è necessario un supercomputer, è possibile accedervi immediatamente proprio tramite cloud. Le regole, d’altra parte, lavorano localmente e, quando necessario, anche senza una connessione internet, in modo rapido e con uno sforzo di calcolo gestibile. È qui che entra in gioco la similitudine con il cervello: il tronco encefalico, direttamente collegato al midollo spinale e che reagisce come un riflesso, lavora localmente perché può rispondere in millisecondi. La materia grigia, invece, che padroneggia abilità certamente di ordine superiore, lavora più lentamente, ma deve compiere grandi imprese di intelligenza. Questa è la specialità del cloud, che può fornire una potenza di calcolo quasi illimitata.
La chiave del successo è saper fondere queste meccaniche in modo controllato e sicuro in un software, ed è ciò su cui gli sviluppatori di GFT stanno lavorando da anni, ora con grande successo.