Il chip designer ARM ha svelato due nuove categorie di processori riconducibili al Project Trillium e progettate per portare l’on-device machine learning a bordo di dispositivi a basso consumo energetico, come ad esempio smartphone e non solo. In questo modo si fa venire meno la necessità che il device si interfacci con un server cloud.

In primo luogo, il nuovo ARM ML processor rappresenta un nuovo tipo di chip, progettato per l’on-device machine learning. Laddove invece l’ARM OD processor è progettato in modo specifico per un tipo di machine learning in particolare, ovvero il riconoscimento degli oggetti (object detection).

Queste due nuove tipologie di processori, come anticipato, si inseriscono in una più ampia iniziativa conosciuta con il nome di Project Trillium. Questo progetto comprende sia hardware che software ed è finalizzato a portare le feature di intelligenza artificiale (AI) a bordo di dispositivi con chip ARM, compresi tra gli altri smartphone, speaker smart, videocamere di sicurezza, auto a guida autonoma ed anche data center.

La stessa ARM ha descritto il suo Project Trillium come “a new suite of ARM IP” ovvero proprietà intellettuale. Una simile definizione scaturisce dal fatto che l’iniziativa non riguarda soltanto i nuovi chip. Ci sono infatti sul mercato già diversi device con chip a base ARM che fanno uso del machine learning, comprese videocamere di sicurezza ed altri gadget riconducibili alla categoria dell’Internet of Things. ARM ha affermato che i produttori di dispositivi tecnologici possono continuare a fare uso di chip ARM Cortex-M o di altri processori low power.

Tuttavia bisogna riconoscere che il nuovo hardware è piuttosto interessante. L’azienda ha dichiarato che il suo nuovo processore ARM ML è in grado di gestire 4,6 trilioni di operazioni al secondo utilizzando, per farlo, meno di 2 watt. D’altro canto, invece, il nuovo processore ARM Object Detection (OD) è in grado di processare video full HD a 6o frame per secondo rilevando singoli oggetti anche di dimensioni ridotte pari a 50 x 60 pixel. Questa, in effetti, è la seconda generazione del chip di object detection di ARM; la prima generazione aveva trovato applicazione nella Hive smart security camera.

Sarà necessario attendere un po’ prima di iniziare a vedere sul mercato dei device con a bordo questi nuovi chip: ARM comincerà a rendere disponibili questi nuovi progetti a partire dalla metà del 2018. Di conseguenza potremmo iniziare a vederne le prime applicazioni concrete verso la fine di quest’anno o, più probabilmente, ad inizio 2019.

A questo proposito comunque, i produttori di chip non hanno necessariamente dovuto attendere che ARM si attivasse, per cominciare ad aggiungere AI e capacità di machine learning ai propri chip su base ARM. Aziende del calibro di Apple, Qualcomm, Huawei, Imagination e Rockhip hanno tutte introdotto già lo scorso anno dei processori con feature dedicate di intelligenza artificiale/reti neurali. Basti pensare al Pixel Visual Core di Google, al Neural Engine di iPhone X ed al Kirin 970 di Huawei con NPU.

Questo perché ARM non costruisce direttamente alcun chip, tuttavia i suoi progetti rappresentano il core di praticamente tutte le CPU presenti nei moderni smartphone, fotocamere e dispositivi IoT. Al punto tale che i partner dell’azienda hanno venduto più di 125 miliardi di chip su base ARM. Dopo il passaggio nell’ambito delle GPU in tempi abbastanza recenti, l’azienda ha annunciato oggi queste due nuove categorie di processori. Project Trillium mira a rendere l’ARM ML processor una sorta di standard de facto per quel che riguarda il machine learning su dispositivi mobile e IoT.

Jem Davies, general manager for machine learning di ARM, e Rene Haas, presidente dell’IP Products Group dell’azienda, hanno dichiarato che per la creazione e progettazione di questi nuovi chip, l’azienda ha deciso di partire da zero. In particolare, Davies ha dichiarato: “Avremmo potuto produrre cose sulla base di ciò che avevamo già, ma abbiamo deciso che avevamo bisogno di un progetto nuovo. Molti dei nostri segmenti di mercato sono soggetti a limitazioni di potenza, pertanto avevamo bisogno che il nuovo progetto fosse efficiente dal punto di vista energetico“. Il team avrebbe potuto prendere come punto di partenza la propria stessa architettura GPU, ma, come evidenziato da Davies, le GPU non sono il massimo nella gestione della memoria, laddove invece i carichi di lavoro di machine learning spesso si basano proprio su un efficiente spostamento di dati dentro e fuori dalla memoria.

Davies e Haas sostengono, inoltre, che con questi nuovi chip, ARM sia riuscita a trovare il giusto equilibrio tra potenza e durata della batteria.

ARM si aspetta che molti OEM utilizzeranno i due chip OD e ML insieme. L’object detection chip potrebbe essere usato, ad esempio, per rilevare volti ed oggetti in un’immagine, per poi trasferire le informazioni al chip ML, che si occuperebbe dell’effettivo riconoscimento del volto o dell’immagine.

“Gli OEM hanno idee, hanno applicazioni prototipali e stanno solo aspettando che noi mettiamo a loro disposizione quelle prestazioni”, ha dichiarato Davies. ARM cita l’esempio di una maschera da sub con intelligent augmented reality. Lo scenario più realistico è quello di una soluzione IoT che utilizza il video per sorvegliare un incrocio trafficato per sapere se la strada è bloccata o se ad esempio è ora di svuotare un determinato bidone della spazzatura.

La parte interessante, come evidenziato da Haas, è che questo complesso lavoro viene svolto localmente. In circolazione ci sono molti device in grado di prendere decisioni, ma quelle decisioni vengono prese nel cloud, non localmente. ARM ritiene che ci siano molteplici casi d’uso per il machine learning, che sia su uno smartphone, su un device IoT o su di un’auto. A proposito di auto, ARM evidenzia le potenzialità dei suoi chip ad esempio l’object detection che potrebbe trovare un suo ambito d’utilizzo smart mirror. D’altro canto i nuovi chip di ARM di rivolgono anche ai produttori di display che vogliono migliorare la qualità delle immagini riprodotte sulla base dell’analisi di ciò che accade sullo schermo.

Per gli sviluppatori, ARM offrirà tutte le librerie necessarie per utilizzare questi chip e lavorerà suoi framework di machine learning esistenti per renderli compatibili con i nuovi chip. “We are not planning to replace the frameworks but plug our IP (intellectual property) into them”, ha dichiarato Davies.

Il piano attuale prevede di rilasciare ARM ML processor ai partner entro la metà dell’anno. In questo modo dovrebbe fare la propria comparsa nei primi device consumer circa nove mesi dopo.