Chris Lott di Qualcomm arriva al summit Re-Work Deep Learning di Boston parlando dei progressi fatti dall’azienda in tema di IA applicata ai sistemi di riconoscimento vocale.

A differenza della concorrenza che per la maggior parte dei casi fa riferimento al cloud per riconoscere parole e frasi, il lavoro della società statunitense è tutta basata sul supporto in locale.

I vantaggi sono molteplici stando a quanto sostiene il ricercatore di Qualcomm. Da una parte c’è la questione relativa alla privacy per la quale quest’ultimo, differentemente da quanto accade nei sistemi di riconoscimento vocale utilizzati ad esempio dai Google Home, Cortana o Amazon Echo che sono necessariamente legati ai server, lavorando offline eliminerebbe alla radice il problema legato al passaggio dei dati in rete.

Dall’altra c’è pure il fatto che un sistema di riconoscimento vocale con supporto in locale è in grado di rispondere in maniera molto più rapida considerando per l’appunto che non si passa per il cloud.

Per fare questo Qualcomm ha studiato un apparato che dispone di due tipologie di reti neurali: la RNN (acronimo di Recurrent Neural Network) che per elaborare gli input utilizza la memoria interna del dispositivo e una rete neurale convoluzionale (CNN) che imita i criteri di connettività fra i neuroni del cervello umano.

Il risultato? Un’accuratezza pari al 95% nell’identificare parole e frasi, traguardo raggiunto secondo Chris Lott anche grazie alla facoltà di apprendere dalla maniera con cui si utilizza il tutto.

Al pari di Qualcomm, anche Google un paio di anni fa creò un sistema di riconoscimento vocale offline che all’epoca risultava di ben 7 volte più veloce rispetto alla controparte online. E oggi, pur con tutte le ovvie limitazioni che la mancata connessione si porta con sé (in primis la mancanza del surplus di informazioni reperibili su cloud), l’azienda statunitense pare crederci parecchio.

Vai a: Qualcomm sta integrando il supporto WPA3 nei prodotti di infrastruttura mobile e di rete