Si terrà in occasione dell’ACM Symposium on User Interface Software and Technology, una conferenza in programma da 16 a l 19 ottobre a Tokyo, la prima dimostrazione di RadarCat, un sistema basato sulla tecnologia Project Soli, presentato nel corso del Google I/O 2015.

A differenza della soluzione sviluppata originariamente da Google, RadarCat non si limita a riconoscere i movimenti compiuti nelle sue vicinanze, ma è in grado di riconoscere la composizione di un oggetto che viene appoggiato su un apposito sensore.

Sembra infatti che diversi materiale producano diversi segnali, che possono essere raccolti ed interpretati grazie soprattutto alle tecnologie di machine learning utilizzate da RadarCat. In un breve video, che vi riproponiamo a fine articolo, vediamo come il sistema sia molto accurato non solo nel riconoscer di quale materiale è composto un oggetto, ma come riesca, ad esempio, a distinguere un bicchiere di vetro vuoto da uno riempito con dell’acqua.

Per il momento le dimensioni dei sensori non ne consentono una facile integrazione nell’attuale generazione di smartphone ma una simile tecnologia potrebbe permettere grossi passi in avanti nella robotica. Un robot equipaggiato con RadarCat potrebbe distinguere una mano umana da un oggetto metallico, utilizzando una forza appropriata per rendere il più sicura possibile l’interazione fisica tra uomo e macchina.