Google ha annunciato in un post sul blog che gli strumenti in grado di tradurre la lingua dei segni esistono già ma richiedono ancora computer piuttosto potenti.

I ricercatori della società sostengono che il riconoscimento in tempo reale delle e mani e il relativo apprendimento automatico è un compito complesso per l’IA in quanto le mani si muovono rapidamente.

Per sviluppare questa tecnologia su smartphone, l’intelligenza artificiale di Google ha utilizzato 30000 immagini di mani diverse in diverse pose e per semplificare il compito dell’IA e ridurre la quantità di dati che gli algoritmi devono esaminare, Google ha riassunto il processo di rilevamento in 21 punti di riferimento della mano.

Sfortunatamente, l’impresa si scontra ancora con la difficoltà nella traduzione delle espressioni facciali, parte integrante della lingua dei segni, pertanto Google ha deciso di realizzare algoritmi di progetto open source per accelerare lo sviluppo dello strumento su smartphone.

   

Google ritiene che la pubblicazione di questa tecnologia possa dare un impulso a nuove idee e applicazioni creative da parte dei membri della comunità di ricerca e dagli sviluppatori e si dimostra entusiasta di vedere cosa potrà realizzare la comunità.