Google Assistant è già adesso uno dei migliori assistenti virtuali in circolazione, ma il team di Mountain View non è mai domo e adesso sono emersi indizi che lo vogliono al lavoro su una nuova funzione: il “Riconoscimento vocale personalizzato”.

Nel mese di marzo dello scorso anno vi avevamo parlato di come Google avesse iniziato a fare uso dell’apprendimento federato al fine di migliorare la precisione di Assistant, ma la novità di cui parliamo oggi mira piuttosto a rendere l’assistente vocale di Big G “migliore nel riconoscere le tue parole e nomi frequenti”.

Prima di entrare nel merito di questa novità, occorre fare una premessa: la funzione in discorso è ancora lungi dall’essere concretamente introdotta, a scoprirla è stato il team di 9to5Google attraverso il solito APK Insight: sono state decompilate le versioni più recenti di App Google disponibili sul Google Play Store.

Google Assistant: lavori in corso sul “Riconoscimento vocale personalizzato”

Secondo quanto si evince da stringhe di codice contenute in versioni recenti di App Google per Android, nelle impostazioni di Google Assistant dovrebbe presto fare capolino la voce “Riconoscimento vocale personalizzato”, seguita da una descrizione ufficiale di questo tipo:

Archivia le registrazioni audio su questo dispositivo per aiutare l’Assistente Google a migliorare nel riconoscere ciò che dici. L’audio rimane su questo dispositivo e può essere eliminato in qualsiasi momento disattivando il riconoscimento vocale personalizzato. Per saperne di più

Quel “Per saperne di più” finale potrebbe comprendere un link ad una pagina di supporto Google già esistente e relativa proprio all’utilizzo dell’apprendimento federato da parte di Big G per migliorare le parole chiave di attivazione attraverso un simile utilizzo del riconoscimento di “voice recordings stored on users’ devices to refine models like “Hey Google”:

Come funziona l’apprendimento federato per l’addestramento dei modelli vocali
Con l’apprendimento federato, addestriamo i modelli vocali senza inviare i tuoi dati audio ai server di Google.

Per consentire l’apprendimento federato, salviamo i dati audio sul tuo dispositivo.
Un algoritmo di addestramento impara da questi dati sul tuo dispositivo.
Viene creato un nuovo modello vocale combinando quanto appreso dal dispositivo e le informazioni di tutti gli altri dispositivi partecipanti”.

Soltanto delle sintesi delle modifiche apportate al modello vocale vengono inviate ai server di Google. Questi riepiloghi vengono aggregati tra numerosi utenti al fine di fornire a tutti un modello vocale migliore.

Cambiamenti e miglioramenti attesi

La nuova funzione di “Riconoscimento vocale personalizzato” ha tutta l’aria di essere una ulteriore espansione dei menzionati miglioramenti con base machine learning dalla sola parola di attivazione “Hey Google” ai comandi veri e propri impartiti all’assistente virtuale dall’utente, soprattutto quelli contenenti dei nomi e parole particolarmente frequenti. L’audio delle espressioni pronunciate in passato verrà dunque archiviato sul dispositivo e analizzato per migliorare la precisione delle future trascrizioni.

Su dispositivi come Google Nest Hub di seconda generazione e Google Nest Mini, Big G utilizza già il machine learning per processare l0calmente le richieste più frequenti degli utenti e dunque abbreviare i tempi di risposta. Ebbene il concetto di “Riconoscimento vocale personalizzato” potrebbe portare qualcosa di simile al di fuori dei soli dispositivi di smart home.

Dal momento che già ora Google ci invita a conoscere come “i tuoi dati vocali e audio restano privati mentre l’Assistente Google migliora”, è molto probabile che il “Riconoscimento vocale personalizzato” sarà una nuova funzione di tipo opt-in, un po’ come “Help Improve Assistant” ora. Come si diceva, la disattivazione della novità porterà alla cancellazione dell’audio archiviato in locale, ma anche ad altre conseguenze sottolineate da Google, ovvero una minore precisione di Assistant nel riconoscimento di nomi e altre parole pronunciate di frequente.

Questa novità non è ancora ufficiale (non è ben chiaro quando arriverà) e si aggiunge a quelle invece già annunciate al Google I/O 2022.

Leggi anche: Russate o tossite nel sonno? Google lavora per rilevarlo su Pixel e Android