Sembra che negli ultimi tempi Google stia dedicando particolari attenzioni a Wear OS, il sistema operativo sviluppato dall’azienda e dedicato agli smartwatch è infatti stato protagonista di diverse novità, disponibili o in arrivo: negli ultimi tempi per esempio abbiamo visto una sorta di evoluzione di Calendar sugli orologi mossi dal sistema operativo in questione, così come novità in arrivo per pass e biglietti di Google Wallet, Maps e le watch faces.

Nelle ultime ore però il colosso di Mountain View ha annunciato ulteriori novità in arrivo per Wear OS, nello specifico l’azienda ha implementato un nuovo motore di sintesi vocale (TTS – Text To Speach) per Wear OS 4 (e versioni successive) più veloce e affidabile; la novità si basa sulla tecnologia di machine learning (ML) di Google e utilizza modelli ML con prosodia ridotta per offrire una sintesi più rapida sui dispositivi Wear OS.

Google presenta un nuovo motore di sintesi vocale per Wear OS

La sintesi vocale non è una novità assoluta, è presente da tempo su Android ma Google ha ora deciso di ottimizzarla per essere performante e affidabile su dispositivi con poca memoria come gli smartwatch mossi da Wear OS che, di solito, possono contare su appena 2 GB di RAM.

Il nuovo motore rende la sintesi vocale sugli smartwatch molto più veloce, impiega circa 10 secondi dopo l’avvio del dispositivo per essere pronta, anche se le app possono preriscaldarla se necessitano di accesso immediato, grazie a “modelli ML con prosodia ridotta”.

Wear OS TTS vanta 7 lingue precaricate nell’immagine del sistema, inglese, spagnolo, francese, italiano, tedesco, giapponese e cinese mandarino, ma i vari OEM hanno comunque facoltà di caricare un diverso set di lingue; durante la prima configurazione da parte dell’utente, se viene selezionata una lingua di sistema che non sia un file vocale precaricato, l’orologio scarica automaticamente il file vocale corrispondente la prima volta che l’utente si connette al Wi-Fi durante la ricarica dell’orologio.

Google specifica che possono presentarsi alcuni casi d’uso nei quali l’output vocale può differire dalla lingua del sistema dell’utente, per esempio in uno scenario in cui un’app di sicurezza utilizza TTS per chiamare i soccorritori, gli sviluppatori potrebbero voler sintetizzare il parlato nella lingua locale in cui si trova l’utente invece che utilizzare quella impostata sull’orologio.

Per gli sviluppatori cambierà poco o nulla per l’implementazione del nuovo motore di sintesi vocale nelle proprie applicazioni, tutte le API Android infatti sono sempre le stesse, quindi gli sviluppatori utilizzeranno lo stesso processo per integrare TTS in un’app Wear OS.

Per quel che concerne i casi d’uso, questi includono “servizi di accessibilità, suggerimenti di coaching per app di allenamento, suggerimenti di navigazione e lettura ad alta voce degli avvisi in arrivo tramite l’altoparlante dell’orologio o le cuffie Bluetooth connesse”; l’azienda infine sottolinea come il nuovo motore TTS sia pensato per interazioni brevi e dunque non adatto alla lettura di lunghi testi.

Potrebbe interessarti anche: Google spiega il funzionamento dell’interfaccia ibrida di Wear OS