Il suono è un elemento fondamentale dell’esperienza utente di uno smartphone. Non si tratta solo di riprodurre fedelmente musica e audio, ma di creare un’identità sonora coerente e riconoscibile che accompagni l’utente in ogni interazione con il dispositivo. Google lo sa bene e negli anni ha lavorato molto per perfezionare il sound design dei suoi Pixel. Di recente il team audio di Google ha condiviso alcuni interessanti retroscena su come vengono creati i suoni dei Pixel, con un focus particolare sull’utilizzo dell’intelligenza artificiale generativa per la nuova collezione di suonerie “Gems” di Pixel 8.

L’attenzione che Google sta dedicando al design del suono nei suoi smartphone Pixel dimostra che l’audio può essere un elemento di differenziazione importante nell’esperienza utente complessiva. Attraverso l’uso creativo dell’intelligenza artificiale, combinato con tecniche di design del suono più tradizionali, Google sta creando un’identità sonora distintiva per i Pixel, arricchendo l’interazione con i nostri dispositivi in modi sottili ma significativi.

Il team di design audio di Google spiega il processo creativo dei suoni di Pixel 8

Nel recente episodio del podcast “Made by Google” (S5 E2) il team di design audio di Google ha aperto le porte al processo creativo dietro i suoni e le vibrazioni aptiche degli smartphone della famiglia Pixel. L’obiettivo, come spiegano, è di riflettere i principi di design “semplice”, “umano” e “giocoso” che caratterizzano la linea Pixel. Ma non si tratta solo di creare suoni piacevoli: l’idea è quella di utilizzare l’audio e le vibrazioni per “alleviare il carico di informazioni che mettiamo sul dominio visivo”, creando un’esperienza multisensoriale.

Uno degli esempi più recenti del loro lavoro è la collezione “Gems” di suonerie, suoni di notifica e sveglie, introdotta con la serie Pixel 8 e resa disponibile per tutti i dispositivi. Per creare questi suoni, il team di Google ha utilizzato l’intelligenza artificiale generativa come “partner collaborativo”, sfruttando in particolare MusicFX (precedentemente noto come MusicLM), un modello di AI che converte il testo in musica.

Il processo creativo parte da un prompt testuale. Nel caso di “Amber Beats”, ad esempio, il prompt era il seguente: “Dietro la linea di basso groovy, c’è un pad synth atmosferico che aggiunge profondità al brano. La batteria è vivace, con un suono predominante di vetro chiaro. Ci sono strati di suoni sintetizzati”. L’AI genera quindi una clip audio di 30 secondi basata su questa descrizione. Il designer audio ha poi selezionato un frammento di 2 secondi particolarmente interessante e lo ha utilizzato come base per alterarlo ritmicamente e melodicamente, costruendo un’idea originale che sembrava autentica, o comunque realistica.

Ma l’uso dell’AI è solo una delle tecniche utilizzate dal team audio di Google. Per il suono dell’otturatore della Fotocamera Pixel, ad esempio, l’ispirazione è venuta dal suono di un paio di forbici che si aprono e si chiudono, poi manipolato digitalmente per ottenere il risultato finale che conosciamo. Un’altra considerazione importante è stata quella di assicurarsi che il suono fosse udibile in tutti i contesti rumorosi in cui gli utenti sono soliti utilizzare i propri dispositivi, tenendo conto anche dei limiti dell’hardware stesso.

Ottimizzare i suoni per i diversi fattori di forma è un’altra sfida che il team di sviluppo di Google ha voluto affrontare. Come spiegano nell’episodio del podcast menzionato sopra, “Se si tratta di una suoneria, voglio assicurarmi che suoni davvero bene a casa mia, ma che suoni altrettanto bene per strada. E poi ottimizziamo il suono per l’hardware, facendo qualsiasi cambiamento necessario per far suonare il suono al meglio sul dispositivo reale”.

Il team ha anche parlato del processo di aggiornamento della suoneria predefinita “Big Adventure” in “Your New Adventure” aggiornata nel 2021, e della modernizzazione del suono di notifica predefinito “Popcorn” in “Eureka”. Anche il processo di denominazione dei suoni risulta estremamente interessante da conoscere: i designer del suono creano una “descrizione musicale o estetica” di ogni clip, e poi un team separato (strategia dei contenuti UX) li denomina in base a quella descrizione.

Potrebbero interessarti anche: Android 14 QPR3 fa esordire il nuovo marchio sui Google PixelGoogle Foto, Messaggi, Calendar e l’app Google ricevono alcune interessanti novità