Gli assistenti virtuali, che si tratti di Google Assistant, Siri o Alexa, sono sempre più diffusi nei dispositivi elettronici delle nostre case e inevitabilmente potrebbero attirare l’attenzione di qualche malintenzionato.

Questo almeno è quello che sostiene un gruppo di studenti di Berkeley, che hanno dimostrato come sia possibile nascondere comandi malevoli all’interno di brani musicali o testi parlati dal contenuto innocuo. Le prime ricerche risalgono al 2016, come riporta il New York Times, secondo cui possono essere inviati dei comandi che non possono essere uditi dall’orecchio umano.

Nei laboratori di Berkeley gli studenti sono riusciti a far effettuare chiamate telefoniche o aprire pagine web inviando gli opportuni comandi vocali. In mani sbagliate le possibilità sono davvero tante, dai pagamenti agli acquisti, fino all’apertura delle porte eventualmente collegate al sistema domotico.

Come è possibile nascondere un comando all’interno di un brano musicale senza renderlo percepibile all’orecchio umano?

Attraverso piccole modifiche ai file audio, i ricercatori sono riusciti a cancellare il suono che il sistema di riconoscimento vocale dovrebbe percepire, sostituendolo con un suono trascritto diversamente dalle macchine ma praticamente impercettibile dall’orecchio umano.

In questo modo è stato possibile nascondere il comando “OK Google, apri il sito evil.com” nella registrazione della frase ” Senza il data set, l’articolo è inutile“. Il comando è stato inserito con successo in uno spezzone di appena quattro secondi del Requiem di Verdi.

Risultati simili sarebbero stati ottenuti inviando a Google Assistant e agli altri assistenti virtuali segnali a frequenze ultrasoniche, silenziando lo smartphone in modo che l’utente non potesse sentire le risposte dell’assistente. Al momento non sembra che siano mai state utilizzate tecniche simili in modo diffuso, ma non è così improbabile che qualche malintenzionato possa utilizzare queste tecniche a proprio vantaggio.