I disturbi del linguaggio possono rendere la quotidianità estremamente complicata dato che vanno a inficiare una delle prerogative dell’essere umano. Ossia, la capacità di comunicare ed esprimersi a parole e comprendere gli altri.

Tuttavia, grazie al progresso tecnologico sono sempre più numerosi i prodotti che si muovono per venire incontro a questi pazienti che hanno difficoltà o addirittura impossibilità a parlare. Google ha individuato nell’intelligenza artificiale la giusta chiave di volta per migliorare l’efficienza di questi dispositivi e aiutare ancora più persone.

Sul palco del Google I/O 2019 a Mountain View non si sono dunque visti soltanto i nuovi smartphone Pixel 3a e Pixel 3a XL, il rinnovato sistema operativo Android 10 e i nuovi prodotti Google Nest, ma anche un classico esempio di tecnologia che migliora in senso pratico e diretto la qualità della vita.

Le difficoltà nell’esprimersi e nel parlare possono avere differenti origini e cause da quelle congenite (spesso associate anche a problemi uditivi) a quelle post-traumatiche (ad esempio al cervello) o legate a malattie come sclerosi multipla o morbo di Parkinson.

Il progetto di Google è all’interno del programma AI for social Good con il team del progetto Euphonia che associa l’intelligenza artificiale per migliorare i computer a comprendere problemi legati alla comunicazione e al linguaggio. Per mettere a punto i vari algoritmi e soluzioni software Google si è associata con organizzazioni senza scopo di lucro come ALS Therapy Development Institute (ALS TDI) e ALS Residence Initiative (ALSRI) dedicate all’ALS in italiano nota con l’acronimo SLA, ossia sclerosi laterale amiotrofica.

Si sono registrate le voci di persone affette da questa patologia neurodegenerativa che porta gradualmente a non potersi più muovere e, dunque, a non potere più parlare. Il risultato è che smartphone e computer sono stati in grado di decifrare con maggiore precisione e velocità quel che i pazienti volevano esprimere.

Le voci registrate sono state convertite in spettrogrammi che rappresentano visivamente suoni per allenare i sistemi a migliorare sempre di più le trascrizioni. In questo l’AI è stata fondamentale non solo nella rilevazione delle parole, ma anche per trasformare movimenti gestuali o suoni in comandi per Google Home aiutando in modo netto persone con difficoltà di comunicare o mute.

Google ha mostrato il sorprendente video di un suo ricercatore russo Dimitri Kanevsky, muto, che ha imparato l’inglese nonostante il proprio handicap. Nel filmato si può osservare come la trascrizione funzioni al meglio grazie al modello di allenamento del software sviluppato sulla sua voce. Nella clip c’è anche un altro dipendente, Steve Saling, a cui è stata diagnosticata la SLA 13 anni fa, che utilizza suoni per controllare i dispositivi di domotica in casa e espressioni facciali per interagire durante un match di basket.