A meno di non essere degli esperti di cinesica come Carl Lightman, protagonista della serie TV Lie to Me, è difficile riuscire a interpretare i tanti segni del corpo umani e di conseguenza le emozioni delle persone durante una normale conversazione. Eppure secondo alcuni ricercatori del MIT basta analizzare il timbro e il tono della voce per distinguere le emozioni espresse.

Tuka AlHanai e Mohammad Mahdi Ghassemi hanno sviluppato un algoritmo in grado di analizzare la voce e discernere i sentimenti e le emozioni con blocchi di cinque secondi. In un esempio mostrato nel video che trovate a fine articolo, una persona ha ricordato il primo giorno di scuola e l’algoritmo, che girava su uno smartwatch Samsung con Tizen OS, è stato in grado di identificare i momenti in cui il tono della voce è passato da positivo a negativo.

L’implementazione attuale è alquanto rozza e non può essere sicuramente commercializzata anche se in futuro tutti i sensori necessari potrebbero essere integrati in un comune smartwatch o comunque in un dispositivo da indossare al polso.

Una simile soluzione potrebbe trovare facile applicazione per aiutare le persone colpite da autismo o che soffrono di ansia e altri disturbi emotivi.