LaMDA è la più recente tecnologia sviluppata da Google per rendere le conversazioni con i chatbot più efficaci e utili, simulando quella che potrebbe essere una comune chiacchierata fatta con un amico. La LaMDA (abbreviazione di “Modello linguistico per applicazioni di dialogo”) può impegnarsi in conversazioni fluide e naturali su un’infinità di temi e argomenti.

Il futuro della conversazione virtuale e artificiale

Proprio come BERT e GPT-3, anche questo modello di linguaggio si basa su Transformer, un’architettura di rete neurale sviluppata da Google Research e resa open-source nel 2017. Questa architettura produce un modello che può essere “addestrato” per leggere molte parole (frasi e interi paragrafi), prestando particolare attenzione a come queste parole si legano e si relazionano tra di loro. In questo modo, la tecnologia è in grado di predire quali parole potrebbero seguire.

Rispetto agli altri modelli linguistici, tuttavia, LaMDA è stato addestrato sul dialogo in modo tale da poter cogliere tutte le sfumature che sono proprie di una conversazione. Il linguaggio, infatti, è molto versatile e adattabile: le parole possono assumere significati diversi, letterale o figurativo, e così veicolare informazioni diverse.

Inoltre, intrattenere una conversazione non significa chiudersi in un percorso lineare. Al contrario, la natura aperta del dialogo può spingere una conversazione verso temi e argomenti del tutto differenti da quelli affrontati nella sua fase iniziale. Una conversazione può iniziare con un confronto sull’ultima puntata mandata in onda della propria serie TV preferita e finire con le esperienze vissute nel luogo in cui quella serie TV è ambientata, o in cui l’attrice protagonista è nata, ad esempio.

Ebbene, LaMDA cerca proprio di rendere una conversazione con un chatbot un’esperienza quanto più naturale possibile, basando quest’ultima in modo particolare sulla sensibilità.

Quello della sensibilità è anche la prima area del linguaggio sulla quale i ricercatori di Google stanno concentrando le proprie forze. Un passo successivo consisterà nell’esplorazione dell’area dell’interesse, valutando se questa tecnologia è in grado di offrire risposte che, oltre a essere penetranti, inaspettate o spiritose, siano soprattutto corrette.

Un aspetto assai più importante, tuttavia, riguarda i principi dell’intelligenza artificiale. In quanto tale, infatti, questa tecnologia potrebbe essere utilizzata in modo improprio e potrebbe essere “addestrata” per veicolare pregiudizi, discorsi d’odio e informazioni fuorvianti. Una delle priorità di Google, dunque, sarà quella di lavorare affinché questi rischi vengano ridotti al minimo.