Il tema delle intelligenze artificiali è ormai in circolo da ben più di cinquant’anni, seppur in forme variegate e che hanno saputo cambiare per adattarsi ai tempi. Ultimamente, però, è tornato ad essere un tema caldo grazie soprattutto ai progressi in questo campo. Progressi che risvegliano inevitabilmente le paure sopite ma mai del tutto dimenticate spesso evocate da film, libri ed esperti: le recenti vittorie di AlphaGo contro un avversario umano aprono spiragli che rimandano ai quadri a tinte fosche dipinti dalla letteratura e dal cinema.

Sono infatti innumerevoli i film, i libri, i videogiochi e le altre forme di espressione che hanno contenuto e conterranno un messaggio di avvertimento verso la creazione delle intelligenze artificiali: pur veicolando ciascuno il suo messaggio e ciascuno avendo il suo approccio e la sua ambientazione, la stragrande maggioranza non vede di buon occhio l’avvento delle macchine realmente intelligenti. Torniamo inevitabilmente a confrontarci con alcune delle tematiche di cui parlavamo nell’editoriale precedente “Spazio, ultima frontiera?“: la tecnologia progredisce sempre più e stabilire il confine tra reale e virtuale è sempre più difficile, a maggior ragione perché in futuro potremmo doverci confrontare con coscienze non biologiche.

La storia recente trabocca di esempi in cui l’inizio dell’era delle intelligenze artificiali porta con sé il disastro: The Matrix è forse l’esempio più lampante, ma è seguito a ruota da Io, Robot, Blade Runner e da un’infinità di romanzi tra i quali cito Starfish di Peter Watts (che va oltre: cosa succederebbe se creassimo intelligenze artificiali basate su neuroni organici?) e, di nuovo, I canti di Hyperion di Dan Simmons.

Per fortuna siamo ben lontani dal doverci preoccupare ora delle conseguenze delle intelligenze artificiali, ma sono molti i progressi che ci stanno avviando verso la creazione di entità autonome intelligenti e delle singolarità, ovvero le intelligenze artificiali autocoscienti. I primi mattoni sono stati poggiati anni fa e il recente interesse maturato per il campo delle IA da moltissime realtà – aziende, centri di ricerca, università, banche… – sta facendo sì che ci sia un’accelerata nello sviluppo delle tecnologie.

AlphaGo verrà forse ricordato come il primo, vero passo in avanti in questo senso. Ma cos’è AlphaGo e perché è tanto importante? Si tratta di una intelligenza artificiale creata da Google Deep Mind per battere il campione del mondo in carica (per la diciottesima volta) del gioco del go, Lee Se-dol. Il go è un gioco antichissimo nato in Cina, spesso chiamato (erroneamente!) “gli scacchi cinesi”. Come nel gioco degli scacchi nostrano è infatti presente una griglia (chiamata goban, di 19×19 posizioni) sulla quale si affrontano diverse pedine, chiamate pietre. Le similitudini terminano però qui: nel go l’obiettivo è circondare le pedine avversarie per catturarle, e non “mangiarle”.

La particolarità del go è che, contrariamente agli scacchi, le possibili mosse non sono calcolabili: si parla di 2,08 × 10170 possibili combinazioni, abbastanza perché servano 6,59 × 10¹⁵⁰ anni per calcolare tutte le combinazioni… calcolando mille miliardi di combinazioni al secondo. Questo è il motivo per cui si riteneva, fino a poco fa, che un computer non potesse battere un umano nel go: avrebbe dovuto affidarsi all’intuito, che è proprio degli esseri intelligenti, e non alla mera forza di calcolo.

Ma, in fin dei conti, cos’è l’intelligenza? Come possiamo definire una cosa, un’entità – in mancanza di termini migliori – “intelligente”? Una delle possibili definizioni di “intelligenza” è la capacità di adattarsi alle circostanze e di trarre beneficio dalle informazioni che si hanno a disposizione, anche se il quadro non è completo e la situazione non è sotto il proprio controllo. Questo è esattamente il test cui è stato sottoposto AlphaGo, dal momento che nel go molto si basa sull’intuizione e non sulla sola strategia e sul mero calcolo come può essere, ad esempio, nei giochi della dama e degli scacchi. E AlphaGo ha passato il test, dimostrando intuito.

AphaGo ha ottenuto questo risultato tramite le reti neurali e il deep learning: in breve, ha appreso dall’esperienza, esattamente come farebbe qualunque altro essere più o meno intelligente. E questa è la vera novità e la vera rivoluzione che sta avvenendo e che viene usata per far imparare le macchine e insegnar loro a riconoscere gli oggetti e gli animali (ad esempio in Google Foto), ma si può espandere a pressoché qualunque campo.

Come spiega Jen Hsun-Huang, fondatore di NVIDIA, in un’intervista a Fortune, “il sistema in pratica impara da solo usando un sacco di dati e di elaborazioni. Se continui a mostrargli immagini di arance, alla fine capisce cos’è un’arancia – o [impara a distinguere] un Chihuahua da un Labrador da un piccolo pony.” Continua: “quello che posso dire è che l’IA è rimasta ad arrancare nella ricerca per 50 anni. E all’improvviso l’anno scorso è successo qualcosa. Questo nuovo modo di intendere/progettare le IA chiamato deep learning è così malleabile [facile da controllare, NdR], così comprensibile – è uno strumento che puoi impiegare in maniera tale da creare una singola rete cui puoi insegnare molti linguaggi, e animali e altre cose. E che tu, io e qualche data scientist e ingegnere possiamo ammaestrare. L’anno scorso l’IA è passata da dei concept per la ricerca all’applicazione ingegneristica.”

Le applicazioni pratiche cominciano ad arrivare e sono già nella nostra vita quotidiana, ma AlphaGo non si è limitato a questo. Come ha fatto notare qualcuno, l’IA di Google ha cercato in qualche modo di fare un gioco bello, un gioco elegante. Un punto importantissimo e decisivo: una macchina che fino a poco tempo fa era considerata incapace di confrontarsi con un umano diventa improvvisamente capace non solo di battere gli avversari organici, ma anche di fare un gioco bello? Questo è il progresso repentino ed esplosivo che dovremo attenderci nei prossimi anni – e questo è solo l’inizio, come ha dimostrato anche Microsoft nella conferenza BUILD di ieri.

I problemi che si pongono ora davanti noi sono due:

  • Qual è il limite delle IA? Ne esiste uno?
  • Cosa faremo quando verrà creata la prima singolarità?

Spiegando meglio il primo punto: una IA potrebbe potenzialmente non avere alcun limite, poiché potrebbe – in via teorica – continuare ad imparare e a migliorarsi, fino a sfiorare la perfezione. Potrebbe farlo migliorando non solo le sue conoscenze, ma anche se stessa, le sue prestazioni, le sue infrastrutture – diventando, insomma, totalmente autosufficiente e migliore dell’uomo, in quanto potenzialmente immortale e senza i limiti fisici cui noi umani siamo sottoposti.
Per fare un esempio pratico: per quanto si possa esser veloci nella lettura, per leggere e comprendere la Critica della ragion pura di Kant servono comunque moltissime ore e moltissimo impegno; una IA del futuro potrà potenzialmente leggere il contenuto in pochi millesimi di secondo e comprenderlo in un tempo di non molto superiore. E questo può essere applicato a qualunque campo, senza particolari limiti nell’accedere alla conoscenza e, quindi, alle possibilità di miglioramento.

Che fare, dunque, con esseri (termine coraggioso!) che è difficile capire fin dove possano spingersi e che qualcuno ha detto che possono diventare quanto di più vicino a un dio abbiamo mai sperimentato?

Che fare quando – perché, forse ottimisticamente, do già per scontato il se – una di queste IA si scoprirà autocosciente? Come sarà trattata? Come potremo rapportarci a questa entità? Quale sarà il rapporto tra il creatore e la creatura? Sarà un rapporto come quello presente nelle scritture giudaico-cristiane o sarà più simile a quello che intercorre tra Crono e Zeus? Gli interrogativi sono moltissimi. Da un lato delle IA coscienti potrebbero aiutarci a risolvere moltissimi problemi, dall’altro potrebbero essere un potenziale pericolo – perché, come insegna ad esempio Starfish di Peter Watts, le loro priorità potrebbero non coincidere con le nostre e, anzi, essere opposte.

Quando un essere diventa intelligente e cosciente di sé tutte le linee di demarcazione mentali che abbiamo faticosamente costruito negli scorsi millenni vengono spazzate via miserabilmente. Pensate alle famose parole di Roy Batty, o meglio di Rutger Hauer, in Blade Runner, tramite le quali un androide esprime sentimenti pienamente umani e che ben rappresentano il sentire di pressoché tutti gli uomini nella storia – che ne sarà di me? Cosa succederà dopo la morte? A cosa saranno valse le mie esperienze?
Tutto il film (e tutto il libro su cui è basato) si pongono lo stesso quesito: cosa è realmente definibile umano? È la biologia o il modo di essere, di vivere le cose, di sperimentare il mondo? È solo la materia di cui siamo composti, o è anche e soprattutto le categorie mentali e l’approccio alla vita? Una domanda che non ha risposta al momento, e potrebbe forse non averla mai.