Google ha appena annunciato la creazione di un comitato consultivo che aiuti a monitorare l’utilizzo dell’intelligenza artificiale all’interno della compagnia, di modo che nessun dipendente violi i principi etici riguardanti le AI che la stessa azienda stese già l’estate scorsa e che potete trovare in parte riassunti in questo documento in cui Google fa sapere che non utilizzerà mai l’intelligenza artificiale per lo sviluppo di armi nonostante lavori con l’esercito americano.

Ricordiamo anche che l’azienda californiana ha evitato di utilizzare le AI per progetti di sorveglianza ed infatti ha rifiutato di partecipare allo sviluppo di software per l’analisi dei filmati dei droni di pattugliamento (Project Maven), un progetto voluto dal Pentagono che nonostante non sia offensivo sembra già essere fuori dalla “zona comfort” dell’azienda. Google vuole che le proprie intelligenze artificiali vengano utilizzate in modi “socialmente benefici” rimanendo sempre sotto il pieno controllo umano e incorporando svariate guardie per quanto riguarda la privacy delle persone. Il CEO di Google Sundar Pichai aveva scritto “Riconosciamo che una tecnologia così potente solleva domande altrettanto potenti riguardo ai suoi usi: lo sviluppo dell’AI di adesso influenzerà la società per molti anni e come azienda leader in questo campo di sentiamo profondamente responsabili di eseguirlo nel modo corretto”.

Torniamo ora al nuovo comitato, il cui nome è Advanced Technology External Advisory Council: Google l’ha formato per essere indipendente da ogni altro gruppo interno all’azienda di modo che funga da “cane da guardia” per chi sta lavorando alle AI, controllando in particolare lo sviluppo del riconoscimento facciale e mitigando il “bias” (i.e. pregiudizio) presente nel machine learning. Questa è la lista dei membri del comitato, che come potete vedere comprende persone che occupano posizioni di rilievo in varie università ed in altri famosi istituti.