Durante un incontro con la stampa Carolina Parada, responsabile della divisione robotica di Google DeepMind, ha mostrato quanto l’intelligenza artificiale possa aiutare questo settore. I nuovi modelli sviluppati da Google permettono infatti ai robot di andare oltre le azioni semplici e isolate, introducendo una vera capacità di pianificazione e risoluzione dei problemi nel mondo fisico grazie all’integrazione con il web.
Se fino a poco fa i robot potevano limitarsi a eseguire azioni singole come piegare un foglio di carta o chiudere una zip, i nuovi modelli sviluppati da Google DeepMind permettono di eseguire compiti molto più complessi e che richiedono un ragionamento più avanzato. Tra gli esempi, Carolina spiega che un robot può adesso distinguere i vestiti scuri da quelli più chiari per fare il bucato, preparare una valigia basandosi sul meteo della destinazione o persino differenziare i rifiuti secondo le regole locali, dopo aver cercato le informazioni su Google.
Segui Google Italia su Telegram, ricevi news e offerte per primo
Gemini Robotics-ER 1.5 è il nuovo modello di Google DeepMind
Tutto questo è reso possibile dall’interazione tra due nuovi modelli: Gemini Robotics-ER 1.5 interpreta l’ambiente circostante e raccoglie dati dal web tramite Google Search, traducendoli poi in istruzioni dettagliate che Gemini Robotics 1.5 esegue grazie alla capacità di visione e comprensione del linguaggio naturale. In questo modo i robot non si limitano più ad eseguire una singola azione alla volta, ma sono in grado di ragionare sul contesto e portare a termine un compito più complesso.
Il nuovo aggiornamento di Google DeepMind introduce però anche un’altra novità che potrebbe accelerare enormemente lo sviluppo della robotica. Grazie a Gemini Robotics 1.5, i robot possono ora imparare gli uni dagli altri, anche se hanno una configurazione diversa di base. L’azienda ha per esempio mostrato che compiti svolti dal robot ALOHA2 possono essere replicati dal bi-arm Franka e anche dal robot umanoide Apollo di Apptronik.
Questo significa che un unico modello di intelligenza artificiale può controllare robot molto diversi tra loro, trasferendo le competenze apprese dall’uno all’altro. Google non vuole più soltanto creare robot più intelligenti, ma aprire la strada ad un ecosistema in cui queste macchine possano imparare continuamente, condividere conoscenze e diventare strumenti versatili per la vita di tutti i giorni.
Gemini Robotics-ER 1.5 è già disponibile attraverso le API di Gemini in Google AI Studio, mentre l’accesso a Robotics 1.5 è per ora riservato solo a partner selezionati.