Sono passati esattamente sei mesi da quando Google ha introdotto i primi smartphone della famiglia Pixel con Gemini integrato nativamente. In questo periodo, il team di Mountain View non è rimasto con le mani in mano, ma ha lavorato intensamente per aggiornare i modelli di Gemini, perfezionare l’app dedicata e sviluppare nuove funzionalità che rendono l’assistente AI sempre più utile e reattivo. Andiamo ad analizzare nel dettaglio le sei principali innovazioni che hanno trasformato l’esperienza d’uso di Gemini sui dispositivi Pixel negli ultimi sei mesi.

Segui Google Italia su Telegram, ricevi news e offerte per primo

Offerta

Motorola edge 60, 8/256 GB

50+50+10MP, 6.67'' pOLED 120Hz, Batteria 5200mAh, ricarica 68W, Android 15

247.95€ invece di 379€
-35%

I nuovi modelli AI hanno reso Gemini un assistente più intelligente e reattivo

Lo scorso dicembre, Google ha presentato le versioni sperimentali della sua ultima famiglia di modelli, Gemini 2.0. Questa nuova generazione include tre varianti principali: Flash, Flash Thinking e Pro, ciascuna progettata per rispondere a specifiche esigenze degli utenti.

Il modello 2.0 Flash è stato ottimizzato per gestire le attività quotidiane con grande efficienza, mentre 2.0 Flash Thinking è particolarmente indicato per affrontare domande che richiedono ragionamenti a più passaggi. Per quanto riguarda Gemini 2.0 Pro, questo modello avanzato eccelle nella programmazione, nei calcoli matematici e nella risoluzione di query particolarmente complesse.

Un importante aggiornamento è avvenuto a gennaio, quando una versione aggiornata di 2.0 Flash è stata distribuita a tutti gli utenti dell’app Gemini, sia su desktop che su dispositivi mobili. Grazie a questi aggiornamenti, Gemini ora risponde alle domande in modo molto più rapido ed è in grado di affrontare con maggiore competenza anche le richieste più articolate.

Non solo i modelli linguistici hanno ricevuto miglioramenti: l’app Gemini utilizza ora anche il più recente modello Imagen 3, che garantisce la generazione di immagini significativamente più luminose e meglio composte; un aggiornamento che assicura anche una riproduzione più accurata di diversi stili artistici, spaziando dal fotorealismo all’anime, arricchendo notevolmente la qualità visiva delle interazioni con l’assistente.

Le capacità multimodali hanno ampliato le possibilità di Gemini Live

A gennaio, Google ha introdotto le capacità multimodali in Gemini Live, la funzionalità che permette di avere conversazioni fluide e naturali con l’assistente AI. Disponibile sia per dispositivi Android che iOS, Gemini Live ha così acquisito la capacità di integrare nelle conversazioni immagini, file e video YouTube, fornendo un contesto molto più ricco per le richieste degli utenti.

Questa evoluzione ha aperto la strada a interazioni decisamente più complete e utili. Per fare un esempio concreto, utile nella vita di tutti i giorni, è ora possibile scattare una foto di una pianta e avviare una conversazione con Gemini Live per capire se potrebbe sopravvivere nel proprio giardino e identificare il periodo migliore per la semina. Oppure, si può condividere un video tutorial di cucina da YouTube e chiedere a Gemini di guidare l’utente nella preparazione del piatto, magari aiutando a modificare le dosi per adattare la ricetta a un numero diverso di persone.

Gemini ha iniziato a fare ricerche approfondite e a scrivere report per gli utenti

Una delle novità più significative è stata lanciata a dicembre con l’introduzione di Deep Research, una funzionalità di agente avanzata disponibile in Gemini Advanced. Questa innovativa caratteristica utilizza i modelli Gemini (in particolare, almeno al momento, la versione 1.5 Pro) per cercare informazioni su decine di siti web ed esplorare argomenti complessi, presentando poi i risultati sotto forma di report ben strutturati e di facile consultazione.

Anche in questo caso, per rendere l’idea delle potenzialità di questa funzione, facciamo un esempio pratico: con Deep Research, gli utenti possono richiedere ricerche articolate come il confronto tra i tassi dei mutui in diverse città o ricevere assistenza per decisioni complesse come la scelta di un’automobile. I report generati includono sempre i link alle fonti consultate, garantendo così la verificabilità delle informazioni presentate. Inoltre, è sempre possibile utilizzare la funzione di chat per aggiungere ulteriori dettagli o modificare il documento secondo le proprie esigenze.

Un’importante novità recente riguarda la disponibilità di Deep Research: inizialmente lanciata solo per desktop, questa funzionalità è stata estesa anche ai dispositivi mobili attraverso l’app Gemini, includendo naturalmente anche gli utenti Pixel. Questo ampliamento rende accessibile anche in mobilità uno degli strumenti più potenti dell’ecosistema Gemini.

Gemini risponde a più domande in più contesti

Un assistente non può essere davvero utile se non è accessibile nei momenti di necessità. Partendo da questo principio, Google ha lavorato per rendere Gemini capace di rispondere a un numero sempre maggiore di domande in contesti sempre più diversificati.

Una delle novità più apprezzate è sicuramente la possibilità di ottenere risposte da Gemini anche quando il telefono è bloccato. Questa funzionalità permette di interagire con l’assistente senza necessità di sbloccare il dispositivo, rendendo l’accesso alle informazioni ancora più immediato e pratico nelle situazioni quotidiane.

Questo ampliamento della disponibilità dell’assistente AI rispecchia la filosofia di Google di rendere Gemini uno strumento sempre pronto a supportare l’utente, indipendentemente dalle circostanze o dal contesto di utilizzo.

Le estensioni hanno aperto Gemini a nuovi innumerevoli utilizzi

Negli ultimi sei mesi, Google ha notevolmente ampliato le capacità di Gemini attraverso l’integrazione di numerose nuove estensioni, che hanno moltiplicato i possibili utilizzi dell’assistente.

L’estensione Google Home, ad esempio, permette di controllare direttamente dal Pixel i dispositivi domestici smart: ad esempio, è possibile chiedere a Gemini di abbassare le luci o accendere il televisore senza dover aprire altre app. Gli utenti possono anche chiedere all’assistente di chiamare contatti personali o aziende, oltre a redigere e inviare messaggi attraverso le app predefinite di telefonia e messaggistica del dispositivo.

Con la nuova estensione Utilità, presente sotto la sezione “Controllo dei dispositivi” all’interno della pagina relativa alle estensioni dell’app Gemini, le funzionalità si espandono ulteriormente: l’assistente Made by Google può impostare sveglie, controllare le impostazioni del dispositivo e persino aprire la fotocamera per scattare rapidamente un selfie. L’elenco delle estensioni disponibili è in continua crescita e include già applicazioni molto utilizzate come Gmail, Google Calendar, Google Tasks e WhatsApp, con nuove integrazioni che vengono aggiunte regolarmente nel corso del tempo.

Questa strategia di apertura attraverso le estensioni trasforma Gemini da semplice assistente a vero e proprio hub di controllo centralizzato per numerose funzionalità del dispositivo e delle app installate.

Il redesign e l’interfaccia semplificata hanno reso più intuitivo l’utilizzo di Gemini

All’inizio dell’anno, l’overlay di Gemini sui dispositivi Pixel ha ricevuto un importante restyling. Il nuovo design presenta un layout più semplice e intuitivo che facilita notevolmente l’interazione con l’assistente AI in qualsiasi momento della giornata.

Per attivare Gemini, le modalità sono rimaste semplici, ma comunque efficaci: è sufficiente tenere premuto il pulsante di accensione (non per tutti i dispositivi) oppure pronunciare la frase “Hey Google” (a breve verrà introdotta anche la possibilità di pronunciare la frase “Hey Gemini”). Questa semplicità d’uso, unita a un’interfaccia più pulita e ordinata, ha reso l’assistente ancora più accessibile, abbattendo le barriere all’utilizzo anche per gli utenti meno esperti.

La riorganizzazione dell’interfaccia risponde alla necessità di rendere l’interazione con l’intelligenza artificiale il più naturale e immediata possibile, eliminando elementi di distrazione e focalizzando l’attenzione sullo scambio comunicativo tra utente e assistente.

Queste sei importanti novità dimostrano chiaramente l’impegno di Google nel trasformare Gemini in un assistente sempre più integrato nell’ecosistema Pixel e, più in generale nel sistema operativo Android, capace di supportare gli utenti in un numero crescente di attività quotidiane. Con l’evoluzione continua dei modelli AI sottostanti e l’ampliamento delle funzionalità disponibili, Gemini sta rapidamente diventando non solo un’interfaccia conversazionale avanzata, ma un vero e proprio compagno digitale in grado di comprendere le esigenze individuali e offrire soluzioni personalizzate in tempo reale.

Con queste innovazioni, Google conferma la propria visione di un’intelligenza artificiale che, integrata nei dispositivi di uso quotidiano, possa effettivamente migliorare l’esperienza d’uso e semplificare la vita digitale degli utenti Pixel, ponendo le basi per ulteriori sviluppi nei prossimi mesi.