Google Lens, uno dei servizi più interessanti lanciati da Big G negli ultimi anni, permette finalmente la selezione del testo anche in Assistant. Negli scorsi mesi Lens è stato rilasciato sia per l’app Foto che per Google Assistant, tuttavia si evidenziava una certa mancanza di uniformità: la disponibilità in termini di device e di feature presenti era diversa tra le due piattaforme.

Ad ogni modo sembra che Google ora abbia deciso di porre rimedio alla situazione e ristabilire quanto meno una parvenza di parità. A dimostrazione di quanto detto, la versione per Assistant di Google Lens sta finalmente acquisendo la possibilità di selezionare il testo. Si tratta di una feature che per la versione di Lens su Google Foto era stata introdotta già nel mese di dicembre dello scorso anno.

In precedenza, effettuando un tap sul testo all’interno del viewfinder di Lens, l’app si sarebbe limitata a riconoscere una porzione del testo selezionato e fornire all’utente informazioni correlate, senza tuttavia permettere di selezionare soltanto la parte del testo che si desiderasse cercare. Una possibilità questa che Google Now On Tap prima e Screen Search poi hanno reso disponibile ormai da diversi anni, era pertanto piuttosto deludente e fastidioso non ritrovarla in un servizio potente ed innovativo come Lens. Per poterla utilizzare, l’utente avrebbe dovuto prima scattare una foto e poi utilizzare Lens tramite l’app Google Foto. Finalmente adesso questi passaggi intermedi non sono più necessari.

Quando si effettua un tap in un punto qualsiasi in Lens in Google Assistant, le porzioni di testo vengono contraddistinte da uno sfondo più luminoso (per metterle in evidenza), dopodiché con un secondo tap l’utente può selezionare con maggiore precisione il testo che desideri ricercare o copiare. La GIF qui di seguito mostra il funzionamento della feature.

La nuova selezione del testo di Google Lens in Assistant era stata avvistata per la prima volta a febbraio, quando Google aveva annunciato ARCore 1.0, tuttavia in successivi test era sparita. Oggi sembra che il roll out sia finalmente iniziato.

Google Home: ecco i promemoria basati sulla posizione

La seconda novità di giornata in casa Google riguarda ancora una volta Assistant, in questo caso però a bordo degli speaker smart Google Home. Si tratta dei promemoria basati sulla posizione (location reminders).

Appena ieri c’era stato il lancio delle prime Routine, che promettono di portare su un nuovo livello l’utilità dell’assistente di Google. Con solo un giorno di distanza viene ora ufficializzato l’arrivo di una nuova feature relativa ai reminders.

A questo proposito, Google in passato ha dovuto superare una serie di difficoltà prima di riuscire a garantire il corretto funzionamento dei promemoria su Google Home, quella fase sembra superata. Per lo meno l’aggiunta di nuove feature ad essi correlate non sta richiedendo troppo tempo.

Qualche settimana fa si era parlato dei promemoria basati sulla posizione in arrivo nella versione di Google Assistant dedicata agli smartphone, laddove invece il rilascio per Home veniva indicato “in the coming weeks”. Per una volta Google ha usato l’espressione in senso letterale: la feature anticipata è disponibile già adesso.

Impostare un promemoria basato sulla posizione è semplice: basta dire ad Assistant di ricordarci di una determinata cosa quando ci troveremo in un determinato luogo. Per esempio “ricordami di prendere il latte quando mi trovo al negozio.” Ovviamente, trattandosi di un promemoria basato sulla posizione dell’utente, non potrà essere notificato sul Google Home, bensì sullo smartphone al raggiungimento di un determinato luogo.

Il team di Android Police ha messo alla prova questa nuova feature e ne ha riscontrato il perfetto funzionamento, evidenziando inoltre la possibilità di specificare una posizione precisa oppure qualcosa di più generico.

Vai a: Google Lens per la fotocamera sbarca sui Samsung Galaxy S9, S8 e Note 8