Se finora il concetto di profondità era qualcosa di complicato per Google ARCore, ora c’è una nuova Depth Api dedicata pronta a risolvere le cose. In soldoni quest’ultima riesce a distinguere in maniera più chiara il primo piano reale con lo sfondo, di modo che gli oggetti virtuali in realtà aumentata siano influenzati dagli oggetti fisici veri e propri. Per farla semplice, un Pokémon potrebbe d’ora in avanti nascondersi dietro un divano, una sedia o un qualsiasi oggetto fisico, per intenderci.

Come funziona?

La Depth API di Google ARCore funziona così: grazie a un sistema che si comporta in maniera simile alla modalità Ritratto di Google Fotocamera, è possibile creare una mappa di profondità che ospita al suo interno gli elementi virtuali in maniera verosimile. Ciò si può ottenere spostando lo smartphone nello spazio che registrerà così più immagini catturate da diverse angolazioni rendendo di conseguenza l’idea generale delle distanze e dello spazio circostante. Ecco un esempio:

Con queste informazioni aggiuntive tutto questo diventa possibile, cioè nascondere ciò che è virtuale dietro oggetti fisici reali; oggetti fisici che possono essere perfino dinamici per gli smartphone con sensore ToF, solo statici per quelli senza.

Un’altra interessante applicazione riguarda anche gli spostamenti: con questa novità gli elementi virtuali possono seguire percorsi per così dire più verosimili, senza correre attraverso mobili o oggetti, ma oltrepassandoli in maniera più credibile.

Questo aggiornamento del linguaggio sarà disponibile a breve su tutti i dispositivi che supportano già Google ARCore, per cui preparatevi perché ne vedremo delle belle.