Mai come quest’anno vanno di moda termini come “effetto bokeh” o “modalità ritratto” associate solitamente agli smartphone dotati di doppia fotocamera posteriore. Pur utilizzando un singolo sensore fotografico i nuovi Google Pixel 2 e Google Pixel 2 XL sono in grado di ottenere risultati straordinari, grazie a una tecnologia che Google ci aiuta a comprendere.

Piuttosto che puntare all’evoluzione dell’hardware, campo in cui c’è una sostanziale stagnazione, Google ha preferito concentrarsi sul lato software, sfruttando il machine learning per introdurre dei significativi miglioramenti nel comparto fotografico. Ricordiamo che nell’evento di presentazione dei Google Pixel 2Google Pixel 2 XL il CEO Sundar Pichai ha ripetutamente ricordato che Google si sta concentrando soprattutto sull’intelligenza artificiale.

Google ha utilizzato due differenti approcci al problema, uno per la camera posteriore, dotato di tecnologia in grado di misurare la profondità di campo, e una per la camera anteriore, priva di tale tecnologia. La fotocamera posteriore utilizza i pixel dell’autofocus a riconoscimento di fase per creare una mappa della profondità di campo.

Per avere un’idea semplificata del funzionamento possiamo pensare al sensore posteriore diviso in due: una metà vede un’immagine e l’altra ne vede una leggermente diversa, abbastanza affinché Google riesca a costruire una mappa dettagliata della profondità.

Per la fotocamera frontale viene applicato il machine learning, che permette di creare una maschera per isolare il soggetto. Il software applica una sfocatura allo sfondo mantenendo pressoché intatto il soggetto, con risultati che sono davvero sorprendenti, se pensiamo che sono ottenuti solo tramite algoritmi software.

Per maggiori dettagli tecnici vi invitiamo a consultare il documento originale, raggiungibile a questo indirizzo.