Google ha sfruttato in modo bizzarro il machine learning per la modalità ritratto dei Pixel

Pixel 3 XL 02
© nextpit

Vi siete mai chiesti come facciano Pixel 3 e Pixel 3 XL a prevedere la profondità di campo senza l'ausilio di una doppia fotocamera? In un post del suo blog ufficiale, il gigante di Mountain View spiega in maniera dettagliata com'è possibile sfuttare il machine learning e... un piccolo trucchetto per riuscirci.

I Google Pixel di terza generazione possiedono entrambi uno dei migliori sistemi di fotocamera presenti oggi su uno smartphone. Molti si sono sempre chiesti come sia possibile ottenere risultati così incredibili sfruttando un solo sensore e non due o tre, come già visto sui dispositivi concorrenti. Infatti, anche senza una seconda fotocamera posteriore, i dispositivi di Google producono un effetto bokeh in modalità ritratto soltanto grazie al software.

L'anno scorso Pixel 2 e Pixel 2 XL hanno utilizzato il Phase Detection Autofocus (PDAF), noto anche come dual-pixel auto focus, insieme ad un algoritmo fatto in casa. Il PDAF cattura due foto leggermente diverse della stessa scena e crea un effetto di parallasse in modo da creare un effetto di profondità. Ma a Google questo non bastava.

Con i modelli Pixel 3, il motore di ricerca migliore al mondo ha aggiunto alcuni nuovi spunti, tra cui il confronto di immagini sfocate sullo sfondo con immagini più vicine messe a fuoco diversamente. Google ha quindi sfruttato l'AI e il machine learning per contare il numero di pixel in un'immagine del volto di una persona in modo da riuscire a stimare la sua distanza dalla fotocamera.

google pixel 5 phones case
Questa cover "fatta in casa" ha permesso a Google di utilizzare una sola fotocamera nei suoi Pixel.  / © Google

Così l'azienda ha costruito una cover (se così possiamo chiamarla) in cui potesse alloggiare cinque dispositivi Pixel 3 per scattare cinque foto uguali ma con diversa angolazione in una sola volta. Utilizzando il WIFI, l'azienda ha catturato le immagini contemporaneamente (o in circa 2 millisecondi l'una dall'altra), permettendole di creare cinque diversi parallassi, contribuendo dunque a creare un effetto profondità più accurato.

Non credete anche voi che sia incredibile ciò che Google è riuscita a fare con una sola fotocamera?

Fonte: Google

Vai al commento (0)
Ti è piaciuto l'articolo? Per favore, condividilo!
Articolo successivo
Nessun commento
Commenta la notizia:
Tutte le modifiche verranno salvate. Nessuna bozza verrà salvata durante la modifica
Commenta la notizia:
Tutte le modifiche verranno salvate. Nessuna bozza verrà salvata durante la modifica