La prossima generazione di fotocamere per smartphone potrebbe vedere attraverso i muri

Potresti essere soddisfatto della tecnologia della fotocamera del tuo ultimo smartphone, che può farlo riconoscere il tuo volto  e realizzare video al rallentatore in altissima definizione, ma queste imprese tecnologiche sono solo l’inizio di una rivoluzione più ampia.

Le ultime ricerche sulle fotocamere si stanno spostando dall’aumento del numero di megapixel alla fusione dei dati della fotocamera con l’elaborazione computazionale. Con ciò non intendiamo lo stile di elaborazione di Photoshop in cui effetti e filtri vengono aggiunti a un file immagine, ma piuttosto un approccio radicalmente nuovo in cui i dati in arrivo potrebbero non assomigliare effettivamente a un'immagine affatto. Diventa un'immagine solo dopo una serie di passaggi computazionali che spesso coinvolgono matematiche complesse e modellizzazione del modo in cui la luce viaggia attraverso la scena o la fotocamera.

Questo ulteriore livello di elaborazione ci libera magicamente dalle catene delle tecniche di imaging convenzionali. Un giorno forse non avremo più nemmeno bisogno delle macchine fotografiche nel senso convenzionale. Utilizzeremo invece rilevatori di luce che solo pochi anni fa non avremmo mai considerato alcun utilizzo per l’imaging. E saranno in grado di fare cose incredibili, come vedere attraverso la nebbia, all'interno del corpo umano e persino dietro i muri.

Fotocamere a pixel singolo

Un esempio estremo è la fotocamera a pixel singolo, che si basa su un principio meravigliosamente semplice. Le fotocamere tipiche utilizzano molti pixel (minuscoli elementi del sensore) per catturare una scena che è probabilmente illuminata da un'unica fonte di luce. Puoi anche fare il contrario, catturando informazioni da molte fonti di luce con un singolo pixel.

Vedi correlati 

Trasforma la fotocamera del tuo iPad in un pulsante con questo trucco

 Per fare questo è necessaria una fonte di luce controllata, ad esempio un semplice proiettore dati che illumini la scena un punto alla volta o con una serie di pattern diversi. Per ogni punto o modello di illuminazione, misuri quindi la quantità di luce riflessa e aggiungi tutto insieme per creare l'immagine finale.

Chiaramente lo svantaggio di scattare una foto in questo modo è che devi inviarne molte punti o motivi di illuminazione per produrre un'immagine (che richiederebbe solo un'istantanea con a fotocamera normale). Ma questa forma di imaging consentirebbe di creare fotocamere altrimenti impossibili, ad esempio che funzionino a lunghezze d'onda della luce oltre lo spettro visibile, dove buoni rilevatori non possono essere trasformati in fotocamere.

Queste fotocamere potrebbero essere utilizzate per scattare foto nebbia o fitta neve che cade. Oppure potrebbero imitare gli occhi di alcuni animali e aumenta automaticamente la risoluzione di un'immagine (la quantità di dettagli che cattura) a seconda di cosa c'è nella scena.

È anche possibile catturare immagini da particelle di luce che hanno non ho mai nemmeno interagito con l'oggetto che vogliamo fotografare. Ciò trarrebbe vantaggio dall’idea di “entanglement quantistico”, secondo cui due particelle possono essere collegate in un modo che significa che qualunque cosa accada a uno accade all'altro, anche se sono molto lontani a parte. Ciò offre possibilità intriganti per osservare oggetti le cui proprietà potrebbero cambiare quando illuminati, come l’occhio. Ad esempio, la retina ha lo stesso aspetto sia al buio che alla luce?

Immagini multisensore

L'imaging a pixel singolo è solo una delle innovazioni più semplici nella prossima tecnologia delle fotocamere e si basa, a prima vista, sul concetto tradizionale di ciò che forma un'immagine. Tuttavia, stiamo attualmente assistendo a un aumento di interesse per i sistemi in cui utilizzano molte informazioni, ma le tecniche tradizionali ne raccolgono solo una piccola parte.

È qui che potremmo utilizzare approcci multisensore che coinvolgono molti rilevatori diversi puntati sulla stessa scena. Il telescopio Hubble ne è stato un esempio pionieristico, producendo immagini composte da combinazioni di molte immagini diverse scattate a diverse lunghezze d'onda. È possibile acquistare versioni commerciali di questo tipo di tecnologia, come la Fotocamera Lytro che raccoglie informazioni sull'intensità e la direzione della luce sullo stesso sensore, per produrre immagini che possono essere rimesse a fuoco dopo che l'immagine è stata scattata.

La fotocamera di prossima generazione sarà probabilmente simile alla Fotocamera leggera L16 (Sopra). Questa fotocamera è dotata di una tecnologia innovativa basata su più di dieci sensori diversi. I loro dati vengono combinati utilizzando un computer per fornire un'immagine da 50 Mb, rifocabile e rizoomabile, di qualità professionale. La fotocamera stessa sembra un'interpretazione picassiana davvero emozionante della folle fotocamera di un cellulare.

Eppure questi sono solo i primi passi verso una nuova generazione di fotocamere che cambierà il modo in cui pensiamo e scattiamo immagini. I ricercatori stanno lavorando duramente sul problema della visione attraverso la nebbia, vedere dietro i murie persino l'imaging nel profondo del corpo umano e cervello. Tutte queste tecniche si basano sulla combinazione di immagini con modelli che spiegano come la luce viaggia attraverso o attorno a diverse sostanze.

Un altro approccio interessante che sta guadagnando terreno si basa sull’intelligenza artificiale da cui “imparare”. riconoscere gli oggetti dai dati. Queste tecniche si ispirano ai processi di apprendimento del cervello umano e probabilmente svolgeranno un ruolo importante futuri sistemi di imaging.

Anche le tecnologie di imaging a fotone singolo e quantistico stanno maturando al punto da poter scattare foto con livelli di luce incredibilmente bassi e video con velocità incredibilmente elevate che raggiungono un trilione di fotogrammi al minuto secondo. Questo è sufficiente anche per catturare le immagini della luce stessa viaggiando attraverso come scena.

Alcune di queste applicazioni potrebbero richiedere un po' di tempo per svilupparsi completamente, ma ora sappiamo che la fisica sottostante dovrebbe consentirci di risolvere questi e altri problemi attraverso una combinazione intelligente di nuove tecnologie e computazionali ingegno.

Daniele Faccio è professore di Tecnologie Quantistiche all'Università di Glasgow. Stephen McLaughlin è il preside della scuola di ingegneria e scienze fisiche presso l'Università Heriot-Watt. Questo articolo è stato originariamente pubblicato su La conversazione.