mercoledì 12 ottobre 2011

La Nuova Funzione di Deblur di Photoshop


Il video sopra è "trapelato" dalla recente conferenza di Adobe Max 2011 e mostra, tra un sacco di "ahhhhh" e di "ohhhh" un nuovo algoritmo in grado di recuperare perfettamente gli scatti mossi.

Prima di tutto spiegare che cosa è uno scatto mosso. Succede quando la fotocamera non è perfettamente stabile e il tempo di scatto non è abbastanza veloce per compensare il suo movimento con conseguente perdita di nitidezza e acutezza dell'immagine.
Da quando la tecnologia fotografica si è evoluta questo problema è diventato sempre più evidente. Quando si usava la pellicola, a meno di produrre stampe molto grandi, la maggior parte delle volte si "conviveva" tranquillamente con immagini meno che perfette, un mosso leggero o un piccolo errore di fuoco erano molto difficili da notare. Le fotocamere di oggi con i loro milioni di megapixel e la possibilità di guardare le immagini al 100% sullo schermo del PC rendono molto più facile da individuare i problemi di cui sopra, anche se la dimensione in cui l'immagine verrà riprodotta conta ancora tantissimo. In realtà la nitidezza è sempre relativa alla dimensione dell'immagine, più l'immagine è piccola e più nitida sembrerà, non variando tutti gli altri fattori.

Quando ho visto il video sopra sono rimasto stupito all'inizio, ma mi è rimasta una domanda. Una domanda ENORME. Come Adobe potrebbe creare informazioni dal nulla? Sì, perché la differenza tra un'immagine nitida ed una sfocata è la quantità di informazioni, la prima ne ha di più. Ciò è evidente se si guardano le dimensioni dei file RAW, quelli più grandi come dimensioni (in bytes, non la dimensione dell'immagine) hanno maggiori informazioni e questo è un buon metodo quando si devono selezionare i migliori scatti di una stessa scena: il file più "grosso" è anche quello più nitido.

Io ho provato negli anni diversi plugin di Photoshop che affermavano di riuscire a sistemare gli scatti mossi, l'ultimo è stato Topaz Infocus, e mentre riuscivano sì a recuperare un po' di  nitidezza, erano tutti molto lontano da riuscirci completamente, spesso lasciavano degli artefatti oppure riuscivano a recuperare la nitidezza in una zona dell'immagine ma peggioravano tutte le altre.


(L'immagine è un esempio dei risultati utilizzando Topaz Infocus dal sito Topaz, sembra molto simile a quella dell'esempio mostrato alla conferenza Adobe)

Il mosso è molto difficile da sistemare nel 90% dei casi, se la fotocamera si muove in una sola direzione durante il tempo di scatto e con la stessa velocità è piuttosto semplice per qualsiasi algoritmo "spostare" i pixel in modo da recuperare parte della nitidezza persa (ed è comunque meglio ridimensionare l'immagine per ottenere risultati impercettibili), ma il più delle volte il mosso non è così prevedibile ed è un mix di diversi micro-movimenti con velocità diverse. Così quando ho letto questo articolo sul "nuovo" algoritmo Adobe le mie speranze si sono presto raffreddate in quanto sembra essere la stessa tecnologia che ho già visto applicata altrove, cioè la creazione di nuove informazioni sulla base di una congettura di come l'immagine è stata mossa inizialmente. Quanto questa congettura sarà esatta stabilirà il successo o il fallimento dell'algoritmo, ma come ho cercato di spiegare, ci sono davvero un sacco di fattori in gioco da dover calcolare.

Alla fin fine questa funzione non sembra nulla di veramente nuovo, ma, nella migliore delle ipotesi, un miglioramento di ciò che già esiste. Speriamo che almeno sia un notevole miglioramento.


(Food photographer, e non solo!, professionista, Alessandro Guerani vive a Bologna ed è disponibile per servizi fotografici e postproduzione digitale di immagini. Per contattarlo potete vedere "chi sono" o inviargli una e-mail a info_at_alessandroguerani.com.)

Ti è piaciuto il post? Clicca e ricevi gli aggiornamenti di Foodografia appena pubblicati come feed RSSiscriviti o nella tua email.

2 commenti :

Azabel ha detto...

Infatti pare sia una variante dello smart sharpen. Anzi, ti riporto paro paro quello che mi dice Marco Olivotto visto che non saprei spiegarlo meglio ;): Pare sia una variante dello smart sharpen che già è in grado di rimuovere decentemente una sfocatura (gaussiana, non reale) e un mosso (da motion blur, non reale). Si chiama deconvoluzione ed è un algoritmo che si basa sulla trasformata di Fourier inversa. In letteratura ci stanno scrivendo roba da un sacco di anni, e funziona - ma di solito funziona bene solo in un caso: se si sa esattamente come è nato il difetto. Un esempio: prendete un punto nero piccolo su un foglio bianco; fotografatelo sfocato; senza cambiare nulla, fotografate un volto, quindi sempre sfocato. Con la prima immagine deconvoluta con la seconda potete recuperare tutta la nitidezza che volete; ma solo se avete la prima... che in generale non avrete.

Alessandro Guerani ha detto...

Esattamente Azabel, non sono voluto entrare troppo nel tecnico parlando della deconvoluzione (tanto ne parlava il sito della Topaz dove c'è anche quell'esempio). Quello che mi meraviglia è che ci sono un sacco di "esperti" che lo stanno propagandando in rete urlando al miracolo. Potenza del marketing.

Posta un commento