Domanda:
C'è qualche motivo per scattare 3 immagini RAW / JPG per ottenere il massimo dall'HDR?
yura
2012-06-01 11:18:39 UTC
view on stackexchange narkive permalink

Sono nuovo della fotografia e di quello che ho visto finora:

  1. ViewNX mi consente di modificare l'esposizione + 2 / -2 stop in RAW
  2. HDR riguarda una gamma dinamica più ampia e l'unione dei dettagli delle ombre di un'immagine sovraesposta con i dettagli delle alte luci di un'immagine sottoesposta
  3. RAW contiene più bit di JPG e ciò che è visibile sul monitor è per questo che è possibile proteggere da luci e ombre ..

Quindi mi sembra che RAW contenga già tutte le informazioni HDR richieste e le foto RAW / JPG aggiuntive non produrranno risultati migliori per HDR (solo peggiori a causa del processo di allineamento).

Ci sono molte polemiche su questo tema. Qualcuno può dare una risposta teoricamente provata a questa domanda?

Correlati (e forse in realtà una risposta in sé): [Come posso ottenere una buona immagine HDR da un singolo file RAW?] (Http://photo.stackexchange.com/questions/683/how-can-i-get- una-buona-immagine-hdr-da-un-singolo-file-raw)
Cinque risposte:
Itai
2012-06-01 17:29:32 UTC
view on stackexchange narkive permalink

L'HDR da una singola immagine RAW non aggiunge alcuna gamma dinamica rispetto a quella acquisita. Se la scena supera la gamma dinamica della fotocamera, indipendentemente da ciò che fai, il RAW sarà ritagliato canali su una o anche su entrambe le estremità. Anche se hai la fotocamera migliore e la usi con l'impostazione ISO ottimale, il massimo che ottieni oggi è appena superiore a 14 stop di DR.

L'esposizione con bracketing ti consente di catturare una gamma molto più ampia . Considerando la gamma di reflex digitali moderne, puoi facilmente eseguire il bracketing con 5 EV tra ogni scatto. Ciò espanderà 14 EV di DR a 24 EV.

Ovviamente parte della domanda è il modo di vederlo ed è da qui che proviene la mappatura dei toni. C'è solo il display HDR ed è molto costoso, quindi tutti gli altri devono accontentarsi di vedere qualcosa entro i confini della normale gamma dinamica (8 stop al massimo). Quindi, sì, finisci per vedere qualcosa che non è HDR ma vedi ancora cose che avevano più portata. Senza stare attenti, questo ovviamente si traduce in un aspetto atroce per cui l'HDR è diventato famoso.

La D800 non è ancora in grado di fare più di 14 stop. L'hardware stesso è in grado, secondo DXO, di 13,23 stop. Non importa quanto sia avanzato il tuo software di post-elaborazione o quanto meticolosa sia la tua tecnica, se provi a catturare una scena con 14,4 stop di DR, il sensore di 13,23 stop ** farà ** saltare le alte luci. Sono stati eliminati ben 1,2 stop di luci soffiate, il downscaling a un'immagine di "stampa" standardizzata da 8mp non cambierà la situazione.
Le statistiche della DXO sono * eccessivamente fuorvianti * a questo riguardo, quasi criminalmente. Richiedere ulteriori 1.2 stop, più che raddoppiare, della capacità di gamma dinamica a causa del semplice atto di downsampling (con un paio di punti "bonus" gettati qua e là per aumentare il numero anche più in alto di quanto il downsampling da solo consentirebbe) sta semplicemente producendo una statistica non valida dal punto di vista hardware. (Anche matematicamente, data la natura dei bit digitali, l'hardware della fotocamera potrebbe al massimo, con un ADC a 14 bit, essere in grado di raggiungere 14.0 stop prima di evidenziare le alte luci ... supponendo che la perfezione / zero overhead.)
Sì, l'ho scoperto. È stata una delle mie prime domande qui: http://photo.stackexchange.com/questions/4762/how-can-dynamic-range-be-larger-than-sensor-bit-depth
Hmm, interessante. Ho anche commentato questo all'epoca, ma per quanto ne so oggi, TUTTA l'attenuazione dei dati di immagine avviene digitalmente nelle DSLR in questi giorni. Gli ADC sono lineari per qualsiasi ISO dato e spesso hanno un guadagno frazionario nella maggior parte delle impostazioni ISO, il che porta a un errore di quantizzazione (e quindi a un'ulteriore perdita in DR). Le persone non sembrano nemmeno capire il valore di un "raddoppio" ... se un sensore Canon ha 11 stop di DR e una Nikon ha più di 13 stop, è più di QUATTRO VOLTE di DR che ha la Nikon ... questa è una ** incredibile ** differenza (anche senza superare i 14 stop).
Matt Grum
2012-06-01 19:08:31 UTC
view on stackexchange narkive permalink

Il numero di immagini necessarie per produrre un risultato HDR senza luci o ombre ritagliate dipende interamente dalla scena che si sta fotografando, non dalla gamma dinamica del dispositivo di output. Le immagini RAW possono contenere una gamma maggiore di quella che puoi visualizzare sul tuo monitor, ma non importa in quanto comprimerai comunque la gamma dinamica come parte del processo HDR mediante tonemapping .

Una singola immagine RAW potrebbe comunque non essere sufficiente poiché la gamma dinamica della scena potrebbe essere enorme. Tendiamo a non accorgercene poiché il nostro cervello lo compensa molto bene, ma qualsiasi situazione in cui la fonte di luce è nella ripresa ma non illumina una parte della scena sarà probabilmente impossibile per l'approccio a immagine singola.

La prova di ciò sta nel fatto che una volta ritagliate le evidenziazioni in RAW, le informazioni scompaiono per sempre. Allo stesso modo, quando le aree scure scendono in puro rumore, non è possibile recuperare i dettagli. Quindi ci saranno sempre scene in cui le parti scure sono troppo scure e le parti luminose sono troppo luminose per farla franca usando una singola immagine.

Steve Ross
2012-06-02 01:55:48 UTC
view on stackexchange narkive permalink

Mi concentrerò su questo statoL =:

Quindi mi sembra che RAW contenga già tutte le informazioni HDR richieste e le foto RAW / JPG aggiuntive non produrranno risultati migliori per l'HDR (solo peggio perché del processo di allineamento).

RAW contiene una conversione A / D a 12 o 14 bit delle letture del sensore. Non è così semplice, ma a seconda della fotocamera, il case normale è di 12 bit, il case migliore di 14 bit. Pensa all'HDR come a una serie di n immagini (dove n è tuttavia le immagini che desideri utilizzare per ottenere i dettagli di cui hai bisogno nelle luci e nelle ombre). Idealmente, la gamma dinamica di ciascuna immagine si sovrappone leggermente alla gamma dinamica di quella successiva nel gruppo di esposizione. A questo punto, penso che vedrai che in un intervallo di 3 esposizioni, assumendo la sovrapposizione di circa 1/3 e convertitori A / D a 12 bit, utilizzerai ancora circa 28 bit di dati. Aggiungi più esposizioni e puoi espanderle fino a 32 bit, che è dove si ferma la maggior parte delle tecnologie HDR.

Quindi non è vero che un singolo file RAW contiene tutti questi dati. Con le esposizioni a forcella, stai acquisendo dati extra sia per la fascia bassa che per quella alta oltre a quanto avresti potuto catturare in un singolo fotogramma. È tuttavia vero che devi prestare molta attenzione a non spostare o urtare la fotocamera (e sperare che non ci siano oggetti in movimento nell'inquadratura). Quindi c'è una certa degradazione dell'immagine (che non è quantificabile) associata a più frame HDR.

Mi ci è voluto un momento per riflettere su questa risposta perché avesse un senso, ma è sicuramente la risposta più definitiva alla domanda, semplicemente non ci sono abbastanza informazioni memorizzate rispetto a più immagini esposte in modo diverso. Seguendo la stessa logica, questo rende un'immagine correttamente esposta meglio che modificare l'esposizione di un RAW in post?
Sì. Credo che un'immagine correttamente esposta vincerà sempre. Qualunque altra cosa è stata fatta per effetto o farai un salvataggio. E, se non hai tempo o inclinazione a dedicare molto tempo per immagine, ottenerlo correttamente nella fotocamera è un must.
Mike
2012-06-01 11:27:27 UTC
view on stackexchange narkive permalink

La tua fotocamera ha solo una gamma dinamica così ampia. Quindi, riprendere le immagini sottoesposte e sovraesposte contemporaneamente allo scatto normale consente di estrarre davvero i dettagli dalle ombre e recuperare le alte luci molto meglio di un singolo scatto RAW. L'altra cosa inoltre è che se crei una copia virtuale di un file RAW e ne riduci o aumenti l'esposizione in post rischi di introdurre rumore artificiale che andrebbe a detrimento dell'immagine finale.

Otterrai molte più "informazioni" da tre foto separate con esposizioni diverse rispetto a quelle che otterresti da una sola.

Libor
2012-06-01 21:57:21 UTC
view on stackexchange narkive permalink

RAW è una fonte migliore per HDR poiché contiene anche risposte lineari non elaborate dal sensore.

I JPEG vengono solitamente elaborati all'interno della fotocamera, viene applicata almeno una curva di gamma / contrasto, quindi i valori dei pixel non vengono più corrispondono alle vere irradiazioni.

Uno degli scopi dell'HDR è catturare la radianza relativa, cioè quando la nuvola è 120.000 volte più luminosa del muro di un edificio, quindi il valore dei pixel è 120.000 volte più grande .

Le curve di gamma e di contrasto possono essere applicate alla fine del flusso di lavoro di elaborazione HDR per una migliore qualità percettiva (la nostra vista risponde in modo non lineare alla quantità di luce, contrariamente al sensore CCD / CMOS).



Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...