Domanda:
In che modo la profondità di campo e il cerchio di confusione sono correlati alla dimensione dei pixel sul sensore?
Parikshit Sakurikar
2015-10-05 13:22:28 UTC
view on stackexchange narkive permalink

Ho letto della profondità di campo e presumo di avere una comprensione sufficiente di cosa significa e di come è correlato alle proprietà dell'obiettivo, all'apertura dell'obiettivo, alla lunghezza focale, alle dimensioni del formato del sensore e probabilmente anche alle dimensioni di stampa nel caso in cui l'immagine è in fase di stampa. Ho una domanda su come / se la profondità di campo dipenda dalla dimensione di un pixel. Vorrei approfondire:

Dati due sensori con dimensioni di pixel diverse: x e 4x, quest'ultimo sensore integra più luce per pixel rispetto al primo, tuttavia, potrebbe avere una risoluzione inferiore se le dimensioni del sensore rimangono fisse . La teoria suggerisce che la profondità di campo è determinata da quei cerchi di confusione che sono molto vicini ad essere un punto a fuoco, e questo forse significa anche che questi CoC molto piccoli rientrano nell'area di integrazione dello stesso pixel. Ora, quando un CoC diventa più grande di un pixel (come anche nel caso della sfocatura di diffrazione), c'è una certa diffusione delle intensità tra i pixel vicini e questo porterebbe chiaramente alla sfocatura. Tuttavia, se si stesse utilizzando il pixel di dimensioni 4X, anche con un CoC leggermente più grande, l'intensità si integrerebbe comunque nella stessa area di pixel e quindi sarebbe forse a fuoco? È questo il presupposto giusto? E in tal caso, esiste un'analisi della dipendenza dell'area pixel dalla profondità di campo? Inoltre, la profondità di campo è in un certo senso indipendente dal mezzo di integrazione in quanto si verifica chiaramente anche nei dispositivi analogici a pellicola, quindi c'è un compromesso o una differenza di profondità di campo tra la pellicola e le fotocamere digitali?

Per favore indicami i riferimenti corretti per questa domanda. Per favore correggimi se sembra esserci un problema fondamentale con le ipotesi fatte sopra.

Possiamo effettivamente portare gli esempi da quelli teorici a quelli pratici: Sony Alpha [7R ii] (http://www.dpreview.com/products/sony/slrs/sony_a7rii) e [7S ii] (http: //www.dpreview .com / products / sony / slrs / sony_a7sii) sono entrambi modelli di fotocamere full frame novità della seconda metà del 2015, rispettivamente da 42 e 12 megapixel. Si tratta di dimensioni dei pixel di circa 20 µm² e 70 µm² - quasi 4 × in un esempio attuale del mondo reale.
L'immagine dell'obiettivo può contenere problemi di profondità di campo e diffrazione, ma questa immagine dell'obiettivo è quello che è ed è tutto ciò che abbiamo. La dimensione dei pixel determina semplicemente la risoluzione del campionamento digitale per riprodurre questa immagine dell'obiettivo analogico. La dimensione dei pixel NON è la stessa della risoluzione dell'immagine dell'obiettivo. Più piccolo è il pixel, maggiore è la risoluzione di campionamento digitale e migliore è la riproduzione dell'immagine dell'obiettivo. Di più è meglio, non può essere troppo. Riprodurre la diffrazione che esiste, o il cerchio di confusione che esiste, è solo una riproduzione migliore, meglio che non riprodurlo, e non un problema in sé.
Quattro risposte:
Michael C
2015-10-05 16:33:05 UTC
view on stackexchange narkive permalink

Per capire in che modo il pixel pitch di una fotocamera può influire sulla Profondità di campo (DoF) , devi prima capire che cos'è DoF e cosa non lo è.

Indipendentemente dall'apertura di un obiettivo, ci sarà solo una distanza che sarà a fuoco. Ciò significa che ci sarà solo una distanza alla quale una sorgente puntiforme di luce sarà essere focalizzato su un singolo punto del supporto di registrazione. Sorgenti puntiformi di luce ad altre distanze verranno proiettate sul piano del sensore (o pellicola) come un cerchio sfocato, o cerchio di confusione (CoC) . Se questo CoC è sufficientemente piccolo da essere percepito come un punto dalla visione umana a una specifica dimensione e distanza del display, si dice che rientri nella DoF. I limiti della DoF cambiano in base all'apertura, alla lunghezza focale e alla distanza di messa a fuoco, nonché alle dimensioni del display e alla distanza di visualizzazione dell'immagine. È possibile stampare due copie dello stesso file immagine e se una viene visualizzata al doppio delle dimensioni dell'altra alla stessa distanza di visione da una persona con la stessa acuità visiva, la stampa più piccola sembrerà avere più DoF di quella più grande ( supponendo che la risoluzione del file immagine stesso non sia il fattore limitante ). Non esiste una barriera magica in cui tutto su un lato sia perfettamente a fuoco e tutto al di fuori di quella linea sia sfocato. Piuttosto, all'aumentare della distanza dal vero punto di messa a fuoco , aumenta anche la dimensione del cerchio di sfocatura e gradualmente iniziamo a percepire che gli oggetti non sono assolutamente nitidi.

La tua comprensione fondamentale di come un'immagine viene creata a partire dai dati di un sensore con una maschera Bayer davanti (la stragrande maggioranza delle fotocamere digitali) non è del tutto accurata . Non esiste una correlazione diretta tra un singolo sensore (pozzetto di pixel) su un sensore Bayer e un singolo pixel in un'immagine prodotta dai dati forniti da quel sensore. I numeri per ogni colore di ogni pixel nell'immagine prodotta sono interpolati dai dati prodotti da più sensori adiacenti.

Presumi anche, in modo errato nella maggior parte dei casi di utilizzo, che una sfocatura di due pixel sarà rilevabile alle dimensioni e alle distanze di visualizzazione tipiche. Non lo sarà. Un tipico cerchio di confusione per le telecamere FF è 0,03 mm (30 µm). Un tipico sensore FF da 20 MP ha pixel di circa 6,5 ​​µm di larghezza. Anche tenendo conto della griglia 2x2 di pixel mascherati RGGB utilizzata per produrre 4 pixel RGB nell'immagine prodotta, la larghezza di 13 µm di una cella 2x2 è ancora inferiore alla metà della larghezza del CoC da 0,03 mm necessaria per una stampa 8x10 visualizzata a 10-12 pollici da una persona con una visione di 20/20. La maggior parte delle fotocamere APS-C ha pixel leggermente più grandi di 4 µm di larghezza. Quindi il CoC consigliato per un sensore APS-C di circa 0,019 mm è ancora più largo del doppio di un 2x2 celle su un tipico sensore APS-C.

Se il sensore teorico nella tua domanda con pixel 4X più grandi sono sufficientemente grandi da limitare la risoluzione percepita dell'immagine, quindi tutto nell'immagine con un CoC inferiore ai limiti di risoluzione del sensore apparirà ugualmente a fuoco a scapito di apparire ugualmente pixelato / sfocato. Ciò si verifica quando il CoC necessario per una particolare dimensione di visualizzazione e distanza di visualizzazione è inferiore al doppio della larghezza del pixel pitch del sensore della telecamera. Tuttavia, non sarebbe un limite rigido, ma piuttosto il punto in cui iniziamo gradualmente a percepire che l'immagine è composta da singoli pixel che i nostri occhi possono discriminare.

Grazie per la tua risposta. Chiaramente non avevo considerato il fatto che il mosaico e la successiva interpolazione scollegano effettivamente i valori dei pixel dalle vere intensità di luce che cadono sul sensore. Inoltre, era interessante notare come una sfocatura di due pixel sarebbe stata impercettibile.
Se si dovesse collegare questo alla fotografia con limitazione di diffrazione, dove viene utilizzata una descrizione analitica simile della luce che si aggrega su un pixel del sensore, come si dovrebbe capire cosa sta succedendo lì? Perché è solo quando un singolo raggio di luce si diffonde a "una dimensione maggiore di un pixel" che iniziamo ad osservare gli effetti della sfocatura di diffrazione. Cosa si traduce in termini di dimensioni effettive dei pixel?
Le aperture di diffrazione limitata per le fotocamere digitali sono generalmente calcolate partendo dal presupposto che le condizioni di visualizzazione siano più critiche di quelle assunte quando si calcolano i cerchi di confusione. In particolare, si presume che l'immagine venga visualizzata al 100% su un monitor. Per la maggior parte dei sensori mascherati Bayer, la risoluzione "reale" in termini di linee per pollice che può essere risolta da un diagramma di prova dopo la demosaicizzazione è di circa √2 x larghezza di pixel. Quindi un sensore Bayer da 20 MP può risolvere circa come un sensore monocromatico da 10 MP in termini di linee bianche e nere contrastanti se l'obiettivo è all'altezza del compito.
user23573
2015-10-05 18:03:57 UTC
view on stackexchange narkive permalink

Penso che il tuo ragionamento sia corretto.

Il problema deriva da persone che mescolano termini astratti con le loro esperienze senza realmente comprendere il significato dei termini.

circle- of-confusion (CoC) (in tedesco: "Unschärfekreis")

è uno di questi termini. La traduzione letterale dal tedesco significa: "cerchio di non nitidezza" che IMHO è una descrizione migliore (e il motivo per cui l'ho inclusa). Così. Di cosa si tratta?

Come fotografo , è facile capire se un'immagine è a fuoco o meno: basta guardarla e vedere se è a fuoco. Ma tua moglie (oi tuoi figli oi tuoi clienti per questo motivo) potrebbero avere un'opinione molto diversa su questa immagine.

Come scienziato vuoi fatti concreti che si applichino a tutti: Uno strumento che dirà se un'immagine è a fuoco o fuori fuoco, indipendentemente dalle circostanze.

Ciò che dobbiamo capire è quanto segue:

CoC è non è un valore che è in qualche modo calcolato o fisso, è assunto caso per caso.

In quanto tale, il CoC attribuisce un numero preciso all'opinione del fotografo. Per lo scienziato è una stampella inserire la "roba soffice" in un numero preciso. Con questo numero preciso, lo scienziato può utilizzare le formule ottiche e calcolare la profondità di campo per situazioni specifiche.

Alan Marcus
2015-10-05 21:52:03 UTC
view on stackexchange narkive permalink

Quando si studia l'ottica geometrica apprendiamo che l'obiettivo forma un'immagine nitida di un oggetto a una data distanza a valle dell'obiettivo; Gli oggetti a distanze diverse non saranno così nitidi perché le loro immagini rispetto alle distanze dell'obiettivo saranno diverse. In altre parole, un oggetto all'infinito (∞), viene messo a fuoco più vicino all'obiettivo rispetto a un oggetto vicino. L'osservazione pratica, tuttavia, rivela che gli oggetti prima e dietro il punto su cui si è focalizzato spesso appaiono nitidi. Quindi abbiamo una zona a monte ea poppa del punto su cui focalizzarci che viene percepita come a fuoco soddisfacente. Questa è la zona di profondità di campo.

Ora l'obiettivo immagina ogni punto sui vari soggetti e li rende come piccoli cerchi sul piano focale. Il termine per questi è "cerchi di confusione". Chiamati così perché si sovrappongono e si mescolano e al microscopio appaiono come cerchi indistinti dal bordo smerlato. Percepiamo un'immagine, o parte di un'immagine, come nitida quando questi cerchi di confusione sono così piccoli da non essere osservati come cerchi, cioè appaiono come punti senza forma disabilitabile.

Compaiono piccoli cerchi come punti se visti da una distanza che è circa 3000 volte il loro diametro. Una moneta da 1 pollice vista da 3000 pollici appare come un punto (25,4 mm vista da 76 metri). Questo criterio si rivela troppo rigoroso per la visualizzazione delle fotografie. Ciò è dovuto alle prestazioni dell'obiettivo e al tipico rapporto di contrasto delle immagini grafiche. Lo standard ampiamente adottato è un cerchio con un diametro di 1/1000 della distanza di visione. Questo è il contenuto delle tabelle e dei calcoli di profondità di campo. Ciò equivale a 1/100 di pollice (0,25 mm) visto da 10 pollici (250 mm). In altre parole una dimensione del cerchio di 2/100 pollici = ½ mm visto da 500 mm.

Poiché le fotocamere odierne producono immagini minuscole, dobbiamo ingrandirle per ottenere un'immagine utile. Tipicamente guardiamo le immagini da una distanza circa uguale alla loro misura diagonale. Pertanto, i calcoli della profondità di campo in genere tengono conto di tutto ciò, generalizzando che la dimensione del cerchio consentita sul piano focale è 1/1000 della lunghezza focale. L'imaging tecnico spesso richiede standard più rigorosi. Kodak ha adattato 1/1750 della lunghezza focale. Ancora una volta, la maggior parte delle tabelle e dei grafici utilizza 1/1000. Pertanto, per un obiettivo da 50 mm, le tabelle della profondità di campo utilizzano una dimensione del cerchio di 0,05 mm. Considera una stampa 8 x 12 o un'immagine visualizzata di un fotogramma intero. L'ingrandimento sarà di circa 10X. La distanza di visione abituale è di circa 20 pollici. Con una dimensione del cerchio di 0,05 sul piano focale, la dimensione del cerchio sulla stampa (display) sarà 0,05 x 10 = 0,5 (1/2 mm).

Questa è la sostanza della profondità di campo. La matematica tiene conto della portata della visione umana, del contrasto dell'immagine, del grado di ingrandimento e della distanza di visione. Anche in questo caso lo standard più utilizzato è 1/1000 della lunghezza focale. Questi valori sono validi per le dimensioni dei fotositi.

Altro gobbledygook di Alan Marcus

Puoi approfondire di più su come questo potrebbe riguardare le dimensioni dei fotositi?
Per visualizzare un'immagine nitida / chiara alla distanza di lettura, il requisito è un pixel di 0,5 mm = 3,4 minuti di arco. Più grande è visto come sfocato. Un fotosite che misura 6,5 ​​um = 0,0065 mm o un po 'di confusione può sopportare un ingrandimento di 40x. Ingrandiamo un fotogramma intero 40x, l'immagine misura 960 mm per 1449 mm o circa 40 per 60 pollici. Sembra ancora nitido alla normale distanza di lettura. Tuttavia un'immagine così grande viene generalmente vista da una distanza pari alla sua diagonale che è di 72 pollici (1,8 metri). A quella distanza il pixel / cerchio della dimensione della confusione viene ridotto a 1,75 mm. Nessuno ha detto che sia facile.
Grazie per la tua risposta. Da quello che ho capito da qui, l'apparente profondità di campo dipende dalla distanza di visione piuttosto che essere fissata per un certo punto dell'immagine con un certo CoC. Quindi, in assenza di limiti di risoluzione, dovrei essere in grado di guardare più in profondità nell'immagine solo per scoprire che la DoF si restringe perché i CoC corrispondenti più vicini al vero piano focale non sono più impercettibili?
P = distanza focale Pd = punto distante nettamente definito Pn punto vicino nettamente definito D = diametro del cerchio f = f / numero F = lunghezza focale Pn = P / 1 + PDf / F ^ 2 Pd = P / 1-PDf / F ^ 2
DOF dipende dal diametro accettabile del disco immagine. Requisiti ottimi per alcuni soggetti, no per altri. Stiamo prendendo il contrasto e la banalità dell'argomento. Si prevede che le immagini di grandi dimensioni vengano visualizzate da una distanza maggiore. A volte i display di grandi dimensioni devono resistere a un attento esame. La maggior parte delle tabelle 1/1000 di lunghezza focale - Standard tecnico Kodak 1/1500 - Standard tecnico Leica 1/1500. Lavoro super critico 1/2000. Questo metodo intreccia la distanza di visione e la lunghezza focale.
Brian Argyle
2020-07-10 04:39:57 UTC
view on stackexchange narkive permalink

Quindi, teoria e matematica a parte, non riesco a comprendere come la distanza iperfocale, basata sulle impostazioni di lunghezza focale e apertura di un obiettivo, possa essere moltiplicata per una costante (il CofC) che si basa esclusivamente sulla dimensione del sensore. Immagino che, a parità di impostazioni della fotocamera, le immagini stampate di una data dimensione - diciamo 40 "x 30", per amor di discussione - abbiano la stessa 'nitidezza accettabile' se viste a una distanza ragionevolmente vicina ma uguale, quando le immagini sono state scattate da fotocamere con sensori full frame rispettivamente da 20, 40 e 60 megapixel ...

Ciao Brian, benvenuto in Photo-SE.I siti Stack Exchange non sono forum di discussione, sono siti di domande e risposte.Hai pubblicato questo come risposta, ma non hai risposto alla domanda.Dedica un momento alla visione del breve [Tour del sito] (https://photo.stackexchange.com/tour) per avere un'idea migliore di come funzionano gli Stacks.Sentiti libero di [fare una nuova domanda] (https://photo.stackexchange.com/questions/ask).
Una dimensione dell'immagine di 3000 pixel stampata da 10 pollici è 3000/10 = 300 dpi.Stampato 20 pollici, 150 dpi.Quindi l'ingrandimento riduce la risoluzione, che come DOF CoC, sembra sfocata.I sensori più piccoli devono anche essere ingranditi maggiormente per stampare la stessa dimensione di 10 pollici, il che riduce la risoluzione.L'allargamento amplia anche il CoC accettabile visto.Per visualizzare lo stesso aspetto CoC, i sensori piccoli devono utilizzare specifiche CoC più piccole, mentre i sensori più grandi utilizzano un CoC più grande.Ciò è dovuto all'ampliamento necessario della dimensione del sensore per la dimensione di stampa.La matematica DOF e le dimensioni CoC presumono che le dimensioni del sensore siano ingrandite a 10 pollici standard.
Quindi, in conclusione, CoC per un sensore 1x full frame viene normalmente mostrato con un diametro di 0,03 mm.Quindi, per stampare la stessa stampa 8x10 pollici, ciò significa che un sensore di ritaglio 1,5x viene necessariamente ingrandito 1,5 volte di più e CoC è 0,02 mm.Un sensore di ritaglio 2x viene ingrandito due volte di più e CoC è necessariamente 0,015 mm.Quindi, quando tutti sono ingranditi a 8x10, tutti e tre avranno l'aspetto di CoC 0,03 mm.DoF è molto preoccupato per l'ampliamento delle dimensioni del sensore.


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...