Domanda:
Come sono correlati il ​​valore dei pixel e l'intensità?
niraj
2014-06-10 15:04:18 UTC
view on stackexchange narkive permalink

In che modo il valore di un pixel in qualsiasi punto corrisponde all'intensità dei fotoni luminosi che colpiscono in quel punto? C'è qualche relazione matematica tra questi due? Valore di 1 pixel = ?? lumen.

Tre risposte:
TFuto
2014-06-10 15:45:43 UTC
view on stackexchange narkive permalink

La struttura di una cella sensore a tre FET è (da Wikipedia): Three-FET CMOS sensor cell

Ora, come funziona è molto semplice. Il Mrst consente un po 'di corrente al gate di Msf, quindi ci sarà un importo fisso di carica lì, quindi si spegne. Quindi il fotodiodo attirerà una certa carica, maggiore è l'intensità della luce, più carica verrà scaricata. Msf amplificherà semplicemente quel valore di carica finale e lo convertirà in corrente, e Msel selezionerà semplicemente questa cella quando è necessario leggere questo valore.

Ora, dovrai sapere come funziona un fotodiodo.

Prima di tutto, dovrebbe rispondere all'intensità della luce in entrata in modo lineare:

Photodiode I-U chart

(controlla il quadrante inferiore sinistro).

Tuttavia, i fotodiodi hanno una sensibilità alla lunghezza d'onda:

Photodiode wavelength sensitivity

quindi non esiste una chiara mappatura uno a uno tra l'intensità della luce e il valore dei pixel.

Inoltre, ci sono altri fattori qui, il più importante è il filtro Bayer. Come puoi vedere, i pixel R, G e B hanno aree di risposta di intensità diverse:

enter image description here

Questo mostra fondamentalmente la sensibilità del diodo + l'effetto del filtro del colore.

Quindi, per rispondere alla tua domanda: esiste una relazione matematica tra questi due? No, perché

  • le sensibilità dipendono dalla frequenza,
  • la luce in entrata non è pura spettralmente,
  • i sensori non hanno un modello matematico (non ci sono -linearità, ecc.)
  • e non entriamo nemmeno nella definizione di "lumen", che implica la risposta di intensità dipendente dalla frequenza dell'occhio umano ...

Tuttavia, ci sono strumenti che possono simulare la fisica dei fotodiodi e calcolare la risposta elettrica (quest'ultimo è HSPICE o uno strumento simile), e quelli possono anche simulare la risposta dell'intero circuito a diversi spettri e intensità di luce in entrata. (Scegliendone uno a caso: vedi questo link).

Please Read My Profile
2014-06-10 15:37:12 UTC
view on stackexchange narkive permalink

Non c'è corrispondenza. Il fotosite effettivo è un dispositivo analogico che accumula carica quando viene colpito dai fotoni. Quindi, quella carica viene convertita in una scala numerica da un convertitore analogico-digitale. Il "significato" del numero dipende dalle dimensioni del pozzo, dal tempo di esposizione, dal livello scelto come zero, dalla quantità di guadagno applicato e così via. Tutto ciò ha lo scopo di produrre fotografie, non misurazioni scientifiche: se quest'ultima è ciò che desideri, hai bisogno di un dispositivo diverso.

Tecnicamente, c'è una corrispondenza; semplicemente non è coerente tra i modelli di fotocamera o le impostazioni di esposizione. Tuttavia, per una data impostazione su un particolare modello, la stessa intensità risulterà nello stesso valore di pixel.
AJ Henderson
2014-06-10 19:02:00 UTC
view on stackexchange narkive permalink

Anche se esiste una corrispondenza, non è uniforme da una telecamera all'altra o da un'impostazione all'altra. I sensori della fotocamera convertono le foto che colpiscono il sensore in una carica elettrica che si accumula in ogni pixel. La misura grezza dell'intensità è il conteggio dei fotoni che hanno colpito che viene misurato dalla carica in base all'efficienza del sensore che costruisce una carica dal colpo del fotone.

Quindi, quando l'immagine viene letta dal sensore , viene misurata la dimensione della carica su ogni photosite e viene formato un valore digitale grezzo in base a quanto era pieno il photosite. A seconda della caratteristica di risposta del sensore, questa può essere o meno una relazione lineare.

Quindi passiamo all'elaborazione dell'immagine che converte i dati grezzi del sensore in un'immagine. I punti bianchi e neri selezionati, nonché la gamma selezionata dell'immagine avranno un impatto sui valori dei pixel finali derivati ​​dai dati del sensore RAW.

Quindi, in breve, sì, c'è una relazione, ma è lungo e complicato e dipende da un gran numero di fattori complessi, quindi praticamente, non esiste una relazione diretta su cui puoi fare affidamento per mappare i dati dei pixel sui valori di intensità, almeno non senza conoscere le curve di risposta di tutte le elaborazioni passaggi e livelli di riferimento su cui lavorare.



Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...