Domanda:
Esistono fotocamere dotate di algoritmi di esposizione automatica avanzati?
jpa
2020-01-16 23:21:23 UTC
view on stackexchange narkive permalink

Leggendo le risposte a Perché le mie fotografie del cielo risultano scure?, ho iniziato a chiedermi: tutti gli attuali algoritmi di esposizione automatica sono davvero così semplici da misurare solo la luminosità media della scena?

Sembrerebbe che si possano ottenere risultati molto migliori utilizzando ad esempio un sistema di apprendimento automatico addestrato con foto reali e ben esposte. Potrebbe quindi stimare in modo più accurato l'esposizione corretta dall'immagine di anteprima, anche per il gatto nero in una miniera di carbone e il cane bianco sulla neve.

E non mi riferisco alle modalità scena specializzate, come questo è solo lo spostamento di una parte dell'attività all'utente.

I DSLM moderni offrono un'anteprima dell'esposizione piuttosto buona direttamente nel mirino elettronico, che tende ad essere abbastanza buona per farti * notare * se la tua fotocamera sta per rovinare l'esposizione ...
La profonda fusione di Apple su iPhone 11 fa quasi quello che vuoi, ma attualmente funziona solo con luce medio-bassa.Scatta rapidamente più immagini con esposizione variabile, quindi utilizza il software per combinare le immagini per migliorare i dettagli.Sospetto che tu possa mettere a punto un tale algoritmo per lavorare anche con la fotografia all'aperto
Un'innovazione quasi magica con risultati sorprendenti disponibile in qualsiasi fotocamera tascabile da $ 100 al giorno d'oggi: il riconoscimento facciale.La fotocamera identifica i volti nella vista e li espone * correttamente.Perché le persone sono quasi sempre ciò che ci interessa in un'immagine (hai notato quanto siano poco interessanti tutti i tramonti 10 anni dopo? Quello che cerchi nelle vecchie foto sono invariabilmente le persone!) I risultati sono quasi sempre migliori.(Ma i cieli sono sempre bianchi: devi usare il flash per ottenerli entrambi).
Cinque risposte:
#1
+15
xiota
2020-01-17 00:01:30 UTC
view on stackexchange narkive permalink

tutti gli algoritmi di esposizione automatica attuali sono davvero così semplici da misurare solo la luminosità media della scena?

No.

Esistono fotocamere dotate di algoritmi avanzati di esposizione automatica?

Sì.

Sembrerebbe che potrebbero ottenere risultati molto migliori utilizzando ad esempio un sistema di apprendimento automatico addestrato con foto reali e ben esposte. Potrebbe quindi stimare in modo più accurato l'esposizione corretta dall'immagine di anteprima, anche per il gatto nero in una miniera di carbone e il cane bianco sulla neve.

La maggior parte delle fotocamere ha più modalità di misurazione:

  • Spot: la luminosità di una piccola parte dell'immagine viene utilizzata per calcolare l'esposizione.

  • Media: la luminosità dell'intera viene calcolata la media della scena e utilizzata per calcolare l'esposizione.

  • Media pesata al centro: viene calcolata la media della luminosità dell'intera scena, ma viene attribuito maggiore peso al centro.

  • Matrice / Valutativa / ecc - Questa è la modalità che tenta di fare ciò che descrivi. La scena è divisa in più parti. Viene valutata la luminosità di ogni parte. Il risultato viene utilizzato per cercare un database o inserito in un algoritmo per determinare l'esposizione.

Non sono a conoscenza di alcuna fotocamera che attualmente lo faccia, ma i dati della matrice potrebbero facilmente essere alimentato in una rete neurale. Ciò consentirebbe a una fotocamera di apprendere le preferenze di esposizione del proprietario. Questo è il tipo di tecnologia utilizzata da Google per identificare i gatti nei video di YouTube.

Quando si utilizza la misurazione Color Matrix 3D (la maggior parte) le Nikon confrontano la scena misurata con un database di oltre 30.000 tipi di immagine / scena nel processo di determinazione dell'esposizione corretta.
@StevenKersting Praticamente tutti i produttori di fotocamere hanno almeno alcuni modelli con riconoscimento delle scene basato su libreria.Man mano che si sale attraverso i modelli e le loro fasce di prezzo, diventano sempre più complessi e capaci.
Si noti che tutto ciò utilizza ancora lo stesso misuratore che nella maggior parte delle fotocamere misura la luce riflettente, quindi deve ancora essere corretto (manualmente) per soggetti non grigi.E in scene illuminate molto dinamiche sarai limitato dalla gamma dinamica del sensore.Opzioni sufficienti per ottenere comunque cattive esposizioni, anche con le modalità smart meter.
#2
+4
Michael C
2020-01-17 06:17:19 UTC
view on stackexchange narkive permalink

Sì, molti di loro lo fanno. Ma non riescono ancora a leggere la mente del fotografo riguardo a quale parte della scena si desidera sia esposta più adeguatamente.

A volte la fotocamera può essere intelligente solo come il fotografo le consente di essere .

Anche ai tempi del cinema antico, i primitivi misuratori di luce multisegmento consentivano un'analisi molto semplice di quali parti della scena erano più luminose e quali erano più scure. Quando i semiconduttori furono introdotti nei sistemi logici delle telecamere negli anni '70, queste informazioni potevano essere utilizzate per eseguire un rudimentale riconoscimento delle scene. Se il terzo superiore del fotogramma fosse molto più luminoso dei due terzi inferiori del fotogramma, la fotocamera falserebbe l'esposizione presumendo che il fotografo volesse le aree più scure al centro dell'intervallo di esposizione. Se i due terzi superiori dell'inquadratura erano più luminosi e il terzo inferiore era più scuro, la fotocamera avrebbe compensato l'esposizione in base al presupposto che il fotografo desiderava esporre le aree più luminose al centro dell'intervallo di esposizione. Questo ha funzionato abbastanza bene per la fotografia di paesaggio.

Nel corso degli anni i misuratori di luce negli SLR e poi nelle DSLR hanno moltiplicato il numero di segmenti discreti da numeri a una cifra a centinaia a migliaia di essi. Sono passati dall'essere veramente monocromatici al doppio strato (misurazione e confronto della luminosità a due diverse lunghezze d'onda della luce) agli odierni sensori RGB-IR che sono effettivamente sensori di imaging a colori in miniatura. Con l'avvento delle fotocamere mirrorless (e Live View nelle reflex digitali), la misurazione può essere eseguita utilizzando le informazioni dal sensore di immagine principale.

Poiché la velocità dei dati e la capacità di memoria a disposizione dei progettisti di fotocamere sono aumentate in modo esponenziale, la complessità di Anche le routine di misurazione dell'esposizione "basate su libreria" sono aumentate. Di conseguenza, le fotocamere stanno migliorando sempre di più nel riconoscere molti tipi diversi di scene e nella regolazione dell'esposizione consigliata in base a tale identificazione.

Ma le fotocamere non riescono ancora a leggere la mente del fotografo, anche se stanno migliorando nell'indovinare ciò che il fotografo probabilmente vuole.

Questo è particolarmente vero quando il fotografo utilizza una modalità di misurazione, come misurazione matrice / valutativa , in una situazione in cui un'altra modalità di misurazione, come parziale o spot , informerebbe più accuratamente la fotocamera su quale parte del scena il fotografo è più interessato ad esporre nei toni medi tra il troppo chiaro e il troppo scuro. O dove il fotografo limita le luci soffiate in qualsiasi parte della scena attivando Priorità tonalità luci (Canon) / Illuminazione D attiva (Nikon) / Come la chiamano gli altri produttori di fotocamere.

A volte la fotocamera può essere intelligente solo quanto il fotografo le permette di essere.

#3
+3
J.Hirsch
2020-01-17 01:07:46 UTC
view on stackexchange narkive permalink

I produttori di fotocamere e gli elaboratori di pellicole hanno affrontato questo problema letteralmente da quando è stata inventata la pellicola e le persone hanno smesso di elaborarla da soli. Siamo passati dai misuratori di luce ambientale che utilizzano celle solari a database incredibilmente complessi di esposizioni prese e analizzate da array multipunto in un lampo di "pre-lampeggio".

Eppure ... esposizioni.

Oggigiorno la maggior parte della misurazione dell'esposizione mi permetto di indovinare è incentrata su "abbellire" l'immagine. Vale a compensare le carenze di esposizione e le condizioni di scarsa illuminazione modificando attivamente il guadagno, la saturazione e la compensazione di offset per varie parti dell'immagine. Quelle non sono tanto misurazioni quanto interpretative dei fotoni raccolti, ma comunque-

C'era un concetto chiamato "paxelization" che non ho sentito al di fuori di Kodak. Era simile alle moderne immagini di apprendimento automatico sottocampionate. Quella paxel di pixel era piccola ma è stata utilizzata dai vari algoritmi per prevedere l'esposizione ideale (sia per pellicola che per digitale).

Quindi sì, le fotocamere fanno più di quello che ti aspetteresti e il software che esegue il rendering della tua immagine o stampa la tua pellicola (digitalmente o otticamente) fa altrettanto. È davvero sorprendente.

Sono a corto di risposte qui perché, letteralmente, sono stati scritti libri su misurazione e stampa. Se sei interessato alla fotografia, considera la lettura dei libri di Ansel Adam (2 dei 3) The Camera and the Negative. Anche il libro cartaceo è utile e approfondirà i dettagli su come applicare ciò che hai appreso, ma non è così rilevante per il tuo interesse per i sistemi di misurazione.

#4
  0
Zubida
2020-04-15 15:22:44 UTC
view on stackexchange narkive permalink

Sì. Alla fine del 2019, Canon ha lanciato la sua ammiraglia reflex digitale EOS-1D X Mark III per i fotografi professionisti. Questa fotocamera sfoggia l'autoregolazione più eccezionale mai osservata, insieme a video / filmati di ottima qualità evidenzia che numerosi individui che ci si aspetta si troverebbero solo nelle fotocamere mirrorless più sviluppate. Nikon ha annunciato la sua rivale, la Nikon D6, che combina un design robusto e durevole con autofocus avanzato e scatti ad alta velocità.

#5
-1
xenoid
2020-01-17 16:54:10 UTC
view on stackexchange narkive permalink

Gli smartphone sono computer con un sensore della fotocamera. Le fotocamere sono sensori con un computer. Tutto questo calcolo richiede tempo ed energia e si tradurrebbe in una riduzione della durata della batteria e della velocità di ripresa. Richiede anche molto spazio di archiviazione che sarebbe offline, quindi la fotocamera richiederebbe una scheda SIM e l'accesso alla rete ...

E finora nello smartphone il calcolo avviene dopo gli scatti, così è più o meno quello che otterresti con il bracketing dell'esposizione e la post-elaborazione



Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 4.0 con cui è distribuito.
Loading...