Ricostruzione del colore in fotografia digitale

Come si ottiene il colore da un sensore di immagine?
Fino ad ora abbiamo descritto solo il funzionamento di sensori monocromatici. Ogni tipo di materiale risponde a luce di frequenze diverse con una diversa efficienza quantica, ovvero convertendo solo una certa parte dei fotoni entranti in carica elettrica.

Per poter capire la cattura del colore è necessario per prima separare la luce nelle sue componenti fondamentali, RBG. Il modo più ovvio di fare ciò è utilizzare tre sensori diversi, uno per il rosso, uno per il verde ed uno per il blu. Questa tecnica è molto costosa e viene utilizzata solo in applicazioni di altissimo livello.

Un altro metodo, meno costoso, è basato su un filtro di colore montato direttamente sul sensore sopra ogni fotodiodo e corrispondente ai colori che il filtro lascia passare. Questo filtro, o pattern è detto CFA (Colour Filtering Array). L'immagine  così composta da pixel a 3 a 3 di diversi colori.


Le risposte spettrali del sensore ai diversi colori però non sono tutte uguali e se non si adoperano alcuni accorgimenti può risultare che alcuni colori non possono essere riprodotti.

Microlenti (sinistra) e filtro di Bayer (destra)
La figura mostra la curva di risposta per un CCD a trasferimento interlinea (IT) con microlenti. Il CFA più utilizzato è detto di "Bayer" perchè quello che permette la migliore risposta cromatica in rapporto alla risposta dell'occhio umano. Esperimenti hanno infatti dimostrato che i pigmenti fotosensibili della fovea hanno un picco di efficienza attorno alla lunghezze d'onda corrispondenti al verde (550 nm).

Il CFA permette solamente di misurare solo un colore in ogni fotosito, gli altri due dovranno essere allora stimati.
Il processo di stima dei colori mancanti è detto "Demosaicing" oppure "colour filter interpolation" ed è svolto in seconda instanza rispetto all'acquisizione del segnale, in maniera digitale.

Il modo più semplice di interpolare il colore mancante è di assegnare al pixel il valore medio dei suoi vicini, esistono tuttavia altre tecniche più efficaci nella riproduzione dei dettagli in zone di alto contrasto.
Sistemi di interpolazione di bassa qualità portano a effetti detti Moìre. Il processo di elaborazione del segnale se effettuato in seconda istanza ,grazie al formato RAW, può portare a ridurre questi effetti tramite programmi di elaborazione, (Photoshop, Capture NX e altri)



Come le microlenti aumentano il fill-factor
Le microlenti sono microsfere di resine trasparenti poste sulla superficie del fotodiodo.

La piccola lente focheggia la luce incidente che raggiungerebbe normalmente la parte non sensibile del sensore sulla regione sensibile. In questo modo il fill-factor effettivo viene aumentato dal 30-50% fino al 70%

La sensibilità del pixel viene aumentata ma non la carica immagazzinata. Il difetto di questo sistema è che con le microlenti è che la sensibilità ISO diventa dipendente dall'apertura del diaframma infatti essa fa focheggiare sull'elemento sensibile luce entrante da angoli più elevati.

Nessun commento:

Posta un commento