Di sicuro ci sarà sempre chi guarderà solo alla tecnica e si chiederà “come”
mentre altri di natura più curiosa si chiederanno “perchè”.(Man Ray)
Siete pronti a scoprire un segreto sulle nostre bellissime, potentissime, ipertecnologiche fotocamere?
Tenetevi forte!
Le nostre macchine fotografiche riescono a riprodurre solo foto in bianco e nero! 😯😯😯
Non ci credete vero?
Ebbene immaginate il sensore della vostra fotocamera come un insieme di milioni di piccole cavità (termine esemplificativo per descrivere i fotodiodi o più comunemente chiamati pixel).
Ci siete? In queste cavità vengono raccolti i fotoni -semplificando: le particelle elementari che costituiscono la luce – che, entrando dall’obiettivo quando si scatta, andranno poi a comporre l’immagine.
Ora questi minuscoli “buchi” nel sensore sono solamente in grado di registrare la quantità di luce che li ha colpiti, ma non il colore di cui questa luce è composta.
Quindi ci restituiscono solo una foto in bianco e nero.
Per capire meglio guardate questa semplice animazione:

Ma allora come arriviamo alle foto a colori?
Facciamo un passo indietro nella storia della fotografia.
Prima che esistessero le pellicole a colori, ai primi del ‘900 il fotografo e ingegnere chimico russo Sergei Prokudin-Gorski aveva girato tutta la Russia sovvenzionato dallo Zar per realizzare un reportage a colori che ne descrivesse tutti gli aspetti culturali, storici ed artistici.
Realizzando, con grande stupore per l’epoca, delle foto a colori.
Ma come ha fatto?
Con un trucco tutto sommato semplice!
Scattava tre fotogrammi (ovviamente in bianco e nero) in rapida successione ciascuno con un filtro colorato diverso davanti all’obiettivo.
I 3 colori usati erano quelli classici RGB, ovvero Rosso, Verde, e Blu.
Poi li proiettava con tre proiettori diversi dotati degli stessi filtri.
E voilà ! La « magia » è servita: foto a colori, ottenute da pellicole in bianco e nero.

Ma cosa c’entra tutto questo con la demosaicizzazione?
E’ importante perché alla fine la tecnica adottata dai costruttori di fotocamere è la stessa.
Tuttavia, come spesso succede nell’evoluzione tecnologica, il processo non è stato lineare.
All’inizio si è tentato di costruire sensori che avessero tre strati di recettori. Uno per ogni colore, proprio come le pellicole di Prokudin. L’espediente non ha dato i risultati sperati.
Ad esempio, il sensore Foveon cattura tutti e tre i colori in ogni pixel ma ne è stata sospesa la produzione.

L’unica soluzione per usare un’unico strato di sensori è stato posizionare sopra ad ognuno un filtro colorato in modo da assegnare solo uno dei tre colori ad ogni pixel, creando una scacchiera che chiameremo matrice.
Quindi ogni singolo pixel può catturare solo uno dei tre colori primari, scartando circa i 2/3 della luce che entra. (esempio il rosso assorbe solo la luce rossa e non considera il verde e il blu).

Una delle matrici più usate è quella di Bayer: è costituita da file alternate di filtri rosso-verde e verde-blu.
Ecco una simulazione di quello che “vede” realmente il nostro sensore:



Nota: si tratta solo di una simulazione a scopo didattico. In realtà i pixel sono piccolissimi e milioni in una foto.
Avete notato che i verdi sono il doppio circa rispetto a rossi e blu?
Questo è dovuto al fatto che anche l’occhio umano è più sensibile al colore verde.
Il fatto poi che il canale verde riceva una quantità maggiore di luce crea un’immagine meno rumorosa e con più dettagli fini (per approfondire il rumore digitale potresti anche leggere questo articolo).
Perciò l’immagine finale che registra il sensore è una scacchiera, e contiene in ogni singolo pixel solo l’intensità di un solo colore:

Pero’ non è finita qui 😊
Per avere le informazioni di tutti e tre i colori in ogni pixel bisogna applicare un algoritmo matematico: l’algoritmo di demosaicizzazione.
Lo dice la parola stessa: abbiamo un mosaico composto da tasselli rossi, verdi e blu e l’algoritmo deve restituirci tutti i colori reali della foto.
E’ un processo di traduzione: si parte da una matrice formata dai colori primari e si arriva a in un’immagine che contenga tutte le informazioni colore per ogni singolo pixel.

La demosaicizzazione non è perfetta.
Genera anche degli artefatti.
Per esempio: le immagini con dettagli su piccola scala, vicino al limite di risoluzione del sensore digitale, a volte possono ingannare l’algoritmo di demosaicizzazione, producendo un risultato dall’aspetto irrealistico. L’artefatto più comune è quindi l’effetto moiré, che può apparire come motivi ripetuti, artefatti di colore o pixel disposti in uno schema non realistico.

Per questo motivo quasi ogni sensore fotografico digitale incorpora qualcosa chiamato filtro ottico passa-basso (OLPF) o filtro anti-aliasing (AA). E’ uno strato sottile posto direttamente davanti al sensore. Funziona sfocando efficacemente tutti i dettagli potenzialmente problematici più fini della risoluzione del sensore.
Le microlenti
Qualcuno più attento potrebbe chiedersi perché, nella prima animazione, ciascuna cavità non era direttamente l’una accanto all’altra.
Lo abbiamo fatto apposta 😊
I sensori delle fotocamere nel mondo reale non hanno effettivamente fotodiodi che coprono l’intera superficie del sensore.
In effetti, possono coprire solo la metà dell’area totale, per ospitare altri componenti elettronici.
Ogni cavità però è mostrata con piccole linee inclinate per dirigere i fotoni verso una cavità o l’altra. Infatti le fotocamere digitali contengono “microlenti” sopra ogni fotodiodo per migliorare la loro capacità di raccolta della luce.
Queste lenti sono analoghe agli imbuti che dirigono i fotoni nel fotodiodo dove i fotoni sarebbero stati altrimenti inutilizzati.

Microlenti ben progettate possono migliorare il segnale del fotone su ciascun fotodiodo. Quindi creare immagini che hanno meno rumore a parità di tempo di esposizione.
I produttori di fotocamere hanno migliorato nel tempo il design delle microlenti per ridurre il rumore nelle ultime fotocamere ad alta risoluzione. O “mantenerlo” pur avendo fotodiodi più piccoli, a causa della compressione di più megapixel nella stessa area del sensore.
Ecco lo schema finale:

Alcune importanti considerazioni finali:
- Quando scatto in jpg sarà il software contenuto nella mia fotocamera ad applicare un algoritmo piuttosto semplice (per non intasare il processore) e poi eliminare i dati dei singoli pixel.
- Se invece scatto in Raw sarà il software di postproduzione che si occuperà di applicare l’algoritmo.
- Nei vari corsi e tutorial ci insegnano che scattare in raw ci permetterà di salvare il massimo delle informazioni possibili. Vero in parte, perché non le salverà TUTTE!
- Usare un software piuttosto che un altro non è la stessa cosa perché svilupperà l’immagine da un punto di vista del rumore, del dettaglio e del contrasto in maniera molto differente.
- Anche i sensori adottano matrici diverse e questo crea risultati diversi.
Ad esempio il sensore Fujifilm X-Trans CMOS ha una disposizione dei colori completamente diversa….. ma approfondiremo in un altro articolo!
Ti è piaciuto questo nuovo articolo? Passa parola!
Continua a seguirci sul nostro blog.
Hai suggerimenti da aggiungere o cose da chiedere?
Commentate qui sotto o nei nostri social 🙂
articolo eccezionale per esaustivita’ completezza e chiarezza.
Grazie mille Paolo, ce la mettiamo tutta per fare sempre meglio.