Fotografia digitale, CCD e obiettivi fotografici: visto che per comporre un immagine RGB servono almeno tre pixel, l’informazione su un sensore da tre Mpixel di risoluzione si traduce in un solo Mpixel per quanto riguarda il colore? Si può chiarire il rapporto tra informazione ottica trasmessa dall’obiettivo e quella registrata dal sensore?

I sensori CCD sono monocromatici, cioè reagiscono ai fotoni immagazzinando carica elettrica proporzionalmente al loro numero, cioè all’intensità luminosa, indipendentemente dalla frequenza (cioè dal colore).

Per fare delle foto a colori si interpongono tra l’obiettivo e il sensore CCD dei microfiltri RGB per filtrare le componenti
non desiderate. In teoria quindi la situazione dovrebbe essere quella delineata dal lettore. In realtà le cose stanno in modo leggermente diverso per due motivi:

– l’occhio umano ha una curva di sensibilità, al variare della frequenza, con un massimo nella zona del verde, per questo motivo i costruttori di sensori CCD utilizzano un reticolo di filtri con predominanza di G (vedi fig. 1),

Figura 1 – Tipico reticolo di microfiltri ed esempio di interpolazione (da [1])

quindi la risoluzione vera non è un terzo di quella del sensore, ma la metà (1,5 MegaPixel nell’esempio del lettore)

– è (mal)costume dei costruttori di macchine fotografiche digitali per il grande mercato dichiarare come risoluzione quella fisica del sensore recuperando i colori mancanti tramite interpolazione dai pixel adiacenti

Questo significa che la qualità dell’immagine è leggermente inferiore a quello che ci si potrebbe aspettare.
D’altra parte la tecnologia ci viene in aiuto proponendoci sensori a risoluzione sempre più alta, a costi sempre più bassi.

Quanto detto vale per la maggioranza delle macchine fotografiche digitali a basso prezzo, in realtà esistono camere professionali che hanno risolto il problema dei colori in altri modi:

– tre sensori CCD, uno per componente, illuminati tramite un divisore di fascio ottico
– un sensore con tre esposizioni successive con filtri mobili
– un sensore multistrato sensibile ai tre colori

Per rispondere alla seconda domanda conviene aiutarsi dallo schema di fig. 2:

Figura 2 – Schema di una macchina fotografica digitale (da [1])

i fotoni passano attraverso l’ottica della macchina fotografica che ha il compito di selezionare la scena, la messa a fuoco etc, e arrivano sul sensore come arrivavano sulla pellicola da impressionare nelle normali macchine fotografiche. Qui incidono sui pixel del sensore e generano quindi un reticolato di cariche elettriche.
Questo viene poi convertito in digitale, cioè in una matrice di numeri, che è esattamente il modo in cui è memorizzata un’immagine in un file (compressioni a parte).

Altre cose utili da sapere:
1. lo zoom
Spesso si vedono scritte che millantano ingrandimenti “telescopici” anche con macchinette compatte, bisogna ricordare che l’unico zoom utile è quello ottico, lo zoom digitale lo si può fare anche dopo che la foto è stata scattata
e sicuramente non è il caso di salire troppo con l’ingrandimento se non si vuole vedere annebbiato.
2. la dimensione del sensore
In genere i sensori CCD hanno dimensioni (larghezza e lunghezza in mm) standard, ma dovendo scegliere i sensori più grandi offrono prestazioni migliori, (maggiore sensibilità, minor rumore di fondo)

Per approfondire:
[1] Andrea de Prisco – I sensori CCD e l’acquisizione digitale delle immagini a colori  http://www.mclink.it/personal/MC0258/CCD.html
[2] http://www.vnunet.it/imprimir.asp?id=20050310026
[3] Eastman Kodak Company, Image Sensor Solutions – CHARGE-COUPLED DEVICE (CCD) IMAGE SENSORS
[4] Eastman Kodak Company, Image Sensor Solutions – CONVERSION OF LIGHT (PHOTONS) TO ELECTRONIC CHARGE