Articolo pubblicato sul n. 1 di Byte Italia (Edizioni Technimedia Srl - Roma) nel gennaio 1999
I sensori
CCD
Sono due i problemi cardine della fotografia digitale: l'acquisizione delle immagini reali (siano esse i soggetti effettivamente ripresi o la loro rappresentazione su supporto fotografico tradizionale) e il corretto "trasporto" dell'informazione colore da un dispositivo all'altro. Di quest'ultimo argomento, per la verità assai dettagliato e ricco di affascinanti colpi di scena, non è escluso che ritorneremo presto a parlare, analizzando anche la percezione soggettiva del nostro apparato visivo, inquadrando le argomentazioni dal punto di vista della fruizione digitale delle immagini. Detto in parole povere, il problema della corrispondenza cromatica è "semplicemente" quello di riuscire a mantenere la corretta percezione (soggettiva) dei colori, pur utilizzando differenti dispositivi per la loro fruizione o manipolazione digitale. Un'immagine visualizzata a monitor quanto più possibile fedele all'originale appena acquisito, trattamento dei pixel corrispondenti senza incidere negativamente sulla gamma cromatica (sia qualitativamente che quantitativamente), fruizione dell'immagine digitale, con i colori ancora corrispondenti all'originale, anche al di fuori dei freddi limiti dei dispositivi elettronici utilizzati. Fedeltà cromatica, senza rischiare brutte sorprese, anche dopo la stampa tipografica, a sublimazione, a getto d'inchiostro o dopo la finale fotorestituzione su pellicola che sancisce il "ritorno al tradizionale" dopo l'incantevole viaggio in quel mondo che simpaticamente amiamo definire "dei bit colorati". Come anticipato, in questa sede non analizzeremo gli aspetti cromatici delle immagini (intesi come corrispondenza/fedeltà dei colori) ma ci soffermeremo principalmente sui sensori CCD (Charge Coupled Device) delle fotocamere digitali, evidenziando limiti e capacità dei sistemi di acquisizione diretta. Il colore, pur ampiamente "strillato" nel titolo dell'articolo, c'entra in maniera più quantitativa che qualitativa. Vedremo, in altri termini, in che modo gli attuali sistemi di acquisizione diretta delle immagini digitali possano essere nella maggioranza dei casi piuttosto insufficienti a garantire le prestazioni dichiarate dai vari costruttori di fotocamere digitali, nonostante anche per loro (così come per qualsiasi entità, intelligente e non, del nostro universo!) sia valido "l'assioma" che la matematica è sempre stata tutt'altro che un'opinione. Colori e CCD
Il
problema, se vogliamo, nasce dal fatto che gli attuali
sensori CCD utilizzati dagli scanner e dalle fotocamere
digitali non hanno alcuna conoscenza cromatica della realtà.
Reagiscono ai fotoni liberando elettroni senza essere, di
fatto, sensibili alle frequenze in gioco, ovvero al colore
della luce percepita. Dunque un sensore CCD, almeno allo
stato attuale, è un dispositivo rigidamente monocromatico
("vede" a livelli di grigio) e genera una tensione elettrica
variabile in funzione della quantità di luce che lo
raggiunge. A latere, un convertitore analogico/digitale fa
il resto: la tensione in uscita dal sensore CCD, trasmessa
singolarmente per ogni pixel di cui è formato il dispositivo
di acquisizione (da poche centinaia di migliaia di elementi
ai molti milioni dei dorsi digitali "one shot" o "three shot"
più sofisticati), viene convertita in formato numerico ed
utilizzata così com'è dalla rimanente circuiteria o dal
computer collegato al dispositivo
Il "balletto" dei numeri Quel che preoccupa maggiormente, di questi tempi, è il "coraggio" della stragrande maggioranza dei costruttori di fotocamere digitali (amatoriali e professionali) i quali utilizzano il numero di pixel del sensore CCD monocromatico per indicare la risoluzione a colori dei loro prodotti. Così è possibile scoprire che magicamente, un sensore CCD da poco meno di 500.000 elementi monocromatici è capace (a detta dei costruttori) di fornire immagini a colori da 800x600 pixel, mentre chiunque abbia un minimo di dimestichezza con il funzionamento dei dispositivi di questo tipo è in grado di accorgersi che è necessario "sprecare" ben tre elementi del CCD, differentemente filtrati in RGB, per avere conoscenza cromatica di quella singola porzione d'immagine. Giocando, abilmente, con l'interpolazione software dei punti a colori mancanti (e sfruttando quanto più possibile il fatto che i pixel verdi sono in quantità doppia rispetto a quelli rossi e blu) si riesce ad ottenere un numero di punti validi ridotti alla metà invece che ad un terzo (diciamo 250.000 pixel "veri" a colori utilizzandone, in partenza, 500.000), ma mai e poi mai è fisicamente possibile eguagliare la risoluzione monocromatica del sensore CCD con quella a colori ottenibile via microfiltratura RGB. Ci sarebbe da dire... "loro non lo capiscono", il fatto è che lo capiscono fin troppo bene, ma tacciono la verità approfittando dell'attuale confusione e disorientamento dell'utente medio. Peccato poi scoprire che l'immagine, ad esempio, 800x600 così ottenuta è assolutamente priva di dettaglio, con evidenti sbavature cromatiche nei contorni dell'immagine dovute al fatto che le tre immagini monocromatiche percepite dal sensore, oltre che interpolate, sono per di più sfasate tra loro di almeno un pixel, condizione che non giova certo alla resa finale del dispositivo.
L'interpolazione cromatica Dunque, a quanto pare, non si può generare un'immagine a colori da un singolo sensore CCD microfiltrato, senza ricorrere all'interpolazione software. E' possibile, però minimizzare il problema ricorrendo ad uno schema di funzionamento più sofisticato, come quello mostrato in figura. Si basa sull'utilizzo di pixel rettangolari (invece che quadrati) di dimensione esattamente pari alla metà di punti immagine che intendiamo acquisire. Secondo lo schema in figura per ogni pixel della nostra immagine conosciamo il valore di due delle tre componenti cromatiche primarie mentre ben quattro pixel nel suo intorno possono fornire informazioni circa la terza. Ad esempio del pixel A conosciamo esattamente la quantità di rosso e di blu di cui è composto il pixel acquisito mentre dai pixel identificati con la lettera B "abbiamo di che interpolare" circa la componente verde. Lo stesso accade per il pixel C (così come per gli altri punti da acquisire) di cui è nota la quantità di rosso e di verde mentre il blu possiamo interpolarlo dai quattro pixel identificati dalla lettera D.
Ma il
vero "salto di qualità" si ha eliminando del tutto o
minimizzando al massimo il meccanismo di interpolazione
software dei punti colore. E, come è facile prevedere, se
non intendiamo effettuare più esposizioni con differenti
filtri, è necessario ricorrere a 2 o a 3 sensori CCD
utilizzati insieme. In figura è mostrato uno schema
esemplificativo di una fotocamera digitale basata su due
sensori CCD nonché la soluzione "no limits" di 3 sensori
CCD, uno per componente primaria di sintesi additiva. E'
evidente che nell'ultimo caso (3 CCD) non è necessario
compiere alcuna operazione di interpolazione software di
natura cromatica, in quanto di ogni pixel della nostra
immagine conosciamo esattamente ognuna delle tre componenti
cromatiche che identificano il rispettivo colore. Più
interessante, dal punto di vista algoritmico, la situazione
della coppia di sensori CCD, il cui schema di interpolazione
è mostrato in basso. Dei due CCD disponibili (di pari
risoluzione grafica) ad uno è demandato il compito di
leggere tutti i pixel verdi dell'immagine, l'altro si occupa
delle componenti
Giochiamo a perdere
Per gli
amanti delle forti emozioni, abbiamo preparato un semplice
"esercizio" di Photoshop per offrire a tutti la possibilità
di rendersi conto di persona dei limiti interpolativi
dell'acquisizione digitale tramite un singolo sensore CCD a
colori microfiltrato. Chi ha già avuto a che fare con le
fotocamere digitali "monosensore" sa già di cosa stiamo
parlando, ma chi volesse studiare (o semplicemente
verificare) maggiormente il problema può trovare numerosi
spunti interessanti in questo semplice procedimento.
Facciamo una breve premessa. Ogni immagine a colori in
formato RGB è in realtà formata da tre byteplane
monocromatici rosso, verde e blu (nel linguaggio di
Photoshop sono detti "canali"). Un'apposita finestra del
noto programma di fotoritocco digitale permette di
richiamarli, di visualizzarli singolarmente e di effettuare
sugli stessi ogni possibile operazione normalmente
applicabile all'intera immagine. Ad esempio possiamo agire
su un singolo canale per modificare il contrasto di quella
determinata componente cromatica, ma anche effettuare
operazioni più bizzarre, come ad esempio decidere di dare un
colpo di sfocatura ad uno dei tre colori primari lasciando
invariato il resto. In quest'esempio lasceremo da parte gli
esperimenti creativi e ci concentreremo maggiormente sulla
simulazione di un sensore CCD interpolato.
In alto abbiamo riportato due dettagli dell'immagine prima e dopo la cura. Per essere ancora più realistici, potremmo spostare di un pixel il byteplane del rosso e del blu, per simulare anche il non perfetto allineamento delle due immagini interpolate. Vedremo il disturbo cromatico ancora più evidente, come di fatto è nella realta. Buon divertimento...
...
esistono due distinte scuole di pensiero. Troviamo
dispositivi basati su portentosi CCD superficiali da milioni
e milioni di pixel per l'acquisizione "one shot" o "three
shot" e i CCD lineari per quella "a scansione". I primi
permettono, come ovvio, anche l'acquisizione di soggetti in
movimento (si possono "scattare" lo stesso tipo di foto
delle fotocamere tradizionali) per i secondi, dal
funzionamento simile ai comuni scanner piani, è
assolutamente necessario che soggetto e fotocamera rimangano
ben fermi per tutto il tempo d'esposizione, normalmente
dell'ordine di alcuni minuti.
Articolo pubblicato su www.digiTANTO.it - per ulteriori informazioni clicca qui |