QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 26 2006, 07:18 PM)

Ripeto ciò che ho detto: di molti sensori a colori esiste l'esatto ed identico corrispondente monocromatico, che si difrerenzia solo per l'assenza dei filtri colorati.
Nei sensori monocromatici si attua l'esatta corrispondenza pixel su pixel; non avviene nessuna interpretazione di matrice. Tutti d'accordo?
Adesso prendi lo stesso sensore, a colori, applica la stessa corrispondenza
e lascia perdere lo schema a matrice colorata. Applica il flat, o le correzioni stabilite dal costruttore, e i pixel filtrati dalle microlenti colorate si riaccenderanno della luce giusta.
Certo, come ho detto, l'ideale è un flat su luce bianca, ma anche su un azzurro o su un rosa non cambia molto: basta applicare un po' di stretching nell'istogramma e riaccendi il giusto punto di bianco (e di nero). E sfido qualunque occhio umano ad accorgersi del risultato.
Enzo
Sono d'accordo che tra un CCD con le microlenti colorate a matrice Bayer ed uno senza non esiste alcuna differenza tecnica A PARTE LE MICROLENTI. Il punto è che quando le microlenti CI SONO, no, il loro effetto NON lo puoi cancellare con un flat fielding. Per fare un'affermazione che può parere bizzarra, se potessi, vorrebbe dire che non potresti usarlo per fare foto a colori. La spiegazione breve è questa: le microlenti colorate SERVONO a differenziare la risposta dei pixel a seconda del colore. Se ad una luce di un dato colore, quale esso sia, il rapporto tra le intensità dei pixel R, G e B è uno determinato, e tu lo spiani con un FF, non starai spianando quello dell'altra porzione di foto dove c'è un particolare di altro colore, per cui ti troverai SEMPRE, con un'immagine da CCD a matrice bayer NON DEMOSAICIZZATA, con in mano qualcosa come il file che ho allegato, che poi viene da questo interessante
tutorial di IRIS, dove si possono trovare varie indicazioni al riguardo.
Se tu potessi, con una semplice divisione per un fattore costante, annullare la diversa sensibilità dei pixel della matrice al colore della luce incidente, è evidente mi pare che NON avresti ALCUNA sensibilità al colore.
E passiamo alla spiegazione dettagliata. Dal momento che questa specifica cosa è interessante per Vincenzo (spero) me e forse Andrea Foschi, proposngo che a meno che qualcuno non la pensi diversamente, se ci saranno ulteriori sviluppi possiamo passare ai PM per non scocciare troppo a chi segue questo thread.
Spiegazione (dimostrazione?) dettagliata: diciamo che tu fai una foto che comprende un cielo azzurro ed un muro rosso, con un sensore colore. Contestualmente, ti fai un bel FF usando quello stesso cielo azzurro. Per semplicità assumiamo che tu non abbia polvere sul sensore, che il tuo obiettivo non vignetti, e che il tuo sensore sia così ben fatto che tutti i pixel abbiano la stessa efficienza e la stessa area efficace. In parole povere, assumiamo che l'UNICA differenza nei conteggi tra i vari pixel sia quella dovuta al diverso filtraggio delle microlenti. Per ripigliare il mio esempio di qualche post fa, sia esso 1:1.23:4.5 (R G B ). Quando dividi per questo FF, nella zona dove c'è il cielo è evidente che i pixel R G e B andranno tutti obbedienti allo stesso valore, ed il loro rapporto lì sarà poi 1:1:1 e tutti i pixel del cielo avranno la stessa intensità (lo stesso tono di grigio) indipendentemente dal fatto che siano R, G o B.
MA tu in un'altra zona della foto hai un muro rosso. I pixel su quel muro riceveranno pochissima luce verde e blu, dato che il muro è rosso. Il loro rapporto d'intensità prima del flat fielding potrebbe essere, che so, 5:1.2:0.9 (R G B ). Adesso tu dividi per il tuo FF ed ottieni 5/1=5, 1.2/1.23=0.97 0.9/4.5=0.2. I pixel della matrice di bayer lì saranno dopo il FF nel rapporto 5:0.97:0.2. Ossia, sulla colonna (o riga che sia) RGRGRG avrai un pixel luminoso (l'R) con vicino uno 5 volte più scuro (il G). Nella colonna GBGB avrai un pixel piuttsto scuro (il G) con vicino uno MOLTO scuro (grosso modo 5 volte più scuro) che è il B.
Se tu non demosaicizzi, questo effetto (guarda un po') di MOSAICO non lo puoi eliminare da tutti i colori convertendo per il rapporto d'intensità di un SINGOLO colore, sia esso blu, verde, rosa o bianco. Se potessi, vorrebbe dire che il rapporto d'intensità dei pixel RGB su di un oggetto rosso nell'inquadratura si differenzia dal rapporto d'intensità su di un oggetto blu SOLO per un fattore COSTANTE attraverso TUTTA l'inquadratura. Ossia non si distinguerebbe AFFATTO.
Assurdo.
Resto in attesa che mi si spieghi dov'è fallace il ragionamento, o inesatte le premesse.
Ciao
L.