QUOTE(Bobtele @ Apr 21 2013, 05:43 PM)

Quanto segue è tratto da Wikipedia, ho evidenziato e numerato alcuni punti interessanti, poi commentati:
"Il modello di profondità truecolor utilizza 24 bit e permette di riprodurre immagini in modo molto fedele alla realtà arrivando a rappresentare 16,7 milioni di colori distinti. Con questa profondità si usano 8 bit per rappresentare il rosso, 8 bit per rappresentare il blu ed 8 bit per rappresentare il verde. I 28 = 256 livelli d'intensità per ciascun canale si combinano per produrre un totale di 16.777.216 colori (256 × 256 × 256). Per la maggior parte delle immagini fotografiche questa profondità consente sfumature ancora più fini di quelle che l'occhio umano riesce a distinguere. Ci sono però immagini fatte apposta per rendere visibili ad occhio nudo le limitazioni del truecolor. Si tratta di grafiche generate in modo completamente artificiale o d'immagini fotografiche in bianco e nero (per cui il truecolor dispone solo di 256 tonalità di grigio) opportunamente alterate.(1)
Verso la fine degli anni novanta furono messi a punto sistemi di computer high-end come alcuni modelli della SGI in grado di visualizzare più di 8 bit per canale (12 o 16). I sistemi di questo genere sono oggi diventati piuttosto rari, perché non sembrano offrire un miglioramento visibile nella visualizzazione dei colori come ci si aspettava all'inizio.(2) I software di generazione ed elaborazione d'immagini in qualità professionale hanno iniziato negli ultimi anni ad impiegare internamente 16 bit per canale. Sebbene gli 8 bit aggiuntivi non siano visibili sullo schermo, essi servono a proteggere la qualità dell'immagine dagli errori di arrotondamento che si accumulano quando vengono effettuate diverse modifiche successive su di una grafica(3), come la regolazione di luminosità e contrasto.
Anche molti scanner d'immagine di alta qualità ed alcune schede video di nuova concezione sono in grado di riconoscere o visualizzare più di 8 bit per canale. Sembra che 10 bit per canale siano sufficienti per raggiungere i limiti assoluti della vista umana in quasi tutte le circostanze.(4)"
(1) Per raggiungere il limite degli 8 bit x canale le immagini devono essere appositamente alterate.
(2) 12 o più bit x canale non sono distinguibili all'occhio umano.
(3) Solo modifiche pesanti, fatte con più passaggi, possono beneficiare di una rappresentazione interna delle immagini a più di 8 bit.
(4) Se 10 bit x canale è il limite assoluto della visione umana, 8 bit è poi così male?
No, non è così male: rientra nel mio esempio di una (buona) compatta, che come vedi c'entrava eccome: si possono fare foto eccezionali senza bisogno dello "stato dell'arte" a livello fotocamera, ottica, software, algoritmi, elaborazioni e compagnia. Questo francamente mi sembra lo scoperta dell'acqua calda. Altro è dire "è un errore scattare solo in RAW". E' necessario comprare un obiettivo migliore del proprio, più nitido a tutt'apertura, o con meno distorsione o che so io? Naturalmente no, le foto vengono benissimo ugualmente. Altro è dire "è un errore comprare un obiettivo migliore"...
E non è nemmeno vero che tu sia "obbligato" a perderci del tempo: se scatti in RAW ma arrivato a casa sei colto da pigrizia fulminante e non hai proprio più voglia di farci nulla, basta caricare un preset adatto (tutti i raw converter ne hanno diversi, per non parlare di quelli Nikon che leggono direttamente quello impostato on-camera) e convertirle in batch, et voilà, in due click hai i tuoi jpg pronti da stampare (e di qualità anche migliore di quelli on-camera per l'algoritmo di conversione più avanzato utilizzato: quelli della fotocamera sono fermi a quando è uscito il modello). Viceversa se scatti solo in jpg e dopo devi fare delle modifiche che eccedono la quantità d'informazioni presenti in quel formato, sei a piedi.
Nel più è compreso il meno, ma nel meno non è compreso il più...

Federico