QUOTE(Michele Volpicella @ Aug 31 2010, 09:38 PM)

Mi scusi, ma come si permette di usare questo tono con una persona adulta che non Lei conosce. Soprattutto nel momento in cui io metto il mio nome e cognome davanti al mondo e lei usa un anonimo nick di comodo!
Il mio nome e cognome si trova su due Experience su questo sito Nital che ci ospita. Di cui uno dedicato ad un aspetto (il colore) di Camera Raw che ha alcuni punti in comune con le problematiche di tone mapping.
Non mi pare di essere tanto misterioso.
QUOTE(Michele Volpicella @ Aug 31 2010, 09:38 PM)

Senza contare che ha torto! forse non ha mai provato a vedere quanto headroom c'è sulle alte luci di un jpg...praticamente zero, anche quando esiste utile informazione sul RAW...vada e faccia una prova pratica per una volta.
Il formato RAW contiene un'immagine lineare che viene elaborata mediante una serie di passaggi (ancora lineari). Dopodichè "addiviene" un normale file TIFF o JPEG con i valori da Lei scelti in fase di conversione (applicazione di compensazione EV o altro). Tale dinamica non è MAI superiore a quella originale. Quello che viene considerato "headroom" in realtà è solo un'informazione che può essere utilizzata per "centrare" più o meno bene l'applicazione degli algoritmi di conversione.
Tanto è vero che le Nikon D3/D700/D300 hanno un esposimetro che "centra" l'esposizione di circa mezzo diaframma in più. Questo perchè il sensore riesce a misurare con precisione anche livelli più vicini alla saturazione. Ma questo non significa che tali sensori "aumentano" la dinamica effettiva, solo che possono "spostarsi" più agevolmente su di essa.
Ovverossia: in fase "lineare" il RAW ha una serie di informazioni di ampiezza X. Quando però tali informazioni addiventano "visibili" la dinamica è quella definita.
Quello che si può scegliere è un fattore di guadagno applicato ai valori lineari. Fattore che può essere utilizzato per modificare le soglie minima e massima di visibilità.
Tanto è vero che i sensori a 12/14 bit vengono sempre decodificati a 14 bit e poi sottocampionati a 12 (se così l'utente imposta la risoluzione in bit). Ossia è fisso anche il rapporto tra "headroom" del fotodiodo e bit di quantizzazione. Questo riduce il rumore di quantizzazione perchè sposta l'errore più a valle nella catena di decodifica.
Quindi un JPEG non ha di per se una dinamica MINORE di una RAW. Il RAW è semplicemente più "recuperabile" o "spostabile" mediante algoritmi di rimappatura e valutazione dei canali con minori informazioni. Ossia, e qui sta la differenza, il RAW, essendo trattato in spazio lineare, consente di elaborare in modo accettabli informazioni sui canali che il JPEG o il TIFF non possono estrarre, in quanto già "bloccate" dalla decodifica, Wb, curva tonale, spazi colore et compagnia cantando.
Il fatto che possa "giostrare" maggiormente con l'esposizione in un RAW è solo dovuto al fatto che applica un guadagno nella fase lineare, cosa che posso gestire meglio rispetto a farlo su un file JPEG o TIFF già convertito su livelli RGB fissi e con spazio colore fisso.
Detto in soldoni, nel RAW posso solo giostrare meglio gli ingredienti perchè non è ancora "cooked", mentre i file JPEG e TIFF sono già "cooked (cotti).
Può utilizzare il convertitore DNG per ottenere un file senza curva tonale (ma visibile) o anche, meglio uno strumento come RawAnalyzer che le mostra il file RAW quando ancora "lineare" per verificare che l'istogramma non è più "largo" di un file TIFF o JPEG. In realtà è anche più "stretto" perchè è lineare e non abbiamo ancora applicato la curva tonale che "amplifica".
Una volta "convertito" il RAW in forma visibile, si ha un file TIFF a 16 bit o un JPEG a 8 bit.
Quello che Lei dice ha senso solo nel caso di JPEG "on-camera" che sono fissati. In quel caso l'algoritmo di conversione NON tiene conto di recovery delle alte e basse luci e salva un file "bloccato" che ovviamente non contiene più informazioni di canale (inteso come canale lineare) da usare per il recupero.
Quello che fa cambiare realmente la "dinamica dell'headroom" (zone a dx e sx dell'istogramma) è lo spazio colore utilizzato per la rimappatura finale. Basta visualizzare in ACR la medesima immagine RAW cambiando spazio colore per notare come uno spazio ampio come ProPhotoRGB fornisca ampie capacità di "recupero" alte e basse luci rispetto ad sRGB (ad esempio).
I fenomeni di banding (posterizzazione) nei file JPEG sono infatti presenti a causa della riduzione dei bit di codifica (8) in uno spazio colore troppo ampio (ma anche sRGB non è esente in certi casi). Per questo, utilizzare un JPEG (e NON posso proprio darle ragione per quanti sforzi faccia) a 8 bit applicato al tone mapping o all'HDR rende difficoltosa proprio l'applicazione del tone mapping stesso tra le 3 immagini JPEG, in quanto il ridotto numero di bit in ingresso per i vari livelli, rende difficile l'interpolazione tra essi (fenomeni di banding).
Ricordo infatti che i 32 bit sono necessari per gestire le interpolazioni in virgola mobile dell'algoritmo HDR. Se i livelli dei 3 JPEG non sono "contigui" è difficile per l'algoritmo offrire una transizione omogenea tra i toni e quindi creare un "tone mapping" omogeneo e di qualità. La stessa Adobe raccomanda di non superare 1 EV tra i file, proprio per evitare fenomeni di banding.
Quindi, per una HDR "finto" dal medesimo RAW posso al massimo consigliare di usare spazi colore ampi e file TIFF a 16 bit.
Fine parte tecnica
Inizio parte personale.
Mi scusi (e mi scuso con gli amici del Forum) per la prolissità. Mi scusi anche se ho urtato la Sua suscettibilità (non è certo mia intenzione su un Forum pubblico).
Sono certo che lei comprenderà perfettamente che le mie frasi di "rimprovero" erano esclusivamente dedicate all'aspetto tecnico della Sua affermazione e non avevano alcunchè di personale verso la Sua persona.
Come del resto sono sicuro della Sua onestà intellettuale in merito alle Sue affermazioni "parruccose"...
Massimo