Aiuto - Cerca - Utenti - Calendario - Salta a fondo pagina - Versione completa  
NikonClub.it Community > NIKON SCHOOL > TECNICHE Fotografiche
gio08
Trovo difficoltà nel rendere il cielo nel modo corretto quando questo è una parte di una foto: è spesso sovraesposto e privo di dettaglio. Come posso risolvere questo problema? Per ottenere colori reali devo sottoesporre troppo, quale è il giusto modo di operare?
danardi
Il cielo è una bella gatta da pelare..
Un polarizzatore può aiutare per rendere i colori un po' più saturi, ma se è una bella giornata di sole e cielo terzo è un bel casino
nippokid (was here)
...usare un filtro neutro digradante.

Se cerchi sul forum, o sfogli la sezione accessori, troverai tutte le informazioni di cui hai bisogno...

bye.

gio08
Ringrazio delle risposte. Quindi il filtro polarizzatore non aiuta quanto un filtro degradante quando ho situazioni in cui l'esposizione deve essere notevolmente diversa tra soggetto e cielo? Il polarizzatore invece da il meglio di se quando non ho troppa differenza di luce, è corretto? Oltre al filtro degradante ci sono altre possibilità?
enrico
una possibilità è l'HDR
nippokid (was here)
Parliamo di condizioni di ripresa in cui il contrasto complessivo della scena (differenziale luci/ombre) eccede le possibilità dinamiche del supporto sensibile.

In fase di ripresa l'unica possibilità, senza poter/voler intervenire sull'illuminazione della scena, è quella di utilizzare un filtro digradante, con l'ovvia limitazione operativa della "linearità" della correzione, efficace in presenza di una linea dell'orizzonte, meno (o del tutto inadatta..) in mancanza di questa e/o con elementi (magari il soggetto stesso..) di "disturbo".

Le alternative implicano necessariamente un intervento di "postproduzione".
Un recupero delle ombre di uno scatto appositamente sottoesposto in fase di "sviluppo" del RAW non è sempre attuabile se il differenziale è troppo ampio.
Si può utilizzare un filtro "digradante digitale", neutro o colorato, che andrà a sovrapporsi al cielo originario. Valgono, grosso modo, le stesse limitazioni "lineari" del filtro ottico, ma con l'utilizzo di maschere di livello si potrà rendere selettiva la sovrapposizione.
Si possono poi "fondere" assieme due o più scatti con esposizione differenziata in funzione di luci ed ombre. Si può fare con l'utilizzo di maschere di livello o con la tecnica dell'HDR.

In tutti questi casi la difficoltà non è tanto nell'esecuzione in sè, quanto nell'ottenere una certa naturalezza del risultato che, a mio gusto, è imprescndibile affinchè si resti in ambito fotografico e non si "scada" verso la computer-grafica.

Ma qui entrano in ballo i gusti e gli intenti personali... smile.gif

bye.

gio08
grazie della spiegazione.
gio08
Ancora un chiarimento, per hdr si intende sia ultilizzare un salvataggio a 16-32bit che comporre una fotografia con due fotografie di esposizioni diverse. Immagino che praticamente sia realizzabile la sola seconda opzione. Corretto? Quindi il consigliio è fare due foto con esposizioni diverse e "fonderle".
enrico
Con l'hdr si possono fare anche parecchi scatti, con incrementi/decrementi di esposizione, naturalmente usando il cavalletto. E questa è la modalità operativa propria del sistema.
Tuttavia si può utilizzare anche un solo scatto in raw, anche se non è proprio la stessa cosa, ma diviene indispensabile nel caso ci siano soggetti in movimento.
Buona giornata
Enrico
enrico
Qualche notizia interessante di tipo storico:
il problema dell'esposizione del cielo è vecchia quanto la fotogafia. Gustave Le Gray eseguiva due scatti, uno per il cielo ed uno per la terra: un HDR ante litteram!
Oltre ad una sua foto, riporto una pagina di un raro manualetto dei primi del 900 "Come il sole dipinge" di Muffone, in cui si parla di una tecnica di "esposizione differenziale" ai tempi in cui "l'otturatore" era costituito dalla mano del fotografo che passava davanti all'obiettivo, scoprendolo e ricoprendolo. E' eccezionale come il movimento andasse fatto nel senso giusto per diminuire l'esposizione del cielo rispetto al resto del paesaggio.
Enrico
gio08
Grazie Enrico, molto interessante il tuo intervento.
Se ho ben capito quindi per limitare il problema è possibile:
1. scattare in raw per avere più bit e quindi più contrasto
2. utilizzare la tecnica dell'hdr
3. utilizzare un filtro digradante
4. intervenire in postprocessing.

ci sono altre possibilità?

Buona gioranta a tutti.
marco
nippokid (was here)
QUOTE
ci sono altre possibilità?


...fotografare a Milano!! dry.gif

biggrin.gif

capannelle
QUOTE(gio08 @ Feb 17 2009, 11:24 AM) *
Grazie Enrico, molto interessante il tuo intervento.
Se ho ben capito quindi per limitare il problema è possibile:
1. scattare in raw per avere più bit e quindi più contrasto
2. utilizzare la tecnica dell'hdr
3. utilizzare un filtro digradante
4. intervenire in postprocessing.

ci sono altre possibilità?
Buona gioranta a tutti.
marco


Scattare in raw, ma non per avere più contrasto, cosa che peggiorerebbe il problema wink.gif

Personalmente per adeguare la luminosità del cielo cerco di essere un po' avaro con l'esposizione in fase di ripresa.
Se la foto è in bianco e nero, applico un filtro arancio in post produzione per scurire il blu e evidenziare le nuvole.
Se non è suffciente utilizzo i livelli di photoshop...

Ciao
Pino
gio08
QUOTE(capannelle @ Feb 17 2009, 11:40 AM) *
Scattare in raw, ma non per avere più contrasto, cosa che peggiorerebbe il problema wink.gif


Puoi meglio spiegarmi questa considerazione. Pensavo che poichè il raw ha quasi il doppio dei bit del jpeg potesse immagazzinare più valori di luminosità e quindi non appiattire i valori estremi.

ciao marco
capannelle
QUOTE(gio08 @ Feb 17 2009, 12:01 PM) *
Puoi meglio spiegarmi questa considerazione. Pensavo che poichè il raw ha quasi il doppio dei bit del jpeg potesse immagazzinare più valori di luminosità e quindi non appiattire i valori estremi.

ciao marco


Infatti hai ragione, il raw contiene più valori di luminosità rispetto al jpg. Inoltre scattando in raw hai più latitudine di posa.

Stai attento a non confondere il concetto di contrasto con il concetto di "informazioni disponibili" all'interno della foto smile.gif

Il problema della differente luminosità delle varie parti della scena non si risolve aumentando il contrasto, ma casomai diminuendolo.

Se aumenti il contrasto avrai il cielo ancora più luminoso e il resto della scena ancora più scuro.

I filtri degradanti servono proprio a questo: a ridurre il contrasto della scena pere farlo rientrare nella gamma dinamica messa a disposizione dal sensore o dalla pellicola!
Massimo.Novi
QUOTE(gio08 @ Feb 17 2009, 11:24 AM) *
...ci sono altre possibilità?
...


Ciao

Si. La più banale. Esporre per il cielo.

Dipende dall'effetto che vuoi ottenere ma anche senza filtri e HDR e roba simile puoi esporre bene per il cielo (spot o anche Matrix verso il cielo) e provare un paio di esposizioni medie e ottenere un buon dettaglio anche nel terreno.

Dipende da "cosa" vuoi rappresentare. Dipende dal contrasto cielo-terra.

Il polarizzatore va bene con cieli non bianchi e con nuvole e con obiettivi non troppo "larghi". Il filtro degradante va bene su panorami e su contrasti di 3-4 valori o più. HDR va bene...quando? Boh!

Saluti
gio08
QUOTE(capannelle @ Feb 17 2009, 12:23 PM) *
Stai attento a non confondere il concetto di contrasto con il concetto di "informazioni disponibili" all'interno della foto smile.gif


chiarissimo, grazie a te e a tutti coloro che hanno risposto. Ora ho le idee un po' più chiare!

marco
Massimo.Novi
QUOTE(capannelle @ Feb 17 2009, 12:23 PM) *
....Inoltre scattando in raw hai più latitudine di posa.
....


Ciao

No. Hai solo la possibilità di recuperare qualcosa dai singoli canali RGB pre-linearizzati.

La latitudine di posa (possibilità di sovraesporre/sottoesporre senza perdere informazioni ) è un concetto limitato alla pellicola. Sul digitale è praticamente inapplicabile a causa della conversione tra registrazione lineare del sensore e conversione per la visione umana.

Nel digitale (che legge in forma lineare la quantità di luce) non vi è la possibilità di sovraesporre/sottoesporre senza perdere qualcosa (a meno che la gamma tonale sia ridotta e quindi si espongano meno livelli di quelli consentiti). Qualcosa si sacrifica. Le ombre hanno meno "livelli" di dettaglio informativo delle alte luci, mentre nella pellicola sono sostanzialmente simmetrici (più o meno).

La pellicola ha infatti una curva di risposta analoga a quella dell'occhio. Il sensore no. Il dettaglio di informazione dipende sì dai bit di codifica dei sensori (12-14) ma un'immagine che ricoprisse tutti i livelli di luce registrabili dal sensore sarebbe analoga sia in RAW che in JPEG (se ovviamente non si applicano curve di contrasto-conversione troppo ripide). Per cui il RAW ha sì una quantità di livelli maggiore rispetto al JPEG (assumiamo ad es. 16bit invece che 8bit al termine della conversione software) ma poichè il JPEG deriva dal RAW per compressione tonale, gli estremi sono sostanzialmente gli stessi. Cambiano i toni intermedi.

Molte differenze tra RAW e JPEG "on camera" sono dovute a curve di contrasto particolarizzate, non alla capacità intrinseca di registrare gli estremi.

La comodità del RAW è un maggiore controllo di quello che si riesce a recuperare/ottimizzare manualmente invece di affidarsi alla conversione automatica della fotocamera scattando in JPEG.

Saluti


capannelle
QUOTE(manovi @ Feb 17 2009, 04:24 PM) *
Ciao

No. Hai solo la possibilità di recuperare qualcosa dai singoli canali RGB pre-linearizzati.

La latitudine di posa (possibilità di sovraesporre/sottoesporre senza perdere informazioni ) è un concetto limitato alla pellicola. Sul digitale è praticamente inapplicabile a causa della conversione tra registrazione lineare del sensore e conversione per la visione umana.

Nel digitale (che legge in forma lineare la quantità di luce) non vi è la possibilità di sovraesporre/sottoesporre senza perdere qualcosa (a meno che la gamma tonale sia ridotta e quindi si espongano meno livelli di quelli consentiti). Qualcosa si sacrifica. Le ombre hanno meno "livelli" di dettaglio informativo delle alte luci, mentre nella pellicola sono sostanzialmente simmetrici (più o meno).

La pellicola ha infatti una curva di risposta analoga a quella dell'occhio. Il sensore no. Il dettaglio di informazione dipende sì dai bit di codifica dei sensori (12-14) ma un'immagine che ricoprisse tutti i livelli di luce registrabili dal sensore sarebbe analoga sia in RAW che in JPEG (se ovviamente non si applicano curve di contrasto-conversione troppo ripide). Per cui il RAW ha sì una quantità di livelli maggiore rispetto al JPEG (assumiamo ad es. 16bit invece che 8bit al termine della conversione software) ma poichè il JPEG deriva dal RAW per compressione tonale, gli estremi sono sostanzialmente gli stessi. Cambiano i toni intermedi.

Molte differenze tra RAW e JPEG "on camera" sono dovute a curve di contrasto particolarizzate, non alla capacità intrinseca di registrare gli estremi.

La comodità del RAW è un maggiore controllo di quello che si riesce a recuperare/ottimizzare manualmente invece di affidarsi alla conversione automatica della fotocamera scattando in JPEG.

Saluti


Sono d'accordo in parte...

la latitudine di posa non è solo la capacità di sopportare sovra o sotto esposizioni, ma la capacità di un qualsiosi supporto di registrazione delle immagini di riprodurre correttamente forti livelli di contrasto della scena.
Sia il raw che il jpg sono in grado di riprodurre bianchi e neri assoluti, però il jpg tenderà a riprodurre come neri o bianchi puri i valori che si avvicinano agli estremi, perdendo tutta una serie di sfumature proprio a causa della sua minore ricchezza di informazioni.

Hanno una propria latitudine di posa le pellicole, i sensori, i monitor e le carte da stampa.
capannelle
Comunque stiamo dicendo più o meno le stesse cose con parole diverse e pertanto penso che ci siamo capiti... wink.gif
Massimo.Novi
QUOTE(capannelle @ Feb 17 2009, 04:45 PM) *
....la capacità di un qualsiosi supporto di registrazione delle immagini di riprodurre correttamente forti livelli di contrasto della scena.
....Hanno una propria latitudine di posa le pellicole, i sensori, i monitor e le carte da stampa.


Ciao

La sostanza tecnica è questa: la "latitudine di posa" propriamente detta è l'insieme delle coppie esposimetriche in grado di riprodurre una corretta densità (o accettabile) nella pellicola. In pratica la capacità della pellicola di accettare sovra o sottoesposizioni intenzionali.

Il fatto corretto da aggiungere è che "dipende anche" dalla gamma dinamica dell'immagine. Ossia un'immagine con gamma dinamica ridotta (senza forti contrasti) accetta "latitudini di posa" maggiori.

I sensori non hanno latitudine di posa in se in quanto le informazioni raccolte dal sensore hanno "livelli" differenti a seconda della zona in cui si trovano (basse o alte luci). La pellicola ha una curva caratteristica logaritmica ed omogenea come l'occhio umano. Il sensore no purtroppo. Per cui spostare i livelli del sensore verso destra (alte luci) aumenta le informazioni sulle sfumature, mentre spostarlo verso sinistra (basse luci) le riduce in modo rilevante.

Analogamente i monitor lavorano molto male fuori dalla gamma ottimale di luminanza (per questo pochi valori di calibrazione errata possono sballare la resa dei bianchi). La regolazione del "gamma" è in fondo una compensazione analoga a quella del sensore.

Le carte fotografiche hanno una latitudine di posa in quanto la loro risposta è analoga a quella delle pellicole.

Comunque siamo sostanzialmente in accordo.

Saluti
capannelle
QUOTE(manovi @ Feb 17 2009, 05:12 PM) *
Ciao

La sostanza tecnica è questa: la "latitudine di posa" propriamente detta è l'insieme delle coppie esposimetriche in grado di riprodurre una corretta densità (o accettabile) nella pellicola. In pratica la capacità della pellicola di accettare sovra o sottoesposizioni intenzionali.

Il fatto corretto da aggiungere è che "dipende anche" dalla gamma dinamica dell'immagine. Ossia un'immagine con gamma dinamica ridotta (senza forti contrasti) accetta "latitudini di posa" maggiori.

I sensori non hanno latitudine di posa in se in quanto le informazioni raccolte dal sensore hanno "livelli" differenti a seconda della zona in cui si trovano (basse o alte luci). La pellicola ha una curva caratteristica logaritmica ed omogenea come l'occhio umano. Il sensore no purtroppo. Per cui spostare i livelli del sensore verso destra (alte luci) aumenta le informazioni sulle sfumature, mentre spostarlo verso sinistra (basse luci) le riduce in modo rilevante.

Analogamente i monitor lavorano molto male fuori dalla gamma ottimale di luminanza (per questo pochi valori di calibrazione errata possono sballare la resa dei bianchi). La regolazione del "gamma" è in fondo una compensazione analoga a quella del sensore.

Le carte fotografiche hanno una latitudine di posa in quanto la loro risposta è analoga a quella delle pellicole.

Comunque siamo sostanzialmente in accordo.

Saluti


Infatti è facile confondere i concetti di "latitudine di posa", "gamma dinamica" e "contrasto"... concetti spesso utilizzati a sproposito e spesso non del tutto chiari anche agli addetti ai lavori!

Comunque anche a me sembra che alla fine stiamo dicendo le stesse cose...
Saluti

Dr.Pat
QUOTE
ci sono altre possibilità?

la migliore: fotografare all'ora giusta, nel verso giusto.
Maclane
QUOTE(Dr.Pat @ Feb 18 2009, 01:47 PM) *
la migliore: fotografare all'ora giusta, nel verso giusto.


guru.gif laugh.gif laugh.gif
Salta a inizio pagina | Per vedere la versione completa del forum Clicca qui.