Rikj
Nov 25 2004, 02:25 PM
Salve a tutti

.
Mi scuso già da subito, se questo argomento è stato trattato, ma con il motore di ricerca nn ho trovato niente...
Cmq, sn indeciso tra il 12-24 DX ed il 17-35

. Il primo lo potrei usare sl sulla D70, mentre il secondo, visto che nn è "G", lo potrei mettere anche sulla F3...
Il mio dubbio, è sull'angolo di immagine che ricropono i due obiettivi, con il 12-24, avrei un angolo di immagine pari a "18-36", mentre con il 17-35, avrei un angolo di immagine pari a "25-52"... quindi, rispetto al 18-70, guadagnerei sl in grandangolo (oltre naturalmente alla qualità).
Vale la pena prendere il 17-35 avendo già un 18-70 (nn prendete in considerazione la qualità, ma l'angolo di immagine che ricopro) piuttosto che il 12-24?
giannizadra
Nov 25 2004, 05:23 PM
Ti saluto, Riki.
Anch'io uso digitale e pellicola, ma i nostri due casi mi sembrano diversi. Quando ho preso la D70 avevo già il 14 e il 17-35 (scatto moltissimo con i grandangoli). Ho acquistato la digitale senza il 18-70 , e il 17-35 (splendido) mi funge da ottica normale.
Se non mi fossi ritrovato in casa il 14, credo che avrei dovuto acquistare, prima o poi, il 12-24 Dx , ottimo vetro inutilizzabile però col 24x36. E' quanto farei se fossi in te, rinviando la sostituzione del 18-70 del kit. A meno che tu non riesca a trovare un 14, magari usato... Molto dipende da quanto usi i grandangoli, e quanto ritieni di usare la F3. Per il solo digitale, il migliore sostituto del 18-70 sarebbe (come focale) il 17-55 Dx . Per entrambi i formati: 14, 17-35 e 28-70.
Rikj
Nov 25 2004, 05:41 PM
Con il digitale, la F3 la uso sempre meno...
Quindi potrei fare, per la F3: 20mm e 28mm, mentre per la D70 il 12-24...
Penso che così va bene, o no?
giannizadra
Nov 25 2004, 06:03 PM
Mi sembra una soluzione logica, se hai già il 28; alrimenti potresti fare, fermo restando il 12-24, 20 e 35 ( che sulla D70 ti farebbe da normale) . Con un 70-200 o un 80-200 (se non ce l'hai già) potresti chiudere il cerchio di ottiche al top, usando il 18-70 come ottica da corsa..
Rikj
Nov 25 2004, 06:13 PM
Tnx, opterò per la scelta, 20mm, 28mm e 12-24....un 35 l'ho...nn AI ma l'ho

, lo userò sulla F3...
Le feste si avvicinano...ed anche il 12-24

...
Grazie ancora, ciao.
morgan
Nov 25 2004, 06:32 PM
QUOTE (zadragianluigi@virgilio.it @ Nov 25 2004, 07:03 PM) |
Mi sembra una soluzione logica, se hai già il 28; alrimenti potresti fare, fermo restando il 12-24, 20 e 35 ( che sulla D70 ti farebbe da normale) . Con un 70-200 o un 80-200 (se non ce l'hai già) potresti chiudere il cerchio di ottiche al top, usando il 18-70 come ottica da corsa.. |
Utilizzo da diversi anni l'AF-S 17-35 sulla F5 e da qualche tempo anche sulla D100. Sono più che soddisfatto delle sue prestazioni, con ambedue le reflex, anche se essendo un appassionato di fotografia paesaggistica, e volendo avere a disposizione un angolo di campo maggiore, ho da poco acquistato il 12-24, del quale però non sono in grado di fornirvi le mie impressioni, in quanto non ho avuto ancora modo di provarlo.
lucazaffiro
Nov 26 2004, 01:17 AM
come vedete dalla mia firma ho rinunciato al 18-70 sostituendolo col 24-120 per avere un vetro ancora leggero ma molto versatile
sui ritratti con l'85 non ho voluto scendere a nessun compromesso sto investendo non pochi soldi e lo stofacendo perchè grazie a dio le ottiche non invecchiano velocemente e conservano inalterato il valore nel tempo.
stavo per lanciarmi nell'acquisto dell'indiscusso 12-24 dx quando mi sono venuti i seguenti dubbi: considerando che all'80% tra 2 o tre anni il digitale passerà al formato 1:1 cosa ci faremo allora col 12-24? non è meglio un 17 -35 di cui tutti parlano bene e che pur costando un occhio col prossimo corpo (sono certo che quando uscira la d95 ... 1:1 non credo che chi avrà investito miglioni in ottiche si metta a risparmiare sul corpo..
certo voi mi direte ma in questi 2 o 3 anni come faccio un grand'angolo spinto? non so , magari con un fisaso 14 2.8 che non essendo solo per digitali otra essere piu rivendibile.. cosa ne pensate? in piu il 17-35 ora come ora è l'ideale per avere un ottica di qualità che da un discreto grandangolo (24) e un buon standard (52)
un altro dubbio non è che pero' il 17-35 non erssendo nato per il digitale rende male sulla d 70 rispetto alla serie DX ? mi sembra che ci siano dei problemi con le ottiche grandangolo non spec per digitale usate sul digitale
mi date un parere?
giannizadra
Nov 26 2004, 09:43 AM
Caro Luca, io mi ritrovo esattamente nel caso che hai descritto: usando il doppio formato i miei grandangoli sono il 14 ( che ho trovato usato men che nuovo ) e 17-35 , che considero eccezionale sia su digitale che su pellicola.
Credo che il formato Dx durerà a lungo, e che i problemi dell'uso di ottiche progettate per il 24x36 col sensore riguardino essenzialmente i bordi dell'immagine. Ma i bordi il sensore non li utilizza....
Ritengo che il problema si porrà - per i grandangoli nati per la pellicola- proprio con sensori 24x36, e che allora sarà necessario ricorrere a ottiche progettate ad hoc. Penso che le probabilità di vita immortale dei miei grandangoli non siano diverse da quelle del 12-24.
E non credo che sparirà il Dx : anche i concorrenti di Nikon stanno sfornando ottiche per il formato ridotto...
Rikj
Nov 26 2004, 10:01 AM
Scusa Gianni, forse ti chiedo troppo, ma nn è che potresti postare una foto fatta con il 17-35 a 17mm? Sempre se ne hai voglia naturalmente

e ciao.
giannizadra
Nov 26 2004, 10:47 AM
Ti posto un piccolo paesaggio. Naturalmente il nef originale è molto meglio...
Rikj
Nov 26 2004, 10:52 AM
Grazie...sto ripensando alla soluzione che hai detto tu...del 17-35 e 14mm...
Grazie ancora.
sergiobutta
Nov 26 2004, 12:49 PM
QUOTE (Rikj @ Nov 25 2004, 05:41 PM) |
Con il digitale, la F3 la uso sempre meno...
Quindi potrei fare, per la F3: 20mm e 28mm, mentre per la D70 il 12-24...
Penso che così va bene, o no?
|
Non ho capito se possiedi già il 20 ed il 28. Se così non fosse, ti consiglierei di prender in considerazione anche il 18- 35, che è, credimi, veramente eccezionale, al di là di un costo veramente accessibile. Io, ho risolto il problema in maniera drastica : 12-24 dx per la D100, 18-35 sulla F5. I grandangoli sono coperti, anche se con un pò di ridondanza.
Rikj
Nov 26 2004, 12:55 PM
QUOTE (sergiobutta @ Nov 26 2004, 12:49 PM) |
QUOTE (Rikj @ Nov 25 2004, 05:41 PM) | Con il digitale, la F3 la uso sempre meno...
Quindi potrei fare, per la F3: 20mm e 28mm, mentre per la D70 il 12-24...
Penso che così va bene, o no?
|
Non ho capito se possiedi già il 20 ed il 28. Se così non fosse, ti consiglierei di prender in considerazione anche il 18- 35, che è, credimi, veramente eccezionale, al di là di un costo veramente accessibile. Io, ho risolto il problema in maniera drastica : 12-24 dx per la D100, 18-35 sulla F5. I grandangoli sono coperti, anche se con un pò di ridondanza. |
Salve...
Il 28mm l'ho, il 20mm a seconda della scelta che farò, lo prenderò o meno...
Cmq, ho già ricambiato idea (voi direte, è scemo questo
), la nikon, è stata sempre famosa per la sua "compatibilità" Corpi-Ottiche, quindi penso, che in futuro l'obiettivo dx sarà pienamente compatibile (con i corpi digitali), e poi questo "fattore di moltiplicazione" nn è che sia così antipatico
...
matteoganora
Nov 26 2004, 04:40 PM
QUOTE (lucazaffiro @ Nov 26 2004, 01:17 AM) |
considerando che all'80% tra 2 o tre anni il digitale passerà al formato 1:1 cosa ci faremo allora col 12-24? |
Mi lascia stupito la sicurezza di questa affermazione...
Personalmte credo che fra un paio di anni (o meglio tre) uscirà forse una DSLR full format di Nikon... ma si attesterà sui prezzi dell'attuale Canon 1Ds.
Ora, in ambito professionale investimenti di quel genere possono essere leciti, ma per quanto riguarda la fascia amatoriale/prosumer, credo che il formato DX avrà lunga vita!
Inoltre, l'uscita di una D2x oggi, con tutto ciò che di meglio si possa desiderare da una Reflex digitale, possa far intravedere una politica che difficilmente abbandonerà il formato DX.
Marco Negri
Nov 26 2004, 04:46 PM
Matteo, ancora di più.
Da sempre la strategia degli omini del “sol levante” è quella di mantenere il più possibile lo standard qualitativo dei propri prodotti.
Una carrellata di motivazioni dettate dal tempo…….
Ritengo che il formato DX abbia raggiunto oramai lo standard, anche perchè, chi assicura che il full format abbia una resa così grande sul digitale?
E’ tutto!
Un saluto, Marco
lancer
Nov 27 2004, 04:56 PM
Siete proprio sicuri che non valga la pena di tenere in considerazione l'umile 18/70 del kit ?
L'avete provato bene?
ciao a tutti
sergiobutta
Nov 27 2004, 07:29 PM
QUOTE (Marco Negri @ Nov 26 2004, 04:46 PM) |
Matteo, ancora di più.
Da sempre la strategia degli omini del “sol levante” è quella di mantenere il più possibile lo standard qualitativo dei propri prodotti. Una carrellata di motivazioni dettate dal tempo…….
Ritengo che il formato DX abbia raggiunto oramai lo standard, anche perchè, chi assicura che il full format abbia una resa così grande sul digitale? E’ tutto!
Un saluto, Marco |
Inoltre, leggendo un articolo di cui ho parlato in altro post, in cui si parla della frequenza di campionamento necessaria per ottenere risoluzioni l/mm sempre migliori e vicino alla pellicola ed a quella restituita dalle migliori ottiche, credo di aver capito che più è grande il sensore, più alta deve essere tale frequenza. Se sbaglio, correggetemi.
Marco Negri
Nov 27 2004, 07:58 PM
QUOTE (lancer @ Nov 27 2004, 04:56 PM) |
Siete proprio sicuri che non valga la pena di tenere in considerazione l'umile 18/70 del kit ? L'avete provato bene? |
Ciao Lancer.
Il 18-70 è, ad oggi un ottica in ottimo rapporto qualità prezzo, valida ai bassi stop, definita ed indiscutibilmente incisa verso gli f di chiusura massima.
Ho avuto modo di provarlo attraverso i validi consigli di Matteo Ganora, ascoltando i suoi preziosi consigli, valutato la qualità riproposta da tale ottica;
posso garantire un vetro che difficilmente non sarà on-board alla tua DSLR.
Un saluto, Marco
Lambretta S
Nov 27 2004, 08:07 PM
La frequenza di campionamento con la dimensione del sensore non c'entra... mi dispiace Sergio... il Teorema di Shannon o Legge di Nyquist sul campionamento recita che la massima frequenza riproducibile è inferiore alla metà della frequenza di campionamento... tant'è che il filtro low-pass al niobato di litio taglia appunto le frequenze della luce che vanno oltre le frequenze riproducibili (filtro anti aliasing) proprio per evitare che queste rientrando nel processo di quantizzazione vadano a creare disturbo alle frequenze utili...
Le peculiarità della dimensione del sensore più che altro è relativa alla grandezza del singolo pixel... vds sensori di piccola dimensione superficiale con elevato numero di pixel che generano facilmente rumore di quantizzazione... al contrario sensori grandi ma con un numero relativamente basso di pixel generano cali di nitidezza con i grandangolari per via della diffusione di luce che deborda da un pixel all'altro e la comparsa del purplee fringing (margine viola)...
Le pellicole non risolvono... tutte! Un numero maggiore di linee del sensore... quelle che lo fanno sono relativamente poche ovvero le più sensibili e con grana fine a esempio la Velvia o la Provia... in pratica ammesso e non concesso che la dimensione del singolo pixel non creasse dei problemi vds sopra... potremmo aumentare il numero dei pixel utilizzandone un tipo molto piccolo però otterremo un'immagine rumorosissima... d'altra parte le pellicole a bassa sensibilità non sono così facili da usare... ergo non si può avere la botte piena e la moglie ubriaca... per ora un sensore DX regge bene il confronto con la maggior parte delle 200 Iso e anche qualche 100 Iso da battaglia...
sergiobutta
Nov 27 2004, 08:57 PM
Ciao, Stefano, ero certo di un tuo intervento, conoscendo la tua competenza su questo argomento. Sempre riferito a quanto ho letto, ho visto che per calcolare il potere risolvente necessario ad un sensore per memorizzare i dati provenienti da un obiettivo da 60 l/mm, ipotizzando, un 24X36, veniva fatta una operazione del tipo :120(linea nera+linea bianca) X 36 per calcolare le linee in orizzontale e 120 X 24 per le linee, in verticale, per un totale di 12.441.600, senza aver ancora applicato il teorema di Nyquist. Assimilando le linee ai pixel, mi era venuta questa convinzione, quindi ritenevo che, restringendo l'area sulla quale si registrava, si potesse avere una necessità di pixel minore. Quale è l'errore ?
Lambretta S
Nov 27 2004, 10:09 PM
QUOTE (sergiobutta @ Nov 27 2004, 08:57 PM) |
Ciao, Stefano, ero certo di un tuo intervento, conoscendo la tua competenza su questo argomento. Sempre riferito a quanto ho letto, ho visto che per calcolare il potere risolvente necessario ad un sensore per memorizzare i dati provenienti da un obiettivo da 60 l/mm, ipotizzando, un 24X36, veniva fatta una operazione del tipo :120(linea nera+linea bianca) X 36 per calcolare le linee in orizzontale e 120 X 24 per le linee, in verticale, per un totale di 12.441.600, senza aver ancora applicato il teorema di Nyquist. Assimilando le linee ai pixel, mi era venuta questa convinzione, quindi ritenevo che, restringendo l'area sulla quale si registrava, si potesse avere una necessità di pixel minore. Quale è l'errore ? |
Boh mica l'ho capito il tuo ragionamento... comunque per intenderci nelle frequenze audio se vogliamo avere una banda compresa tra 0 e 10000 Hertz dobbiamo usare una frequenza di campionamento almeno superiore al doppio della frequenza massima riproducibile p. es. 20010 hertz...
Analogamente se vogliamo campionare fino a una determinata frequenza della luce dobbiamo usare una frequenza di campionamento superiore al doppio della massima frequenza della luce che il sensore è in grado di digitalizzare, tutto ciò che è sopra a questo limite va eliminato e a questo penza il filtro passa basso ovvero un filtro che fa passare solo le frequenze inferiori alla massima frequenza riproducibile...
Le linee per mm sono legate al potere risolvente dell'obiettivo e del supporto di memorizzazione... a es. una pellicola ad alta sensibilità usata con un obiettivo ad alto potere risolvente non gli consente di esprimere tutte le sue potenzialità... questo è un particolare molto importante! Quindi in teoria per avere un alto potere risolvente con il sensore dovremmo avere pixel molto piccoli e vicini tra loro... come i grani di alogenuro d'argento della Velvia che essendo molto piccoli aggregandosi riescono a stare "Vicini... vicini" ovviamente però avremo un'immagine rumorosa... ecco perché a esempio nei test del trasferimento della modulazione di frequenza (MTF ndr) le misure avvengono in aria e non su pellicola... proprio per evitare che il test di risolvenza venga falsato dalla pellicola... per inciso (che non c'entra niente con gli obiettivi) la sola misurazione del potere risolvente di un'ottica non fornisce un risultato definitivo in quanto ad alti valori di risolvenza possono combinarsi bassi valori di microcontrasto... questo è importante perché non è che uno tutti i giorni fotografiamo il particolare di un francobollo al R.R di 5:1 con la Technical Pan... ma questa è una storia vecchia solo gli ingenui sprovveduti dell'ultima ora danno un importanza eccessiva al test MTF così com'è... a esempio dai test MTF risulta che il 50 f/1,8 è uguale se non migliore del 50 f/1,4... ovviamente senza entrare nel merito e basando eventuali confronti solo su questo aspetto si riesce anche a credere che sia vero... ci vuole una certa esperienza per distinguere i carciofi dagli asparagi e purtroppo in giro ci sono tanti che non ci riescono... io resto dell'idea che alla fine i veri valori escono fuori... ho sempre letto i test MTF per quello che sono ovvero un esercizio di stile senza però lasciarmi influenzare nelle "MIE" prove pratiche e sebbene sappia cosa sto facendo... mi è sempre piaciuto vestirmi da fesso... e dare sempre a me la colpa di un eventuale insuccesso mai all'attrezzatura che poverina è l'ultima ad avere colpa... per chi vuole intendere...
sergiobutta
Nov 27 2004, 10:38 PM
E allora, domanda : per registrare su pixel più piccoli, nella trasformazione analogico digitale, non dobbiamo aumentare la frequenza di campionamento, in maniera da cogliere anche il minimo contrasto ?
Al_fa
Nov 27 2004, 11:50 PM
QUOTE (lambretta @ Nov 27 2004, 11:09 PM) |
Analogamente se vogliamo campionare fino a una determinata frequenza della luce dobbiamo usare una frequenza di campionamento superiore al doppio della massima frequenza della luce che il sensore è in grado di digitalizzare, tutto ciò che è sopra a questo limite va eliminato e a questo penza il filtro passa basso ovvero un filtro che fa passare solo le frequenze inferiori alla massima frequenza riproducibile... |
Maggiore è la frequenza di campionamento e maggiore è la verosimiglianza tra il campionamento ed il dato reale campionato. Il teorema di Nysquist ci dice soltanto che per avere una banda X dobbiamo campionare almeno 2X. Questo non significa che se campiono a frequenza più alta è peggio (e quindi devo campionare di meno).....anzi. Dovremmo evitare di confondere la frequenza di campionamento con la frequenza delle onde elettromagnetiche incidenti (la luce).
Credo (ma non ne sono certo, non essendo un esperto,...) che i filtri posti davanti ai nostro sensori ottici siano lì per evitare dei disturbi sui CMOS usati nel campionamento. La luce a frequenza più alta è anche a più alta energia, per cui eccitano maggiormente gli elettroni una volta che incide sul sensore, portando, immagino, a delle non linearità nella risposta dei dispositivi che sono invece progettati e tarati per avere una risposta lineare sul campo della luce visibile (ecco perchè, per esempio, la foto IR è più problematica che con una pellicola IR....).
Lambretta S
Nov 27 2004, 11:55 PM
QUOTE (sergiobutta @ Nov 27 2004, 10:38 PM) |
E allora, domanda : per registrare su pixel più piccoli, nella trasformazione analogico digitale, non dobbiamo aumentare la frequenza di campionamento, in maniera da cogliere anche il minimo contrasto ? |
Sergio a prescindere che utilizzando una fotocamera digitale la frequenza di campionamento non è una cosa che l'utente può regolare... come invece può fare a esempio registrando del segnale audio su un Personal Computer... in ogni caso se anche si potesse fare la frequenza di campionamento non c'entra niente con la qualità dell'immagine intesa come potere risolvente o anche contrasto... la frequenza di campionamento agisce sulle frequenze della luce utili nel processo di quantizzazione... per intenderci a monte della trasformazione di un segnale luminoso reale in numerico... il potere risolvente ovvero il numero di linee per millimetro che poi riusciremo a vedere sulla nostra immagine è influenzato da altri fattori specificati sopra indipendenti dalla frequenza di campionamento che ribadisco non agisce sul singolo pixel ma sulle frequenze della luce in gioco... e ancora una volta dal supporto di memorizzazione pellicola o sensore... ora per intenderci un alto potere risolvente consente di discriminare a esempio 100 linee per millimetro su particolari pellicole a esempio Velvia che ormai è usata abitualmente come termine di paragone... però i nostri occhi non riescono a vedere queste 100 linee sull'originale che a noi appare come una chiazza scura... per rilevarle bisogna ingrandire l'originale stampandolo nel caso di una negativa o proiettandolo nel caso di una dia... quindi possiamo dire che il potere risolvente è un dato virtuale che se non rapportato su un campione finito a esempio una stampa pro ha poco senso... l'esasperazione di questo dato ovvero il test MTF non tiene conto del già cennato microcontrasto... ovvero di un fattore determinante ai fini della qualità dell'immagine finale... che non essendo misurabile oggettivamente in quanto pura sensazione visiva... oltremodo soggettiva poiché influenzata a esempio dal nostro modo di percepire i colori specialmente nelle transizioni tra colori chiari e chiari o chiari e scuri e scuri e scuri.... mentre le variabili in gioco su una immagine digitale che presuppone l'interpolazione dei dati di luminanza percepiti dalla matrice di pixel di fatto si differenziano per il diverso comportamento del sensore rispetto alla pellicola, in quanto i grani di alogenuro d'argento sono mobili e nel processo fotochimico una parte di essi si aggrega e una parte invece va persa con lo sviluppo... mentre i pixel restano al loro posto sempre e comunque... della serie è come confrontare le patate con il gioco del golf sono entrambe cose che hanno a che fare con la terra... ma le similitudini finiscono qui...
Lambretta S
Nov 28 2004, 12:56 AM
QUOTE (Al_fa @ Nov 27 2004, 11:50 PM) |
Maggiore è la frequenza di campionamento e maggiore è la verosimiglianza tra il campionamento ed il dato reale campionato. Il teorema di Nysquist ci dice soltanto che per avere una banda X dobbiamo campionare almeno 2X. Questo non significa che se campiono a frequenza più alta è peggio (e quindi devo campionare di meno).....anzi. Dovremmo evitare di confondere la frequenza di campionamento con la frequenza delle onde elettromagnetiche incidenti (la luce).
Credo (ma non ne sono certo, non essendo un esperto,...) che i filtri posti davanti ai nostro sensori ottici siano lì per evitare dei disturbi sui CMOS usati nel campionamento. La luce a frequenza più alta è anche a più alta energia, per cui eccitano maggiormente gli elettroni una volta che incide sul sensore, portando, immagino, a delle non linearità nella risposta dei dispositivi che sono invece progettati e tarati per avere una risposta lineare sul campo della luce visibile (ecco perchè, per esempio, la foto IR è più problematica che con una pellicola IR....). |
Scusa non ho capito la puntualizzazione dove è scritto che usare una frequenza di campionamento più alta è peggio?
Io ho scritto che per ottenere una determinata frequenza massima... era quindi sottointeso il concetto di banda passante... bisogna campionare con una frequenza superiore al doppio di quella che vogliamo ottenere... non che campionare a una frequenza più alta è peggio...
Il filtro al niobato di litio si incarica appunto di tagliare le frequenze più alte di quella massima... ovvero svolge una funzione di anti aliasing per impedire che queste frequenze rientrando nel processo di quantizzazione disturbino le frequenze utili della banda passante... che ne so taglierà gli ultravioletti... i raggi x... i raggi gamma... boh tanto non li vediamo lo stesso...
Al_fa
Nov 28 2004, 01:17 AM
Mi sembrava che sostenessi, forse ho letto male, che tutto ciò che è oltre il doppio della banda passante vada eliminato e quindi si usa un filtro passa basso all'ingresso del sensore (quello al niobato di litio).
Ma la frequenza di campionamento non c'entra con la frequenza delle onde incidenti per cui è fatto quel filtro. Credo che le onde ad alta frequenza possano generare un segnale non lineare, non utile per l'elaborazione dell'immagine e quindi vadano eliminate.
La digitalizzazione dei sensori per le macchine fotografiche digitali è fatta nello spazio ed il Teorema di Nysquist va applicato per capire, data la dimensione di un chip, che dimensione devono avere i singoli CMOS per garantire una certa riproduzione del reale (e quindi una certa risoluzione).
Lambretta S
Nov 28 2004, 02:18 AM
QUOTE (Al_fa @ Nov 28 2004, 01:17 AM) |
Mi sembrava che sostenessi, forse ho letto male, che tutto ciò che è oltre il doppio della banda passante vada eliminato e quindi si usa un filtro passa basso all'ingresso del sensore (quello al niobato di litio). |
No hai capito benissimo solo che questo non vuol dire che campionando a una frequenza di campionamento più alta è peggio...
QUOTE (Al_fa @ Nov 28 2004, 01:17 AM) |
Ma la frequenza di campionamento non c'entra con la frequenza delle onde incidenti per cui è fatto quel filtro. Credo che le onde ad alta frequenza possano generare un segnale non lineare, non utile per l'elaborazione dell'immagine e quindi vadano eliminate. |
Stai facendo una confusione incredibile... come la frequenza di campionamento non c'entra nulla! E' proprio in virtù della frequenza di campionamento scelta che si ottiene una banda passante più o meno ampia...
QUOTE (Al_fa @ Nov 28 2004, 01:17 AM) |
La digitalizzazione dei sensori per le macchine fotografiche digitali è fatta nello spazio ed il Teorema di Nysquist va applicato per capire, data la dimensione di un chip, che dimensione devono avere i singoli CMOS per garantire una certa riproduzione del reale (e quindi una certa risoluzione). |
Questa poi non ha proprio ne capo ne coda... il teorema del campionamento o legge di Nyquist o teorema di shannon dice che la massima frequenza riproducibile è inferiore alla metà della frequenza di campionamento... quindi se vuoi ottenere una determinata banda passante deve usare una frequenza di campionamento adatta allo scopo... per evitare che le frequenze spurie ovvero quelle che vanno oltre la massima frequenza riproducibile rientrino nel processo di quantizzazione creando disturbi alle frequenze utili si usa un filtro anti aliasing che si incarica appunto di tagliare le frequenze più alte di quella massima campionabile... il filtro low pass (passa basso) appunto al niobato di litio posto davanti al sensore CCD e non Cmos delle DSLR Nikon...
Scusa ma visto che dici di non essere esperto della cosa ma che scrivi a fare? Lascia perdere che fai più bella figura... e soprattutto non fai perdere tempo alla gente a leggerti e a me a risponderti...
Obiettivamente la faccenda sta diventando noiosa... mi sta passando la voglia di perdere tempo per cercare di spiegare le cose visti i risultati ottenuti... fate come meglio ritenete opportuno a me francamente da adesso in poi non interessa più nulla...
sergiobutta
Nov 28 2004, 09:07 AM
Scusate, il discorso è diventato troppo tecnico per le mie modeste conoscenze. Faccio solo una domanda sintetica : volendo migliorare il potere risolvente memorizzabile, è necessario aumentare le frequenze di campionamento ?
bergat@tiscali.it
Nov 28 2004, 09:20 AM
Sergio come ingegnere ti dico che la risposta alla tua domanda è SI.
E chiaro però che intervengono altri problemi:
Intermodulazione
Interferenze
Rumore termico
ecc
Problemi che con l'avanzamento della tecnologia tendono a ridursi.
O meglio voglio dire che a parità di disturbi indesiderati le caratteristiche col tempo, causa tecnologia, migliorano.
Saluti
Bergat
sergiobutta
Nov 28 2004, 09:30 AM
QUOTE (bergat@tiscali.it @ Nov 28 2004, 09:20 AM) |
Sergio come ingegnere ti dico che la risposta alla tua domanda è SI.
E chiaro però che intervengono altri problemi:
Intermodulazione Interferenze Rumore termico ecc
Problemi che con l'avanzamento della tecnologia tendono a ridursi.
O meglio voglio dire che a parità di disturbi indesiderati le caratteristiche col tempo, causa tecnologia, migliorano.
Saluti
Bergat |
Se è come dici, e ti credo, vuol dire che non mi sono proprio rinc...to. A questo punto altra domanda facile : più è grande la dimensione del sensore (a parità di dimensione dei pixel), più si deve salire con le frequenze di campionamento?
sergiobutta
Nov 28 2004, 09:59 AM
A proposito ... non ho mai parlato di frequenze selezionabili, ma di frequenze necessarie. Motivo dell'intervento è comprendere se un sensore APS, richiede frequenze di campionamento diverse da un full frame.
Al_fa
Nov 28 2004, 11:30 AM

lambretta
Non mi ritengo esperto ma i miei studi certi argomenti me le hanno fatti affrontare. Ribadisco che il campionamento dei sensori delle macchine fotografiche e la digitalizzazione (chiamala anche quantizzazione se ti aggrada, anche se i quanti poverini poco c'entrano...) è innazitutto nello spazio. Che ogni sensore/pixel da una riposta in tensione ad una curva/picco di intensità luminosa (i fononi incidenti aumentano gli stati energetici degli elettroni sul sensore, li fanno salire su livelli energetici superiori cambiando quindi la loro risposta quando sollecitati da una tensione o corrente). In funzione della lunghezza d'onda si ha una diversa risposta, possibilmente con una funzione di trasferimento lineare su tutto la banda possibile utilizzata dal dispositivo. POI avviene la digitalizzazione di questo segnale continuo (con quello che viene detto A/DC, analog to digital converter). Viene associato ad ogni "livello" del segnale un numero ovvero un "colore", a questa stringa di 01 si danno anche le coordinate (per indicare quale sensore è e quindi quale pixel). Cioè si è passati alla discretizzazione del segnale dei sensori che è la risposta ai raggi luminosi.
Applicare il Teorema di Nysquist alla frequenza dell'onda elettromagnetica entrante (fonone) e sostenere che le frequenze più alte "non le si vuole perchè sono al di fuori del doppio della banda" è un'affermazione un pò fuorviante. I filtri servono per isolare il visibile, che è quello che interessa in fotografia e dare ai sensori una risposta lineare senza i disturbi che le onde ad alta frequenza potrebbero generare (proprio perchè, essendo ad alta energia, ecciterebbero gli elettroni in maniera che non ci interessa).
Forse non sarei dovuto intervenire..........
Sergio, più sono piccoli i singoli sensori CMOS (i pixels) e maggiore è la risoluzione. Infatti a pari dimensioni dell'elemento ricevente ci starebbero dentro più pixels, ovvero la "frequenza di campionamento nello spazio" è maggiore. Più grande è l'elemento ricevente e maggiore è la mole di dati da elaborare, ma non la frequenza di campionamento dei convertitori ADC che ricevono i segnali dei sensori. Aumentando quella frequenza si migliora "solo" la resa cromatica ovvero la gamma di colori che si possono ripsodurre.
Un sensore full frame richiede una capacità di conversione in digitale, un'elettronica molto più massiccia di un APS (se i pixels rimangono delle stesse dimensioni) semplicemente perchè ci sono più pixels (il sensore è più grande).
Lambretta S
Nov 28 2004, 01:16 PM
Per Sergio nessuno ha scritto che ti sei rin****to... come al solito te la canti e te la suoni alla maniera tua fai le domande e pretendi che la gente ti risponda come vuoi tu, allora evita di fare domande se sei convinto di quello che scrivi e restiamo tutti più felici... l'argomento è molto nebuloso ed è facile saltare a conclusioni che però non rispecchiano la realtà delle cose, per questo stavo cercando di spiegarti che il potere risolvente è legato alla dimensione del pixel che ovviamente più piccolo è... e più risolve ovviamente con annessi e connessi già evidenziati... mentre invece la frequenza di campionamento influisce sulla gamma di colori riproducibili e non sulla risolvenza... poichè la discussione è divagata grazie agli illustri interventi che mi hanno preceduto ti segnalo un link dove vengono trattati gli aspetti tecnici relativi ai CCD nell'uso in astronomia in modo semplice e abbastanza completo, alcuni aspetti possono però essere utili per capire come funziona un CCD montato su una DSLR... in sostanza se ti vuoi fare un'idea più completa ma soprattutto esatta ci trovi parecchi spunti che poi potrai ampliare se lo ritieni opportuno... poi se invece sei convinto che aumentando la frequenza di campionamento aumenta il potere risolvente allora fai come meglio credi... la dimensione del sensore influisce sulla dimensione dei singoli pixel... tanto per dirne una il sensore dell D2H ha la stessa superficie dei sensori della D70 e della D100 con 4 milioni di pixel in luogo di 6 non mi risulta usi una frequenza di campionamento diversa... comunque questo è un aspetto che si può verificare con calma...
Le camere CCD (acronimo di Charge Coupled Device, Dispositivo ad Accoppiamento di Carica)Ovviamente il dottor AL FA non ha mai sentito parlare di processo di quantizzazione... non sa che i sensori CCD hanno sensibilità superiore alla pellicola nel campo dell'infrarosso... e soprattutto non riesce a capire cosa vuol dire filtro low-pass (Passa Basso quindi fa passare solo le frequenze della luce sotto una certa soglia) non mi spiego cosa ci sia di fuorviante a dire che il filtro anti aliasing al niobato di litio taglia tutte le frequenze superiori a quella massima utile o riproducibile... però bisogna riconoscere che nel mare magnum delle sue dissertazioni almeno ha scritto una cosa giusta... ovvero aumentando la frequenza di campionamento aumenta la gamma di colori riproducibili... però poiché i nostri occhi riescono a vedere in una gamma determinata tra il rosso e il viola... gli eventuali colori in più quelli che si trovano nella gamma dagli ultravioletti in poi verrebbero registrati dal CCD quindi sempre in teoria potrebbero fornire delle informazioni in più in una zona di colori che però noi non vedremmo mai... come quando si campiona a 96 khz un segnale audio... si ottiene una migliore qualità nella gamma dell'udibile però bisogna utilizzare più spazio sulla memoria di massa per memorizzare i dati acquisiti di cui una parte consistente noi non la udremo mai... vediamo la cosa sotto un aspetto positivo in effetti se avesse evitato di intervenire (come da lui stesso auspicato) non si sarebbe arrivati a questo punto... prendiamo l'aspetto positivo della vicenda come un necessario ampliamento dell'argomento della serie non tutto il male viene per nuocere...
sergiobutta
Nov 28 2004, 02:52 PM
QUOTE (lambretta @ Nov 28 2004, 01:16 PM) |
Per Sergio nessuno ha scritto che ti sei rin****to... come al solito te la canti e te la suoni alla maniera tua fai le domande e pretendi che la gente ti risponda come vuoi tu, allora evita di fare domande se sei convinto di quello che scrivi e restiamo tutti più felici... l'argomento è molto nebuloso ed è facile saltare a conclusioni che però non rispecchiano la realtà delle cose, per questo stavo cercando di spiegarti che il potere risolvente è legato alla dimensione del pixel che ovviamente più piccolo è... e più risolve ovviamente con annessi e connessi già evidenziati... mentre invece la frequenza di campionamento influisce sulla gamma di colori riproducibili e non sulla risolvenza... poichè la discussione è divagata grazie agli illustri interventi che mi hanno preceduto ti segnalo un link dove vengono trattati gli aspetti tecnici relativi ai CCD nell'uso in astronomia in modo semplice e abbastanza completo, alcuni aspetti possono però essere utili per capire come funziona un CCD montato su una DSLR... in sostanza se ti vuoi fare un'idea più completa ma soprattutto esatta ci trovi parecchi spunti che poi potrai ampliare se lo ritieni opportuno... poi se invece sei convinto che aumentando la frequenza di campionamento aumenta il potere risolvente allora fai come meglio credi... la dimensione del sensore influisce sulla dimensione dei singoli pixel... tanto per dirne una il sensore dell D2H ha la stessa superficie dei sensori della D70 e della D100 con 4 milioni di pixel in luogo di 6 non mi risulta usi una frequenza di campionamento diversa... comunque questo è un aspetto che si può verificare con calma...
Le camere CCD (acronimo di Charge Coupled Device, Dispositivo ad Accoppiamento di Carica)
Ovviamente il dottor AL FA non ha mai sentito parlare di processo di quantizzazione... non sa che i sensori CCD hanno sensibilità superiore alla pellicola nel campo dell'infrarosso... e soprattutto non riesce a capire cosa vuol dire filtro low-pass (Passa Basso quindi fa passare solo le frequenze della luce sotto una certa soglia) non mi spiego cosa ci sia di fuorviante a dire che il filtro anti aliasing al niobato di litio taglia tutte le frequenze superiori a quella massima utile o riproducibile... però bisogna riconoscere che nel mare magnum delle sue dissertazioni almeno ha scritto una cosa giusta... ovvero aumentando la frequenza di campionamento aumenta la gamma di colori riproducibili... però poiché i nostri occhi riescono a vedere in una gamma determinata tra il rosso e il viola... gli eventuali colori in più quelli che si trovano nella gamma dagli ultravioletti in poi verrebbero registrati dal CCD quindi sempre in teoria potrebbero fornire delle informazioni in più in una zona di colori che però noi non vedremmo mai... come quando si campiona a 96 khz un segnale audio... si ottiene una migliore qualità nella gamma dell'udibile però bisogna utilizzare più spazio sulla memoria di massa per memorizzare i dati acquisiti di cui una parte consistente noi non la udremo mai... vediamo la cosa sotto un aspetto positivo in effetti se avesse evitato di intervenire (come da lui stesso auspicato) non si sarebbe arrivati a questo punto... prendiamo l'aspetto positivo della vicenda come un necessario ampliamento dell'argomento della serie non tutto il male viene per nuocere... |
Tu ti inc...i con altri e te la prendi con me. Non mi avevi dato del rinc...to, anzi mi stavi aiutando a capire con un intervento molto tecnico. Anche perchè, non parlavo di mia scienza, ma di quanto avevo capito dalla lettura di un articolo e chiedevo delucidazioni. Ma ho riformulato la domanda proprio per avere da te una risposta sintetica come quella di Bergat. Ora, se non ho capito male dalle vostre risposte : su di un punto siamo tranquilli. Pixel piu piccoli, miglior risoluzione. Ho ripescato la rivista che mi ha dato quello spunto: inizialmente sostiene che per risolvere 60 l/mm con un sensore full frame abbiamo bisogno di 12.441.600 mpx. Poi aggiunge :"Se su ciò applichiamo il teorema di Nyquist, i valori (omissis) = 49.766.400 ...". Da ciò avevo dedotto che:
per calcolare i pixel del full frame, aveva moltiplicato i lati del sensore x 120 (60x2); poi aveva applicato il teorema sui 12 mpx; quindi, riducendo il lati del sensore, il fabbisogno di mpx dovrebbe diminuire. Ma, altra domanda banale: i bit della profondità di colore come giocano in questi casi? Lambrè, non lo so perciò ve lo chiedo.
Lambretta S
Nov 28 2004, 04:47 PM
Sul fatto che per risolvere a esempio 60 linee mm su un sensore FF ovvero circa 24x36 mm mi potrebbe anche stare bene che sia necessario avere almeno 12 milioni e spicci di pixel è il calcolo successivo che non capisco quello del 60x2... per intenderci una matrice di circa 12 milioni di pixel con rapporto di 2/3 darebbe come file risultante un'immagine 2900x4350 pixel quindi ogni pixel dovrebbe avere come dimensione 8 micron circa (e fin qui ci siamo) quindi compatibile con una risoluzione di 60 linee per mm perché i pixel non si aggregano come i grani di alogenuro d'argento di una pellicola esposta ma rimangono posti a distanza l'uno dall'altro quindi oltre alla loro grandezza bisogna considerare anche la distanza a cui sono posti l'uno dall'altro... ovviamente se avessi più pixel che ne so 24 milioni quindi una matrice di 4000x6000 pixel questi sarebbero più piccoli circa 6 micron quindi in un millimetro ce ne trovo di più e ottengo una maggiore risoluzione ovvero circa 80 linee per mm però essendo il pixel più piccolo è meno sensibile per ottenere la stessa lettura dovrò esporlo alla luce per un tempo maggiore in questo caso il disturbo introdotto cioè il rumore diventa maggiore...
A questo punto poi si inserirebbe il potere risolvente dell'obiettivo... nel senso che per avere una risoluzione di 60 linee per mm devo avere un obiettivo che riesca a risolverle... meglio sarebbe se ne risolvesse di più... questa è un'altra ragione della superiorità delle ottiche intercambiabili usate sulle DSLR non credo siano molti i complessi ottici montati sulle compatte in grado di reggere il confronto con un obiettivo classico... quindi le similitudini si fermano alla focale e all'angolo di campo risultante poi per il resto non c'è proprio storia...
Per intenderci sulle DSLR aps la sensibilità iso parte da 200 sulle compatte da 8 megapixel come la serie 8000 di Nikon la sensibilità di partenza è 50 iso quindi a parità di condizioni di illuminazione dovremmo usare un tempo di esposizione 2 volte più lungo sulla compatta che ne so 1/250 di sec a f/4,0 sulla D100 1/60 di sec sempre a f/4,0 sulla CP 8700
E fino qua mi sembra tutto normale l'estensore dell'articolo che hai letto tu... ha inserito a questo punto anche la frequenza di campionamento ora non avendo letto l'articolo non so in quali termini vi abbia fatto riferimento quindi Sergio non è che me lo puoi far leggere... magari si arriva a una conclusione che oltre a far maggiore chiarezza sull'argomento accontenti tutti quanti... non so forse sono stati presi in considerazione degli aspetti particolari che non ho avuto modo di valutare con maggiore approfondimento e che hanno una loro valenza nel contesto esaminato...
Per quanto concerne il discorso sulla profondità in bit questa riguarda il modo di rappresentare in forma numerica un dato di luminosità da ricondurre poi al singolo punto che costituisce l'immagine...
I sensori delle macchine digitali sono monocromatici... per ricostruire il colore dovremmo effettuare tre scatti in successione anteponendo al sensore via via prima un filtro rosso... poi un filtro verde e alla fine un filtro blu... l'ordine è casuale si potrebbe seguirne un altro però ho preso a riferimento la matrice RGB... ovviamente per far ciò il soggetto dovrebbe essere statico con un minimo movimento si avrebbero immagini con colori fuori registro in sostanza inusabili per una riproduzione fotografica della realtà...
A questo punto sacrificando la risoluzione reale ovvero non sfruttando ogni singolo pixel per interpretare la quantità di luce che lo colpisce e anteponendo nei sensori CCD dei microfiltri RGB a ogni singolo pixel e interpolando i dati di luminosità acquisiti in una matrice si ottiene il risultato di avere un'immagine a colori con una singola esposizione... una soluzione più sofisticata sarebbe quella di avere 3 CCD separati uno per ogni canale RGB e ricostruire l'immagine con i dati provenienti da ogni singolo sensore... a esempio 3 CCD con matrice 2000x3008 restituirebbero una immagine con 6 milioni e spicci di pixel effettivi...
Prendiamo a esempio il caso delle DSLR Nikon D70 e D100 ma il discorso è valido anche per le altre DSLR... facciamo un'esperienza pratica per capire la differenza di gamma che c'è tra un file NEF e uno JPEG... ovvero la differenza tra un file che ha 48 bit colore di profondità e uno che ne ha 24...
Scattiamo una immagine in NEF volutamente sottoesposta di un paio di diaframmi oppure una situazione dove tra lo sfondo e il soggetto abbiamo 3 o 4 stop di differenza il classico controluce... a questo punto trasferiamo il file NEF sul PC e creiamone una copia in JPEG... proviamo poi ad applicare il Digital Dynamic Extended Exposure su entrambi i file così potremo vedere la differenza di risultati ottenuti tra un file a 48 bit e uno a 24 bit... questa semplice esperienza dovrebbe fugare ogni eventuale dubbio circa l'uso del NEF... raw in ripresa... ovviamente salvando in TIFF a 16 bit di profondità le caratteristiche del file restano pressochè analoghe con maggiore ingombro però del file risultante... circa 36 mega del Tiff contro 9 mega circa del Nef non compresso...
sergiobutta
Nov 28 2004, 05:29 PM
Domani ti posto, alla mail che dovrei avere, copia dell'articolo, perchè credo che questo argomento possa interessare a molti. Il 60x2 è legato al numero di linee occorrenti per una risoluzione di 60 l/mm, una linea nera, una bianca per un contrasto teorico di 1000:1.
Al_fa
Nov 28 2004, 06:56 PM
Morta lì labrè, l'a-momenti Ing Al_fa ha capito che ci siamo capiti sulla questione del campionamento, ed è quello che conta.
Salta a inizio pagina | Per vedere la versione completa del forum
Clicca qui.