QUOTE(archi71 @ Nov 4 2007, 04:34 PM)

Secondo me si tende a complicare troppo la questione, infatti una cosa è la risolvenza in fase di stampa, e un'altra è la risolvenza del sensore.
Se faccio un a stampa più piccola (a parità di densità) non stampero tutti i punti (cioè tutta l'informazione) a mia disposizione, se ne faccio una più grande il computer dovrà inventarsi dei punti là dove non ce ne sono.
Tutto questo in teoria, in pratica entrano ancora in gioco il filtro anti alias e la risolvenza dell'obiettivo. Su questo però dobbiamo considerare che il filtro anti alias serve proprio per eliminare i problemi che potrebbe creare un obiettivo eccessivamente risolvente e che questo filtro è progettato espressamente per quel sensore, possiamo pensare che in una reflex ben progettata e che utilizza un buon obiettivo la risolvenza dipenda in massima parte dalla risoluzione del sensore.
Ciao.
C'è un po' di verità in tutti i post, ma il problema è molto più complesso. Quando si usano camere digitali occorre tener conto di una serie di fatti e fattori. In particolare:
1) Il numero di pixel disponibili limita a priori superiormente il numero complessivo di dettagli registrabili e, quindi, l'ingrandimento finale di una immagine NATURALE (senza interpolazioni/estrapolazioni). Osservando una stampa a 40 cm, il mio occhio riesce a vedere dettagli a 5 lp/mm (10 pixel/mm o 254 dpi o circa 30 cicli/grado). Quindi se voglio osservare una stampa da 40 x 60 cm a 40 cm di distanza senza perdere dettagli, debbo avere a disposizione ALMENO 6000 x 4000 pixel (24 Mp!!!!). Con il 20 x 30 cm bastano 6 Mp (3000 x 2000 pixel), con il 30 x 45 cm ho bisogno di 13.5 Mp (4500 x 3000). Qualcuno ha già fatto un salto dalla sedia, scommetto....
Se l'immagine viene osservata a 80 cm (monitor PC), chiaramente mi basteranno 125 dpi e un quarto del numero di pixel, a pariità di dimensione. Uno schermo TV a 2 m necessiterà di poco più di 50 dpi.
2) Interpolando i pixel nativi, non si crea maggiore dettaglio, e quindi non si incrementa veramente l'ingrandimento possibile. A volte con tecniche di predizione statistica (Genuine Fractals) si può estendere la nitidezza apparente "predicendo" componenti ad alta frequenza di bordi e linee, ma io mi accorgo immediatamente che la tessitura è rimasta quella originale. Ma non basta...i pixel devono essere nitidi e non ambigui (no aliasing).
3) La densità dei pixel sul sensore ne limita a priori la risolvenza, ovvero il numero di informazioni registrabili per unità di area senza incorrere in aliasing (pressoché incurabile nelle immagini naturali). Per esempio, un sensore da 4500 pixel su 22.5 mm di base ha una densità di 200 pixel/mm o 100 lp/mm in frequenza spaziale. Qualsiasi dettaglio oltre tale limite non solo non sarà registrato correttamente, ma danneggerà anche dettagli a frequenza minore di 100 lp/mm. In più, gli schemi Bayer RGB del CCD/CMOS hanno una frequenza critica pari a circa il 70% della massima (70 lp/mm nel nostro caso), oltre la quale dettagli con certe angolazioni e colori, sempre presenti per la legge di Murphy, causano comunque aliasing o fringing di colore, spesso scambiato per aberrazione cromatica laterale degli obiettivi dai meno esperti.
4) Pertanto, l'obiettivo+il filtro antialiasing devono impedire il passaggio di frequenze capaci di provocare l'aliasing. Un grande obiettivo con 80-100 lp/mm di risolvenza su pellicola, nel nostro caso deve essere ammorbidito e tagliato prima di 70 lp/mm, buttando via un po' di dettagli. Ovviamente, poiché non è possibile bloccare esattamente le frequenze a questo valore con un filtro fisico, anche le basse frequenze vengono danneggiate. Se anche fosse tecnicamente possibile, un taglio brusco in frequenza produrrebbe effetti bruttissimi sull'immagine registrata (anelli di interferenza, aloni e simili amenità).
5) Purtroppo non con tutti gli obiettivi si arriva a 70 lp/mm, gli zoom difficilmente passano da soli i 60 lp/mm. Così, con il nostro obiettivo+filtro capace di risolvere 60 lp/mm, il nostro sensore non potrà registrare correttamente più di 60 x 22.5 = 1350 coppie di linee, riproducibili su un'immagine ridimensionata a (più di) 2700 pixel di base. E' una stima ottimistica!
6) Il sensore aggiunge rumore, il cui livello alle alte frequenze rappresenta il limite minimo di leggibilità (e ricostruibilità) del dettaglio fine, che, ricordiamolo, è stato brutalmente attenuato dalla catena ottica+filtro+sensore. Probabilmente, specie se abbiamo pompato gli ASA con uno zoom, ci restano 2000 pixel validi da stampare. Nelle combinazioni migliori, arriveremo a circa 3200 pixel "sicuri". Possiamo rendere più lasco il filtro e migliore l'obiettivo, arrivando a circa 4000 pixel utili, con occasionale insorgenza di aliasing.
7) A questo punto entra in gioco la dimensione del frame: un sensore più grande, ancora da 4500 pixel di base e poniamo 37.5 mm di base, con pixel più radi (66 lp/mm teorici, 50 lp/mm pratici) e un forte filtraggio a soli 40-50 lp/mm, potrà riprodurre la stessa quantità complessiva dei dettagli del precedente, ma l'obiettivo, di focale allungata di 1.5 volte per il medesimo campo di vista, lavorerà a frequenze spaziali ridotte a 2/3 di quelle precedenti, alle quali esso offrirà 10-20% di risposta MTF (segnale utile) in più, mentre il rumore del sensore a parità di tecnologia sarà ridotto al 70% circa in livello rispetto al caso precedente per i pixel più grandi. L'influenza della qualità ottica diventa quasi trascurabile entro i limiti dettati dall'aliasing.
In conclusione, la stampa ottenuta dal sensore piccolo mostrerà i suoi limiti al mio occhio posto a 40 cm, quando ingrandita a circa 32 cm di base (3200/100), mentre la stampa del secondo potrà arrivare appena di più in pratica, 34-35 cm, per effetti di second'ordine, ma con un microcontrasto e un impatto superiori, anche usando ottiche scadenti o a diaframma/distanza non ottimale. Pertanto, i 30 x 45 cm sono stampabili da una DSLR a 12 Mp solo con interpolazione, cancellazione delle tessiture fini e ammorbidimento forte dei dettagli fini. Le immagini possono essere ingrandite di più, se accettiamo di allontanare l'occhio dalla stampa in maniera proporzionale o... a patto di di accettare visibili degradazioni. Con sensori "radi" possiamo anche evitare di disquisire sulla nitidezza degli obiettivi.
Nei progetti professionali, si parte dalla risoluzione richiesta sul terreno di certi dettagli, dalla distanza di ripresa e dall'angolo di campo, per calcolare il numero di pixel minimo complessivo dell'immagine. Fissate poi le caratteristiche tipiche delle lenti, si procede a calcolare la dimensione del sensore (e/o) il numero di riprese panoramiche necessarie da incollare. Nelle DSRL il sensore è fissato e per ottenere una certa risolvenza a terra devo limitare l'angolo di vista e quindi la focale minima da usare. Sotto sotto, è questo uno dei motivi perché c'è poca ricerca nei grandangolari DX...
A presto
Elio