Aiuto - Cerca - Utenti - Calendario - Salta a fondo pagina - Versione completa  
NikonClub.it Community > NIKON SCHOOL > Software
Osw
Buon giorno a tutti.
Chieso scusa di questo lungo intervento, ma mi piacerebbe che qualcuno pi� esperto di me chiarisse finalmente la situazione, per cui mi sono dilungato cercando di spiegarla esaustivamente. Ritorno sulla questione, a mio avviso mai chiarita completamente, della risoluzione di un�immagine digitale.
Ho sempre letto, e creduto anche di aver capito, che l�unica informazione propria di un file immagine (ottenuto da macchina fotografica o da scanner) sia la sua quantit� complessiva di pixel. In pratica in testa al file dovrebbe esserci questo dato memorizzato ed anzi sono memorizzati due dati, quello relativo alla lunghezza in pixel e quello relativo alla larghezza: ad es. per una D7000 dovrei trovare scritto in testa al file (o da qualche parte di esso) 4928 e 3264. Punto e basta. Poi di questa dimensione faccio quello che voglio: voglio una stampa grande e allora stabilisco di interpretarli a 100 dpi; se la voglio piccola li interpreto a 600 dpi. Questo � sempre possibile e ad es. Photoshop me lo consente (togliamo la spunta alla casella di ricampionamento, perch� se no complichiamo il discorso!).
Ma � proprio cos�? Mi sembra invece che caratteristica propria del file (e quindi dell�immagine che esso memorizza) non siano solo le dimensioni in pixel X ed Y, ma anche o le dimensioni reali in cm oppure la densit� di registrazione in dpi (detta anche risoluzione). Infatti se carico una foto della D7000 su Photoshop lui mi indica s� le dimensioni del file (pixel X ed Y), ma anche le dimensioni della stampa in 41x27 cm e la risoluzione in 300dpi. Qualcuno dice che questi due ultimi dati Photoshop se li inventa ipotizzando una stampante od il monitor ed indicando per default una risoluzione adatta per questi dispositivi; ma non pu� essere vero, uno dei due dati li deve trovare davvero nel file e l�altro lo calcola.
Ho provato a scannerizzare in bianco e nero un foglio A4 prima a 100, poi a 300 e infine a 600 dpi. Se carico i tre file su Photoshop mi indica tre dimensioni diverse per i file (2,75 � 24,8 e 99,1 MB rispettivamente, con le loro relative dimensioni in pixel X ed Y), mi indica invece in tutti e tre i casi la stessa dimensione geometrica di stampa (circa 20x29 cm, che � quella del documento originale) ma riporta tre differenti risoluzioni: 100, 300 e 600 dpi, proprio come ho scannerizzato. Come farebbe a saperlo Photoshop, se le uniche informazioni del file fossero le misure X e Y in pixel? E� evidente invece che trova nel file anche o la dimensione geometrica oppure la risoluzione di scannerizzazione; se considero anche i file che vengono dalla DX7000 (o da altre macchine) dove Photoshop non mi indica la misura del sensore DX, bens� quella della stampa in cm, deduco che le informazioni che sono registrate effettivamente nel file sono tre: pixel X, pixel Y e dpi. Che dopo io possa lasciar perdere l�informazione sui dpi (che mi comunica come era l�immagine in origine) e dire di interpretare i dpi diversamente per ottenere output diversi � un�altra faccenda. Per� l�informazione primaria sulla risoluzione o del sensore o dello scanner, che caratterizza davvero l�immagine completamente, sul file c��.
Oppure no? Qualcuno non � d�accordo con me e sa darmi una spiegazione diversa? Grazie.
Seconda questione (anche questa ambigua): se dico di stampare a 100 dpi leggo spesso che i pixel stampati sono pi� grandi, se dico di stampare a 300 dpi che i pixel sono pi� piccoli (e parliamo evidentemente del lato o del diametro dei pixel, a seconda se sono quadratini � cosa che non credo, o se sono cerchietti). E� proprio cos�? Non � invece che i pixel stampati (o visualizzati su monitor) sono di dimensioni sempre uguali e che se stampo a 100 dpi sono distanti fra loro (quindi con un buco grande in mezzo), se li stampo a 300 sono molto pi� vicini fra loro?
Terza ed ultima questione: il sensore di una digitale (D50 o D7000 che sia) � costituito da un rettangolo con un certo numero di �sensorini� (scusate il termine) distribuiti uniformemente su tutta la superficie: quindi ho un certo numero di pixel tutti identici geometricamente. Uno scanner ha invece un sensore costituito da una striscia orizzontale di �sensorini�; per andare in verticale la striscia � spostata da un motorino. Per� i passi del motorino sono di solito il doppio del numero di sensorini della striscia: ad es. 1200 passi del motorino (quindi 1200 passi della striscia) contro 600 sensorini sulla striscia. Domanda: ma allora i pixel sono rettangolari anzich� quadrati, con il lato pi� corto in verticale, o comunque � vero che la risoluzione � pi� �densa� e quindi migliore in senso verticale, per cui bisognerebbe riflettere su come orientare al meglio il documento o l�immagine da scannerizzare? (problema che invece con il sensore di una reflex digitale non c��).
Grazie per la pazienza di avermi letto e soprattutto a chi sa rispondere. Cordiali saluti a tutti.
Massimo.Novi
QUOTE(Osw @ Sep 7 2012, 10:12 AM) *
...Ritorno sulla questione, a mio avviso mai chiarita completamente, della risoluzione di un�immagine digitale.
..


Premessa: il termine DPI � errato in questo contesto. Il termine � PPI.

1) Photoshop legge semplicemente il campo "risoluzione" dei metadati del file e lo usa supponendo che indichi la risoluzione in pixel per pollice (PPI) voluta. Se � vuoto usa un default.

2) No, sono stampati pi� grandi, nel senso che un "pixel" occuper� una superficie fisica maggiore sul supporto (ci saranno pi� gocce o gocce pi� grandi). Se fossero pi� "distanti" vedresti degli spazi bianchi tra un pixel e l'altro.

3) Un sensore � costituito da fotodiodi che NON SONO pixel ma elementi sensibili a dun singolo colore (R, G o cool.gif. Il pixel come lo intendi tu viene poi "creato" componendo (demosaicizzando) tali fotodiodi per ottenere un singolo colore reale.

3-a) In realt� � vero che la risoluzione orizzontale dello scanner e quella verticale sono spesso diverse, in quanto la prima � la risoluzione fisica della "riga" fisica di fotodiodi e l'altra varia a seconda del passo di spostamento del motore. Ma il fotodiodo � quadrato, e ci� che varia � solo appunto il "passo" di lettura. ossia ad ogni singolo "passo" di lettura, vengono letti sempre e solo tutti i fotodiodi della riga dello scanner. Se il passo aumenta, la lettura viene ripetuta per il passo successivo del motore e le due letture vengono combinate. Quindi si ha sempre un pixel "quadrato" ma composto da una o pi� letture combinate, a seconda se il passo del motore � un multiplo della risoluzione orizzontale.

Spero di essere stato chiaro.

Massimo
Osw
Grazie della cortese risposta.
1) Come pensavo quindi la risoluzione � effettivamente un dato proprio dell'immagine originale, indipendentemente da come poi una la usi. Che Photoshop mi indichi quindi 300 per la D7000 non � una sua invenzione, ma legge l'informazione sul file che arriva dalla D7000; anche se poi appunto quello che conta � il numero di pixel complessivo nell'area, che uno manipola come vuole.
Certamente, � ppi la denominazione corretta.
2) Questo mi convince per le stampanti. Il dubbio per� lo avevo ed ho ancora soprattutto per il monitor, perch� dubito che il raggio (pensiamo ad un vecchio monitor a raggi catodici) venga ingrandito o rimpicciolito in base alla risuluzione; per i monitor LCD penso che sia la stessa cosa; in ogni caso questo � un aspetto di scarsa importanza, � pi� una curiosit�, quello che conta � come appare l'immagine.
3) La risposta conferma il mio sospetto; quindi, almeno per gli scanner indicati come 600x1200 o 1200x2400 ecc., i pixel risultato della scansione sono s� equidistanti in senso orizzontale e verticale, ma non hanno corrispondenza diretta uno ad uno con i pixel nella stessa posizione sull'originale cartaceo, bens� sono una media di pixel cartacei vicini. E' una questione interessante. E' probabile che i costruttori abbiano verificato (immagino che abbiano fatto tante prove) che il risultato di questa fusione fra pixel dia alla fine un risultato migliore.

Grazie dell'intervento e cordiali saluti.

QUOTE(manovi @ Sep 7 2012, 11:52 PM) *
Premessa: il termine DPI � errato in questo contesto. Il termine � PPI.

1) Photoshop legge semplicemente il campo "risoluzione" dei metadati del file e lo usa supponendo che indichi la risoluzione in pixel per pollice (PPI) voluta. Se � vuoto usa un default.

2) No, sono stampati pi� grandi, nel senso che un "pixel" occuper� una superficie fisica maggiore sul supporto (ci saranno pi� gocce o gocce pi� grandi). Se fossero pi� "distanti" vedresti degli spazi bianchi tra un pixel e l'altro.

3) Un sensore � costituito da fotodiodi che NON SONO pixel ma elementi sensibili a dun singolo colore (R, G o cool.gif. Il pixel come lo intendi tu viene poi "creato" componendo (demosaicizzando) tali fotodiodi per ottenere un singolo colore reale.

3-a) In realt� � vero che la risoluzione orizzontale dello scanner e quella verticale sono spesso diverse, in quanto la prima � la risoluzione fisica della "riga" fisica di fotodiodi e l'altra varia a seconda del passo di spostamento del motore. Ma il fotodiodo � quadrato, e ci� che varia � solo appunto il "passo" di lettura. ossia ad ogni singolo "passo" di lettura, vengono letti sempre e solo tutti i fotodiodi della riga dello scanner. Se il passo aumenta, la lettura viene ripetuta per il passo successivo del motore e le due letture vengono combinate. Quindi si ha sempre un pixel "quadrato" ma composto da una o pi� letture combinate, a seconda se il passo del motore � un multiplo della risoluzione orizzontale.

Spero di essere stato chiaro.

Massimo


Massimo.Novi
QUOTE(Osw @ Sep 8 2012, 11:55 AM) *
...2) Questo mi convince per le stampanti. Il dubbio per� lo avevo ed ho ancora soprattutto per il monitor, ...
3) .. E' probabile che i costruttori abbiano verificato (immagino che abbiano fatto tante prove) che il risultato di questa fusione fra pixel dia alla fine un risultato migliore.


2) Il pixel viene ricostruito sui CRT partendo dalla maschera che si trova nel tubo catodico. Ciascun "pixel" � composto da 3 punti luminosi (fori) della maschera e a seconda della risoluzione (nei CRT corrisponde alla frequenza di ritracciamento e non alla dimensione) vengono raggruppati o meno sullo stesso valore. Quindi anche in questo caso non si hanno zone vuote ma solo pixel composti da pi� o meno punti liminosi. Per gli LCD la risoluzione � sempre quella massima. Le altre sono ottenute interpolando l'immagine e quindi sono anch'esse ricostruzioni composte da pi� fotodiodi.

3) Non � questione di risultato o di prove, � una banale questione matematica. Per il teorema di Nyquist la massima risoluzione ottenibile � la met� del numero di punti letti e quindi la reale risolvenza reale ottenibile � la met� della risoluzione orizzontale. La risoluzione verticale deve essere almeno il doppio per eliminare gli errori di spostamento.

Spero di essere stato chiaro.

Massimo
Osw
La spiegazione non fa una grinza.
E' plausibile effettivamente che nel caso del CRT (dove il diametro del raggio elettronico emesso dal catodo non varia) il
raggio stesso venga modulato (quindi mantenuto o meno allo stesso valore di intensit� e di composizione dei colori - in
effetti i raggi sono tre) in base ai ppi stabiliti.
Immagino che sia la scheda grafica a pilotare questa operazione abbastanza complessa (almeno praticamente).

Per la questione dello scanner, sono d'accordo che la risoluzione � la met� del campionamento (poi non si tratta di essere d'accordo, � cos�!). Ed anche che, mentre la "striscia dei sensori" (chiamiamola in questo modo;lasciamo poi perdere per semplicit� che ogni sensore sia in realt� un mosaico di tre o quattro subsensori)) � fisicamente molto stabile, il movimento di trascinamento della stessa col motorino pu� presentare dei giochi e quindi � opportuno campionare con frequenza maggiore.

Resta la mia perplessit� sulla non omogeneit� della scansione del documento nelle due direzioni e cerco di spiegarmi con un disegno.

IPB Immagine
Visualizza sul GALLERY : 34.1 KB

La figura mostra uno scanner 4x8 ppi (in effetti mostra un unico inch quadrato e supponiamo che questo sia un inch quadrato del documento da scansionare).
La striscia dei sensori � disegnata in rosso.
Concentriamoci sul pixel del documento cerchiato in verde.

Al passo 1 il pixel verde viene letto per la porzione A (come se fosse un semipixel).
Al passo 2 il pixel verde viene letto per intero (porzioni A e cool.gif
Al passo 3 il pixel verde viene letto per la porzione B

Non so poi cosa succeda: immagino che il pixel verde sia elaborato matematicamente facendo una qualche media delle tre letture 1, 2 e 3.

Questo processo avviene allo stesso modo per tutti i pixel della matrice (tranne per la prima ed ultima riga, che sono
un'eccezione e magari gli scanner evitano di calcolarle, chiss� ...). Quindi apparentemente il documento � scansionato
esattamente allo stesso modo in tutti i suoi punti.

In realt� per� la media avviene solo nel senso delle colonne e non anche delle righe.
E' un po' come se con Photoshop applicassimo una sfocatura a vento (motion blur) in senso verticale e non in quello
orizzonatale. O mi sbaglio?

Ammetto che � un discorso di lana caprina, di scarso interesse pratico: se provo infatti a girare il documento di 90 gradi
ed a scansionarlo di nuovo non noto ad occhio nudo reali diversit�, Ma � una curiosit� ed � un aspetto su cui ho trovato
poca o nulla informazione sui libri e su internet.

Saluti,
Osvaldo
Osw
Una precisazione per evitare fraintendimenti: quando dico ad es. che al passo 1 il pixel verde viene letto per la porzione A, non � che il sensore legga solo il semipixel A; esso legge un pixel intero, ma di questo pixel intero met� costituisce la porzione A del pixel verde mentre l''altra met� � del pixel precedente e analogamente andando avanti.
Buona notte a tutti.
Osvaldo
Massimo.Novi
QUOTE(Osw @ Sep 9 2012, 12:00 AM) *
...Immagino che sia la scheda grafica a pilotare questa operazione abbastanza complessa (almeno praticamente).

In realt� per� la media avviene solo nel senso delle colonne e non anche delle righe.


1) No, � il monitor che gestisce la creazione dell'immagine in base alla risoluzione. La scheda video modifica la sua risoluzione ma non sa come sar� ricreata sul monitor. Al massimo sa che sta inviando su VGA o su DVI.

2) La media avviene anche sulle righe. Abbiamo detto che � necessario ricostruire l'immagine al doppio della risoluzione voluta. Questo avviene sia sull'asse verticale che su quello orizzontale. Quindi in realt� uno scanner 1200x2400 fornisce una risoluzione ottica "effettiva" di circa 600 punti per pollice pi� o meno.

Massimo
Osw
La ringrazio molto della risposta, che chiarisce del tutto la questione. Non avevo mai letto da nessuna parte che i pixel vengono mediati anche in senso orizzontale: a questo punto c'� uniformit� nei due sensi, come in effetti � corretto che sia. Ma mi tolga una curiosit�, se vuole: da dove lo sa Lei che i pixel vengono davvero mediati anche in senso orizzontale? O semplicemente lo suppone a ragion di logica?

Ragionandoci sopra, lo stesso discorso del teorema del campionamento vale anche per le reflex digitali; ad es. le mie D50 e D7000 hanno in realt� (e cito qui per brevit� solo il lato pi� lungo del fotogramma) una risoluzione rispettivamente di pi� o meno 1500 e 2500 pixel, anzich� 3008 e 4928 come indicano le specifiche del sensore. Quando confrontavo il formato DX con i negativi 35 mm mi ero sempre dimenticato di Nyquist! Forse allora le digitali sono ancora lontane dalla qualit� dei negativi o delle diapositive (che � un pezzo che non adopero pi�, l'ultima mia camera analogica, la F80, � ferma davvero da tanti anni).

Cordiali saluti.
Osvaldo
Massimo.Novi
QUOTE(Osw @ Sep 9 2012, 03:36 PM) *
... da dove lo sa Lei che i pixel vengono davvero mediati anche in senso orizzontale? O semplicemente lo suppone a ragion di logica?

Ragionandoci sopra, lo stesso discorso del teorema del campionamento vale anche per le reflex digitali; ...


Il principio di funzionamento degli scanner (verticale ed orizzontale) � il medesimo di qualsiasi strumento che acquisisca immagini (o suoni) ad una certa frequenza e li debba poi ricostruire senza perdite. Non c'� nulla da supporre. Il teorema di Nyquist si applica non solo agli scanner ma anche ai sensori per� non nel modo che pensi (diamoci del tu ovviamente).

Nei sensori il problema della frequenza di dettaglio risolvibile � dato dalla dimensione del fotodiodo, dalla dimensione del sensore e dalla frequanza spaziale effettiva. Ill filtro AA posto anteriormente al sensore vero e proprio fornisce la riduzione di frequenza per evitare l'aliasing.

In realt� per le fotocamere la frequenza di risoluzione effettiva ottenibile dipende anche dall'ottica e quindi � di non semplice valutazione, per cui si preferisce fare uso di target di misura (spesso presentati nelle recensioni "tecniche") piuttosto che tentarne un calcolo preciso.

Massimo
Salta a inizio pagina | Per vedere la versione completa del forum Clicca qui.