Aiuto - Cerca - Utenti - Calendario - Salta a fondo pagina - Versione completa  
NikonClub.it Community > COMMUNITY ACTIVITIES > NIKON SUSHI BAR
Pagine: 1, 2
F.Giuffra
Sembra che finalmente sia uscito un monitor 4K a prezzi umani, schermo LED In-plane switching 99% AdobeRGB and 100% sRGB, tempo di risposta 8ms, visione angolo 178°, hub Usb 3.0 con lettore di schede di memoria, tilt, swivel and adjust the height, non ha il pivot ma ha attacco standard da 10", wide color coverage such as 99% AdobeRGB and 100% sRGB, color depth of 1.07 billion colors, user-accessible hardware look-up table (LUT).

Il prezzo non è basso, 1260 eurozzi ivato, ma non è neppure quello proibitivo di oltre 3.000 Neuri dei 30" come l'Asus PQ321QE.

Come vi pare? Il monitor definitivo?? Che scheda video ci vuole per vedere i 10 bit di colore?
togusa
QUOTE(F.Giuffra @ Feb 1 2014, 11:25 PM) *
Come vi pare? Il monitor definitivo?? Che scheda video ci vuole per vedere i 10 bit di colore?



Qualsiasi.
L'importante è che si usi un cavo DisplayPort, in quanto il vecchio DVI e l'HDMI 1.3 sono limitati a 8bit per colore.
Il DP arriva a 16 bit per canale cromatico.
riccardobucchino.com
Figo, ora so in cosa spendere il mio denaro! Trovo un solo grande difetto, l'altissima risoluzione porta le scritte ad essere piccole, ok aumenti la dimensione dei caratteri ma se hai un secondo monitor con risoluzione "umana" su quello le scritte saranno di proporzioni epocali come se ci fosse la funzione "cieco" attivata! Altro difetto è il rapporto, 16:9 non è il massimo per lavorare specie se su un monitor come questo che non è enorme.


Cmq parlavo con amici che sono stra appassionati di monitor e tecnologie varie e si diceva che conviene un monitor come questo con copertura 100% rgb e quasi completa dell'adobe rispetto ad un wide-gamut perché per calibrare un wide gamut con copertura molto superiore agli standardnon basta una sondina normale come uno spyder, ci vuole un fotospettrometro costoso pena risultati peggiori di quelli ottenibili con monitor con gamut inferiore e un classico spyder.

Mi piace sto monitor, ottimo rapporto dimensioni/risoluzione, anche il prezzo non è esagerato, ma credo che nel giro di 1 anno i prezzi scenderanno parecchio, meglio aspettare ancora un po'.
F.Giuffra
QUOTE(riccardobucchino.com @ Feb 2 2014, 05:31 PM) *
Figo, ora so in cosa spendere il mio denaro! Trovo un solo grande difetto, l'altissima risoluzione porta le scritte ad essere piccole, ok aumenti la dimensione dei caratteri ma se hai un secondo monitor con risoluzione "umana" su quello le scritte saranno di proporzioni epocali come se ci fosse la funzione "cieco" attivata! Altro difetto è il rapporto, 16:9 non è il massimo per lavorare specie se su un monitor come questo che non è enorme.
Cmq parlavo con amici che sono stra appassionati di monitor e tecnologie varie e si diceva che conviene un monitor come questo con copertura 100% rgb e quasi completa dell'adobe rispetto ad un wide-gamut perché per calibrare un wide gamut con copertura molto superiore agli standardnon basta una sondina normale come uno spyder, ci vuole un fotospettrometro costoso pena risultati peggiori di quelli ottenibili con monitor con gamut inferiore e un classico spyder.

Cosa è un monitor wide gamut? Quanti colori ha più di questo?

Grazie, Fabrizio
riccardobucchino.com
QUOTE(F.Giuffra @ Feb 2 2014, 05:39 PM) *
Cosa è un monitor wide gamut? Quanti colori ha più di questo?

Grazie, Fabrizio
Alcuni monitor hanno un gamut ancora superiore a questo dell (che comunque ha già un gamut notevole visto che riproduce il 99% dello spazio colore adobe rgb), ma alcuni possono riprodurre ancora più colori ma vanno tarati ancora meglio, perché possono "sbagliare di più", per fare un paragone semplice è come la differenza tra una compatta e una reflex, è difficile sbagliare con una compatta, clicchi e fa tutto lei, con la reflex invece è difficile non sbagliare, chiaramente se usata bene la reflex è migliore ma ci vuole tempo, esperienza e denaro (per le ottiche) per farla rendere al meglio, idem il wide-gamut, può dare risultati migliori ma anche peggiori, un mio amico che sa tutto sugli lcd ha preso un wide gamut e ha provato a tararlo (in maniera MANIACALE) ma dice che con lo spyder e l'Xrite non è arrivato ai risultati sperati, si è informato e ha scoperto che in effetti i normali calibratori non sono abbastanza precisi per tarare un wide-gamut e che alla fine è meglio avere una perfetta copertura dello spazio sRGB e una taratura eccellente in quello spazio colore piuttosto che una taratura imperfetta su uno spazio colore superiore. Gli spazi colore molto estesi servono più per il calcolo, sono profili teorici utili a non perdere informazioni in fase di elaborazione ma poco utili in fase di visualizzazione, il prophoto è un esempio di profilo colore estesissimo che probabilmente mai nessun monitor potrà riprodurre.

giuliomagnifico
Ma che ve ne fate di 4k se non c'è il software che lo supporti? Se volete un monitor che si veda ad alti DPI, prendete un retina che almeno OS X supporta la visualizzazione @2x e quindi si vede davvero più nitido!
riccardobucchino.com
QUOTE(giuliomagnifico @ Feb 2 2014, 06:02 PM) *
Ma che ve ne fate di 4k se non c'è il software che lo supporti? Se volete un monitor che si veda ad alti DPI, prendete un retina che almeno OS X supporta la visualizzazione @2x e quindi si vede davvero più nitido!
Ma guarda che qualsiasi software serio su windows supporta qualsiasi risoluzione, e puoi portare la dimensione carattere non solo a 2x ma anche di più, se windows è il sistema operativo più versatile ci sarà un motivo!

Sarebbe figo giocare a UrT su quel monitor, su UrT puoi selezionare la risoluzione che ti pare scrivendo manualmente il numero di pixel del tuo monitor! UrT RULEZ!
F.Giuffra
E per il problema dei pixel piccolissimi cosa ne dite?
riccardobucchino.com
QUOTE(F.Giuffra @ Feb 2 2014, 06:48 PM) *
E per il problema dei pixel piccolissimi cosa ne dite?



E' un vantaggio, ma ovviamente se con le foto, specie per internet, si lavora e bene avere anche un monitor a più bassa risoluzione (e qualità) per testare la visione che avrà l'utente finale, il mondo è pieno di pessimi monitor, bisogna adeguarsi a quelli perché sono di più!


federico777
Veramente per monitor wide-gamut s'intende appunto quello che copre buona parte dello spazio colore Adobe RGB.

Comunque, tornando a questo Dell in oggetto, è una proposta decisamente molto interessante, ma certo manca delle caratteristiche dei monitor da fotoritocco di fascia alta, quali calibrazione hardware (possibilità di scrivere nella LUT del monitor), controllo di uniformità eccetera, quindi la domanda che mi farei è: a pari prezzo, meglio un 24" da 3800x2500 come questo, un 24" fullHD professionale? (Eizo CX240, tanto per non fare nomi biggrin.gif)

Federico
giuliomagnifico
QUOTE(F.Giuffra @ Feb 2 2014, 06:48 PM) *
E per il problema dei pixel piccolissimi cosa ne dite?


L'ho appena scritto! E`inutile avere tutti quei px per vederli da 15cm... se prendi un monitor Apple retina (o quando uscritanno i 4k), i pixel saranno grandi uguali perchè il software invece di usare 1pixel ne usa 2 (per i retina) e ne userà 4 per i 4k. Adesso che photoshop e lightroom sono aggiornati. da poche settimane, per supportare gli HI-DPI dei retina display, tornare al punto di partenza con un 4k non mi sembra una gran cosa... un conto è se lo usi come monitor per giocare o secondario solo per visualizzare le immagini ma altrimenti.....
F.Giuffra
QUOTE(giuliomagnifico @ Feb 2 2014, 08:27 PM) *
L'ho appena scritto! E`inutile avere tutti quei px per vederli da 15cm... se prendi un monitor Apple retina (o quando uscritanno i 4k), i pixel saranno grandi uguali perchè il software invece di usare 1pixel ne usa 2 (per i retina) e ne userà 4 per i 4k. Adesso che photoshop e lightroom sono aggiornati. da poche settimane, per supportare gli HI-DPI dei retina display, tornare al punto di partenza con un 4k non mi sembra una gran cosa... un conto è se lo usi come monitor per giocare o secondario solo per visualizzare le immagini ma altrimenti.....

Non capisco, secondo questo ragionamento sarebbe meglio avere un vga da 60"? Non credo. Certo se vuoi scegliere dei caratteri più grandi o più piccoli, ma se li scegli piccoli con una definizione simile riesci a leggere da vicino, credo, un giornale aperto! Puoi aprire un sacco di siti web e di programmi contemporaneamente. Io ho un 30" con 4 Mpix e uno da 22" con 2 Mpix, più o meno si vedono grandi uguali ma ovviamente si vedono meno oggetti. I miei monitor non usano più pix per farne uno.

Avere un display con tanti pix su cui vedere tante finestre mi sembra un grosso vantaggio, le foto sarebbero più nitide, si vedrebbero più particolari... almeno sino a che non si raggiunga il limite dell'occhio umano perché allora si vedrebbe meno, si dovrebbero ingrandire i pix e saremmo da capo, come dici tu. Ma spero che questo 24" non abbia una densità di pix superiore alla visione umana a 30 cm... o sbaglio?
giuliomagnifico
Non hai capito F.Giuffra.

Nessun monitor usa più pixel per farne uno. E`il SO che lo fa. Si chiama scalabilità!

Quello che conta in un monitor è il dot pitch (la grandezza di un px), se i pixel sono troppo piccoli, un'icona o pezzo della UI (user interface) del sistema, diventa illegibile o da vedere da troppo vicino.

Per questo OS X sui monitor retina (che hanno doppia risoluzione rispetto allo standard) raddoppia i pixel di ogni elemento grafico del SO (il testo non è bitmap è vettoriale quindi non c'entra) e quindi te vedi "GRANDE" come un monitor normale (cioè i menu, le icone , i testi ecc... sono sempre grandi uguali) ma sono il DOPPIO più definiti perchè raddoppiano i DPI!

Se te prendi un monitor 4k senza il supporto software (ne windows ne os x lo hanno) vedi tutto MINUSCOLO. Ovvio che puoi ingrandire il testo perchè è vettoriale, ma resta tutto minuscolo intorno. Vedrai una scritta abnorme e il pulsante della scritta minuscolo laugh.gif

Le immagini non sono parte del SO e infatti le vedi comunque il doppio più definite/al doppio dei pixel.

Adobe ha da poco dato il supporto alla doppia risoluzione @2x dei retina su OS X, cioè ha raddoppiato gli elementi grafici della UI, in modo da avere una definizione raddoppiata. Se vai a prendere un 4k, la perdi.
marco98.com
Bel monitor! Prezzo abbastanza alto, ma proporzionato alle prestazioni.

Piccolo OT

Io utilizzo con risultati molto soddisfacenti un Philips Brilliance 225B.
Secondo voi è di buona qualità? (solo per sapere per voi come è)

Tempo fa lo regolai molto alla buona, aggiustando i colori ad occhio... cerotto.gif messicano.gif

Però poi resettai tutto dato che dopo alcune stampe.... wacko.gif ....meglio lasciare perdere...

Vorrei più avanti prendere un calibratore, dato che stampo abbastanza.

Per ora lo tengo come è... (tanto con la X100 scatto prevalentemente in b/n e di dominanti non ce ne sono...! tongue.gif )


Un saluto,
Marco
F.Giuffra
Ho paura che un 32" sia troppo grande per poter lavorare e un 24" 4k abbia pix troppo piccoli per poterli vedere bene... suggerimenti?
federico777
QUOTE(F.Giuffra @ Feb 2 2014, 11:28 PM) *
Ho paura che un 32" sia troppo grande per poter lavorare e un 24" 4k abbia pix troppo piccoli per poterli vedere bene... suggerimenti?


27"? messicano.gif

F.
Lightworks
Anche secondo me il 4k è decisamente prematuro. Se sei in ambasce per mancanza di monitor direi che allo stato attuale l'optimum sarebbe un bel 26-27 16:10 Nec o Eizo e vedrai che per molti anni a venire non ti proporrai più il problema.
cesman88
QUOTE(togusa @ Feb 2 2014, 05:18 PM) *
Qualsiasi.
L'importante è che si usi un cavo DisplayPort, in quanto il vecchio DVI e l'HDMI 1.3 sono limitati a 8bit per colore.
Il DP arriva a 16 bit per canale cromatico.



Non mi risulta che sia così.
Per gestire i 10 bit colore occorre una scheda video delle linee "pro", quindi Nvidia Quadro o ATI FirePro (a meno che non ci siano state recenti novità nei driver delle linee "consumer")

ciao
Lightworks
QUOTE(cesman88 @ Feb 3 2014, 10:32 AM) *
Non mi risulta che sia così.
Per gestire i 10 bit colore occorre una scheda video delle linee "pro", quindi Nvidia Quadro o ATI FirePro (a meno che non ci siano state recenti novità nei driver delle linee "consumer")

ciao


E aggiungo che mi sembra proprio che il normale cavo DVI gestisca nativamente i 10 bit colore, non serve il dp.
maxiclimb
QUOTE(Lightworks @ Feb 3 2014, 10:48 AM) *
E aggiungo che mi sembra proprio che il normale cavo DVI gestisca nativamente i 10 bit colore, non serve il dp.



No, la displayport è indispensabile.
Ma è indispensabile anche una scheda video che supporti i 10bit (ovvero Nvidia Quadro o AMD Firepro)

Che poi la differenza non è realmente visibile tranne che in casi particolari e SOLO su monitor davvero di alto livello (non certo questo Dell, per interessante che sia)
maxiclimb
QUOTE(riccardobucchino.com @ Feb 2 2014, 05:58 PM) *
si è informato e ha scoperto che in effetti i normali calibratori non sono abbastanza precisi per tarare un wide-gamut e che alla fine è meglio avere una perfetta copertura dello spazio sRGB e una taratura eccellente in quello spazio colore piuttosto che una taratura imperfetta su uno spazio colore superiore.


I "normali" colorimetri non ERANO in grado di tarare correttamente un widegamut.... qualche anno fa!

ora si sono adeguati.
Già lo spyder3 era cambiato a livello hardware proprio per poter lavorare correttamente sui W-G, ora i moderni colorimetri (e spettrofotometri), non hanno più alcun problema.

Certo serve un prodotto relativamente moderno e possibilmente non proprio un entrylevel di dubbia qualità.
E naturalmente se possibile è preferibile usare la calibrazione hardware.
colbricon
Bel monitor ma è 16 9 e non 16 10 e secondo me con 24" non sfrutti quella risoluzione.
Lightworks
QUOTE(maxiclimb @ Feb 3 2014, 12:40 PM) *
No, la displayport è indispensabile.


Vero, mi sono riguardato su wiki il DVI, sono 8 bit per colore, i due in più servono per schifezzine varie ma non per il colore che si ferma a 24bit.

Però anche le ultime revisioni dell' HDMI doverebbero supportare colori a 30bit e oltre...
Emergent
QUOTE(giuliomagnifico @ Feb 2 2014, 08:27 PM) *
L'ho appena scritto! E`inutile avere tutti quei px per vederli da 15cm... se prendi un monitor Apple retina (o quando uscritanno i 4k), i pixel saranno grandi uguali perchè il software invece di usare 1pixel ne usa 2 (per i retina) e ne userà 4 per i 4k. Adesso che photoshop e lightroom sono aggiornati. da poche settimane, per supportare gli HI-DPI dei retina display, tornare al punto di partenza con un 4k non mi sembra una gran cosa... un conto è se lo usi come monitor per giocare o secondario solo per visualizzare le immagini ma altrimenti.....


Un monitor apple?
Retina?
Ma lo hai mai provato a calibrare, confrontandolo con un eizo (per dirne uno) e poi andare in stampa?
I monitor apple (per quanto vogliano venderli come pro), non sono affatto pro, per la fotografia.
vanno molto bene per il cinema, ma non per la fotografia.
F.Giuffra
Quindi un fotoamatore dovrebbe comprare una scheda video costosissima e lenta per avere i 10 bit. Sarei curioso di vedere quanta differenza facciano realmente. Mi pare di ricordare che anni fa qualche hacker avesse fatto un driver pirata per abilitare i 10 bit nelle schede normali che costano molto meno e sono più performanti.

Ma non esistono altre marche di schede video, tipo Matrox?
maxiclimb
QUOTE(F.Giuffra @ Feb 3 2014, 01:45 PM) *
Quindi un fotoamatore dovrebbe comprare una scheda video costosissima e lenta per avere i 10 bit.


No, non è che "dovrebbe", anzi proprio perchè fotoamatore farebbe meglio ad evitarlo.
Poi perchè "lenta"? Quelle di fascia alta sono velocissime, ci mancherebbe!
Ovvio che se ti servono per i videogame non ha senso spendere così tanto, ma chi usa quelle schede in genere non lo fa per i giochini...

La differenza dei 10bit? Ricordo Manovi che diceva di essere riuscito (a fatica) a scorgere delle piccolissime differenze sulle sfumature di ali di farfalla, su monitor Eizo ColorGraphic. Su altri monitor di fascia più bassa la differenza o non esiste o è inferiore ai "difetti" del monitor stesso, quindi....

Capisco, e in certa parte condivido, il desiderio di ricercare sempre gli strumenti migliori, ma spesso sono le caratteristiche meno "appariscenti" a fare la vera differenza.
Altrimenti potremmo dire che una compattina va meglio della d700 perchè ha più pixel...

E comunque come ha già spiegato bene Giulio, usare un monitor 4k senza avere un sistema operativo che lo supporta, è masochismo puro.
I tempi non sono ancora maturi, e gli apripista che si fanno ingolosire sono destinati ad avere "tanta spesa e poca resa", come sempre in ambito tecnologico.
giuliomagnifico
Hands-on: 4K / UltraHD on the PC

There is such as thing as too much desktop space, and that has to do with the pixel density. The Sharp and ASUS screens have 140 pixels per inch. For 27” and 24” 4K monitors, that will increase even more. And while 140 ppi of course isn't as impressive compared to high-end smartphones and tablets, it's impressive for a PC monitor. 24” and 27” Full HD screens have pixel densities of 92 ppi and 82 ppi, respectively.

The high pixel density can cause problems on the Windows desktop, where icons and text become so small you can't really tell anymore what's there. The scaling function in Windows doesn't always properly remedy this (yet).

In our experience, 4K resolution on a 31.5-inch monitor and 100% scaling is the limit, and even then you'll end up squinting at the tiny icons at times. Any 4K monitor smaller than that definitely requires scaling to be useful.


federico777
"lente" per giocare (3D), in ambito fotoritocco non c'è invece alcuna controindicazione ad utilizzare le schede di fascia pro, sono nate per quello. Certo, per chi vorrebbe fare un po' di tutto con un unico PC questa distinzione consumer/pro rompe davvero le scatole laugh.gif

Condivido invece il discorso su come le cose più importanti a fare il risultato siano spesso quelle alle quali pochi badano: i 4K invogliano a spendere mille o duemila euro più di qualcuno, che invece fino ad oggi non pensava minimamente di spendere cifre del genere per un monitor con, invece, caratteristiche probabilmente più importanti in ambito fotoritocco (controllo di uniformità del pannello p.es.), pur a risoluzione più bassa.

F.
riccardobucchino.com
QUOTE(F.Giuffra @ Feb 2 2014, 11:28 PM) *
Ho paura che un 32" sia troppo grande per poter lavorare e un 24" 4k abbia pix troppo piccoli per poterli vedere bene... suggerimenti?

Lo scopo dei produttori è fare monitor con pixel così piccoli da non poterli vedere, raggiunto quel punto (il 24" 4k direi che lo raggiunge) non servirà ulteriore ricerca per ridurre i pixel e si punterà sulla qualità del colore.



QUOTE(Emergent @ Feb 3 2014, 01:40 PM) *
Un monitor apple?
Retina?
Ma lo hai mai provato a calibrare, confrontandolo con un eizo (per dirne uno) e poi andare in stampa?
I monitor apple (per quanto vogliano venderli come pro), non sono affatto pro, per la fotografia.
vanno molto bene per il cinema, ma non per la fotografia.

Per il cinema? Al massimo van bene per vedere i film perché per fare post sui film è bene avere monitor professionali, del resto chi si occupa di effetti speciali e simili di certo non usa il mac perché non ci sono i software e se ci sono non sono facilmente modificabili, l'industria del cinema fa largo uso di linux e windows.



QUOTE(F.Giuffra @ Feb 3 2014, 01:45 PM) *
Quindi un fotoamatore dovrebbe comprare una scheda video costosissima e lenta per avere i 10 bit. Sarei curioso di vedere quanta differenza facciano realmente. Mi pare di ricordare che anni fa qualche hacker avesse fatto un driver pirata per abilitare i 10 bit nelle schede normali che costano molto meno e sono più performanti.

Ma non esistono altre marche di schede video, tipo Matrox?

Devono avere la Display port e solo alcune ati commerciali le hanno altrimenti devi andare per forza sulle professionali firegl e quadro ma una quadro la porti a casa con 180 euro, sui giochi è uno schifo, non ha potenza, per lavorarci le foto va più che bene.




QUOTE(federico777 @ Feb 3 2014, 04:29 PM) *
"lente" per giocare (3D), in ambito fotoritocco non c'è invece alcuna controindicazione ad utilizzare le schede di fascia pro, sono nate per quello. Certo, per chi vorrebbe fare un po' di tutto con un unico PC questa distinzione consumer/pro rompe davvero le scatole laugh.gif
Se uno vuole giocare e fare fotoritocco al top prende una quadro top di gamma, ha le prestazioni di una ge-force, la qualità costruttiva e le connessioni di una scheda professionale unico problema è che costa come una D800E nital!
maxiclimb
QUOTE(riccardobucchino.com @ Feb 3 2014, 04:37 PM) *
Devono avere la Display port e solo alcune ati commerciali le hanno altrimenti devi andare per forza sulle professionali firegl e quadro


No Riccardo, la connessione Displayport ormai ce l'hanno praticamente tutte le schede video (compresa la mia normalissima Nvidia Gtx760).
Quello che mancano sono i DRIVER a 10bit appositamente sviluppati.

Tra l'altro anche per quel che riguarda le prestazioni, i Driver spesso contano più dell'hardware stesso.
MacMickey
QUOTE(Emergent @ Feb 3 2014, 01:40 PM) *
Un monitor apple?
Retina?
I monitor apple (per quanto vogliano venderli come pro), non sono affatto pro, per la fotografia.


Non ho capito di cosa parlate, non ci sono monitor retina apple!!!

Gli schermi retina sono solo nei portatili o negli iPad/iPhone. Di certo non si possono ritenere pannelli pro e neppure confrontare con uno schermo desktop.

L'ultimo monitor pro era il 30 cinema HD, in pensione nel 2011 (presentato già nel 2004 con 2560x1600px un sogno per l'epoca)

Al momento tamponano con un solo monitor a listino, un 27' riciclato nel case del precedente iMac, con porta TB.
Ho visto la presentazione del MacPro giusto due settimana ed era collegato a 3 di questi. Un vero peccato vedere montaggi video 4k con effetti applicati in tempo reale, e poi non poter godere del montato a piena risoluzione!
giuliomagnifico
Io parlavo dei portatili. Se uno vuole proprio tutta sta densità di pixel, almeno avere un SO che la sfrutti.
riccardobucchino.com
QUOTE(giuliomagnifico @ Feb 3 2014, 07:55 PM) *
Io parlavo dei portatili. Se uno vuole proprio tutta sta densità di pixel, almeno avere un SO che la sfrutti.

Portatile sta a buon monitor come calibrazione colore sta a daltonico!


E ti ripeto ancora una volta: TUTTI i sistemi operativi moderni supportano risoluzioni che non puoi neanche immaginare, pensa che io ho una VGA di quasi 20 anni fa che va su porta PCI montata in un pc con windows 95 e bene, porta 1600x1200 px, significa 4 volte la risoluzione più comune quando è uscita e praticamente la stessa risoluzione dei monitor full hd!




Se guardi questo nuovissimo DELL con i suoi 3840x2160px NON raggiunge la risoluzione del vecchio IBM T220 del 2001 (TREDICI anni fa) che vantava 3840px orizzontali e ben 2400 verticali, e se nel 2001 si poteva usare il T220 mi spieghi perché oggi non si dovrebbe poter usare un monitor con una densità pixel minore?
togusa
QUOTE(giuliomagnifico @ Feb 3 2014, 07:55 PM) *
Io parlavo dei portatili. Se uno vuole proprio tutta sta densità di pixel, almeno avere un SO che la sfrutti.




Ancora sta storia del sistema operativo... quando non c'entra niente.
Su un qualsiasi pc windows del supermercato, ammesso che abbia abbastanza uscite video, uno può collegarci anche 4 monitor full-hd messi 2x2, ed estendere il desktop su tutti e 4... il che equivale ad avere un singolo monitor a 4k di risoluzione. L'unica differenza è che la scheda video invece di gestire 4 frame-buffer separati, ne deve gestire uno solo grande 4 volte tanto. Per questo serve una scheda che riesca a stare dietro a tutto, ma il SO non c'entra una beata.

Il tutto, col pc windows del super.

Per cui, finiamola con la storia del "serve un SO che sfrutti tutti i pixel" perché non ha senso.
giuliomagnifico
No no solo OS X al momento è in grado di usare la UI in modo scalare al doppio della risoluzione quindi doppi dpi quindi visibilità doppiamente migliore biggrin.gif

È anche scritto nella recensione che ho riportata to sopra: con 4k non hai SO che possano sfruttare quella scalabilità, e non si vede nulla. Se usi un 2k (aka retina) puoi sfruttarlo senza vedere minuscolo e basta ma vedendo meglio/più definito. smile.gif
togusa
Comunque confermo che, per ora, nVidia Quadro e ATI FirePro (per quale assurdo motivo non si sa - dato che hanno lo stesso hardware) sono le uniche schede video che supportano 10bit per canale. Il problema, pare, che sia unicamente legato ai driver più che all'hardware (per questo lo trovo assurdo).

C'è di buono che comunque i modelli più scarsi di Quadro costano 4 soldi (e comunque uno può anche comperarla usata). Oppure esistono alcuni modelli di GeForce che possono essere "taroccate" con un aggiornamento del firmware e farle riconoscere come se fossero delle Quadro (il che è possibile, guarda caso ancora, perché hanno esattamente lo stesso hardware delle GeForce a loro "gemelle"). Ma è inutile dire che queste cose invalidano la garanzia e sono potenzialmente letali per la scheda se qualcosa va storto.
giuliomagnifico
Il punto dei 10 bit è che a parte PS, quasi nessun software comune li supporta. Nemmeno Lightroom... Si fa tanta fatica per niente biggrin.gif
Lightworks
Credo che Giulio abbia ragione, nel senso che in windows puoi scalare testi e icone ma i tasti dei programmi quelli sono e quelli restano. alcuni programmi danno al possibilità di scegliere tasti grandi o tasti piccoli, ma non sono la maggior parte e sopratutto chissà come si vedrebbero i tasti grandi su un monitor 4k, essendo questi pensati per la metà al max.
giuliomagnifico
Si è un problema di tutti i SO con i 4k. OS X arriva al doppio (cosa sono circa 200/220dpi i display retina?!), mentre Windows a 100/120dpi. Con 4k, cioè 400/500dpi non si vede nulla, basta provarne uno! O meglio, si vede mare tutto minuscolo! A me già sembravano piccoli i 1920x1080 sui monitor da 15" (con il SO normale), figuriamoci 4 volte tante!

Che poi è lo stesso problema dei TV 4k: esistono ma praticamente non ci sono film in 4K (pochissimi), e altri li spacciano per 4k, perchè sono girati con videocamere 4K, ma poi sono post-prodotti tutti a 2k perchè avere un workflow completo a 4k richiede molto più tempo e soldi!

E discorso simile per i 10bit, un conto è se si usano display per fare grafica pura ma nelle foto non è che si veda poi tanto la differenza, non sono mica gradienti tirati da 0,0,0 a 255,255,255 le foto... (Ed è una questione hardware il supporto ai 10bit. Se una scheda non lo supporta, con un altro firmware non li si abilita, lo si emula al massimo. A meno che non sia bloccata la scheda di suo ma non so se è quante ne esistono di schede PRO bloccate via software). Ah poi ""credo"" che questo pannello non sia mai più un 10bit reali ma solo interpolati...
F.Giuffra
Cominciano ad uscire diversi 32" da 4k, ovvero ultra HD. Credo che per questi non ci sia alcun problema, le dimensioni son talmente generose che, presbiopia grave a parte, sia tutto comunque ben leggibile.

Invece con 24" non riesco a capire se si andrebbe sotto alla definizione massima dell'occhio umano, che credo sia intorno ai 300 punti per pollice a circa 30 cm. Qualcuno ha trovato il valore DPI per un 24" ultra Hd?

Grazie.

Forse ho trovato qui, pare che siano 185 DPI. Quindi si dovrebbe leggere... strizzando un po' gli occhi? Sarà solo visibile o anche ben leggibile, almeno per uno che lavora da solo, non che deve mostrare le scritte piccole ad una aula magna piena?

hmmm.gif
federico777
QUOTE(riccardobucchino.com @ Feb 3 2014, 04:37 PM) *
Se uno vuole giocare e fare fotoritocco al top prende una quadro top di gamma, ha le prestazioni di una ge-force, la qualità costruttiva e le connessioni di una scheda professionale unico problema è che costa come una D800E nital!


Intendi la K6000, l'unica ad avere prestazioni 3D comparabili con una buona consumer? Facciamo come una D4, allora laugh.gif
Le altre pro hanno tutte prestazioni 3D largamente inferiori...

Tempo fa studiavo la fattibilità di una configurazione a doppia scheda proprio per questo motivo, una Quadro economica per i 10 bit/canale e una consumer tosta per i videogames. Anche sui forum dedicati non ho avuto pareri chiari sulla fattibilità concreta (con due monitor separati, uno per scheda, probabilmente sì, ma con un monitor solo la cosa si complica)

Federico
giuliomagnifico
185ppi (185,2 per essere precisi), sono pochi! Io pensavo ne avesse mooolti di più! Un retina MacBook Pro ne ha 227ppi blink.gif la cosa è ingannevole perchè dicono 4k ma sono 4k di una TV, non di un computer! Cioè sono 2 volte 1920x1080px, non i 2560x1440 di un display standard 27" biggrin.gif per quello i dpi sono così bassi (e anche il pixel pitch quindi). Quindi basta aspettare che la scalabilità su Windows sia come sui retina che sono usabili facilmente e credo manchi poco!

MacMickey
QUOTE(giuliomagnifico @ Feb 3 2014, 11:49 PM) *
185ppi (185,2 per essere precisi), sono pochi! Io pensavo ne avesse mooolti di più! Un retina MacBook Pro ne ha 227ppi blink.gif la cosa è ingannevole perchè dicono 4k ma sono 4k di una TV, non di un computer! Cioè sono 2 volte 1920x1080px, non i 2560x1440 di un display standard 27" biggrin.gif per quello i dpi sono così bassi (e anche il pixel pitch quindi). Quindi basta aspettare che la scalabilità su Windows sia come sui retina che sono usabili facilmente e credo manchi poco!


Cerca di capire un retina misura al max 15 pollici!!!!! per questo ti ho scritto già sopra che non esistono monitor retina!!!! (che tra l'altro viste le distanze di lavoro non avrebbero senso)

Quì si parla di un 32 ,il topic parla di monitor 32 UltraHD, gli schermi retina non c'entrano un piffero!!!!!!!!!!!

Dai ci stai a arrivando: 4K sta per 4mila, ultraHD = HD x2 sono definizioni presa a prestito da cinema e tv.

Detto questo, anche se un sistema operativo scala l'interfaccia occorre che anche i singoli programmi facciano altrettanto in maniera nativa, non a caso la suite di Adobe è stata ottimizzata per questo problema della risoluzione maggiore, perchè altrimenti se ti limiti a raddoppiare la grafica interfaccia di partenza per cosa l'hai preso un display più definito?
gambit
tutto sommato non costa neppure tanto, se si pensa che il thunderbolt costa 1007...e il 4k della sharp che si può comprare sull appple store costa 4000.
F.Giuffra
Ormai ogni giorno che passa arriverà un nuovo monitor 4K, chissà se presto raggiungeremo qualità elevate a prezzi ragionevoli.
E questo Samsung TN come farà ad avere così tanti colori?
giuliomagnifico
Non li ha. Li supporta. O meglio, li può emulare. Mi ricordo di anni fa quando avevano intentato un class action o qualcosa del genere contro Apple perchè i loro pannelli non avevano tutti i 16,7 ? Mln di colori ma li emulavano tramite OS X. Per questo è qualcosa di simile, cioè il software simula un numero di colori che il pannello non ha realmente. Ci sarà qualcuno che saprà spiegarlo meglio, il concetto è quello ma non ricordo i dettagli.
togusa
QUOTE(giuliomagnifico @ Apr 1 2014, 05:33 PM) *
Non li ha. Li supporta. O meglio, li può emulare. Mi ricordo di anni fa quando avevano intentato un class action o qualcosa del genere contro Apple perchè i loro pannelli non avevano tutti i 16,7 ? Mln di colori ma li emulavano tramite OS X. Per questo è qualcosa di simile, cioè il software simula un numero di colori che il pannello non ha realmente. Ci sarà qualcuno che saprà spiegarlo meglio, il concetto è quello ma non ricordo i dettagli.




Probabilmente è un effetto ottenuto grazie all'alto refresh rate.

In pratica funziona così.
Mettiamo che un pixel rosso deve mostrare il colore "Rosso 150" (il numero è inventato) ma il gamut dello schermo riuscirebbe solo a mostrare o il "Rosso 200" (più chiaro) o il "Rosso 100" (più scuro).

Allora il monitor "dice" al pixel di alternare tra "rosso 100" e "rosso 200" molto rapidamente (diciamo 100 volte al secondo). In questo modo all'occhio umano apparirà come una via di mezzo tra "rosso 100" e "rosso 200"... ovvero "rosso 150"... senza in realtà aver mai effettivamente prodotto un "rosso 150".

Questo effetto ha un nome... ma non lo ricordo.
gianlucaf
in teoria windows può scalare icone e interfacce fine al 150% e anche il testo il problema
è che non tutti i programmi si attengono a questa configurazione ma hanno settaggi indipendenti.
Quindi è un disastro. Mi è capitato con il monitor nuovo in ufficio, un po' piccolo ma con molta risoluzione.
Alla fine ho trovato un compromesso tra tutti i programmi ma effettivamente molte icone sono piccole.
riccardobucchino.com
QUOTE(F.Giuffra @ Feb 3 2014, 02:45 PM) *
Quindi un fotoamatore dovrebbe comprare una scheda video costosissima e lenta per avere i 10 bit. Sarei curioso di vedere quanta differenza facciano realmente. Mi pare di ricordare che anni fa qualche hacker avesse fatto un driver pirata per abilitare i 10 bit nelle schede normali che costano molto meno e sono più performanti.

Ma non esistono altre marche di schede video, tipo Matrox?
La quadro 400 ha una DP a 10 bit e costa 160€, altrimenti i 10 bit li trovi sulle schede AMD di fascia alta anche senza andare sulle professionali ma costano più di una quadro 400. Io oggi come oggi prenderei una quadro non proprio entry level giusto per avere 2 Display Port e un dvi perché secondo me è impensabile usare solo monitor 4k, le foto devi guardarle anche su un monitor con risoluzione normale specie se andranno su internet altrimenti non ti fai l'idea di come gli altri le vedranno!


F.Giuffra
QUOTE(riccardobucchino.com @ Apr 3 2014, 04:59 PM) *
... i 10 bit li trovi sulle schede AMD di fascia alta anche senza andare sulle professionali ma costano più di una quadro 400.

Quali Amd di fascia alta non pro hanno i dieci bit? Quanto costano? Magari per applicazioni 3d vanno meglio, non solo giochi ma, ad esempio, radiografie in 3d...
Pagine: 1, 2
Salta a inizio pagina | Per vedere la versione completa del forum Clicca qui.