View Full Version : ATI Eyefinity: la prima tecnologia delle GPU DX11
Redazione di Hardware Upg
10-09-2009, 21:39
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2280/ati-eyefinity-la-prima-tecnologia-delle-gpu-dx11_index.html
Eyefinity è il nome della nuova tecnologia sviluppata da ATI per la gestione di configurazioni multimonitor, sino ad un massimo di 6 display contemporaneamente collegati al sistema. Non solo produttività personale: Eyefinity estende il concetto di surround gaming a nuovi livelli e risoluzioni
Click sul link per visualizzare l'articolo.
visto che le immagini delle S.video sono state censuratemi permetto di postare quelle effetuate da altre redazioni :)
http://www.pcper.com/images/news/demo06.jpg
http://www.pcper.com/images/news/demo01.jpg
P.s: certo che giocare a Quake con una 5870 :asd:
che invidia, anzi che ati :asd:
Il gaming a 6 schermi, per quanto scenico, non mi piace molto e richiede una potenza spropositata.
Ecco già una configurazione multischermo per applicazioni professionali la trovo molto più utile
Sarà anche ultrasottile, ma la cornice mi darebbe fastidio, in un gioco.. Diverso il discorso per la produttività personale, invece!
Quello che posso dire è che..se "la potenza di elaborazione è tale da poter dire che la riproduzione sia fluida, anche con 6 pannelli da 1920x1080 pixel di risoluzione ciascuno, utilizzati contemporaneamente", con un dettaglio grafico più che discreto..queste schede sono delle vere bestie! (e chissà le prestazioni in single monitor!! (sono un barbone..6 non me li posso permettere..potrei arrivare a due..non di più..))
Dimenticavo: grazie Matalf, per le foto "rubate"! ;) (che poi..sono 6 semplici connettori DP..cosa ci sarà mai stato da nascondere.. (mi riferisco al fatto che ATi li volesse tenere nascosti, non alla redazione) E nell'altra foto, si nota una ventola da 6m di diametro, e due coperture plastiche per le schede video..nessun dettaglio particolare! (oltre a 15000 cavi che escono dal pc!))
sinceramente sta notizia me l'ero già aspettata due giorni fa quando ho visto la recensione delle matrox triple head2go e quando ho visto in giro delle news sulla possibilità di usare piu monitor, cosa che puo' interessarmi poco rispetto alle prestazioni delle shcede video rv870.....comunque bell'articolo, spero che i bench usciranno a breve
capitan_crasy
10-09-2009, 22:07
X Paolo Corsini:
Ci puoi dire che tipo di piattaforma (compreso i modelli CPU) ha utilizzato AMD durante la presentazione?
Abufinzio
10-09-2009, 22:08
no ma perchè mi è bastato inclinare lo schermo del portatile per vedere cosa c'era dietro la nuvola bianca? :asd:
gianni1879
10-09-2009, 22:11
ottima flessibilità :)
AceGranger
10-09-2009, 22:12
Il gaming a 6 schermi, per quanto scenico, non mi piace molto e richiede una potenza spropositata.
Ecco già una configurazione multischermo per applicazioni professionali la trovo molto più utile
bè insomma, anche professionalmente dipende in che ambiti...
perchè in molti programmi di grafica la risoluzione del monitor fa decadere le prestazioni e di certo 3 monitor su una sola scheda non so quanto possa essere performante.
alla fine la novita è nel fatto che lo fai con 1 scheda sola, perchè i monitor ruotati e tutto il resto lo fai tranquillamente con 2 schede; pero sicuramente una bella flessibilita
Complimenti alla redazione per l'ottima esposizione ed a AMD per Eyefinity!!
Paolo Corsini
10-09-2009, 22:16
Immagini
La regola era: nessuna foto delle schede. Ho preferito, più per correttezza che per convinzione, editare le mie immagini di conseguenza un paio di ore prima che questo articolo andasse online.
Sistema: processori AMD. Non ho verificato le specifiche, immagino Phenom II X4 965
crysis a quella risoluzione...
sono pazzi? e magari c'era un phenom x4 per farlo girare...
crysis a quella risoluzione...
sono pazzi? e magari c'era un phenom x4 per farlo girare...
A quella risoluzione penso che tra un Phenom e un i7 @ 5ghz non cambi una mazza, andrebbe a 1 fps lo stesso :asd:
capitan_crasy
10-09-2009, 22:23
Immagini
La regola era: nessuna foto delle schede. Ho preferito, più per correttezza che per convinzione, editare le mie immagini di conseguenza un paio di ore prima che questo articolo andasse online.
Sistema: processori AMD. Non ho verificato le specifiche, immagino Phenom II X4 965
Grazie paolo :) (speravo in un 6 in quelle CPU)
mah... molto scenica l'idea di 6 monitors collegati tra loro e in passato ho anche provato con 4 giusto per sfizio e per vedere com'è, ma come già detto le cornici rompono anche perchè per quanto fine (1cm circa per quelle + piccole di media) arrivan comunque a farsi notare... oltre al fatto che per la media delle postazioni gaming il naso è a 30-40cm dallo schermo oppure per maggiori distanze basterebbe spostarsi su una diagonale maggiore di lcd.... io la vedrei bene una soluzione simile più che per il gaming per un utilizzo professionale di progettazione e designe dove star dietro a righe e segmenti spesso ti fa venire gli occhi a camaleonte... :sisi
leddlazarus
10-09-2009, 22:43
con 3 bei monitor opportunamente angolati e con un simulatore di guida avresti la sensazione di guardare dai finestrini laterali, proprio girandoti come faresti su una macchina vera.
poi mancherebbe una sedia su pistoni per avere una buona esperienza di realta virtuale.
gianly1985
10-09-2009, 22:45
Dimenticavo: grazie Matalf, per le foto "rubate"! ;) (che poi..sono 6 semplici connettori DP..
Non vorrei dire una cavolata, ma più che connettori DP (http://www.richtimehk.com/store/catalog/displayportcable.jpg) mi paiono 6 connettori Mini-DP (http://www.macpoint.it/MacSecretsNews/2009/img/Mini_DisplayPort_Adapter.jpg) (il connettore creato da Apple e poi inserito ufficialmente nelle specifiche Display Port 1.2)
manca solo che ti riproducano il palo dell'enel e i vari effetti che ti procura fisicamente quand ti ci skianti poi hai la simulazione " reale" lol =D
Non vorrei dire una cavolata, ma più che connettori DP (http://www.richtimehk.com/store/catalog/displayportcable.jpg) mi paiono 6 connettori Mini-DP (http://www.macpoint.it/MacSecretsNews/2009/img/Mini_DisplayPort_Adapter.jpg) (il connettore creato da Apple e poi inserito ufficialmente nelle specifiche Display Port 1.2)
si sono mini Display port non c'è dubbio
Dumah Brazorf
10-09-2009, 22:49
6 monitor, che sbavo...
II ARROWS
10-09-2009, 23:00
Quando potete, mi promettete che farete un test di Crysis a 5760x2160?
manca solo che ti riproducano il palo dell'enel e i vari effetti che ti procura fisicamente quand ti ci skianti poi hai la simulazione " reale" lol =D
quello è il prossimo step.... il problema è che l'ambulanza fuoripista con infermieri è nell'uscita successiva... :'( chissà nel frattempo in quanti decederanno :D
marco_182
10-09-2009, 23:20
Nella pagina "Multidisplay: come incrementare produttività e divertimento" nella seconda immagine, quei tipi di monitor esistono veramente?
Non sarebbe altro che un 16:9 girato giusto?
Molto bello l'effetto con tre monitor del genere, perchè l'immagine non viene schiacciata come con tre monitor 4:3 o 16:9 (ancora peggio)
gianly1985
10-09-2009, 23:36
Nella pagina "Multidisplay: come incrementare produttività e divertimento" nella seconda immagine, quei tipi di monitor esistono veramente?
Certo, esistono da sempre monitor con che si possono ruotare in quel modo (pivot):
http://img.skitch.com/20090910-b61a5gq3jwf6dpxm9ctau1mkn6.jpg
Considerato il prezzo dei monitor da 23-24" fullHD, ciò che fino qualche anno fa' era impensabile a livello di costi, oggi non lo è più, e se non fosse per le cornici (qualche produttore spero che provveda) 3 monitor in verticale per fare i 3240x1920 forse sono pure meglio di certi 30" in circolazione.
Non dico una soluzione per tutti, ma 450 euro di monitor si può fare.
Anche per il 3D, imho, non è così "pesante" come potrebbe sembrare a prima vista, non più di gestire un 4x SSAA a 1920x1080.
Amd avrà fatto bene i suoi "conti" con la potenza delle sue schede video in uscita :D
mmm... sento profumo di successo per la prossima generazione di schede Amd...
Spero che se deve sfondare veramente l'ultra Wide, allora meglio che prendano piede i monitor 21:9 e non quegli obbrobri dei multischermi.
Dall'articolo di Anandtech:
http://www.anandtech.com/video/showdoc.aspx?i=3635
"AMD has partnered up with at least one display manufacturer to sell displays with thinner bezels and without distracting LEDs on the front"
Come immaginavo, faranno monitor con cornici sottili ;)
Anche i consumi non devono certo impensierire: un lcd 22-24" fullHD sta' sotto i 40W a regime (alcuni sui 25W) quindi anche 3 sono ben al di sotto di un televisore LCD > 32"
Almeno si potra sfruttare a dovere la potenza delle schede grafiche ...
Non vedo l ora di giocare a grid o gtr 2 col multi monitor :D
Si ok, tutto molto bello..
Ma avrei avuto più interesse a vedere quali siano le peculiarità della scheda DX11 rispetto a quello che offre una DX10..
Per la storia del multischermo: sinceramente a me pare una gran vaccata..
i motivi sono molto semplici:
Passi l'ambito lavorativo in cui in certi casi possono tornare utili ma per giocare piuttosto mi faccio il videoproiettore!!
Costa meno dei 6 video e non ho nemmeno le cornici!
Come già detto da altri una sola scheda per muovere una risoluzione da 6 schermi viaggia ad 1fps.. che te ne fai??
danlo8600
11-09-2009, 00:43
Purtroppo sia la soluzione dei 6 monitor che quella del video proiettore non sono per tutti, non tanto per i costi, ma per gli spazi... A me detto onestamente basterebbero 4 monitor, uno per ogni desktop :D... Per quanto riguarda il giocarci sarebbe molto bello, insomma sarebbe come nelle sale giochi quando ci si infila dentro a quei simulatori con 3/4 monitor, l'unico vero problema sono le cornici che rendono discontinua l'immagine, forse a una distanza di 3 metri, le cornici non si vedono quasi, non saprei, si dovrebbe provare , però comunque si perde l'effetto di simulazione, ci manca solo il sedile che vibra e si sposta, e a quel punto si avrà la sensazione di stare veramente su un aereo o a guidare....
Sei schermi son tanti .. Alcuni giochi possono giare , altri no. 2 schermi li ho gia . Magari un terzo ci scappa .3 schermi li gestira tranquillamente . Una x2 già adesso potrebbe . Ormai sono solo conversioni da xbox , quindi non ci saranno problemi .
Saluti
con 3 bei monitor opportunamente angolati e con un simulatore di guida avresti la sensazione di guardare dai finestrini laterali, proprio girandoti come faresti su una macchina vera.
poi mancherebbe una sedia su pistoni per avere una buona esperienza di realta virtuale.
Credo che si possa fare dal 99 con 3 copie di GT1 e 3 playstation tramite porta seriale, sicuramente con GT3 dalla PS2.
zerothehero
11-09-2009, 01:26
Vedremo come si conporteranno i driver.
Già con due schermi (2405fpw e panasonic pz85) capita di avere problemi con lo switch degli schermi, cosa che per la cronaca non avviene con i driver nvidia. :fagiano:
Attendo con impazienza i test delle nuove schede video ati.
SkinPoint
11-09-2009, 02:20
Mille volte meglio un videoproiettore.
Scusate ho un dubbio...ma usando 3 monitor questi devono avere assolutamente la stessa risoluzione oppure si possono usare insieme monitor differenti?
tiziano88
11-09-2009, 02:59
no ma perchè mi è bastato inclinare lo schermo del portatile per vedere cosa c'era dietro la nuvola bianca? :asd:
ahahah giusto!!!
ministro
11-09-2009, 06:45
A parte che vedere 5000 e passa di risoluzione su Crisys mi fa un po ridere..
Cmq non ho mai sopportato il multischermo, non riesco a farmi andare giù le linee divisorie, è proprio una cosa brutta secondo me, preferisco un proiettore che mi faccia direttamente l'immagine grande.
daddyxx1
11-09-2009, 07:05
wow potenza elaborativa incredibile! ma nella realtà videoludica chissà quante persone sarebbero disposte a farsi un sistemino del genere...forse solo il mercato enthusiast
DakmorNoland
11-09-2009, 08:05
A me sta cosa del multi monitor non ispira per niente, piuttosto anzichè spendere soldi per più monitor tanto vale prendersi un bel TV grande da usare come monitor! Lo trovo un investimento più sensato! Inoltre appunto le linee divisorie le trovo anch'io fastidiose...
Certo che cmq se gestiscono fino a 6 monitor saranno delle bestie ste schede!!! Aspetto con impazienza le prime recensioni. :D
Considerato il prezzo dei monitor da 23-24" fullHD, ciò che fino qualche anno fa' era impensabile a livello di costi, oggi non lo è più, e se non fosse per le cornici (qualche produttore spero che provveda) 3 monitor in verticale per fare i 3240x1920 forse sono pure meglio di certi 30" in circolazione.
Non dico una soluzione per tutti, ma 450 euro di monitor si può fare.
Anche per il 3D, imho, non è così "pesante" come potrebbe sembrare a prima vista, non più di gestire un 4x SSAA a 1920x1080.
Amd avrà fatto bene i suoi "conti" con la potenza delle sue schede video in uscita :D
Infatti il costo di tre monitor 23" fullHD è più o meno quello di una scheda top di gamma. Quello che personalmente mi preoccupa è il costo di una casa con una stanza in più dove mettere la scrivania con i tre monitor .... . :D
Paolo Corsini
11-09-2009, 09:03
Per chi cerca di fare confronti tra soluzioni multimonitor e sistemi che generano immagini grandi (videoproiettori e schermi-TV dalla diagonale elevata), basta porsi una semplice domanda. Qual è la risoluzione massima di un videoproiettore o TV-schermo, superiore o inferiore a una configurazione multimonitor?
Sono tipologie di periferiche non confrontabili.
Paolo Corsini
11-09-2009, 09:04
Infatti il costo di tre monitor 23" fullHD è più o meno quello di una scheda top di gamma. Quello che personalmente mi preoccupa è il costo di una casa con una stanza in più dove mettere la scrivania con i tre monitor .... . :D
Io personalmente pensavo ai cosiddetti "costi sociali" nel momento in cui ho visto una soluzione a 6 schermi. Chi ha moglie non appassionata di tecnologia come il marito immaginerà facilmente quello a cui sottintendo ;)
Io non la trovo una tecnologia così improponibile, oggi comprare un monitor 1680x1050 per giocare è considerato normale, qualche anno fa tutti compravano 1280x1024, prima ancora si giocava a 1024x768 e possiamo andare indietro fino a 320x240 per i primi giochi 3D.
Con gli anni il numero dei poligoni e la qualità dei filtri non è l'unica cosa che cambia, anche la risoluzione avanza e queste tecnologie vanno sviluppate anni prima per essere commercialmente competitive nel momento in cui il mercato comincia a richiederle, già oggi ci sono enthusiast che giocano su 30", quanto tempo pensate che debba passare prima che qualcuno cominci a desiderare una risoluzione superiore? (Nota Bene: RISOLUZIONE, non superficie.)
Le cornici danno fastidio? Si, ma quelle scompariranno ora che c'è un motivo per farle scomparire, date tempo alla tecnologia ;)
Io personalmente pensavo ai cosiddetti "costi sociali" nel momento in cui ho visto una soluzione a 6 schermi. Chi ha moglie non appassionata di tecnologia come il marito immaginerà facilmente quello a cui sottintendo ;)
:) Infatti, potrebbe essere la goccia che fa traboccare il vaso ... 11 anni di matrimonio distrutti da 6 monitor!
Certo 6 monitor occupano un sacco di spazio, ma 3 da 23" sono più abbordabili per prezzo e dimensioni: stiamo sui 50 x 120 cm a spanne, quindi sui livelli di un LCD 42-46" (non ho controllato, ma dovremmo essere lì) e che costa di più.
Con le staffe a muro si può fare anche a livello di spazio, ma condivido i timori per i "costi sociali" :D
Però quasi quasi me lo installo in studio di soppiatto ,"ufficialmente" per la videoconferenza e lavoro, e poi ci sbatto su Company of Heroes :sofico:
DakmorNoland
11-09-2009, 09:24
Mah sarà che si ottiene una risoluzione complessiva maggiore, poi per carità per lavoro sarà anche utile, ma io preferisco nettamente uno schermo unico, e poi 1920x1080 di risoluzione è più che sufficiente per giocare! Poi ripeto l'ambito professionale è un'altra cosa.
A parte che così facendo si rallenta inutilmente la scheda video, che deve gestire un numero di pixel assurdo! Poi ovviamente ognuno ha i suoi gusti.
Ok, incominciamo con le cose serie:
http://www.fastrepairguide.com/monitor-and-lcd-monitor-problem-solutions/how-to-disassembly-the-lcd-mon.html
una guida per smontare un monitor LCD per togliere quelle fastidiose cornici ;)
nickfede
11-09-2009, 09:27
Bello !!!
Con questa mossa ATI guadagnerà molte quote di mercato dato che in molti ambiti professionali l'uso di più monitor è ormai essenziale.
Sono sempre più soddisfatto della politica AMD sia sulle CPU che sulle GPU che tendono a favorire il consumatore con prezzi vantaggiosi e con piattaforme aggiornabili ed espandibili per molto tempo senza costringere a continui cambi di piattaforma.
Io che non ho bisogno di performance estreme mantengo il sistema aggiornato con una spesa annua ridicola. Spero continui su questa strada.
dr-omega
11-09-2009, 09:28
Incredibile!
Ati ha sviluppato una tecnologia così innovativa, che permette ad una nuvola bianca di gestire più monitor e di supportare le dx11!!! :O
La soluzione a 3 monitor sarebbe l'deale x un homegaming da entusiast,l'unico problema sono le cornici,speriamo che nel breve risolvino questo problema con un multy senza queste fastidiose divisioni.
g.luca86x
11-09-2009, 09:51
"Nell'immagine è presente una schermata di Crysis, titolo utilizzabile con 6 schermi alla risoluzione di 5760x2160 pixel utilizzando schermi da 1920x1080 pixel di risoluzione nativa."
ehm, crossfire di 5870x2? :sofico:
Micene.1
11-09-2009, 09:57
la nuvoletta :asd:
ndrmcchtt491
11-09-2009, 10:03
come dicevo in ul altra discussione sempre sul multischermo questa "nuova" trovata non mi intrippa per niente, piuttosto gli occhiali 3d della concorrenza(la trovo + intrigante per l' immersione videoludica), senza contar costi, spazio x i monitor, potenza di calcolo necessaria
In ambito professionale invece è quasi indispensabile per certe applicazioni
è una possibilità in più per l'utente :)
nessuno ci obbliga a collegare 1 monitor ad ogni uscita :D
viva la concorrenza :O
Mah, io mi chiedo perché prendere 3, 6 o 9 monitor per formare un immagine, quando posso acquistare un 100 pollici a questo punto? Mi turba questa cosa, non ha praticamente senso. E' come dire: "Ehi, che vuoi 6 monitor a 1200 € oppure un 50 pollici a 1300 € ?". Io sceglierei il 50 pollici.. forse è una questione di frequenze e impegno della scheda video? Anche se fosse non lo trovo molto intelligente dividere un immagine in 6 quadri, insomma oltre a non essere compatta ci sono gli spazi tra i monitor che ti danno un impressione di irrealtà virtuale. Spiegatemi, io non ne sò un bel niente di questa roba e vedendola a prima vista mi viene da pensare questo! xD
Phoenix Fire
11-09-2009, 10:46
Mah, io mi chiedo perché prendere 3, 6 o 9 monitor per formare un immagine, quando posso acquistare un 100 pollici a questo punto? Mi turba questa cosa, non ha praticamente senso. E' come dire: "Ehi, che vuoi 6 monitor a 1200 € oppure un 50 pollici a 1300 € ?". Io sceglierei il 50 pollici.. forse è una questione di frequenze e impegno della scheda video? Anche se fosse non lo trovo molto intelligente dividere un immagine in 6 quadri, insomma oltre a non essere compatta ci sono gli spazi tra i monitor che ti danno un impressione di irrealtà virtuale. Spiegatemi, io non ne sò un bel niente di questa roba e vedendola a prima vista mi viene da pensare questo! xD
La grande differenza è la risoluzione indovina quale delle 2 possibilità offre risoluzioni stratosferiche??
kliffoth
11-09-2009, 11:03
un monitor decente, quindi diciamo un pannello h-IPS, costa sui 500 euro (c'è un philips interessante ma non ha tante porte).
Già ora questi monitor secondo me sono consigliabili, ma i ragazzini tengono di più ai 10 ms di lag.
In ogni caso, considerando gli angoli di visione necessari usando più di un pannello, i TN li potete gettare nel cesso (grazie a dio)
ma a questo punto sorge una domanda: quanto costa il tutto?
5 stipendi medi per un PC
Un H-IPS lo puoi pure usare per il gioco, ma è esagerato.
Un Samsung:
SM-F2380 TFT LCD 23"WIDE, 0,258mm, Lumin.300cd/m2, 1000:1/Din.150000:1, Vis178°, 1920x1080, TR 8ms, 16.7mil, Alimen.integr, Dual DVI Input+RGB, Reg.altezza, Pivot, Base Girevole, Magic Bright 3/Tune/Wizard, Image Size, Black, Vista, TCO 5.0, Full HD
si trova sui 250-270 euro ivato, non è un H-IPS ma neanche un TN. E' un cPVA "compromesso accettabile".
Ma come detto già da altri, non è una soluzione per tutti, ma sicuramente è più abbordabile di quanto anche solo immaginabile fino a pochi mesi fa'.
C'è gente che spende cifre ben superiori per un 42" full hd o un video proiettore da usare per il gaming.
In ambito professionale, da anni si spendono cifre superiori e di parecchio, per ottenere soluzioni simili.
Bell'idea quella di avere fino a 6 monitor,a parte i costi e i consumi dei singoli monitor moltiplicati per sei, la cosa sarebbe stata molto piu' attraente se si applicherebbe a monitor con cornici pressoche' nulle. Per ora non ne ho visto in giro.Darebbe l'idea di avere un unico monitor grande con risoluzione molto maggiore....
interessante quando samsung farà uscire monitor senza cornice componibile come presvisto.
clockware
11-09-2009, 12:02
Comunque il lavoro di quelli del marketing si vede e come in una presentazione del genere.
Come ti sbandierano la semplicità di configurazione è una cosa a dir poco ridicola. Come se dipendesse dalla scheda video (o solo dal driver), come se il sistema operativo non c'entrasse nulla.
Sotto linux ad esempio con X e le estensioni Xinerama gestisci tutto quello che pare senza particolari problemi, configurazioni estreme in giro per la rete se ne trovano tante! ;)
Sotto windows sia Ati che Nvidia hanno già ottime soluzioni per l'aiuto nella configurazione, senza contare il pannello di Vista/7 che semplificano il tutto.
Ho letto poi che si confrontano con le soluzioni nvidia, ora non per fare il fanboy, però si potevano citare benissimo le soluzioni Quadro NVS, come la NVS450 (4 display port, 35W dissipazione passiva, slot pci-e x16, form factor ridotto) e indoviniamo un po', visto che non satureranno mai la banda del x16, se ne metti 2 in configurazione x8 mi ritrovo ben 8 monitor da poter gestire. Senza considerare qualche feature interessante che nei driver nvidia sono presenti e in quelli ati ancora no.
Insomma dire che nvidia sta indietro solo perchè riescono a gestire solo 4 display contemporaneamente è puro marketing, cosi come il fatto che riesci a gestire il gaming, senza gli fps e le configurazioni c'è poco da pubblicizzare! ;)
Ovviamente ognuno tira l'acqua al suo mulino! ;)
Comunque il lavoro di quelli del marketing si vede e come in una presentazione del genere.
Come ti sbandierano la semplicità di configurazione è una cosa a dir poco ridicola. Come se dipendesse dalla scheda video (o solo dal driver), come se il sistema operativo non c'entrasse nulla.
Sotto linux ad esempio con X e le estensioni Xinerama gestisci tutto quello che pare senza particolari problemi, configurazioni estreme in giro per la rete se ne trovano tante! ;)
Sotto windows sia Ati che Nvidia hanno già ottime soluzioni per l'aiuto nella configurazione, senza contare il pannello di Vista/7 che semplificano il tutto.
Ho letto poi che si confrontano con le soluzioni nvidia, ora non per fare il fanboy, però si potevano citare benissimo le soluzioni Quadro NVS, come la NVS450 (4 display port, 35W dissipazione passiva, slot pci-e x16, form factor ridotto) e indoviniamo un po', visto che non satureranno mai la banda del x16, se ne metti 2 in configurazione x8 mi ritrovo ben 8 monitor da poter gestire. Senza considerare qualche feature interessante che nei driver nvidia sono presenti e in quelli ati ancora no.
Insomma dire che nvidia sta indietro solo perchè riescono a gestire solo 4 display contemporaneamente è puro marketing, cosi come il fatto che riesci a gestire il gaming, senza gli fps e le configurazioni c'è poco da pubblicizzare! ;)
Ovviamente ognuno tira l'acqua al suo mulino! ;)
dopo aver visto il marketing che diceva che col pentium3 navighi più veloce, non faccio più caso a nulla
Io sarò un po' all'antica, ma la soluzione multimonitor la vedo giusto per fare questo: http://imagegallery.hwupgrade.it/gallery/57/full/dsc_7299.jpg
Nei game proprio non mi piace, sembra di giocare da dietro le sbarre di un carcere.
Non ci si può abituare a una roba del genere.
Per quanto ci si sforzi, il risultato è sempre brutto forte, inaccettabile.
http://s6.imagestime.com/out.php/i401374_rfactor2008121322565521tu03.jpg
Parere mio personale. :rolleyes:
clockware
11-09-2009, 12:25
Prova a lanciare un gioco e raccontami cosa succede... :rolleyes:
Era sottointeso ma credo a questo punto meglio scriverlo: le soluzioni nvdia hanno come target il settore business dove nessuno userà Crysis in ufficio.
Comunque a meno che non ci sia la magia nera dentro quella scheda ATi, cosa molto poco probabile, usare per un game 6 schermi in full resolution, comporta che la scheda debba lavorare quasi 6 volte di più, quindi viene da se che o quella cosetta rossa è 6 volte più potente di una sorella minore di equivalente fascia oppure 30fps non li regge e basta!
Che sia NVidia o ATi poco importa, se non si pubblicano gli fps e le configurazioni di base c'è poco da fare...non si puo dire che visto che gli è partito il menu di crysis con 5000x4000 allora crysis gira ne tanto meno si puo' pensare che il target di soluzioni mosaic 3x2 con unica scheda video sia quello del gaming! Per eventualità del genere esistono soluzioni più sofisticate...
Poi detto tra noi per chi volesse giocare con le Quadro nessuno lo vieta, basta che contatti il servizio commerciale e loro ti vendono tutto. ;)
giocare con quei bordini in mezzo alle immagini è un bel passo indietro.. andate a cagher
Saver 69
11-09-2009, 13:27
bravo BOBBY
finalmente una persona MENTALMENTE SANA
Caleb The Game
11-09-2009, 13:34
ma solo a me sembra una sboronata inutile?
Se arliamo di professionismo ci posso stare.
ma se il target di quest'affare è il mondo del giocatore allora mi sa che certa gente ha davvero le idee poco chiare su chi sia un giocatore ordinario.
Un giocatore ordinario già non gioca su pc, e se lo fa non spende più di 1000 euro su una macchina che tuttavia non foraggia ogni anno di upgrade, qundi non spende nemmeno 500 euro di sola scheda video.
Un giocatore ordinario già trova grande un 30", figuriamoci queste cose!
E poi che senso avrebbe sparare un gioco a risoluzioni folli se poi si deve castrarne il dettaglio?
g.luca86x
11-09-2009, 14:05
facciamo che vedere la scheda, va:
http://www.tomshw.it/articles/20090911/piattaforma_c.jpg
http://www.tomshw.it/articles/20090911/ati-eyefinity-piattaforma_c.jpg
a quanto pare le immagini rubate l'altro giorno erano vere con quella plasticaccia strana sopra...
L'immagine che hai postato è un po' fuorviante...
Così è più aderente:
http://img17.imageshack.us/img17/5876/65521tu03.jpg (http://img17.imageshack.us/i/65521tu03.jpg/)
Non ci siamo capiti.
Se quello che cerchi è un sistema multivision che ti permetta di avere su 6 schermi 6 schermate differenti (esempio, applicativi da ufficio, etc etc), allora la soluzione ATI (o Matrox, o affini) è quella giusta.
Se invece si cerca una soluzione "gaming" che permetta di ottenere semplicemente un'immagine "grande" (otticamente parlando), la soluzione multimonitor non ha alcun senso perchè introduce una griglia fastidiosissima davanti all'osservatore, ossia l'immagine viene frammentata, non è uniforme, non è naturale, è inguardabile.
Se lo scopo è dunque il "gaming" e si desidera avere un'immagine grande, la soluzione ideale è un videoproiettore.
Volendo lo si può anche autocostruire risparmiando una caterba di soldi, e la qualità ottenuta è alle volte uguale ai migliori videoproiettori che ci sono in commercio.
C'è gente che con un po' di pazienza si è costruita videoproiettori capaci di proiettare immagini superbe delle dimensioni di ben 3 metri e mezzo. :eek:
Hai voglia a giocare con una roba del genere!
Alcuni consigli sull'autocostruzione si trovano qui: http://attivissimo.blogspot.com/2005/12/videoproiettore-autocostruito.html (è un'articolo un po' vecchio)
E anche qui: http://www.allinbox.com/allinbox2008.htm
Da notare che con l'autocostruzione:
- i consumi di corrente sono molto più limitati rispetto all'uso di 6 monitor e scheda video a 6 uscite
- il prezzo per tutta l'autocostruzione è notevolmente inferiore all'acquisto di 6 monitor + scheda video a 6 uscite
- per ottenere quell'immagine gigantesca basta una normalissima scheda video tradizionale come quella che (probabilmente) già possedete
- nessuna dannatissima griglia davanti agli occhi, l'immagine è perfettamente uniforme
- gli fps sono sempre al massimo, anzi ne avanzano!
Per cui ripeto, se lo scopo è l'uso "gaming" (e SOLO quello!), non ha senso comprarsi una scheda video video a 6 uscite, e ben 6 monitor, per giocare con davanti una griglia fastidiosissima.
Meglio sicuramente un qualsiasi proiettore, o in alternativa (forse meglio) un unico grosso monitor, il più grosso che c'è, e si gioca a meraviglia.
kosimiro
11-09-2009, 14:07
questa tecnologia è rivolta ad un mercato di nicchia.
la domanda è: cosa servono 3 o 6 monitor ? per aumentare il realismo ?
se uno esce di casa ne ha di più anche con 100 monitor..:)
Si cmq la cosa spaventosa è che una singola scheda riesce a far girare giochi a quella risoluzione su 6 schermi!!!!Anche se girassero a 10 fps, immagino che a una risoluzione singolo monitor full hd o meno, farà faville! Finalmente avremo crysis Dx 10 a 60 fps costanti????
AceGranger
11-09-2009, 14:26
Alcuni consigli sull'autocostruzione si trovano qui: http://attivissimo.blogspot.com/2005/12/videoproiettore-autocostruito.html (è un'articolo un po' vecchio)
E anche qui: http://www.allinbox.com/allinbox2008.htm
Da notare che con l'autocostruzione:
- i consumi di corrente sono molto più limitati rispetto all'uso di 6 monitor e scheda video a 6 uscite
- il prezzo per tutta l'autocostruzione è notevolmente inferiore all'acquisto di 6 monitor + scheda video a 6 uscite
- per ottenere quell'immagine gigantesca basta una normalissima scheda video tradizionale come quella che (probabilmente) già possedete
- nessuna dannatissima griglia davanti agli occhi, l'immagine è perfettamente uniforme
- gli fps sono sempre al massimo, anzi ne avanzano!
Per cui ripeto, se lo scopo è l'uso "gaming" (e SOLO quello!), non ha senso comprarsi una scheda video video a 6 uscite, e ben 6 monitor, per giocare con davanti una griglia fastidiosissima.
Meglio sicuramente un qualsiasi proiettore, o in alternativa (forse meglio) un unico grosso monitor, il più grosso che c'è, e si gioca a meraviglia.
...dai su gia fanno ca**re i proiettori veri di fascia alta figuriamoci l'autocostruito...
contrasti che fanno schifo, devi sbatterti con teli mica teli e pareti libere, stanza buia....
non venitemi a dire che con il proiettore si vede meglio che con uno schermo perchè allroa avete seri problemi di vista.
questione di gusti, io non lo farei mai ne l'uno ne l'altro, ma se dovessi scegliere preferirei le srtisce nere che quello schifo di immagine piatta e scadente del proiettore
- i consumi di corrente sono molto più limitati rispetto all'uso di 6 monitor e scheda video a 6 uscite
- il prezzo per tutta l'autocostruzione è notevolmente inferiore all'acquisto di 6 monitor + scheda video a 6 uscite
- per ottenere quell'immagine gigantesca basta una normalissima scheda video tradizionale come quella che (probabilmente) già possedete
- nessuna dannatissima griglia davanti agli occhi, l'immagine è perfettamente uniforme
- gli fps sono sempre al massimo, anzi ne avanzano!
si ma dai... hai pixel grossi come la tua mano, l'immagine è uniformemente uno schifo.... e giochi pure con una lavatrice di fianco
fai prima a comprare 6 monitor e levare le cornici
Paolo Corsini
11-09-2009, 14:41
"Nell'immagine è presente una schermata di Crysis, titolo utilizzabile con 6 schermi alla risoluzione di 5760x2160 pixel utilizzando schermi da 1920x1080 pixel di risoluzione nativa."
ehm, crossfire di 5870x2? :sofico:
No; al momento questa tecnologia non sfrutta due o più GPU in parallelo, ma è solo questione di tempo per l'ottimizzazione da lato driver
mackillers
11-09-2009, 14:41
La soluzione qui esposta non serve per ottenere un'immagine grande.
Per quella mi compro un Bravia da 50" e ho finito.
Quello che cambia è la risoluzione, che nel caso del Bravia da 50" è un normale HD, mentre con i 6 monitor è una risoluzione mostruosa.
Il risultato è che mentre con il proiettore o il gigaTV hai uno sgranìo pazzesco con il multimonitor questo non accade. Simulando la cosa con il tuo jpg:
http://img136.imageshack.us/img136/2166/rfactor2008121322565521.jpg (http://img136.imageshack.us/i/rfactor2008121322565521.jpg/)
Io Direi di più l' esempio mi sembra calsantissimo non vedi solo più grande, ma vedi di più!!
tempo fà in sala giochi (oddio almeno 5-6 anni fà) giocavo ad un gioco di simulazione automobilistica, per giocare ti infilavi in un vero e proprio abitacolo con 3 monitor i quali simulavano parabrezza e specchietti laterali, nono stante ci fossero almeno 15cm di mezzo era la soluzione più immersiva che abbia mai visto..
sulla mia scrivania tengo un 24Pollici 1920x1200 e ce ne starebbero 3 in pivot.. visto che ad anno nuovo ero tentato di aggiornare il mio pc aM con un PhenomX4 ed una 5870/5890 potrei anche fare un pensierino ad aggiungere altri 2 monitor.. la spesa sarebbe alla fine circa450-500 euro molto ma certo non impossibile (visto che qui qualcuno propone come alternativa un proiettore FullH..)
Imho è una soluzione di nicchia ma ottima.. a me riguardo la potenza basterebbe gestire bene GTR2 con 3 monitor (cosa che forse riuscirebbe a fare già una 4870 o una 4870x2) sarebbe il mio sogno il simulatore definitivo!!
Paolo Corsini
11-09-2009, 14:43
Ho letto poi che si confrontano con le soluzioni nvidia, ora non per fare il fanboy, però si potevano citare benissimo le soluzioni Quadro NVS, come la NVS450 (4 display port, 35W dissipazione passiva, slot pci-e x16, form factor ridotto) e indoviniamo un po', visto che non satureranno mai la banda del x16, se ne metti 2 in configurazione x8 mi ritrovo ben 8 monitor da poter gestire. Senza considerare qualche feature interessante che nei driver nvidia sono presenti e in quelli ati ancora no.
La sostanziale differenza, per il momento, è la capacità di gestire applicazioni 3D su tutti gli schermi, o su gruppi di schermi, in modo completamente indipendente e trasparente all'applicazione.
le soluzioni che indichi vanno benissimo, ma sono per produttività personale in ambito 2D.
questa tecnologia è rivolta ad un mercato di nicchia.
la domanda è: cosa servono 3 o 6 monitor ? per aumentare il realismo ?
se uno esce di casa ne ha di più anche con 100 monitor..:)
La tecnologia multimonitor ha un senso pratico negli applicativi che richiedono multischermate tutte necessarie.
L'esempio che ti posso portare personalmente, è Cubase (software musicale).
Con 6 monitor lavorerei al meglio perchè, su uno tengo la main tracks, sull'altro il mixer tracks, sull'altro i plugin usati, sull'altro la sezione effetti, sull'altro l'editor midi, sull'altro l'editor wave,... etc.
Anzichè passare continuamente tra schermate e schermate che si nascondono l'una sotto l'altra, col multimonitor le avrei tutte insieme davanti agli occhi, e il lavoro sarebbe molto più versatile e intuitivo.
Naturalmente, per ovvia conseguenza, qualcuno ha pensato di usare il multimonitor anche per giocare.
Ma il risultato non è lo stesso, anzi è una pietà.
Attualmente l'unica applicazione ben fatta del multimonitor (6 monitor) in uso "game" l'ho vista con Flight Simulator.
E il perchè è facile da capire.
In un vero aereo ci sono i montanti dei finestrini che anche nella realtà stanno davanti allo sguardo dei piloti.
Le grigle del multimonitor quindi vanno (quasi a pennello oserei dire) a piazzarsi sui montanti dell'aereo.
Il risultato è che si possono avere 3 visuali anteriori come se effettivamente si stesse ai comandi di un aereo e si guarda fuori dai finestrini, più altre 3 visuali sotto per proiettare tutta la strumentazione (che sui moderni aerei è sempre più digitale).
http://video.tiscali.it/canali/truveo/3385358209.html
Questo (secondo me) è un bel modo di usare il multimonitor in uso "gaming".
Ma non certo con Call Of Duty o con le F1 di rFactor!
Lì non ci azzecca proprio nulla, anzi rovina totalmente il gaming.
Con RFactor si potrebbe giuste averne 3 di monitor, ma se si guidano auto che prevedono dei montanti davanti al naso, altrimenti non ha senso.
E comunque parliamo solo di 3 monitor (la soluzione Matrox va benissimo a questo punto), non di 6. :rolleyes:
mackillers
11-09-2009, 14:44
a tutto questo poi ci sarebbe ovviamente da aggiungere le potenzialità in ambito
professionale ovviamente, penso poi al esposizione di montitor in ambienti pubblici.. ricordo che a lavoro un annetto fà mi fù chiesto come realizzare una cosa simile Per il nostro store.. bene allora mi informai e la cosa sembrò troppo costosa.. questa soluzione invece lo permetterebbe con una spesa più che adeguata..
insomma mi sembra pure sempre un ottimo miglioramento.
ma adesso vi prego fate contenta la nostra scimmia e diteci come sono fatte e come vanno ste EVERGREEN!!!!!
mackillers
11-09-2009, 14:51
Questo (secondo me) è un bel modo di usare il multimonitor in uso "gaming".
Ma non certo con Call Of Duty o con le F1 di rFactor!
Lì non ci azzecca proprio nulla, anzi rovina totalmente il gaming.
Con RFactor si potrebbe giuste averne 3 di monitor, ma se si guidano auto che prevedono dei montanti davanti al naso, altrimenti non ha senso.
E comunque parliamo solo di 3 monitor (la soluzione Matrox va benissimo a questo punto), non di 6. :rolleyes:
Guarda punto primo, vista la disponibilità di queste tecnologie da parte ati e matrox(di sicuro anche nvidia arriverà a breve)
usciranno monitor con cornici fini o pure assemblabili su apposite basi da usare in quel modo, (si sono già visti assemblati così e niente vieterebeb di migliorare queste soluzioni, visto che si riciclano quasi tutti i componenti della normale produzione)
seconda di poi è proprio ne i giochi di guida che si avrebbe un buon risultato simulando magari i montanti..
terzo non escludo che le cornici con il tempo smettano di disturbare.. come ci si abitua ai montanti ci si abitua pure alle conrici dei monitor..
la soluzione matrox poi è più costosa perchè devi comprare il box esterno oltre aad una o più vga abbastanza potenti da gestire quella risoluzione..ATI fà tutto con la sola VGA e ti permette di risparmaire, mi sembra positivo non trovi?
a me interesserebbe sapere se vengono gestiti anche monitor con risoluzioni/proporzioni differenti, dato che per me il migliore setup è quello con un 16:10 da 24" e due 5:4 da 20"ai lati. (oppure 20" e 17")
Posso capire Quake 3 Arena (grandissimo gioco anche se vecchio) ma i tre schermi catodici con tipo 5 cm di cornice l'uno chi me li spiega? :stordita:
Poi, invece di fare tre schermi attaccati potrebbero "inventare" uno schermo più grande con il pannello ricurvo (cosi si eliminano le cornici che tagliano l'immagine) e una risoluzione più alta di quella comune.
Alcune immagini oscurate non hanno senso perché su altri siti si trovano non oscurate e perché in alcune non si capisce proprio niente.
Ma quindi il vantaggio di avere più schermi è principalmente quello della risoluzione e di poter distribuire in maniera diversa l'immagine?
non sapevo proprio dove mettere gli 8000 mila euro necessari per l'acquisto e lo start up di questa soluzione....
ma una stronzata...penso che l'1% dei gamers la userà....forse forse con 3 monitor sarebbe un buon compromesso ma sono sempre 3 monitor !!!!
cmq interessante e bello davvero in termini di immersione visiva ...per i 6 monitor in alcuni ambiti professionali e fieristici è sicuramente una buona risposta...
anche se dubito che si vedrà mai implementato un sistema del genere su console
SwatMaster
11-09-2009, 15:12
Mannaggia a voi che avete già la scheda in redazione! :D
No; al momento questa tecnologia non sfrutta due o più GPU in parallelo, ma è solo questione di tempo per l'ottimizzazione da lato driver
Paolo, tu mi stai suggerendo che una SINGOLA 5870 è capace di far girare Crysis a quella risoluzione? O.O
a me sta cosa del multimonitor mi pare tanto una cavolata perchè non sanno più cosa inventarsi,mi pare una trovata per "tirare a campare"....si sta a malapena affermando il fullhd e di certo i produttori di monitor/tv non danno retta a ATI e NVIDIA che per anni hanno guadagnato su schede video sempre più potenti e sempre più portate a giocare a risoluzioni maggiori. Tuttavia prima che sia affermi il 2560x1600 o giù di lì..."campa cavallo..." e quindi meglio focalizzare l'attenzione o il business su altro...
Di giochi ottimizzati(bene!) per directx10 se ne vedono pochi,figuriamoci per directx11 e quindi come li "intortiamo" i nostri cari maniaci del gaming?(mi ci metto anch'io...).
Prima la durata di una scheda video prima che diventasse obsoleta era nettamente più bassa. Ora è difficile immaginare un gioco che non possa essere giocato decentemente con una 9800gtx..figuriamoci con una gtx285 o giù di lì...
...se poi calcoliamo anche che al momento attuale l'unico vantaggio delle directx11 è l'accollarsi di parte di AERO di windows 7 o VISTA(in linea teorica togliamo anche risorse al gaming) allora stiamo alla frutta...
Tornando un attimo sul discorso delle risoluzioni... già dal 2000/2001 esistevano monitor con alte risoluzioni...anche 1920x1200... eppure solo oggi( e ancora in fase embrionale) cominciamo ad adoperarli. Mentre oggi non è che esistano risoluzioni che sfrutteremo tra qualche anno...
Oggi la sfida è molto più sul design,sui contenuti,sulla multimedialità e sui contrasti( che con gli Oled si cerca di riportarli ai livelli dei CRT ). Infine la sfida è soprattutto sul risparmio energetico, che con 2-3-6 monitor accesi contemporaneamente non va molto daccordo.
e non mi venite a parlare dell'ambito lavorativo/produttivo e via dicendo... perchè altrimenti parlavamo di altre soluzioni e non di Ati hd 5870 e via dicendo...
Scusate se posso essere andato fuori tema ma lo sono andati in primis i "capoccia" ATI che non sanno più cosa inventarsi per salvare un settore in evidente crisi.
g.luca86x
11-09-2009, 15:22
No; al momento questa tecnologia non sfrutta due o più GPU in parallelo, ma è solo questione di tempo per l'ottimizzazione da lato driver
allora è stata solo una dimostrazione della risoluzione dello schermo e di come la nuova tecnologia sia riconosciuta già dai giochi in circolazione. Non avranno nemmeno potuto far avviare il gioco poi vista la risoluzione mostruosa. Dalle indiscrezioni degli stream processor e compagnia varia la 5870 dovrebbe essere poco più prestante di una 4870x2 (stessi sp ma senza le limitazioni del dual gpu). Visti i risultati del crossfire di 4870 (http://www.hwupgrade.it/articoli/skvideo/2114/tecnologie-multi-gpu-ati-e-nvidia-facciamo-il-punto_5.html) su una risoluzione a 2560, quindi inferiore, la presentazione di crysis impostato a quella risoluzione assurda è davvero una semplice sboronata sul fatto che il multimonitor è riconosciuto correttamente, tutto qui...
ps: avete visto le foto della scheda 5800 usata nei test che ho postato prima? che ne pensate?
edit: dimenticavo. Se fate caso al dissipatore sopra la cpu, made in amd, presumibilmente phenomII 965, mi sa che hanno provveduto pure a tirare decisamente il collo con l'overclock a quel processore... non dobbiamo mica aspettarci strani comportamenti lato cpu, vero? nel senso requisito minimo core i7 975 extreme?
g.luca86x
11-09-2009, 15:32
ulteriore aggiunta: la scheda video, oltre ad essere completamente ricoperta di plastica, avere il solito turbinone da pcb rosso ati, e la griglia di sfogo posteriore per l'aria calda, si ritrova due aperture sul "didietro" della scheda e una ancor più bizzarra finestra laterale (Grigliata, che quindi mi sembra proprio di areazione) all'altezza di dove sulle 4800 ci sta il connettore per il crossfire. Ma quanto scaldano queste bestiole?
A quando la recensione delle nuove schede? Si sa il giorno preciso? La curiosità galoppa...
AceGranger
11-09-2009, 15:48
ma quindi usciranno prima le ati o usciranno in concomitanza ati e nvidia ?
La soluzione qui esposta non serve per ottenere un'immagine grande.
Per quella mi compro un Bravia da 50" e ho finito.
Quello che cambia è la risoluzione, che nel caso del Bravia da 50" è un normale HD, mentre con i 6 monitor è una risoluzione mostruosa.
Il risultato è che mentre con il proiettore o il gigaTV hai uno sgranìo pazzesco con il multimonitor questo non accade. Simulando la cosa con il tuo jpg:
http://img136.imageshack.us/img136/2166/rfactor2008121322565521.jpg (http://img136.imageshack.us/i/rfactor2008121322565521.jpg/)
Ma che centra la risoluzione?
Quello che conta è la distanza dalla quale ti metti a giocare.
Lo sgranìo lo vedi se ci stai addosso con gli occhi, ma se stai distante sparisce.
Se ti fai 6 monitor da 22 pollici (voglio esagerare, ben 6 monitor da 22!), e ci proietti sopra un'unica scena di...chessò...Call of Duty... divisa in 6 sezioni, non puoi mica pensare di stare a 50 cm di distanza da quei 6 monitor.
Ne vederesti soltanto uno, quello che hai direttamente più davanti al naso.
Per assaporare per bene tutto quell'immenso "cartellone" devi portarti MINIMO a 2 metri (meglio 3!) di distanza, altrimenti non serve a nulla avere 6 monitor.
E da 3 metri di distanza credi davvero di notare qualche differenza nella risoluzione?
Guarda che anche nella realtà la "risoluzione" se ne va a ramengo con la distanza.
Ce l'hai un muro in casa?
Presumo di sì.
Guardalo da vicino, ossia "ad alta risoluzione" (notare che il muro non ha "pixel", è a risoluzione infinita).
Vedi quanti dettagli si notano da vicino?
Adesso guardalo da 3 metri di distanza.
Vedi ancora tutti quei microscopici dettagli?
No, sono spariti; eppure che strano, si dovrebbero vedere perchè il muro è a risoluzione infinita, quindi dovrei vederli per forza.
Il problema è il nostro occhio.
Il nostro occhio con l'aumentare della distanza "perde" la risoluzione degli oggetti (quindi tanto vale averla se poi la perdo!), tende a confonderli, a impastarli (guarda un'automobile in lontananza o una montagna: riesci a vedere tutti i particolari di quando sei vicino? riesci a leggere la targa? riesci a vedere le foglie sugli alberi?).
Con un gioco è più o meno la stessa cosa.
Se me lo guardo da 20 cm dal monitor, potrò apprezzare i finissimi dettagli delle textures, ed (eventualmente) vedrò anche i pixel.
Ma se lo guardo da 3 metri di distanza che finissimi dettagli spero di vedere?
Li perdo, ovvio, non ho gli occhi di superman.
E così i pixel, li perdo: se prima (da vicino) li vedevo, poi non li vedo più perchè sono alla distanza giusta per non vederli (ed è giusto che non li veda).
Adesso non è che se in gioco non vedo più una stelletta sulla fibbia della giacca del soldato, devo andare in ansia, suvvia siamo seri.
Anzi magari vado a cercare i dettagli della "risoluzione" (il cosidetto "pelo sull'uovo"), e poi FINGO di non accorgermi che le griglie di quei dannati 6 monitor mi nascondono totalmente un sacco di dettagli più importanti che mi servono durante l'azione nel game. :rolleyes:
Se non è un paradosso questo!
L'altro giorno sono andato a fare un giro a Mediaworld e mi sono imbattuto per puro caso nei nuovi televisori a LED della Samsumg.
Li hai mai visti?
Sono una roba spaventosa quanto a pulizia d'immagine e soprattutto dimensioni.
Ero lì a circa 2 metri di distanza che guardavo il modello di punta UE46B7000WW su cui c'era un film in blue ray, e non credevo ai miei occhi.
Era meglio che essere al cinema, l'immagine era stupenda, i colori incredibili, e le dimensioni....eh eh era tanto grosso da non riuscire quasi a vedere tutta l'immagine a quella distanza, bisognava tirarsi più indietro!
Risoluzione?
Pixel?
Ma che risoluzione, ma che pixel; a quella distanza era perfetto, non si vedeva un puntino.
Hai voglia a giocare con un mostro del genere.
Ma chi me lo fa fare di spendere più o meno la STESSA cifra di quel mostro di Samsung da 55 (3.500 euro) per avere la stessa qualità visiva, anzi persino PEGGIO perchè ho le "sbarre del carcere" perennemente davanti agli occhi che distruggono tutto il bello dell'immagine?
Ma stiamo scherzando?
Lo ripeto ancora: se lo scopo è il GAME (ripeto, il GAME), il multimonitor non ha assolutamente ragione di essere, è una assoluta rovina per il game e per la vista (nonchè per la pazienza! chiedete a quelli che hanno multimonitor quanto hanno resistito a vedere sempre e tutto con le "griglie davanti"; chiedeteglielo; va bene 10 minuti, 1 giorno, una settimana, ma poi ci si stufa, è matematico).
Meglio un bellissimo tv full hd come quel Samsung a LED per soddisfare qualunque giocatore esigente.
Anzi ne ha fin che troppo perchè con un mostro simile non solo ci gioca a formato "cinema" (senza sbarre), ma ci guarda anche la televisione (senza sbarre) e i film in hd (senza sbarre), e nessun dettaglio viene coperto... dalle sbarre!
Il multimonitor lasciatelo alle aziende e alle banche.
E' a quello che serve veramente, mica per "giocare" (tra l'altro a un prezzo folle).
Parere sempre mio personale eh, da prendersi come tale. ;)
Il multimonitor è un offesa al ''bel vedere''. Sazia solo la sterile voglia del ''lo voglio piu grosso''.
Cosa che tra l'altro puo essere fatta con schermi di maggiori dimensioni, con un risultato visivo TROPPO SUPERIORE !!
salve ho una 4870 e devo dire che il multimonitor (almeno 2 shcermi) non è che chi sa che ci vuole per averlo...ho un lcd 19" 1440*900 ed un vecchio lcd 15" 1024*768 li attacco alla scheda e li gestisco tramite un softaware eccellente UltraMon v3.0.3...questo software permette o di fondere il tutto in uno schermo o di ragioanre in schermi separati con risoluzioni diverse...infatti io li tengo entrambi alla risoluzione nativa separati...uso il secondo monitor per controllare temperature, stato, programmi come msn anche quando gioco sul grande e mi trovo bene...cioè adesso hanno inventato la scheda con 6 attacchi vga e il software nel cd da mettere tipo driver?
e chi li spende 600euro per 6 monitor anzi per 4 visto i prezzi di oggi:muro: :muro: :muro: :muro: :muro:
clockware
11-09-2009, 16:16
La sostanziale differenza, per il momento, è la capacità di gestire applicazioni 3D su tutti gli schermi, o su gruppi di schermi, in modo completamente indipendente e trasparente all'applicazione.
le soluzioni che indichi vanno benissimo, ma sono per produttività personale in ambito 2D.
Si si Paolo hai perfettamente ragione, ottime per il 2D ma anche per il 3D se la cavano bene, se per ambito 3D ovviamente intendiamo l'ambito semi-professionale quindi non tutta la potenza di calcolo e le necessità real-time di un fps come Crysis.
In particolare in ambito Linux usando le estensioni proprietarie dei driver nvidia, ovvero la modalità TwinView, riesci a far credere ad X di avere un unico monitor della risoluzione complessiva dei monitor collegati alla scheda ed operare al tempo stesso con l'accelerazione 3D, OpenGL et simila, cosa che con Xinerama non è, almeno per il momento, sempre possibile.
Anche non avendo una Quadro, ma delle Geforce in SLI si riesce tranquillamente ad avere una configurazione fino a 4 monitor e la possibilità di avere l'accelerazione 3D per l'applicazione...ovviamente non si tratta di giochi! ;)
Comunque la concorrenza è sempre una bella cosa, questo spingerà sicuramente ATi dentro il settore business e costringerà Nvidia ad aggiornare la propria linea, in fin dei conti con i nuovi connetori mini-display port, 6 connettori in uno slot ci stanno comodamente! ;)
Quello che cambia è la risoluzione, che nel caso del Bravia da 50" è un normale HD, mentre con i 6 monitor è una risoluzione mostruosa.
Ritornando al discorso della risoluzione bisogna fare alcune considerazioni (alcune le avevo già fatte).
Innanzitutto non è vero che con 6 monitor si ottiene una risoluzione mostruosa.
La risoluzione rimane tale e quale, ossia 1920 x 1080 per singolo monitor.
In sostanza non ho ottenuto UN unico monitor da 11520 x 6480, ma ho ottenuto semplicemente.... 6 monitor da 1920 x1080 cadauno.
E' diverso.
In secondo luogo la percezione ottica di "risoluzione elevata" cambia col variare della distanza.
Esempio, se fino a 50 cm di distanza riesco a leggere le scritte su un giornale, a 1 metro di distanza non le vedrò più: la mia vista (dipende ovviamente da quanto ce l'ho buona) trasforma le scritte in un indefinito "pacciucco di inchiostro", tanto da sembrare sfuocato e non essere leggibile.
E' importante questa cosa.
Questa incapacità dell'occhio umano di "perdere" i dettagli è assolutamente naturale, ed è conosciuta ovviamente anche di chi produce i monitor, la quale consiglia sempre una distanza giusta (più o meno) da cui guardare il proprio monitor in base alle sue caratteristiche.
Ora, con queste premesse, vediamo qual'è sostanzialmente la differenza che c'è tra un monitor tradizionale (es un 22) e un gigantesco Tv a Led (tipo Samsung) da 55.
Abbiamo due fattori:
- la risoluzione
- la dimensione dei pixel
La risoluzione di entrambi i monitor è uguale: 1920 x 1080.
Ma i pixel no.
Il 22 ha pixel più piccoli, il 55 ha pixel più grossi.
Ne risulta che per ottenere la stessa qualità visiva ottica (parlo di percezione visiva) gli utenti devono posizionarsi più o meno a questa distanza:
http://s6.imagestime.com/out.php/i401501_monitor1.jpg
L'utente dinnanzi al monitor da 55 non può permettersi di stare a 50 cm di distanza dal suo "bestione".
Non può farlo perchè innanzitutto vedrebbe i pixel (ed è un male), e poi perchè non riuscirebbe a vedere tutta l'immagine al completo, ne vedrebbe solo un pezzetto.
L'utente che ha il 22 invece può permettersi di stare addosso al suo monitor senza vedere i pixel, e riesce a vedere anche tutta l'immagine al completo.
Ma che succede se moltiplichiamo i monitor per sei? :rolleyes:
Avviene un fatto curioso.
Innanzitutto l'utente NON può più stare a 50 di distanza.
Nella maniera più assoluta.
Il perchè è semplice: non vedrebbe più tutta l'immagine!
L'utente quindi è obbligato ("obbligato" è la parola esatta) a portarsi praticamente alla stessa distanza dell'utente che aveva il monitor da 55.
http://s6.imagestime.com/out.php/i401505_monitor2.jpg
Ma con uno svantaggio: davanti a sè non ha più un'immagine uniforme e pulita come l'aveva prima, ma ha un'immagine frammentata da griglie!
Da questo punto di vista quindi il possessore di monitor da 55 vince, o comunque, è sicuramente più soddisfatto di ciò che vede.
E c'è di più.
La tanto vituperata "alta risoluzione" del sistema a 6 monitor viene, in parte, persa.
Viene persa perchè è la distanza che causa questa perdita di dettaglio.
Ricordate l'esempio del giornale.
Un foglio di giornale lo si legge perfettamente a breve distanza (anche 50 cm).
Ma non lo si legge più a 3 metri di distanza, sfido chiunque a farlo (e il giornale ha risoluzione infinita!!)
Non ha quindi più senso il discorso "dell'alta risoluzione".
A 3 metri di distanza la capacità risolutiva dell'occhio umano non ha il potere di vedere i microscopici dettagli che vedeva da vicino.
Li perde.
Il che fa sì che i 6 monitor osservati da 3 metri di distanza, e il grosso monitor da 55 osservato da 3 metri distanza, restino praticamente uguali.
Non c'è grande differenza percepibile all'occhio umano.
Da quella distanza ciò che si vede e praticamente identico, per cui un game lo si gioca benissimo con un 55.
La questione cambia qualora l'osservatore si avvicina al monitor.
Il suo 55 diventerà sgranato.
Il multimonitor diventerà ancor più definito (tanto da riuscire a leggere anche le piccole scritte che si erano perse con la distanza).
Ma il multimonitor non si usa (coi game!) in quel modo.
Lo si usa a distanza, a grande distanza (soprattutto se parliamo di ben 6 monitor!).
E a quella distanza c'è poco da fare, l'alta risoluzione se ne va (in parte) a ramengo, non si vedono più certi dettagli, insomma non c'è differenza con un unico monitor da 55 a Led il quale avrà magari un pelino meno di dettaglio a quella distanza (ricordate che la "distanza" è importantissima quando si parla di "dettaglio percepibile otticamente"), ma almeno non ha le sbarre che rovinano tutta la squisitezza dell'immagine. ;)
^TiGeRShArK^
11-09-2009, 17:28
Comunque il lavoro di quelli del marketing si vede e come in una presentazione del genere.
Come ti sbandierano la semplicità di configurazione è una cosa a dir poco ridicola. Come se dipendesse dalla scheda video (o solo dal driver), come se il sistema operativo non c'entrasse nulla.
Sotto linux ad esempio con X e le estensioni Xinerama gestisci tutto quello che pare senza particolari problemi, configurazioni estreme in giro per la rete se ne trovano tante! ;)
Sotto windows sia Ati che Nvidia hanno già ottime soluzioni per l'aiuto nella configurazione, senza contare il pannello di Vista/7 che semplificano il tutto.
Ho letto poi che si confrontano con le soluzioni nvidia, ora non per fare il fanboy, però si potevano citare benissimo le soluzioni Quadro NVS, come la NVS450 (4 display port, 35W dissipazione passiva, slot pci-e x16, form factor ridotto) e indoviniamo un po', visto che non satureranno mai la banda del x16, se ne metti 2 in configurazione x8 mi ritrovo ben 8 monitor da poter gestire. Senza considerare qualche feature interessante che nei driver nvidia sono presenti e in quelli ati ancora no.
Insomma dire che nvidia sta indietro solo perchè riescono a gestire solo 4 display contemporaneamente è puro marketing, cosi come il fatto che riesci a gestire il gaming, senza gli fps e le configurazioni c'è poco da pubblicizzare! ;)
Ovviamente ognuno tira l'acqua al suo mulino! ;)
si.. e che prestazioni hanno le NVS con giochi 3d? :asd:
AceGranger
11-09-2009, 17:37
si.. e che prestazioni hanno le NVS con giochi 3d? :asd:
reggono tranquillamente 60 fps a Spider e FreeCell :O :O
^TiGeRShArK^
11-09-2009, 17:40
Ma che centra la risoluzione?
non avevo dubbi che avrei trovato qualcuno pronto a sostenere che la risoluzione di un unico monitor a 1920 X 1080 è equivalente a quella di 6 monitor a 5760 X 3240. :asd:
^TiGeRShArK^
11-09-2009, 17:42
salve ho una 4870 e devo dire che il multimonitor (almeno 2 shcermi) non è che chi sa che ci vuole per averlo...ho un lcd 19" 1440*900 ed un vecchio lcd 15" 1024*768 li attacco alla scheda e li gestisco tramite un softaware eccellente UltraMon v3.0.3...questo software permette o di fondere il tutto in uno schermo o di ragioanre in schermi separati con risoluzioni diverse...infatti io li tengo entrambi alla risoluzione nativa separati...uso il secondo monitor per controllare temperature, stato, programmi come msn anche quando gioco sul grande e mi trovo bene...cioè adesso hanno inventato la scheda con 6 attacchi vga e il software nel cd da mettere tipo driver?
e chi li spende 600euro per 6 monitor anzi per 4 visto i prezzi di oggi:muro: :muro: :muro: :muro: :muro:
hai capito tutto dell'articolo. :)
Mi serviva proprio una nuova scheda che mi aiutasse a controllare i miei amici quando entrano in matrix! :asd:
Beh se il costo della scheda non è spropositato è cmq un passo avanti, anche per riciclare vecchi monitor insieme ai nuovi...cmq io sapevo che gli schermi venissero da un'unica lastra tagliata... ma non sarebbe meglio attendere qualcosa tipo il NEC CRV43? ovviamente una versione più economica lcd ad alta risoluzione.
^TiGeRShArK^
11-09-2009, 17:44
reggono tranquillamente 60 fps a Spider e FreeCell :O :O
infatti i giochi 3d nemmeno partono lì, giusto quelli possono girare. :p
Mercuri0
11-09-2009, 18:30
Cazz... sembrerebbe che ora sia enormemente più facile pilotare due monitor con una scheda, che un solo monitor con due schede (crossfire o sli)
A meno che non ci sia qualche altra sorpesa ^^''
ndrmcchtt491
11-09-2009, 18:35
scusate, ma non c'è gia in commercio un monitor(non ricordo il nome e marca) che è in pratica 3 schermi in 1? Per il gaming piuttosto prenderei una soluzzine cosi,(niente coenici, estetica più bella) anche se è a una risoluzione inferriore rispetto a 3 schermi da 23"
bluefrog
11-09-2009, 18:55
edit
bluefrog
11-09-2009, 19:03
edit
bluefrog
11-09-2009, 19:08
Le pubblicità sono contestuali, quindi appaiono quelle sullo stesso argomento. Evidentemente nVidia ha contratti di inserzione pubblicitaria che AMD non ha ;)
Ah ecco, grazie per il chiarimento. :)
comunque edito...magari se puoi farlo anche tu al mio quote, grazie. :stordita:
hermanss
11-09-2009, 20:20
Ottima versabilità!
In ambito professionale deve essere notevole.
Kimera O.C.
11-09-2009, 22:11
Diciamo che il cherchi si chiude.....
se una 5870 sulla carta è almeno il 50% + performante di una 285 quindi paragonabile ad uno SLI di 285 :D ecco che una di questa su 1156 fa la sua bella figura anche su monitor da 26 e oltre ma...immaginare 3 o 4 di queste su 1366 con 2-3-x-6 monitor cosa vien fuori :cool:
Se la potenza della 5870 è quella che sembra basteranno 2 di queste per essere cpu limited :muro:
per chi si pone dei dubbi sull'utilità pratica nel gamig a parte i costi (spero che nell'ambito professionale nessuno dubiti della sua utilità, io e i miei colleghi non potremmo fare a meno del 2° monitor, e un terzo farebbe comodo) il vantaggio, come è stato detto nella rece, si ha con 3 monitor sull'asse orizzontale e in giochi simulativi o fps.
Questo perchè il formato schiacciato dato dai 3 monitor porta la "lente" del motore di renering a mantenere simile il format sull'immagine centrale, ma al contempo amplia lo spazio visivo ai lati. E nei giochi con appunto visuale in prima persona questo permette un'immersione molto maggiore.
Io con GTR ad esempio ne sento davvero la mancanza, è come pensare di guidare un'auto con i paraocchi da cavallo (oddio, a vedere come la gente guida per strada parrebbe la norma :D )
sniperspa
11-09-2009, 22:22
Diciamo che il cherchi si chiude.....
se una 5870 sulla carta è almeno il 50% + performante di una 285 quindi paragonabile ad uno SLI di 285 :D ecco che una di questa su 1156 fa la sua bella figura anche su monitor da 26 e oltre ma...immaginare 3 o 4 di queste su 1366 con 2-3-x-6 monitor cosa vien fuori :cool:
Se la potenza della 5870 è quella che sembra basteranno 2 di queste per essere cpu limited :muro:
non è mai brutta cosa...soprattutto se il frame rate è over 100 :sofico:
sniperspa
11-09-2009, 22:36
Ma scusate...come tecnologia può esser utile secondo me,ma solo per le fasce basse e per le fire professionali....chi è che preferirebbe mettersi a giocare con tre schermi messi uno affianco all'altro piuttosto di un bel 32" FHD?:wtf:
Difatto la dimostrazione con i 3 schermi e GRID o con quella dei 6 LCD è solo una dimostrazione della potenza delle nuove HD58xx perchè nessuno con una scheda da videogiocatore si metterebbe a giocare con tre schermi affiancati...
In ambito professionale sotto 2D basta anche una semplice scheda di fascia bassa mentre per grafica 3D suppongo vengano quasi sempre usate firegl,correggetemi se mi sbaglio?dove potrebbe venir sfruttato un multimonitor con una scheda di fascia alta così?
per chi si pone dei dubbi sull'utilità pratica nel gamig a parte i costi (spero che nell'ambito professionale nessuno dubiti della sua utilità, io e i miei colleghi non potremmo fare a meno del 2° monitor, e un terzo farebbe comodo) il vantaggio, come è stato detto nella rece, si ha con 3 monitor sull'asse orizzontale e in giochi simulativi o fps.
Questo perchè il formato schiacciato dato dai 3 monitor porta la "lente" del motore di renering a mantenere simile il format sull'immagine centrale, ma al contempo amplia lo spazio visivo ai lati. E nei giochi con appunto visuale in prima persona questo permette un'immersione molto maggiore.
Io con GTR ad esempio ne sento davvero la mancanza, è come pensare di guidare un'auto con i paraocchi da cavallo (oddio, a vedere come la gente guida per strada parrebbe la norma :D )
Kayne .. non posso che quotarti .
Non vedo l ora di provarlo su Gtr 2 ed rfactor :)
I tre schermi orizzontali verranno comodi e non più auto che spuntano dai lati ;)
Kimera O.C.
11-09-2009, 23:00
non è mai brutta cosa...soprattutto se il frame rate è over 100 :sofico:
Se ati non si smentisce in OC (la 4770 si occava da paura) credo che i 100 siano fattibili :D
Per il resto idubbiamente credo che sia molto piu utile e vendto in campo professionale ma molti sono chi gioca professionalmente :asd:
sniperspa
12-09-2009, 00:15
Per il resto idubbiamente credo che sia molto piu utile e vendto in campo professionale ma molti sono chi gioca professionalmente :asd:
Questa frase mi ha destato non pochi problemi nel ricavarne il significato :asd:
:D
AceGranger
12-09-2009, 00:45
Se ati non si smentisce in OC (la 4770 si occava da paura) credo che i 100 siano fattibili :D
Per il resto idubbiamente credo che sia molto piu utile e vendto in campo professionale ma molti sono chi gioca professionalmente :asd:
:asd:
no secondo me anche professionalmente nel campo della grafica è abbastanza inutile.
le viewport come quelle di 3D max funzionano a fps come nei giochi, piu risoluzione vuol dire abbattimento delle prestazioni e far getire 3 monitor dalla stessa scheda video che è anche quella che ti rigenera i poligoni non è certo il massimo della vita.
Molto piu comune vedere 1 scheda video potente che ti gestisce il main monitor e una seconda scheda video meno potente per gestire il secondo ed eventualemnte terzo monitor, per menu, cartelle altri programmi etc. etc. etc.
questa è solo una soluzione per il gaming, o per una tranquilla visualizzazione multimonitor giusto da comprarsi al posto delle Quadro NVS
CaFFeiNe
12-09-2009, 06:11
io non capisco certi commenti
"meglio un videoproiettore"
il proiettore, è grande, puoi ingrandirlo, ma sempre 1920x1200 è.... e costa 1000 euro uno base.... con una vita media di molto inferiore rispetto ad un monitor, ed eventuali costi di manutenzione molto alti....
"uno schermo lcde da 100 pollici"
l'unico che ho visto da 90+ pollici, avevo dei pixel che erano quanto la mia mano, infatti non hanno risoluzioni tipo 5840x3600.... e costano cmq infinitamente di piu' di tre monitor 1680x1050
"le cornici"
le cornici 1 sono smontabili, 2 divengono sempre piu' sottili, e lo saranno ancora di piu'.... 3 ed ultima cosa... vidi una foto di una postazione, con i due monitor laterali...
ma scusate, veramente pensate di metterveli di faccia? i monitor andrebbero a "chiudersi" sul giocatore... in modalita' panoramica.... infatti gli screen che ho visto, mostravano fps, in cui ti vedevi anche di fianco, idem giochi di guida...
e non ditemi che le cornici infastidiscono, dato che in una situazione del genere, le cornici sono 1) quasi sempre nella zona morta dell'occhio, 2) l'ultimo dei pensieri, se in un fps online, puoi vedere alla tua sinistra e destra... hai un vantaggio enorme...
magari il tutto unito ad una tecnologia headtracking intelligente....
io non so se farei mai una postazione del genere...
ma da qui a dire che è INUTILE ne passa moltissima di acqua sotto i ponti...
p.s.
il commento piu' bello
"ati mostra come attaccare 3 monitor ad una nuvoletta" :asd: :asd: :asd:
Kimera O.C.
12-09-2009, 10:05
Questa frase mi ha destato non pochi problemi nel ricavarne il significato :asd:
:D
Come non darti ragione :D immagina che mi è venuta fuori mentre guardavo "Hannibal le origini del male" ed era cotto come una mela :mc:
:asd:
no secondo me anche professionalmente nel campo della grafica è abbastanza inutile.
le viewport come quelle di 3D max funzionano a fps come nei giochi, piu risoluzione vuol dire abbattimento delle prestazioni e far getire 3 monitor dalla stessa scheda video che è anche quella che ti rigenera i poligoni non è certo il massimo della vita.
Molto piu comune vedere 1 scheda video potente che ti gestisce il main monitor e una seconda scheda video meno potente per gestire il secondo ed eventualemnte terzo monitor, per menu, cartelle altri programmi etc. etc. etc.
questa è solo una soluzione per il gaming, o per una tranquilla visualizzazione multimonitor giusto da comprarsi al posto delle Quadro NVS
Appunto parlavo di CF, con 2 di queste (come avere 4 GTX285) 3 monitor in FHD li dovrebbe gestire senza problemi e immagina se venissero sfruttate in calcolo o editing o grafica3D...se andiamo di questo le CPU non serviranno più :)
PS: Sono già al 2 caffè .. ma ninete :muro:
Questi sono solo e sperimenti. Se la faranno in 10 una postazione cosi e sono sicuro che andrebbero incontro a molti problemi, di varia natura tecnica.
Non per ultimo il fatto che un'immagine vista su un unico pannello lungo o largo che sia è sempre migliore rispetto a queste soluzioni che sono solo una ''voglia di pannello più grosso''.
Se negli anni prenderanno veramente piedi gli schermi 21:9, questa soluzione la prenderete tutti e la butterete nel cesso.
Severnaya
12-09-2009, 12:05
senti ho letto "voglia di pennello più grosso" e sono rimasto così per mezz'ora O_o!
io non capisco certi commenti
"meglio un videoproiettore"
il proiettore, è grande, puoi ingrandirlo, ma sempre 1920x1200 è....
Il chè basta e avanza se sei a 3 metri di distanza (e sei obbligato a stare a quella distanza)
e costa 1000 euro uno base....
Si trovano anche a molto meno.
con una vita media di molto inferiore rispetto ad un monitor, ed eventuali costi di manutenzione molto alti....
Vero: è per questo che è consigliabile autocostruirseli.
Ma a parte questo un videoproiettore ti garantisce un'immagine enorme che un normale monitor non garantisce.
"uno schermo lcde da 100 pollici"
l'unico che ho visto da 90+ pollici,
Che te ne fai di un 90?
Un Samsung Led da 55 è più che esagerato (stiamo parlando di quasi 1 metro e mezzo di monitor!)
avevo dei pixel che erano quanto la mia mano,
Guardati un Samsung Led da 55 da 3 metri di distanza, e dimmi se ci vedi i pixel!
infatti non hanno risoluzioni tipo 5840x3600....
...che non serve a niente dato che simili giganti vanno guardati ad almeno 3 metri di distanza, altrimenti l'occhio non può vedere tutta l'immagine.
Eh sì che ho fatto anche l'esempio del giornale!
Sai che risoluzione ha un giornale?
Infinita.
Leggilo a 3 metri di distanza se ci riesci.
e costano cmq infinitamente di piu' di tre monitor 1680x1050
Ma non di 6 monitor.
6 monitor di alta qualità (es da 22, prezzo medio 400 euro l'uno) costano quasi uguali a un 55 Samsung. (infatti oltre al prezzo dei 6 monitor devi sommarci il prezzo della scheda ATI che pilota i 6 monitor).
Si arriva a sfiorare (o a superare) i 3000 euro.
"le cornici"
le cornici 1 sono smontabili,
Eh certo, perchè uno che compra 6 bei monitor di qualità, gli smonta le cornici?
Non è una cosa tanto facile come sembra (oltretutto perdi immediatamente la garanzia).
Lo "smontare le cornici" va bene se si ha a che fare con 6 monitor di merda per il quale non ci si preoccupa degli eventuali danni.
Ma voglio vedere chi è quel pazzo che compra 6 monitor nuovi di qualità, e poi li smonta a pezzi.
2 divengono sempre piu' sottili,
Ma al momento non lo sono.
e lo saranno ancora di piu'....
Per cui inutile parlarne adesso.
Quando ci saranno questi monitor senza cornice, allora avrà un senso farsi il "gigaschermo" multimonitor senza cornici.
3 ed ultima cosa... vidi una foto di una postazione, con i due monitor laterali...
ma scusate, veramente pensate di metterveli di faccia? i monitor andrebbero a "chiudersi" sul giocatore... in modalita' panoramica....
Dipende dal game.
Con Flight Simulator questa soluzione è perfetta (tanto che ci fanno degli ottimi simulatori semiprofessionali).
Ma con Warcraft che senso ha?
Con un film DVD che senso ha?
Con Rfactor F1 che senso ha? (le F1 non hanno "montanti")
infatti gli screen che ho visto, mostravano fps, in cui ti vedevi anche di fianco, idem giochi di guida...
Non è che vedere di fianco cambia chissà cosa in un gioco di guida.
La pista è davanti, la concentrazione va mantenuta davanti.
Il "laterale" è giusto un effetto scenico che non ti fa certo guadagnare punti o ti fa vincere.
E' solo scena.
Oltretutto in certe categorie di macchine, i piloti non vedono proprio il "laterale".
Nelle P1 formula Endurance il pilota è chiuso dentro una "gabbia" senza finestrini laterali.
Deve guardare solo in avanti e vedere gli avversari attraverso un telecamera posta sul retro.
e non ditemi che le cornici infastidiscono, dato che in una situazione del genere, le cornici sono 1) quasi sempre nella zona morta dell'occhio,
Mica vero.
Le cornici possono essere dovunque a dare fastidio, dipende da come si muove la scena.
2) l'ultimo dei pensieri, se in un fps online, puoi vedere alla tua sinistra e destra... hai un vantaggio enorme...
magari il tutto unito ad una tecnologia headtracking intelligente....
Mah, in un fps solitamente la tecnica giusta del giocatore è muovere il mouse e guardarsi velocemente intorno col mouse.
Quando poi vedi l'avversario, te lo piazzi davanti, e spari.
Anche se (col multimonitor) lo vedessi di lato, resta il fatto che non gli posso sparare di lato.
Devo COMUNQUE muovere il mouse fino a portarmi l'avversario davanti per sparargli.
La perdita di tempo è la medisima.
Anzi, il fatto di vedere ai lati tutto quello che succede può essere sintomo di distrazione perchè ci si deconcentra dal bersaglio che ho davanti e non so più se continuare a seguire quel bersaglio o seguire quelli che vedo ai lati.
Per me (per me) è solo una gran confusione in più perchè vedi nemici da tutte le parti e non sai più chi o quale prendere di mira.
io non so se farei mai una postazione del genere...
ma da qui a dire che è INUTILE ne passa moltissima di acqua sotto i ponti...
E' utile solo con gli applicativi da ufficio o con qualche simulatore ben concepito per l'uso multimonitor (es Flight SImulator).
Con tutti gli altri game è una soluzione praticamente inutile, molto costosa, e anche decisamente brutta (le cornici rovinano tutto).
AceGranger
12-09-2009, 14:57
6 monitor di alta qualità (es da 22, prezzo medio 400 euro l'uno) costano quasi uguali a un 55 Samsung. (infatti oltre al prezzo dei 6 monitor devi sommarci il prezzo della scheda ATI che pilota i 6 monitor).
Si arriva a sfiorare (o a superare) i 3000 euro.
i 22 in circolazione sono praticamente TUTTI TN 6 bit colore e 16,7 "Milioni" di colori ottenuti con dithering e di qualita non hanno proprio nulla.
a 400 euro ti prendi un 24 pollici sempre TN ma almeno a 8 bit colore...
un 22 pollici lo compri tranquillamente a 160 euro
certo che se vai a prendere gli EIZO e poi li paragoni a una tv Samsung....
Pier2204
12-09-2009, 16:05
Ho visto in funzione un multimonitor con Flight Simulator FSX su 3 schermi.
L'effetto che si ottiene è quello di "estendere" la visuale dell'occhio non solo nelle strumentazioni e le finestre anteriori ma anche i finestrini laterali dove si può vedere lo scenario sottostante e la estremità delle ali. Questa immersione nel simulatore è qualcosa di fantastico. L'unico problema...FSX è un mattone già con uno schermo, con tre schermi diventa una serie di mattonelle, questo è dovuto non solo per l'elaborazione grafica degli scenari, ma anche dai calcoli che la cpu deve fare su parametri come effetti aerodinamici, portanza, velocita, effetti atmosferici, spinta, ecc.. Non serve solo una scheda di elevata potenza ma anche una CPU estrema... :cry:
^TiGeRShArK^
12-09-2009, 16:47
Vero: è per questo che è consigliabile autocostruirseli.
Ma a parte questo un videoproiettore ti garantisce un'immagine enorme che un normale monitor non garantisce.
Un videoproiettore autocostruito avrà una qualità INFIMA rispetto ad un prodotto commerciale serio.
Guardati un Samsung Led da 55 da 3 metri di distanza, e dimmi se ci vedi i pixel!
Se tutti avessero seguito il tuo ragionamento ancora oggi saremmo con 42" CRT a risoluzione PAL. :rolleyes:
...che non serve a niente dato che simili giganti vanno guardati ad almeno 3 metri di distanza, altrimenti l'occhio non può vedere tutta l'immagine.
Eh sì che ho fatto anche l'esempio del giornale!
Sai che risoluzione ha un giornale?
Infinita.
Leggilo a 3 metri di distanza se ci riesci.
E qua si capisce che non hai idea di cosa parli.
Un giornale NON ha assolutamente risoluzione infinita.
Solitamente è intorno ai 170dpi.
Ma non di 6 monitor.
6 monitor di alta qualità (es da 22, prezzo medio 400 euro l'uno) costano quasi uguali a un 55 Samsung. (infatti oltre al prezzo dei 6 monitor devi sommarci il prezzo della scheda ATI che pilota i 6 monitor).
Si arriva a sfiorare (o a superare) i 3000 euro.
Che ha una risoluzione SEI volte inferiore.
Penso che confrontare una soluzione del genere con un proiettore sia la cosa più fuori luogo del mondo.
Il proiettore è scomodo, ci vuole una parete od un telo apposta , alla luce non lo usi , e non puoi avere risoluzioni diverse dallo standard .
E per chi diceva che su rfactor non serve , vuol dire che non ha mai giocato ad rfactor o qualche simulatore di guida. Oppure ragiona per partito preso (nvidia) , come l 80% degli utenti che son contrari .
Stappern
12-09-2009, 22:03
bah mi sembra verametne inutile tutto ciò
Un videoproiettore autocostruito avrà una qualità INFIMA rispetto ad un prodotto commerciale serio.
Non hai mai visto un Allinbox.
La qualità non è per niente "infima".
E' alla pari (e alle volte superiore) a un prodotto commerciale.
Guarda che quelli che si costruiscono gli allinbox non sono degli idioti.
Sono persone che spendendo poco denaro (ma tanto tanto tempo per l'autocostruzione) si prefiggono di ottenere un videoproiettore di caratura professionale, e ci riescono pure.
Che poi i loro prodotti siano esteticamente brutti, o ingombranti (alcuni sono grossi come dei frigo!), o poco pratici, etc etc, questo è tutt'altro discorso.
Ma quanto a qualità dell'immagine fatti invitare da uno che ce l'ha, e dagli un'occhiata.
Resterai stupito, la qualità è notevole.
E qualora non lo è, è solo perchè è stato costruito male o con componenti di scarsa qualità (pessime lampade, pessime lenti, pessimo assemblaggio).
Se tutti avessero seguito il tuo ragionamento ancora oggi saremmo con 42" CRT a risoluzione PAL. :rolleyes:
E dagli con la risoluzione.
Ma ancora non hai capito che l'occhio umano la risoluzione la PERDE con l'aumentare della distanza?
E qua si capisce che non hai idea di cosa parli.
Un giornale NON ha assolutamente risoluzione infinita.
Solitamente è intorno ai 170dpi.
Ma anche se fosse a 1 milione di dpi, cosa cambia?
Guarda che aumentare la risoluzione non significa "carattere più leggibile".
Non ci credi?
Bene, allora prendi un foglio di carta bianco, e poi col "rapidograph" scrivici una parola piccola piccola delle dimensioni tipiche da giornale; poi vai a tre metri di distanza e dimmi se riesci a leggerla.
Non mi dirai che col rapidograph non hai risoluzione infinita!
La tua scritta potrà avere tutti i dpi che vuoi, tutta la risoluzione che vuoi, tutte le madonne che vuoi, ma rimane sempre e comunque un scritta piccola su un foglio di carta a 3 metri di distanza da te.
Ed essendo piccola, il tuo occhio NON potrà mai leggerla a quella distanza, anche se è a risoluzione infinita.
Hai mai fatto l'esame della vista?
Da che distanza ti fanno guardare le lettere per misurarti la vista?
Dalla distanza giusta perchè tu le possa vedere!
Ma se ti porti a distanza doppia, non le vedi più, non le leggi più, c'è poco da fare o da girarci intorno.
Non puoi cambiare le leggi fisiche dell'ottica con la "risoluzione".
Un grosso televisore grosso 1 metro e mezzo, o 2 metri, va guardato da lontano, non col naso davanti allo schermo, altrimenti non vedi tutta la scena.
E si presume che su tale televisore si proiettino figure e scritte adeguate perchè tu le possa vedere.
Se quel televisore avesse anche (ipotizziamolo) una risoluzione "infinita" tale da permettere di visualizzare una scritta minuscola, rimarrebbe il fatto che dalla distanza alla quale ti metti per guardare quel film o quel videogame (circa 3 metri), non riusciresti comunque a leggerla.
Ma non perchè è il televisore che non è in grado di visualizzarla correttamente (se è, ipotizziamo, a risoluzione infinita, la può visualizzare eccome), ma perchè è il tuo OCCHIO che non è fisicamente in grado di leggere una scritta piccola alla distanza di 3 metri, anche se tale scritta è a risoluzione infinita.
Ecco perchè l'alta risoluzione non serve per quello scopo.
L'alta risoluzione va bene se ti metti a pochi cm dallo schermo e riesci a leggere tutte le scritte (anche le più minuscole), e contemporanamente a vedere tutta l'immagine dello schermo.
Ma su un bestione di monitor da 55 non ha alcun senso, non si può stare a pochi cm da quel "cinema": non vedresti più tutta la scena, ne vedresti solo un pezzetto.
Bisogna dunque stare lontano, non ci sono santi; e da lontano i minuscoli dettagli dell'altissima risoluzione si perdono, non li vedi più.
Quando ho visto quel Samsung da 55 da Mediaworld sono rimasto colpito proprio dall'eccezionale qualità dell'immagine che si aveva a quella distanza.
Pixel non se ne vedeva uno, ma manco per sogno, e le scritte erano perfettamente leggibili perchè è giusto che siano leggibili da 3 metri di distanza.
Non da 20 cm di distanza!
Da 3 metri si devono leggere, perchè quel monitorone è fatto (e non lo dico io, è scritto anche sui manuali di istruzione!) per essere guardato da 3 metri di distanza.
Se lo scopo, anzi il suo utilizzo pratico è quello, che me ne frega di avere la risoluzione infinita?
Ma chi la vede più da 3 metri di distanza?
Chi la legge più da 3 metri di distanza?
Non voglio sembrare prolisso, ma questa è la natura umana dell'occhio umano.
Chessò....hai mai visto una coccinella (un vera coccinella intendo)?
Bella vero, con tutti quei disegnini sul dorso.
Sì bella, ma da vicino dove puoi apprezzare la risoluzione infinita della natura.
Guardala da 3 metri di distanza e dimmi che cosa vedi.
Vedi solo un puntone scuro, senza dettagli, senza disegnini.
La bella coccinella è diventata un....boh....una roba indefinita, senza dettaglio.
L'occhio, con la distanza, perde il potere risolutivo anche se questo è infinito, c'è poco da fare, è fisica elementare dell'ottica.
Che ha una risoluzione SEI volte inferiore.
Ma che va più che benissimo per essere vista a 3 metri distanza.
Anche se l'avesse infinita, da quella distanza non vedresti i particolari che vedresti da 20 cm di distanza.
Premetto una cosa giusto per evitare fraintendimenti.
Io NON sono contrario all'uso multimonitor!
L'uso del multimonitor con applicativi da ufficio e alcuni game specifici (tipo flight simulator) va più che bene perchè introduce degli aspetti sicuramente interessanti e pratici.
Quello che però mi vede marciare contro il multimonitor è l'uso "generalizzato" di questa soluzione.
Con alcuni game il multimonitor non ci azzecca proprio un bel niente, è una cosa inutile, è brutta, introduce le griglie che rompono le palle, etc etc.
Personalmente penso che chi si imbarca in una simile spesa (ben 6 monitor + scheda video appropriata)( nonchè parecchio "spazio" da dedicare all'ubicazione dei monitor) non sia una persona che si accontenti solo di un game.
Al contrario presumo che sia sua intenzione usare questa soluzione con tutti i game, altrimenti il gioco non vale la candela.
E quì sorgono i problemi.
Con i game "simulativi" si può piazzare i monitor in modo "laterale" per simulare eventuali finestrini.
Ma con altri game tale posizionamento non va bene, non ci azzecca per niente, quindi bisognerebbe metterli tutti frontali.
E già è un bel fastidio.
Chi invece si fa una soluzione a mega schermo (tipo Samsung da 55) si assicura una qualità d'immagine perfetta per i game, un'immagine molto grossa (da guardarsi sempre a debita distanza) ma che coinvolge molto, l'assenza totale di griglie, e soprattutto (e non è cosa da poco) la certezza di poter utilizzare quell'unità per vederci di tutto.
Può vederci le partite di calcio.
Può vederci i dvd (magari in blue ray).
Può giocarci.
Può fare tutto.
Con quella spesa ha in casa un oggetto che gli farà la contentezza con qualsiasi cosa.
Spendere più o meno la stessa cifra per un sistema multimonitor non è la stessa cosa.
Le partite di calcio non si vedono su un multimonitor (dai, quelle griglie fanno schifo, siamo seri).
I film dvd non si vedono su un multimonitor (idem come sopra).
Praticamente col multimonitor non ci sa fa nulla di quello che si può fare con un megaschermo da 55, tranne un paio di cose:
- una bella postazione da ufficio per applicativi da ufficio
- qualche game (NON tutti, qualche game!)
Finish.
non ci si fa più niente, non si può nemmeno guardare il grand prix di F1 come si deve: quelle dannate griglie sono un cazzotto negli occhi, sempre e comunque.
Per questo che trovo davvero poco senso usare il multimonitor per i game (a parte i simulatori di volo).
Meglio un bel monitor tradizionale da 22 o da 24, e si va alla stragrande.
O proprio se si vuole esagerare e fare gli "sboroni", un mega schermo tv da 55.
Non è che dico queste cose perchè sto cercando in qualche modo di "deprimere" il multimonitor.
Lo dico sinceramente: se anche mi REGALASSERO (lo giuro!) un sistema multimonitor, lo venderei subito, senza pensarci minimamente due volte!
E con i soldi ricavati mi faccio il "cinema" in casa: un bel Samsung Led da 55!
E con quello ho finito di tribolare, non so davvero cosa volere di più dalla vita, sia per la televisione, sia per i film, sia per i game.
Con quello ci faccio tutto, ma tutto davvero, tutto a qualità cinema (e senza griglie), tutto senza compromessi.
Insomma avrei in casa un oggetto del desiderio, invidiato da tutti i miei amici.
Se gli dicessi: "ho deciso di farvi un regalo, o il Samsung Led da 55, o il sistema multimonitor con scheda video;".
99 su 100 che mi porterebbero via il Samsumg Led da 55 senza pensarci minimamente due volte.
^TiGeRShArK^
13-09-2009, 10:31
Il problema di base è che tu sei convinto che bisogna guardarlo da lontano.
E invece non è assolutamente vero dato che per l'immersività è necessario essere vicini dato che il campo visivo coperto aumenta di SEI volte.
Con un 55" pollici invece il campo coperto sarebbe esattamente UGUALE a quello di un unico schermo, con l'unico svantaggio che sei COSTRETTO a guardarlo da lontano per non vedere pixel grandi come noci di cocco.
Tutto qui.
Infatti lo scopo di questa tecnologià è chiaramente di aumentare l'IMMERSIVITA' del gioco, cosa che imho avverrà quando faranno monitor "componibili" privi di cornice.
Un monitor componibile privo di cornice mi può stare anche bene, allora li si, che l'immagine non risulta compromessa. Altrimenti le cornici ai lati sopra e sotto le lascio volentieri a chi deve simulare la guida di un 737 o di un treno Intercity. Per il resto, meglio il tradizionale.
Il problema di base è che tu sei convinto che bisogna guardarlo da lontano.
E invece non è assolutamente vero dato che per l'immersività è necessario essere vicini dato che il campo visivo coperto aumenta di SEI volte.
Con un 55" pollici invece il campo coperto sarebbe esattamente UGUALE a quello di un unico schermo, con l'unico svantaggio che sei COSTRETTO a guardarlo da lontano per non vedere pixel grandi come noci di cocco.
Tutto qui.
Infatti lo scopo di questa tecnologià è chiaramente di aumentare l'IMMERSIVITA' del gioco, cosa che imho avverrà quando faranno monitor "componibili" privi di cornice.
Non ti serve aumentare il campo visivo di 6 volte.
E' quello l'errore.
Se proprio vuoi aumentare il campo visivo è sufficiente una soluzione a 3 monitor.
Non di più.
Pensa di giocare a Rfactor o a Call of Duty su un sistema 3 monitor.
Avresti un'immagine centrale davanti (priva di griglie!), e due immagini laterali che servono per vedere cosa succede ai lati.
In questo modo allora ha un senso il sistema multimonitor perchè è essenziale avere almeno la visuale centrale priva di griglie.
http://s6.imagestime.com/out.php/i402126_monitor3.JPG
Ma se ci metti un sistema a 6 monitor ti tiri la zappa sui piedi da solo perchè viene a mancare totalmente l'immagine centrale pulita.
Qual'è l'immagine centrale?
Dove la piazzi?
La piazzi sui 2 monitor sovrapposti centrali con una bella griglia che rompe le scatole?
E l'immagine laterale dove la piazzi?
Sugli altri 2 monitor sovrapposti a Sx e a DX con altrettante griglie che rompono le scatole?
Non si può giocare a Rfactor o a Call of Duty (o altro fps) con un sistema a 6 monitor, mettiamoci una pietra sopra.
E' inutile girarci intorno al problema, non si può fare, non serve a niente avere 6 monitor.
3 monitor vanno benissimo, anzi sono meglio!
Questo perchè:
1) l'immagine centrale viene mantenuta assolutamente pulita da griglie.
2) le immagini sx e dx vengono mantenute assolutamente pulite da griglie
3) sfrutti tutti e tre i monitor con qualsiasi fps o simulatore.
Con un sistema a 6 monitor invece:
1) l'immagine centrale viene compromessa, e sei costretto a sorbirti una griglia
2) le immagini laterali vengono compromesse, e sei costretto a subirti una griglia
3) se vuoi avere almeno l'immagine centrale pulita (che è quella più importante di tutte!), sei obbligato a disattivare un monitor (a scelta, o quello sopra, o quello sotto), ossia a trasformare il sistema da 6 monitor a 5.
http://s6.imagestime.com/out.php/i402149_monitor4.JPG
Ma anche così facendo, dovrai sorbirti una griglia sulle immagini laterali a sx e a dx (che naturalmente rompe le scatole), a meno che di disattivare altri 2 monitor.
Non c'è scelta.
Un sistema a 6 monitor è il sistema in assoluto MENO indicato per giocare.
Per garantirsi una "quasi" perfetta visione di un Rfactor o di un qualunque fps, è più che sufficiente un sistema a 3 monitor.
Non a 6 monitor.
E' una spesa inutile, e non servono a niente.
ndrmcchtt491
13-09-2009, 17:38
Multi-monitor a parte ho letto su varie riviste che le nuove API non introdurranno nuovi effetti grafici particolari, ma avvantaggieranno chi vuol utilizzare il gpgpu, quindi in ambito professionale(quindi non piu solo CUDA).
non so se è una cagata o meno ma se fosse davvero cosi chi si è da poco comprato una hd4870 o una 275gtx dubito che cambieranno l' attuale vga
Anche secondo me 3 monitor è l'ideale per giocare, per la produttività a meno di non avere una sala di controllo in casa più di 3 monitor non so come sfruttarli realmente.
ndrmcchtt491
14-09-2009, 17:26
vero, sulle dx11 si vocifera un incremento prestazionale, quanto al Tassellator (che se ricordo bene incrementa il n° di poligoni) è una tecnica che risale dai tempi delle ati serie 9000, ma mi pare che da quegli anni a oggi i giochi che hanno sfruttato tale teccnica si contano sulle dita di una mano
Personalmente posso solo dire FINALMENTE!
il multimonitor era gestito decentemente solo da matrox, con soluzioni ormai troppo datate, o sempre da maxtor tramite i 2HToGo o 3HToGo, che non sono certamente economiche ed impongono dei limiti pesanti per risoluzione e configurazione (e poi al massimo 3 monitor).
si, perche' il problema non sono solo la gestione HW e dei buoni driver, ma proprio dei driver che gestiscono i flussi su piu' monitor; qualsiasi applicazione che usa l'overlay (creazione del flusso dati video in finestra), non puo' essere usata gia' in una configurazione a 2 monitor, perna una parte nera perche' non indirizzata al secondo monitor; l'approccio di ATI e' raffinato: usare un HW gia' integrato per ridistribuire il flusso dai ramdac.
purtroppo i driver non gestiscono flussi video overlay su piu' monitor, e solo con le DX10.1 si e' visto qualcosa che possa venire in aiuto in questo senso; per ora conosco solo un programma che gestisce
cornici? esistono lenti prismatiche in plexyglass che possono minimizzare a molto meno di 1mm... dovro' pensarci un po' su'...
chi si ricordava che esisteva gia' un monitor fatto da 3 monitor ha ragione, ma era un retroproiettore a 3 lampade con un sistema HW simile al 3HToGo, e percio' gestibile come un solo monitor ma a risoluzione 3 volte superiore.
videoproiettore autocostruito? esiste un ricco thread anche nel forum di HWupgrade ( http://www.hwupgrade.it/forum/showthread.php?t=911019); le rese sono anche superiori a videoproiettori dal costo di 3 o 4 volte superiore, e soprattutto piu' economici da mantenere (una singola lampada di un VPR costa quasi come il VPR, a differenza delle lampade piu' "standard" dei VPR DIY); esiste anche la tecnica di collimare piu' di un VPR affiancato, ed esistono teli ad alto contrasto, che farebbero invidia a molti TV LCD a grade diagonale, ma sono elevazioni di costi non indifferenti..
e comunque, pur usando piu' videoproiettori, si dovrebbe usare sempre un gingillo della maxtor, in quanto sussistono le stesse limitazioni dei monitor normali dal lato della gestione del flusso dal ramdac.
per flight simulator, in effetti si puo' fare dal 2000 o giu' di li', fino a 16 monitor, se ricordo bene, utilizzando 8 PC in cluster con schede video a doppia uscita, moltiplicando, tra' l'altro, la potenza elaborativa... ma e' per patiti del genere... comunque e' credo l'unico gioco in cui si puo' fare clusting..
l'unica soluzione per avere un gustoso widescreen sarebbe il nuovo schermo philips cinema 21:9, ma oltre al fatto che ha rateo 2.5 tra' altezza e lunghezza, ha limitazioni per quanto riguarda moltri altri fattori (si ferma a 60 hz, in un periodo in cui ci vorrebbero almeno 120hz).
con 2 monitor 5/4 1280x1024 si ottiene lo stesso risultato, o con 4 monitor 1920x1080 in verticale, potendo ottenere alta definizione, rateo cinemascope, e possibilita' del 3D, se si prendono schermi a 120hz (anche se ATI ancora non ha presentato la sua tecnologia, in tal senso).
manca solo la lente, ora...
Speravo in un accenno sulle performance, o qualche dato più concreto, trovo il multimonitor, come già detto, poco interessante per i più e decisamente di nicchia, spero che per sfruttare tali schede non si debba artificiosamente aumentare solo la risolozione e che questa tecnologia debba giustificare le nuove dx11, perchè sarebbe veramente triste a quel punto.
centrogm
15-09-2009, 14:37
a mio avviso totalmente inutile per giocare ...
ps. DX11... attendiamo e speriamo non siano lo stesso flop delle DX10 :)))
ndrmcchtt491
16-09-2009, 16:34
STRAQUOTO!!!
Rikardobari
16-09-2009, 19:36
Totalmente inutile, e allo stesso tempo anche brutto! poi quando devo spendere tutti quei soldi per 50 monitor da minimo 26" (se no nn ha senso) me ne compro uno da 1000, ed evito anche di trovarmi le cornici nella mia visuale! Non voglio togliere nulla alla tecnologia che hanno realizzato, ma mi concentrerei maggiormente sulla potenza/Consumo/Calore di queste nuove VGA!
Ma monitor tipo questo?!
http://www.youtube.com/watch?v=OsBln1V8MgI&feature=related
Ho provato a googlare ma non si trova in vendita...
Ne esistono altri di monior simili?
oldgiana
17-09-2009, 09:27
http://www.youtube.com/watch?v=FR45ja_fNzU
almeno un "tentativo" di portare innovazione...invece della sola ricerca delle massime prestazioni
e cmq in ambito professionale avere una gaming che gestisce piu' di 2 monitor non è male...dai commenti sembra che tutti qua usano il pc per giocare...logicamente è interessante piu' dal lato professionale che gaming,inutili le critiche
ndrmcchtt491
21-09-2009, 16:17
quoto...
Notturnia
22-11-2009, 10:19
l'eyefinity potrebbe farmi tornare ad ATI dopo la vecchia Ati Mach 32 :-D
per il gioco deve essere carino.. ma per il lavoro avere 3 schermi è molto + importante (almeno per me..)
poter avere uno schermo con excel per i dati, uno per word per scrivere mentre guardo i dati e un terzo per vedere l'andamento in tempo reale dei dati elaborati è importante.
niente più switch fra un programma e l'altro ..
2 schermi ora per me sono il minimo.. ma i 3 li sogno da un po'.. solo che con nvidia servono 2 schede.. con matrox non ci si puo' giocare se si vuole.. con ati forse di fanno tutte e due le cose.. finalmente..
AceGranger
22-11-2009, 11:49
l'eyefinity potrebbe farmi tornare ad ATI dopo la vecchia Ati Mach 32 :-D
per il gioco deve essere carino.. ma per il lavoro avere 3 schermi è molto + importante (almeno per me..)
poter avere uno schermo con excel per i dati, uno per word per scrivere mentre guardo i dati e un terzo per vedere l'andamento in tempo reale dei dati elaborati è importante.
niente più switch fra un programma e l'altro ..
2 schermi ora per me sono il minimo.. ma i 3 li sogno da un po'.. solo che con nvidia servono 2 schede.. con matrox non ci si puo' giocare se si vuole.. con ati forse di fanno tutte e due le cose.. finalmente..
questa ATI per il lavoro è completamente useless; se devi usarla con excel, è infinitamente meglio prendere 2 schede singole, low entry e passive; 0 rumore, 0 calore, consumi bassissimi e risparmi un buon 200 euro; e di certo se non giochi hai le stesse prestazioni;
se giochi...
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.