View Full Version : SLI al massimo con 2 schede per le soluzioni GeForce GTX 1080 e 1070
Redazione di Hardware Upg
12-05-2016, 08:19
Link alla notizia: http://www.hwupgrade.it/news/skvideo/sli-al-massimo-con-2-schede-per-le-soluzioni-geforce-gtx-1080-e-1070_62623.html
La nuova modalità SLI HB, High Bandwidth, richiede l'utilizzo congiunto di tutti e due i connettori SLI presenti sulle schede video: per questo motivo le nuove proposte top di gamma non potranno andare oltre setup SLI con due schede
Click sul link per visualizzare la notizia.
gia' uno sli con 2 1080 richiede un impegno economico ed un alimentatore di dimensioni "abbondanti"
4 sli chi le monta? chi deve usare molti monitor lo puo' fare con una sola nvidia quadro k1200...
a me sembra una cazzata. io ho sempre utilizzato lo sli, pero' privarsi di una soluzione simile significa rinunciare a faticare per ottenere il massimo della scalabilità in ambito gpu. tra l'altro 3 schede avoglia se sono utili in alcune configurazioni. 4 saranno esagerate, ma pur sempre un upgrade da considerare, sia per sfizio, sia per modding o quel che sia. capisco la scelta ma non condivido.
roccia1234
12-05-2016, 08:40
gia' uno sli con 2 1080 richiede un impegno economico ed un alimentatore di dimensioni "abbondanti"
4 sli chi le monta? chi deve usare molti monitor lo puo' fare con una sola nvidia quadro k1200...
Visto quanto (male) scala in prestazioni il 3-sli e 4-sli... penso solo i fanatici con soldi da buttare per fare qualche punticino in più nei benchmark.
ma 850W sono piu che sufficenti per uno sli di 1080...sono sufficienti per uno sli di 980Ti che consumano il doppio di queste nuove 1080
gd350turbo
12-05-2016, 09:14
Ma si dai... chi si vuole mettere 4 1080, lo fa per fare il record a 3dmark, o se vuole pilotare 4 schermi 4k, ( sborone mode ON )
Il forum nvidia, era pieno di lamentele di coloro che avevano problemi con queste soluzioni, quindi hanno ben pensato di risolvere il problema alla radice !
Tanto una 1080 và come uno sli di 980 , quindi 2 1080 vanno come 4 980 :D .
Goofy Goober
12-05-2016, 09:48
A parte che l'uso dei 2 connettori contemporaneamente si faceva già oggi, usando i ponticelli per 3way e 4way su configurazioni a solo 2 schede...
Questa news cmq conferma al 100% che i vecchi ponticelli saranno inutilizzabili su queste schede?
Chi venderà i nuovi ponticelli?
Saranno esclusivi Nvidia o li metteranno anche nelle mobo come accessori?
Costi?
Perchè non si sono ancora decisi a fare i ponticelli con uno "slider" per renderli sempre adattabili a ogni tipo di montaggio/distanza tra gli slot PCI-E?
Finalmente si potrà competere con i soliti noti in rete! Non più paghe allucinanti.
gd350turbo
12-05-2016, 10:00
Se la gente glieli da, fanno bene a chiederli !
Loro sono li per guadagnare soldi !
Io avevo letto che per l'uso di CUDA, iRay ed il GPGPU in generale, la modalità SLI è sconsigliata... qualcuno conferma?
Meglio 2 schede che scalano bene che 3 o 4 che scalano male.
Eppoi avranno probabilmente notato che quelli che hanno più di 2 schede sono 4 gatti in croce, sbattersi ad ottimizzare per loro non ha senso.
Io avevo letto che per l'uso di CUDA, iRay ed il GPGPU in generale, la modalità SLI è sconsigliata... qualcuno conferma?
La "Modalità SLI" serve solo per i giochi che io sappia, ma per le applicazioni professionali che usano i CUDA di solito lo SLI viene disattivato e la seconda scheda viene usata solo per mero calcolo (un po come fosse una tesla "dei poveri"), ma da comunque un boost notebole rispetto ad una sola GPU.
Poi so che molti grafici amatoriali o semi-professionisti che non possono permettersi una workstation da 10000€, usano una quadro di fascia media per la costruzione della scena, in quanto molto più efficaci nella gestione delle viewport, ed una GTX secondaria solo per il calcolo in CUDA.
La "Modalità SLI" serve solo per i giochi che io sappia, ma per le applicazioni professionali che usano i CUDA di solito lo SLI viene disattivato e la seconda scheda viene usata solo per mero calcolo (un po come fosse una tesla "dei poveri"), ma da comunque un boost notebole rispetto ad una sola GPU.
Poi so che molti grafici amatoriali o semi-professionisti che non possono permettersi una workstation da 10000€, usano una quadro di fascia media per la costruzione della scena, in quanto molto più efficaci nella gestione delle viewport, ed una GTX secondaria solo per il calcolo in CUDA.
Questo è quello che vorrebbe nvidia, in realtà spesso e volentieri le gtx sono meglio delle quadro anche nella gestione della viewport :D
Ma se uno volesse 2 1080 per, diciamo, la VR e una 1080 o 1070 esclusivamente per la fisica, si può fare o no?
Certo che Nvidia è come l'Italia, ha una tassa dietro l'altra.
Vuoi Gsync? 130€ di tassa sul monitor per il modulino inutile.
Vuoi lo SLI? 50€ (o quanto sarà) di tassa per il ponticello inutile.
ma che stai a di?
dovrebbero darti gratis un componente hardware? se non lo vuoi ci sono mille altri monitor che vanno benissimo tranquillo!
il ponte sli (non si capisce perche inutile) costa 5 euro ci hai messo uno 0 di troppo.
CrapaDiLegno
12-05-2016, 19:24
Perchè non si sono ancora decisi a fare i ponticelli con uno "slider" per renderli sempre adattabili a ogni tipo di montaggio/distanza tra gli slot PCI-E?
Perché uno slider a "sfregamento" su un bus ad alta frequenza è come una sega usata per tagliarsi la barba. La qualità del risultato sarebbe comparabile.
CrapaDiLegno
12-05-2016, 19:27
Certo che Nvidia è come l'Italia, ha una tassa dietro l'altra.
Vuoi Gsync? 130€ di tassa sul monitor per il modulino inutile.
Vuoi lo SLI? 50€ (o quanto sarà) di tassa per il ponticello inutile.
Certo, il Gsync è un modulino inutile, infatti l'elettronica e il protocollo per supportare la frequenza variabile ce l'hanno tutti i monitor "piatti" da sempre.
Che stupidi i costruttori a farsi abbindolare da nvidia e farsi ricattare con le royalties quando avrebbero potuto vendere HW che già sapeva fare le stesse cose.
Ovviamente il magnifico FreeSync non usa HW fatto apposta per supportare le funzionalità ed è pagato insieme al monitor, noooo, anzi, quando compri un monitor FreeSync capable il costo extra dell'HW te lo scalano dal prezzo, così paghi il monitor FreeSync meno di uno senza supporto.
Inutile perchè Freesync fa la stessa identica cosa senza.
.
non facciamo disinformazione per favore, possono somigliarsi ma non è la stessa cosa.
http://www.tomshw.it/news/nvidia-g-sync-migliore-del-freesync-grazie-al-modulo-dedicato-65087
tra l'altro provato anche personalmente, prima avero una r9 con un monitor freesync e non ottenevo lo stesso risultato di fluidità e sincronia
CrapaDiLegno
13-05-2016, 00:55
"Nvidia commenta l'arrivo della tecnologia FreeSync di AMD."
Oste com'è il vino? :asd:
Degli articoli leggete solo il titolo e poi pensate di sapere tutto.
Boh, a me sembra che l'ingegnere abbia esplicitato un vantaggio di GSync misurabile e reale (quello del basso frame rate) risolto con un sistema abbastanza complesso (e costoso).
Ora puoi dire che a te non frega nulla della cosa e ti bastano le capacità del FreeSync, ma questo non vuol dire che sono la stessa cosa.
Una Audi non è equivalente ad una Punto Abarth, anche se entrambe ti portano dal punto A al punto B più o meno nello stesso tempo.
Per sfruttare l'Adaptive Sync è necessario un cavo DP1.2a.
I monitor che usano il DP1.2 sono semplicemente quelli per cui lo scaler ha delle capacità maggiori del solito (definiamoli overcloccabili), ma non sono quelle che FeeSync e GSync usano come standard.
Infatti funziona solo su alcuni modelli, non su tutti.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.