SLI praticamente morto, le GeForce RTX 3000 lo uccidono quasi definitivamente

SLI praticamente morto, le GeForce RTX 3000 lo uccidono quasi definitivamente

Delle tre schede video Ampere presentate ieri, solo la RTX 3090 ha un connettore NVLink per appaiarle un'altra scheda in parallelo tramite bridge dedicato. La RTX 3080 e la RTX 3070 ne sono sprovviste e non sono "SLI Ready". Un cambiamento rispetto alla precedente gamma RTX 2000 che segna l'ormai definitivo addio al multi-GPU in ambito gaming.

di pubblicata il , alle 08:21 nel canale Schede Video
NVIDIAGeForceAmpereSLI
 
20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
biometallo03 Settembre 2020, 10:24 #11
Originariamente inviato da: mally
ma le marchette andranno avanti ogni giorno fino alla fine dell'embargo?


Premetto che credo di essere fra gli utenti che si sono lamentati di più nella sezione news, ma a questo girò non capisco dove stia il problema:

Se hai letto la notizia fino in fondo saprai che se da una parte di parte da un dato di fatto, la sparizione del connettore NVLink dalle schede dalla serie RTX 3000 dall'altro si analizza tutto il fenomeno andando anche a parlare delle rosse e del crossfire ma sopratutto non limitandosi a dare la notizia in se ma cercando di dare un analisi al fenomeno.

Sinceramente che Nvidia abbia pagato me ne frego, sono comunque questi gli articoli che vorrei leggere più spesso su hwu, mentre purtroppo mi pare siano sempre meno...
macca4motion03 Settembre 2020, 10:40 #12
Io ho ancora nel pc le mie due 7970GHz in crossfire, e gioco bene con una CPU pessima. Per me l’upgrade è stato proprio inserire la seconda scheda comprata usata dopo molti anni a pochissimo e tirare avanti fino ad ora. Ormai credo che sia il momento di cambiare tutto, anche se penso che inizierò con una nuova scheda madre, cpu e ram e inizialmente rimetterò in servizio ancora le due schede in crossfire in attesa di vedere le nuove schede AMD e le reali prestazioni di queste nuove nVidia, oltre all’auspicio di un calo di prezzo ovviamente.
gatto2303 Settembre 2020, 10:55 #13
Ed è anche giusto che stia morendo.
Per un aumento medio del 40-60% di prestazioni si paga uno scotto del doppio dei consumi e di bug rilevanti nei giochi (Variabili c'è chi fa meglio chi peggio).
Oltretutto con le nuove schede appena presentate non credo ci sia il minimo bisogno di uno SLI anche se doveste usare più schermi.
Forse forse col nuovo flight simulator per volare in 4k in multimonitor ma credo siano casi così specifici che forse vendono le postazioni fatte apposta per quello scopo specifico
Hereticus03 Settembre 2020, 10:55 #14
l'unico SLI che avrei mai desiderato sarebbe stato quello di poter "sommare" la potenza di calcolo di due schede diverse, così da poter per esempio inserire una scheda di nuova generazione lasciando nel PC anche quella precedente (solo per sfruttarne la GPU). Probabilmente la cosa è impossibile tecnicamente o insensata...
Max_R03 Settembre 2020, 11:07 #15
Originariamente inviato da: Hereticus
l'unico SLI che avrei mai desiderato sarebbe stato quello di poter "sommare" la potenza di calcolo di due schede diverse, così da poter per esempio inserire una scheda di nuova generazione lasciando nel PC anche quella precedente (solo per sfruttarne la GPU). Probabilmente la cosa è impossibile tecnicamente o insensata...


Ci hanno lavorato per un po'
Dato che il rendering di una scena prevede diverse tipologie di operazioni
Alla fine però la cosa più conveniente risultava sempre la scheda più prestante ad occuparsi da sola di tutto
emac70003 Settembre 2020, 11:12 #16
a sto giro se la 30x0 avessero avuto lo sli morto o moribondo che fosse si sarebbe usato.
lo sli è morto anche per colpa dei prezzi e delle fasce di mercato. prima mettendo due 460 in sli avevi prestazioni superiori a qualsiasi singola scheda oggi mettendo due 2060 avresti avuto prestazioni inferiori alla 2080ti.
Discorso diverso per le 3080, qui con due andresti il 25/30% più forte di una 3090 spendendo 100/200€ meno.
robertoivs03 Settembre 2020, 11:31 #17
Ormai ti offrono quasi 9000 cudacores su un solo PCB e ti vuoi illudere di aggiungerne altri tramite PCIE o SLI che siano prestazionalmente ed economicamente utili per applicazioni a bassa latenza come i giochi? Finalmente hanno detto basta a quella che era veramente una mera marketta pubblicitaria. D'altra parte per differenziare Quadro da Geforce è dalla GTX480 che tagliano la banda in uscita del BUS PCIEXPRESS alla metà e bloccano tramite driver le letture/scritture simultanee in modo da ridurne l'impiego per applicazioni di visual computing o processing di video ad alta risoluzione quindi adesso con PCIEXP4 avrebbero margine per quadruplicare lo scambio dati sul bus anche senza rimuovere il blocco sulle scritture/letture simultanee che rappresenta una vera bastardata.
tony7303 Settembre 2020, 11:44 #18
Io mio ultimo SLI era formato da due 780, nei giochi che la supportavano la differenza era abnorme. I giochi non supportati potevano essere itlizzati con vari trucchetti che non sto ad elencare, chi conosce lo SLI sa di cosa parlo, ma spesso si andava incontro a glitch e stranezze varie, ma anche lì quando imbroccavi la strada giusta era tanta roba.

Il Re è morto, viva il Re!
AceGranger03 Settembre 2020, 12:37 #19
Originariamente inviato da: robertoivs
Ormai ti offrono quasi 9000 cudacores su un solo PCB e ti vuoi illudere di aggiungerne altri tramite PCIE o SLI che siano prestazionalmente ed economicamente utili per applicazioni a bassa latenza come i giochi? Finalmente hanno detto basta a quella che era veramente una mera marketta pubblicitaria. D'altra parte per differenziare Quadro da Geforce è dalla GTX480 che tagliano la banda in uscita del BUS PCIEXPRESS alla metà e bloccano tramite driver le letture/scritture simultanee in modo da ridurne l'impiego per applicazioni di visual computing o processing di video ad alta risoluzione quindi adesso con PCIEXP4 avrebbero margine per quadruplicare lo scambio dati sul bus anche senza rimuovere il blocco sulle scritture/letture simultanee che rappresenta una vera bastardata.


ma va la.

I motori di render sono nati proprio con le 480, e Vray GPU ( che ora è pure presente ufficialmente nelle slide nVidia con le Geforce ) fu presentato in anteprima da Chaosgroup ad un Siggraph proprio sulle GTX480...

Le limitazioni via driver hanno per il 99% sempre riguardato solo le viewport, si sono via via ridotte nel tempo e ora permangono solo in una nicchia di software CAD/CAM OpenGL, mentre le Geforce con Turing ( percorso iniziato con la Titan pascal ) hanno guadagnato i driver certificati in DX.

è pieno di test in giro che mostrano le Geforce al pari delle Quadro sia in viewport DX ( o proprietarie come Nitruos di Autodesk ), sia in GPGPU.


La 3090 ha lo SLI perchè è indirizzata ai Pro che possono farsi nVLink e avere 48GB di memoria condivisa ( e usare anche lo SLI in viewport se il software lo supporta come Maya ); sulla 3080 lo hanno tolto perchè seno l'avrebbero dovuta vendere ad un prezzo superiore e non avrebbe fatto contenti i gamer, visto il sovrapprezzo che hanno pagato con le Turing per questo motivo.

nVidia è nota per non regalare mai nulla.
gioffry8103 Settembre 2020, 21:44 #20
Credo che il motivo principale sia molto più semplice e matematico. Con 2 vga non si raddoppiano le prestazioni (che possono arrivare ad un 160%) ma solo il prezzo. Quindi conviene direttamente prendere il modello superiore, che oltre a non portare problemi di driver, ottimizzazione dei giochi, calore e consumi, si ha anche un sistema più compatto ed elegante.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^