L'evoluzione della tecnologia SLI: nuovi dettagli

Anche 3 schede video in parallelo con il nuovo approccio SLI di NVIDIA, con debutto possibile al Cebit di Hannover
di Paolo Corsini pubblicata il 05 Febbraio 2007, alle 17:33 nel canale Schede VideoNVIDIA
43 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoIl mio primo giorno a lezioni di elettronica il prof ha detto: progettare un sistema è come avere una coperta troppo piccola pe coprire tutto. Bisogna fare delle scelte: privilegiare costi contenuti o prestazioni elevate o consumi ridotti o facilità di progetto. Ultimamente sui forum di questo sito leggo continuamente di gente che si lamenta di una cosa o dell'altra. AMD impiega tanto tempo a fare uscire r600? Pensate che progettare una nuova scheda sia facile? ci vuole il suo tempo. G80 è diverso, quindi non si possono confrotare i tempi di progetto, e ad AMD non sono certo stupidi visto dove sono arrivati.. Le schede consumano troppo? Preferite forse una scheda a 30W che fa scattare tutti i giochi? I processi produttivi migliorano, ma se è vero che passando a 80nm si consuma di meno, è anche vero che le dx10 richiedono molta più potenza di calcolo. E'come volere un'auto che va ai 300km/h e lamentarsi che consuma troppa benzina! NVIDIA e ATI sono certo che se potessero diminuirebbero i consumi, ma non si può far tutto insieme, specialmente se poi la gente si lamenta dei ritardi di progetto per schede più performanti.
La scheda che esce in un mese a 30euro che consuma 30watt e fa girare oblivion a 2560x senza scattare non esisterà mai. bisogna accontentarsi di ciò che il mercato offre, facendo critiche costruttive, altrimenti più che un forum di informatica, sembra un forum di discussioni da bar..
Scusate lo sfogo, ma ultimamente sto leggendo pagine e pagine di post tutti inutili e uguali..
Cmq riduardo a questa notizia, credo che dovrebbero concentrasi sulla parallelizzazione, ma su singola scheda, un po'come nei casi 7950 GX2 e 1950pro dual, per evitare troppe schede da inserire nel case e utilizzare una seconda scheda, magari di fascia medio/bassa per la gestone della fisica. Mi piacerebbe veder spostato sulle chede video il discorso dei processori. Per esempio una scheda video con 4GPU e magari 1GB ddr4 in comune x la fascia alta, 2GPU e 512Mb su fascia media e 1GPU e 256Mb x fascia bassa. Non so se sia fattibile, ma credo che sarebbe una soluzione migliore rispetto ad una proposta multi-schede, anche x i consumi.
Riassume proprio il comcetto di risparmio energetico che con news di queste sembrano avere i produttori di schede video!!
Vedo gente che spende 1200 Euro per 2 8800 in SLI e poi ci si lamenta se si spende 200 Euro in piu' all'anno per la bolletta della corrente...
vedo gente che si lamenta perchè le consolle riescono con hw scarso a fare andare giochi a 60fps, ma poi non sanno come funziona la programmazone e la reale risoluzione di questi giochi...
vedo gente che si lamenta di piu' schede da inserire nel case quando ormai da 2 anni le CPU hanno mostrato che il calcolo parallelo e piu' core sono il futuro da seguire.
Non per essere critico, ma ci son molte richieste che vanno proprio al contrario di quelli che son i principi dell'informatica e della ricerca!
Non volete la fisica nei game?! Io è quello che desidero, piu' che migliorare ulteriormente la grafica...pensate che processri Quad, Epta,ecc Core son in grado di fare queste cose?! Il calcolo della fisica delle particelle richiede un'enorme potenza che può essere data solamente da processori non generale purpouse.
Ciao ciao
Il mio primo giorno a lezioni di elettronica il prof ha detto: progettare un sistema è come avere una coperta troppo piccola pe coprire tutto. Bisogna fare delle scelte: privilegiare costi contenuti o prestazioni elevate o consumi ridotti o facilità di progetto. Ultimamente sui forum di questo sito leggo continuamente di gente che si lamenta di una cosa o dell'altra. AMD impiega tanto tempo a fare uscire r600? Pensate che progettare una nuova scheda sia facile? ci vuole il suo tempo. G80 è diverso, quindi non si possono confrotare i tempi di progetto, e ad AMD non sono certo stupidi visto dove sono arrivati.. Le schede consumano troppo? Preferite forse una scheda a 30W che fa scattare tutti i giochi? I processi produttivi migliorano, ma se è vero che passando a 80nm si consuma di meno, è anche vero che le dx10 richiedono molta più potenza di calcolo. E'come volere un'auto che va ai 300km/h e lamentarsi che consuma troppa benzina! NVIDIA e ATI sono certo che se potessero diminuirebbero i consumi, ma non si può far tutto insieme, specialmente se poi la gente si lamenta dei ritardi di progetto per schede più performanti.
La scheda che esce in un mese a 30euro che consuma 30watt e fa girare oblivion a 2560x senza scattare non esisterà mai. bisogna accontentarsi di ciò che il mercato offre, facendo critiche costruttive, altrimenti più che un forum di informatica, sembra un forum di discussioni da bar..
Scusate lo sfogo, ma ultimamente sto leggendo pagine e pagine di post tutti inutili e uguali..
Cmq riduardo a questa notizia, credo che dovrebbero concentrasi sulla parallelizzazione, ma su singola scheda, un po'come nei casi 7950 GX2 e 1950pro dual, per evitare troppe schede da inserire nel case e utilizzare una seconda scheda, magari di fascia medio/bassa per la gestone della fisica. Mi piacerebbe veder spostato sulle chede video il discorso dei processori. Per esempio una scheda video con 4GPU e magari 1GB ddr4 in comune x la fascia alta, 2GPU e 512Mb su fascia media e 1GPU e 256Mb x fascia bassa. Non so se sia fattibile, ma credo che sarebbe una soluzione migliore rispetto ad una proposta multi-schede, anche x i consumi.
ci vorrà un'intera stanza solo per quello.
si ma ci manca poco.
Domani faro' delle foto nel mio case mentre cuocio una tortina. si vedrà anche il fumo uscire.
Poi te la ripropongono senza troppe modifiche sulla PS2 e vedi gli stessi giocatori che spendono ventisettemilaeuro per il computer divertirsi come dei pazzi più del computer...
Adesso non dico che dovremmo tornare alle GeForce 4 ma di mettere almeno un limite a questi che sono sprechi... senza se e ma: sono sprechi anche se uno ha più soldi di zio bill... voi vedetela come vi pare...
Perchè la scheda singola costa tanto in termini di ricerca ed ha una resa commerciale bassissima mentre più schede deboli possono essere comprate con il calare dei prezzi ed assicurano un rendimento proporzionalmente migliore.
Peccato che comprarsi schede aggiuntive richieda naturalmente l'acquisto di una nuova scheda madre
[quote]ma riducessero i consumi più tosto....
Scusate ma non potevo NON quotare le ultime due parole... chi le ha scritto è un genio!!!
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".