|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#7821 | |
|
Senior Member
Iscritto dal: Jan 2006
Città: Ivrea (TO)
Messaggi: 6174
|
Quote:
__________________
117 TRATTATIVE POSITIVE: |
|
|
|
|
|
#7822 | |
|
Senior Member
Iscritto dal: Oct 2006
Città: Potenza
Messaggi: 4260
|
Quote:
Ma senza scomodare hw, nell'articolo che hai linkato si vede chiaramente che lo SLI funzioni meglio del crossfire. Una singola 5870 è molto più veloce di una singola 285, ma in configurazioni multigpu nvidia recupera tantissimo e il divario tra 5870 e 285 è piccolissimo e addirittura in alcuni bench, tipo CoD5, le nvidia vanno meglio. Ultima modifica di luX0r.reload : 21-11-2009 alle 14:41. |
|
|
|
|
|
#7823 | |
|
Senior Member
Iscritto dal: Oct 2006
Città: Potenza
Messaggi: 4260
|
Quote:
|
|
|
|
|
|
#7824 | |
|
Senior Member
Iscritto dal: Jun 2005
Città: Vitória(ES), Brasile
Messaggi: 8152
|
Quote:
Mancano le 2x5870 e 2x285, ma dalle 2x5850 e 2x275 si riesce a capire. EDIT: posto anche questo http://www.anandtech.com/mb/showdoc.aspx?i=3649&p=1 Le nuove schede in dual sono molto potenti, quindi i risultati possono essere "falsati" da una cpu che non regge il settore video. Questo scenario probabilmente si verificherá pure con fermi in SLI.
__________________
Se la vita ti da limoni ... Spremili in occhio a qualcuno e corri! Ultima modifica di The_SaN : 21-11-2009 alle 14:50. |
|
|
|
|
|
#7825 | |
|
Senior Member
Iscritto dal: Feb 2007
Città: Zena Red & Blue
Messaggi: 5010
|
Quote:
__________________
MY liquidcooled PC |
|
|
|
|
|
#7826 | |
|
Senior Member
Iscritto dal: Jan 2006
Città: Ivrea (TO)
Messaggi: 6174
|
Quote:
Comunque niente da dire, ATI a sto giro a fatto un ottimo lavoro, per ora; magari all'uscita di Fermi tutto sarà ridimensionato.
__________________
117 TRATTATIVE POSITIVE: Ultima modifica di Marscorpion : 21-11-2009 alle 14:53. |
|
|
|
|
|
#7827 | |
|
Senior Member
Iscritto dal: Jun 2005
Città: Vitória(ES), Brasile
Messaggi: 8152
|
Quote:
Esiste una versione per CPU (ottimizzata quindi per il funzionamento su processore), e una versione GPU (ottimizzata per il funzionamento solo su schede nVidia, o emulata su cpu con risultati osceni). Sta ai programmatori scegliere quale usare.
__________________
Se la vita ti da limoni ... Spremili in occhio a qualcuno e corri! |
|
|
|
|
|
#7828 | |
|
Senior Member
Iscritto dal: Jun 2005
Città: Vitória(ES), Brasile
Messaggi: 8152
|
Quote:
Laddove usano un processore a default, o con OC medio, il crossfire non mostra il suo vero valore. Accadrá lo scenario della seconda recensione che ho postato
__________________
Se la vita ti da limoni ... Spremili in occhio a qualcuno e corri! |
|
|
|
|
|
#7829 | ||
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
Quindi, quella di nVidia, fatta sia per i 55 che per i 65 nm, non è stata una libera scelta motivata dal fatto di avere già gli scarti di G80 da commercializzare ma è stata una scelta imposta dal fatto che si è dovuta affrettare a recuparare il porcesso rpoduttivo di svantaggio e, per farlo, ha dovuto utilizzare uno shrink di G80. Questo ha creato altri scarti della vecchia architettura che si andavano a sovrapporre a quelli di GT200. Insomma, la scelta era tra restare indietro con i processi produttivi, oppure sacrificare quasi epr intero (tranne la fascia alta) la line up di GT200. Quote:
finora si è parlato di GT300 soprattutto in ottica GP computing; sono cominciate a circolare le rpime specifiche, anche relative alla frequenza dello shader core della versione per il gpgpu; è stata fatta vedere una demo con un confronto tra GT200 e GT300 in doppia precisione (nota che prendo per buone tutte le cose presentate, ossia parto dal presupposto che non siano fake). Al contrario, non si sa nulla, neppure le frequenze degli shader, della versione gaming ed è stato fatto vedere uno screen shot su un presunto bench DX11 fatto girare da GT300. Ai fini di questo ragionamneto non conta sapere se quella foto è fake o no. La riflessione che faccio è questa: al momento è stato mostrato poco o nulla ma si parlato molto e si è parlato soprattutto del gpgpu. Se considerassimo fake tutto ciò che è stato mostrato, si arriverebbe alla conclusione che non ci sia un solo sample di Fermi funzionante: il che sarebbe una tragedia (non se ne vedrebbe l'ombra neppure per la fine del Q2 2010). Un'altra ipotesi potrebbe essere quella delle basse rese produttive, ma mi sentirei di scartarla, in quanto, ammesso che ci siano pochi sample funzionanti, questi sarebbero in mano a nVidia che potrebbe usarli per mostrare le potenzialità del chip invece di parlarne soltanto e far vedere pcb tarocchi e foto ambigue o, nel migliore dei casi, prive di significato. Tera ipotesi è quella che sia vero quanto riportato da hw.fr a proposito delle capacità di calcolo di GT300 in singola e doppia precisione e nel calcolo di MADD e FMA; per comodità, riporto l'immagine da cui sembrerebbe che GT300, a fp32, abbia, con shader core a 1600 MHz, una capacità di calcolo teorica paragonabile a quella di GT200 per quanto riguarda le MADD ![]() http://www.hardware.fr/articles/772-...computing.html Ora, sembrerebbe che nVidia abbia problemi a far funzionare GT300 con shader core a 1600 MHz, tanto che si è parlato di frequenze inferiori a quelle presviste anche per fp64 (il che allinea le prestazioni di fermi, in doppia precisione, a quelle di RV870). Se questo fosse confermato, allora, a fp32, GT300 non andrebbe meglio o, se si, non di molto, rispetto a GT200. La mancanza di date di presentazione e di specifiche, potrebbe essere il sintomo che stiano tentando di tirare al massimo le frequenze per compensare la mancanza di potenza di calcolo (anche il lancio di NV30 fu posticipato, ma in quel caso, diffusero specifiche che poi non vennero confermate, in quanto NV30, inizialmente, doveva funzionare a frequenze inferiori che furono aumentate per cercare di ridurre il gap rispetto a R300). Ultima ipotesi, è che c'è quelche bug. In tal caso, a seconda del tipo di bug, la soluzione potrebbe richiedere molti mesi o poche ore. Al momento non mi vengono in mente altre ipotesi Di sicuro è da scartare la tesi che nVidia stia nascondendo le sue carte, visto che la cosa non ha senso alcuno, poichè ATi le sue le ha già scoperte da un pezzo. Ultima modifica di yossarian : 21-11-2009 alle 16:20. |
||
|
|
|
|
#7830 | |
|
Senior Member
Iscritto dal: May 2006
Messaggi: 19401
|
Quote:
![]() Ma scusa non puo' essere semplicemente che stiano aspettando rese migliori? A me pare la spiegazione più logica e semplice...avendo il chip più grosso avranno incontrato certamente maggiori difficoltà e a vedere come è ridotta la disponibilità delle schede HD58x0 direi che la cosa acquista ancora di più un senso. Il discorso di vedo/non vedo è fuorviante: mai nvidia ha rilasciato dati sulle performance finali prima dello scadere dell'NDA (prima di aver lanciato ufficialmente le schede), non lo farà nemmeno questa volta...e il motivo principale di questo comportamento sarebbe quello logico di continuare a vendere le attuali schede. Ultima modifica di Kharonte85 : 21-11-2009 alle 15:15. |
|
|
|
|
|
#7831 | |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
In quanto al resto, nVidia, stavolta, ha già svelato la sua architettura, ci sono anche white paper su GT300, on line, alla portata di tutti. Cos'altro dovrebbe mostrare? L'unica cosa che manca sono i bench. Quindi anche la tesi che nVidia non mostra prima dello scadere dell'NDA non regge. Prima di G80 non avevano fatto trapelare nulla, neppure che fose un chip a shader unificati (anche se i bene informati lo sapevano da un pezzo, ma parliamo di addetti ai lavori o quasi). Stavolta, al contrario, stanno parlando molto ma non stanno facendo vedere i test (soprattutto quelli in game o nei bench sintetici) che sono quelli che più interessano agli utenti di tipo consumer. Se esiste GT300 funzionante, il modo migliore per far vendere meno AMD sarebbe quello di mostrarne le vere potenzialità. Al contrario, si stanno rendendo ridicoli facendo vedere una volta un finto pcb e la volta successiva una foto senza senso. In questo modo danno forza alle tesi di chi sostiene che GT300 non funzioni o che non sia così performante, almeno in game, come vorrebbero far credere e ottengono l'effetto contrario. Ultima modifica di yossarian : 21-11-2009 alle 15:24. |
|
|
|
|
|
#7832 |
|
Bannato
Iscritto dal: Oct 2009
Messaggi: 6442
|
in effetti il discorso non fa una piega.
servirebbero proprio i bench con i giochi per attirare l'attenzione al massimo e bloccare le vendite ati. e invece ancora niente
|
|
|
|
|
#7833 | |
|
Senior Member
Iscritto dal: Mar 2004
Città: Parma
Messaggi: 5955
|
Quote:
Toms ne ha provati 7 sia su 5870 che su 5970, unica scheda quest'ultima a supportare in via preliminare eyefinity in crossfire , 5 sono incompatibili e/o crashati, uno va meglio con 5870 che con 5970, e l'altro va uguale, su 7 titoli i miglioramenti ottenuti su GPU estremamente performanti sono zero http://www.tomshw.it/cont/articolo/r...e/22847/6.html
__________________
case: phanteks eclipse 500a - cpu: 9800x3d - aio: arctic liquid freezer iii 360 - mobo: msi b650 gaming plus wifi - ram: g.skill flare x5 6000 cl30 - gpu: rtx 5080 fe - storage: samsung 980pro 1tb, 960 evo 500gb, 850pro 512gb - psu: enermax revolution d.f. x 850w |
|
|
|
|
|
#7834 |
|
Senior Member
Iscritto dal: Apr 2005
Messaggi: 2544
|
__________________
[CM Cosmos Pure] [GIgabyte Z77 X-UP7] [i7 2600K@4,2 Ghz cooled by COrsari H110] [4x2Gb Crucial Ballistic 8-8-8-24] [Radeon R9 290] [SO Crucial M4 120Gb; Games WD Caviar Black 1Tb; Storage WD Caviar Green 2Tb] [Asus Xonar D2X] [Creative Gigaworks T40 II] [Windows 7 Professional SP1 64bit] [Logitech G15] [Logitech G9x] |
|
|
|
|
#7835 | ||
|
Bannato
Iscritto dal: Apr 2009
Messaggi: 1323
|
Quote:
Quote:
|
||
|
|
|
|
#7836 | |
|
Bannato
Iscritto dal: Oct 2009
Messaggi: 6442
|
Quote:
scusami ma a chi tiriferisci con questa frasetta acida? forse a me? ![]() se si ti sbagli, evita quindi queste uscite solo perchè c'è qualche utente interessato all'argomento che prova a dire la sua. e se ci rifletti un attimino nonostante non sia un esperto, cmq torna il discorso che ho fatto da una parte: un derivato del gt200 mettiamo da 120shader sarebbe andato come un g92 e + o - sarebbe stato anche della stessa grandezza e sempre dx10. quindi inutile farlo in questo caso, a questo punto meglio continuare ad usare direttamente il g92b per le fasce + basse. ma con fermi che presenta una nuova architettura questa cosa non credo si ripeterà. e quindi nvidia presto o tardi finirà per avere una gamma completa di schede dx11. Ultima modifica di persa : 21-11-2009 alle 16:37. |
|
|
|
|
|
#7837 | ||
|
Senior Member
Iscritto dal: May 2006
Messaggi: 19401
|
Quote:
http://www.hwupgrade.it/forum/showpo...postcount=8157 Con questo sistema (e le foto ambigue, e le dichiarazioni) Nvidia fa parlare di se, dimostra che le schede in versione Tesla possono girare ne dice il potenziale in GPUcomp e fa intendere che questa potenza sarà alla portata di tutti anche nel Gaming proprio nelle versioni Geforce http://www.tomshw.it/cont/news/gefor...a/22892/1.html Che sia vero o meno staremo a vedere...ma la strategia di nvidia a giudicare dagli scleri sul forum secondo me sta pagando (coautrice involontaria di cio: la penuria delle nuove schede AMD/ATI).Nell'ipotesi invece che le Geforce basate su Fermi siano non abbastanza competitive aspettare sarebbe lo stesso dannoso e lo scenario non cambierebbe...quindi direi che più semplicemente stanno aspettando di passare alla revision a3 (aggiustando le frequenze?) e di avere volumi passabili per fare un lancio. Quote:
e questo mi pare abbastanza logico: nessuno comprerebbe le nvidia di adesso sapendo che è in arrivo una nuova scheda che andrà XXX (comunque di più)A questo aggiungici che AMD/ATI ha presentato le schede ma la disponibilità è talmente bassa al momento che moltissime persone stanno annullando gli ordini o ripiegando su altre schede (AMD/nvidia vecchia generazione), ed ecco che nvidia puo' aspettare abbastanza tranquilla che migliorino gli yelds nelle fonderie. Forse ne sapremo di più a dicembre... |
||
|
|
|
|
#7838 |
|
Senior Member
Iscritto dal: Feb 2000
Messaggi: 11187
|
Se nVidia aveva un esemplare di Fermi funzionate state certi che un 3dmark con frequenze a bomba l'avrebbe tirato fuori per stoppare RV870...
A distanza di tempo, e nonostante sia stata sotterrata di ilarità per i suoi fake, non ha esibito nulla di più concreto di una scheda tenuta insieme da viti da legno ed un'immagine farlocca di un benchmark...
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 [email protected] Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600 cl 14 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 | PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w| ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI |
|
|
|
|
#7839 |
|
Bannato
Iscritto dal: Oct 2009
Messaggi: 6442
|
|
|
|
|
|
#7840 | |
|
Senior Member
Iscritto dal: Mar 2004
Città: Parma
Messaggi: 5955
|
Quote:
http://www.pchs.it/News/Notizie-dal-...pionaggio.html
__________________
case: phanteks eclipse 500a - cpu: 9800x3d - aio: arctic liquid freezer iii 360 - mobo: msi b650 gaming plus wifi - ram: g.skill flare x5 6000 cl30 - gpu: rtx 5080 fe - storage: samsung 980pro 1tb, 960 evo 500gb, 850pro 512gb - psu: enermax revolution d.f. x 850w |
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 18:31.













e questo mi pare abbastanza logico: nessuno comprerebbe le nvidia di adesso sapendo che è in arrivo una nuova scheda che andrà XXX (comunque di più)







