PDA

View Full Version : [THREAD UFFICIALE] Aspettando R700


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 [39]

<^MORFEO^>
26-06-2008, 10:41
Osti!:eek:
Questo in DX 10.1?

Su trovaprezzi un negozio dal la 4850 a 27€:asd:
Se la prendo dite che si accorgono dello sbaglio?:asd:

Infatti molti dimenticano che se adesso i giochi comincerebbero a venir presentati in dx10.1 e non più solo dx10, nVidia sarebbe nella mer*a in fatto di prestazioni ed una 4850 eguaglierebbe tranquillamente una GTX280 :D

Speriamo che almeno i giochi sponsorizzati da ATI vengano rilasciati anche in dx10.1 :O

goldorak
26-06-2008, 10:42
Pare che EA, Sega e Blizzard nei loro prossimi giochi useranno le dx 10.1. :D

goldorak
26-06-2008, 10:45
Ecco altri bench :

http://xs128.xs.to/xs128/08263/8xobl1600997.gif

http://xs228.xs.to/xs228/08263/8xqw1920702.gif


800 sp piccoli ma inca**** neri. :sofico:

<^MORFEO^>
26-06-2008, 10:50
Pare che EA, Sega e Blizzard nei loro prossimi giochi useranno le dx 10.1. :D

Cominciano a mettere il pepe sotto al :ciapet: di nVidia allora :asd:

Tioz90
26-06-2008, 11:37
Pare che EA, Sega e Blizzard nei loro prossimi giochi useranno le dx 10.1. :D
Ottimooooooooooooo:sofico:

Ecco altri bench :

http://xs128.xs.to/xs128/08263/8xobl1600997.gif

http://xs228.xs.to/xs228/08263/8xqw1920702.gif


800 sp piccoli ma inca**** neri. :sofico:
Siamo un pò cpu limited mi sa:asd:

Errik89
26-06-2008, 11:40
Ecco altri bench :

http://xs128.xs.to/xs128/08263/8xobl1600997.gif

http://xs228.xs.to/xs228/08263/8xqw1920702.gif


800 sp piccoli ma inca**** neri. :sofico:
:sofico: :sofico: :sofico:

piccoli efficienti e incazzati! :asd:

gianni1879
26-06-2008, 12:01
Pare che EA, Sega e Blizzard nei loro prossimi giochi useranno le dx 10.1. :D

prevedo mazzate amare per Nvidia, ma credo che farà qualcosa :rolleyes:

Errik89
26-06-2008, 12:03
prevedo mazzate amare per Nvidia, ma credo che farà qualcosa :rolleyes:
obbligherà EA a fare patch per togliere le dx10.1 dai sui giochi... :fagiano:

TheDarkAngel
26-06-2008, 12:04
diamine davvero notevole questa 4870 :eek: non avrei mai e poi mai immaginato che in nessun caso potesse battere la gtx280 :eek: :eek: si sa di preciso l'uscita della 1gb? 512mb è davvero troppo poco

michelgaetano
26-06-2008, 12:05
obbligherà EA a fare patch per togliere le dx10.1 dai sui giochi... :fagiano:

Muori EA -_-

gianni1879
26-06-2008, 12:06
:sofico: :sofico: :sofico:

piccoli efficienti e incazzati! :asd:

eheh ma non erano GGF? :asd:

DakmorNoland
26-06-2008, 12:06
obbligherà EA a fare patch per togliere le dx10.1 dai sui giochi... :fagiano:

Mah più che altro il problema è che molta gente non sa manco cosa siano le DX10, primo perchè sono scarsamente implementate anche nei giochi che ne fanno uso, e secondo perchè molti detestano Vista e non hanno intenzione di abbandonare XP.

Quindi temo che prima di Windows 7 non vedremo una grossa diffusione di DX10 o 10.1, a meno che non obblighino ad avere Vista per giocare, ma questa potrebbe essere un'arma a doppio taglio! Visto che già la vendita di giochi su pc non va alla grande, e obbligare all'utilizzo di Vista peggiorerebbe le cose, ovviamente imho. ;)

michelgaetano
26-06-2008, 12:06
diamine davvero notevole questa 4870 :eek: non avrei mai e poi mai immaginato che in nessun caso potesse battere la gtx280 :eek: :eek: si sa di preciso l'uscita della 1gb? 512mb è davvero troppo poco

Ha 130-140 gb di bandwidth, chiamala poca.

Secondo me è un ottimo acquisto, tutte le schede sono a 512mb al momento.

Tranne gtx 260 e gtx 280. Che no ntraggono beneficio dal quantitativo alto, test alla mano.

TheDarkAngel
26-06-2008, 12:07
Ha 130-140 gb di bandwidth, chiamala poca.

Secondo me è un ottimo acquisto, tutte le schede sono a 512mb al momento.

Tranne gtx 260 e gtx 280. Che no ntraggono beneficio dal quantitativo alto, test alla mano.

non era riferito alla banda passante ma alla pura e semplice quantità, alle alte risoluzioni secondo me potrebbe dare di più con 1gb ( mi ricordo ancora world in conflict ad esempio con 320/512/640/768mb con le nvidia )

A.L.M.
26-06-2008, 12:24
Beh le ottimizzazioni driver possono riguardare anche un chip della complessità di GT200, anch'esso con diverse novità rispetto alla precedente generazione.
RV770 resta comunque un chip incredibile soprattutto se confrontato con la precedente generazione ATi: rispetto alla 3870, la 4870 va con i filtri anche l'80-90% in più. A fronte di questo aumento di performance, i consumi sono mediamente aumentati del 30%, il die-size del 30% e il numero di transistor del 40%. Se Nvidia con G80 aveva creato un gap prestazionale con la concorrenza quasi pari ad una generazione di gpu, questo divario è stato quasi annullato come performance pure e ampiamente superato come prezzo/prestazioni con la sola introduzione di questo piccolo mostro.Il tutto senza che sia ancora uscito quello che nei pronostici era il vero avversario della 280 ossia R700.

Infatti. ;)
Se è per questo anche una semplice HD4850 in certi casi va pure il 100% e passa in più coi filtri, rispetto ad una HD3870, se si usa l'AA8x, già a 1280x1024. ;)

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/rv770_fsaa_performance.gif

Pare che EA, Sega e Blizzard nei loro prossimi giochi useranno le dx 10.1. :D

Quello di EA è BattleForge, cioè questo:
http://www.facebook.com/video/video.php?v=1014610040138 ;)

Marko91
26-06-2008, 12:33
Infatti. ;)
Se è per questo anche una semplice HD4850 in certi casi va pure il 100% e passa in più coi filtri, rispetto ad una HD3870, se si usa l'AA8x, già a 1280x1024. ;)

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/rv770_fsaa_performance.gif



Quello di EA è BattleForge, cioè questo:
http://www.facebook.com/video/video.php?v=1014610040138 ;)


Carino.
Io fossi in Ati pagarei parecchio perchè sia Crysis Warhead che Battlefield 3 , in uscita nel 2009, siano avvantaggiati dalla DirectX 10.1. Ma così anche Bioshock 2 e giustamente i giochi Blizzard. Ah e anche Cod6, che arriverà a fine 2009.... Sono giochi con vendite enormi, darebbero ad Ati un vantaggio incredibile..
Imho Nvidia con il Gt200 a 55nm passa alle Dx10.1 :D

Errik89
26-06-2008, 12:53
Carino.
Io fossi in Ati pagarei parecchio perchè sia Crysis Warhead che Battlefield 3 , in uscita nel 2009, siano avvantaggiati dalla DirectX 10.1. Ma così anche Bioshock 2 e giustamente i giochi Blizzard. Ah e anche Cod6, che arriverà a fine 2009.... Sono giochi con vendite enormi, darebbero ad Ati un vantaggio incredibile..
Imho Nvidia con il Gt200 a 55nm passa alle Dx10.1 :D
anche se passasse alle dx10.1 (che ridere se succede davvero! :ciapet: :ciapet: :ciapet: ) RV770 è molto più efficiente di GT200 con l'AA via shader, quindi le GTX200 andrebbero male.... :)

Cocco83
26-06-2008, 12:56
Conviene agli stessi implementare per bene le dx10.1 perché se ora gireranno bene sulle ATI la gente li comprerà questi giochi... per non trovarsi giochi bellissimi ma che rimangono sugli scaffali in quanto nessun pc riesce a farli girare senza problemi.....

Tioz90
26-06-2008, 12:56
anche se passasse alle dx10.1 (che ridere se succede davvero! :ciapet: :ciapet: :ciapet: ) RV770 è molto più efficiente di GT200 con l'AA via shader, quindi le GTX200 andrebbero male.... :)
E io godrei, almeno tt quei fanboy stan zitti:ciapet:

bluefrog
26-06-2008, 14:14
Crysis Warhead pare esca a settembre di quest'anno, se ho capito bene. :)

gianni1879
26-06-2008, 14:18
Crysis Warhead pare esca a settembre di quest'anno, se ho capito bene. :)

sarà un altro game mattone bench? :D

bluefrog
26-06-2008, 14:21
sarà un altro game mattone bench? :D

No...stando ai Crytek sarà decisamente più ottimizzato del primo, avendo addirittura una grafica più pompata (texture,volti,animazioni)... staremo a vedere. :)

gianni1879
26-06-2008, 14:27
L'utilizzo di VRAM nelle due architetture è differente. A 2500x è probabile che 1GB possa far comodo sulla 4870, ma le molte recensioni mi hanno convinto che 512 fino a 1900 sono sufficienti, e avendo io un 22" posso star tranquillo con 512 anche in prospettiva :>
effettivamente la gestione della memoria è ottima sulle Ati, però bisogna vedere la differenza di prezzo tra le due, se è poca prenderei la un Giga, altrimenti no

Essen
26-06-2008, 14:31
Faccio fatica a capire la distinzione fra questo topic e i Due delle due rispettive schede (HD4850 e la sorella maggiore HD4870)..
In sostanza in questo si parla in linea generica di r700 e negli altri due delle specifiche schede?

Endy.

appleroof
26-06-2008, 14:43
L'utilizzo di VRAM nelle due architetture è differente. A 2500x è probabile che 1GB possa far comodo sulla 4870, ma le molte recensioni mi hanno convinto che 512 fino a 1900 sono sufficienti, e avendo io un 22" posso star tranquillo con 512 anche in prospettiva :>

1680x1050 credo proprio di si, sopra non sarei così sicuro con filtri e tutto, anzi, sopratutto come giustamente dici in prospettiva, io al limite aspetto quella da 1 giga e valuto

appleroof
26-06-2008, 15:00
Tu sicuramente (il francese non ha risposto) :>

:mad:

mircocatta
26-06-2008, 15:02
No...stando ai Crytek sarà decisamente più ottimizzato del primo, avendo addirittura una grafica più pompata (texture,volti,animazioni)... staremo a vedere. :)

forse perchè si sono decisi a passare alla directx10.1 :ciapet:

mircocatta
26-06-2008, 15:05
Ha 130-140 gb di bandwidth, chiamala poca.

Secondo me è un ottimo acquisto, tutte le schede sono a 512mb al momento.

Tranne gtx 260 e gtx 280. Che no ntraggono beneficio dal quantitativo alto, test alla mano.

però se hai crysis fallo partire, poi abilità il "videomemory usage" e vedrai che crysis già lui chiede oltre i 512mb :( :cry:

Rufus86
26-06-2008, 15:14
Non mi sarei mai aspettato simili performance dall'RV770, che vi ricordo essere una GPU di fascia media pur competendo, talvolta, con il (costoso) GT200. In altre parole la fascia media di AMD compete, anche se solo in alcuni benchmark, con la fascia alta di nVIDIA.

A questo punto è palese che, non appena uscirà la 4870x2, la società di Santa Clara dovrà correre ai ripari non si sa bene come (GTX280x2?).

Bisogna anche vedere che margini di intervento avrà nVIDIA, dato che la produzione del suo chip costa sensibilmente di più rispetto a quello di AMD; un problema che potrebbe risultare più rilevante di quanto è lecito aspettarsi.

Rufus86
26-06-2008, 15:20
Pare che EA, Sega e Blizzard nei loro prossimi giochi useranno le dx 10.1. :D

Verosimilmente a breve tutti, anche il giochino più semplice, sarà dichiarato "DX10.1 compatible". Poi sappiamo bene che, eliminando il marketing, nel codice c'è ben poco spesso e volentieri; ancora non si è visto un engine nativamente DX10 (il Cry Engine 2 è nato come DX9 ed è stato adattato solo successivamente alle nuove API).

Il vero motivo per cui gli sviluppatori non sono ancora passati ad un uso reale delle DX10, com'è stato accennato da altri, è che si perderebbe una efficiente retrocompatibilità con XP, il che è palesemente deleterio ora come ora.

A.L.M.
26-06-2008, 15:27
Verosimilmente a breve tutti, anche il giochino più semplice, sarà dichiarato "DX10.1 compatible". Poi sappiamo bene che, eliminando il marketing, nel codice c'è ben poco spesso e volentieri; ancora non si è visto un engine nativamente DX10 (il Cry Engine 2 è nato come DX9 ed è stato adattato solo successivamente alle nuove API).

Il vero motivo per cui gli sviluppatori non sono ancora passati ad un uso reale delle DX10, com'è stato accennato da altri, è che si perderebbe una efficiente retrocompatibilità con XP, il che è palesemente deleterio ora come ora.

Beh, in realtà la feature migliore delle DX10.1, al di là di cose tipo global illumination e menate varie, è l'AA "accelerato" tramite l'eliminazione di alcuni rendering pass. E le performance mostrate nella recensione di TechReport con Assassin's Creed senza patch ne sono la prova: AA migliore (era stato dimostrato da Rage3D) e prestazioni superiori alla GTX280 per la HD4870, anche a 2560x1600. ;)
E quello dovrebbe essere abbastanza semplice da implementare (ed infatti credo sarà l'unica feature DX10.1 che avrà un minimo di diffusione, visto che non preclude nulla a chi non ha hardware DX10.0, ma agevola chi ha hw DX10.1). ;)

padsi
26-06-2008, 15:39
Ragazzi qualcuno si e' gia' preso la 4870? io la avrei gia' presa ma per un mezza gabola che devo fare con una MOBO XFX780i in RMA devo aspettare, se qualcuno la ha gia' presa vorrei sapere coem si trova e le solite menate....

Marko#88
26-06-2008, 16:15
No...stando ai Crytek sarà decisamente più ottimizzato del primo, avendo addirittura una grafica più pompata (texture,volti,animazioni)... staremo a vedere. :)

dicevano anche che il primo sarebbe andato benissimo con le 8800gts...:asd:

okorop
26-06-2008, 16:16
dicevano anche che il primo sarebbe andato benissimo con le 8800gts...:asd:

non hanno specificato con quante pero :asd:

Amph
26-06-2008, 17:22
Sto discorso del prezzo più basso è la solita storia. Se devi fare un confronto reale devi farlo sui prezzi medi. Sennò allora dico che a Porta Palazzo un tunisino mi passa la GTX280 a 300€ ed il prezzo è 300€ (chi è di Torino sa cosa intendo :D )?
Bisogna calcolare il prezzo al quale si trovano le schede di solito, non quello di uno shop online probabilmente sconosciuto che si rifornisce chissà dove e ha 3 schede in croce disponibili...
Se fai la media dei prezzi che si vedono sul trovaprezzi, si nota come sugli shops più famosi il range è anche sopra i 500€, diciamo sui 530€-550€. Negozi famosi come D..ko o altri hanno prezzi ancora superiori.
Tanto per fare un esempio equo, nello stesso shop italiano (l'unico finora) in cui vendono la HD4870 a 239€, la GTX280 più economica costa 539€, mentre la GTX260 più economica costa 359.99€. ;)

veramente sono gia due shop che la vendono a 475..dai un occhiata a trovaprezzi...toglietevi pure sta fissa, che la gtx sta ancora sui 500 euro.

Semmai non diciamo di dire "non diciamo vaccate"...
Il 20% e per di più su tutti i titoli videoludici è un'assurdità, ma su alcuni giochi non bisogna escludere a priori un possibile sorpasso (seppur di poco già in HL2 EP2 Timedemo a 1920x1200 8xAA 16XAF con i primi drivers beta una 4870 da 512MB supera una GTX280 da 1GB...).
Ci riaggiorniamo tra qualche mese, magari con i Catalyst 8.10 e vedremo se la GTX280 starà quasi sempre davanti alla 4870 (intendo proprio una singola RV770) come adesso...
Stay tuned....

si ma non andrà MAI il 20% in + di una gtx280, siamo seri...

p.s. parlo di una singola vga, xche il crossfire, supera la gtx280 anche + del 20% quindi non faceva testo fin dall'inizio della "diatriba"

goldorak
26-06-2008, 17:30
veramente sono gia due shop che la vendono a 475..dai un occhiata a trovaprezzi...toglietevi pure sta fissa, che la gtx sta ancora sui 500 euro.



si ma non andrà MAI il 20% in + di una gtx280, siamo seri...

p.s. parlo di una singola vga, xche il crossfire, supera la gtx280 anche + del 20% quindi non faceva testo fin dall'inizio del "diatriba"



Certo che vedere il reparto marketing della EVGA e' da :rotfl: :rotfl:
Ecco a voi la GTX280 super superclocked.

EVGA - EVGA GeForce GTX 280 SSC SuperSuperclocked 1 Gb ddr3 PCI-E (il prezzo e punto it)

okorop
26-06-2008, 17:31
Certo che vedere il reparto marketing della EVGA e' da :rotfl: :rotfl:
Ecco a voi la GTX280 super superclocked.


e che è? potevano mettere un super in piu dato che c'erano :sofico:

appleroof
26-06-2008, 17:34
Certo che vedere il reparto marketing della EVGA e' da :rotfl: :rotfl:
Ecco a voi la GTX280 super superclocked.

cut

perchè quoti Amph con questo tuo post? :what:

cmq i link diretti agli shop sono vietati ;)

DakmorNoland
26-06-2008, 17:34
Certo che vedere il reparto marketing della EVGA e' da :rotfl: :rotfl:
Ecco a voi la GTX280 super superclocked.



Ahahahah ROTFL!

Al fantastico prezzo di...650€!!! :banned:

goldorak
26-06-2008, 17:36
perchè quoti Amph con questo tuo post? :what:

cmq i link diretti agli shop sono vietati ;)


Si si lo so, era solo per far vedere il modello super over iper mega superclocked :sofico:

okorop
26-06-2008, 17:38
Si si lo so, era solo per far vedere il modello super over iper mega superclocked :sofico:

non sanno piuu che inventarsi alla nvidia prima la 9800gtx+ poi la superoverclocked, la prossima sara una 9800gt ---?:asd:

DakmorNoland
26-06-2008, 17:39
Si si lo so, era solo per far vedere il modello super over iper mega superclocked :sofico:

Hai fatto bene! Pensa che prima di cliccare sul link da te postato pensavo scherzassi! Invece era tutto vero! Incredibile! :asd:

appleroof
26-06-2008, 17:41
non sanno piuu che inventarsi alla nvidia prima la 9800gtx+ poi la superoverclocked, la prossima sara una 9800gt ---?:asd:

Hai fatto bene! Pensa che prima di cliccare sul link da te postato pensavo scherzassi! Invece era tutto vero! Incredibile! :asd:

Amici, è evga che mette quei nomi, non è un nome ufficiale Nvidia (esiste pure una evga 9800gtx ssc)

Mister Tarpone
26-06-2008, 17:41
non sanno piuu che inventarsi alla nvidia prima la 9800gtx+ poi la superoverclocked, la prossima sara una 9800gt ---?:asd:

cosa centra nvidia?? :confused:

questa supersuperclocked è opera di evga :)

goldorak
26-06-2008, 17:45
Amici, è evga che mette quei nomi, non è un nome ufficiale Nvidia (esiste pure una evga 9800gtx ssc)

Ma dai tutto sul serio devi prendere ? :fagiano:
Se leggi bene ho detto reparto marketing EVGA non ho detto reparto marketing Nvidia. :O
Ma tu te lo vedi uno che entra in negozio e chiede al commesso, mi dia la 280 super superclocked edition ? :sbonk: :sbonk:

Cocco83
26-06-2008, 17:46
650$ sul sito della evga.....

appleroof
26-06-2008, 17:47
Ma dai tutto sul serio devi prendere ? :fagiano:
Se leggi bene ho detto reparto marketing EVGA non ho detto reparto marketing Nvidia. :O
cut

hai ragione ti ho tolto dal multi-quote di prima

Amph
26-06-2008, 18:03
non ho capito xche mi hai quotato :boh:

Nannii
26-06-2008, 18:06
Vorrei fare una domanda:
In base alle informazioni attualmente disponibili una scheda madre p35 potrebbe limitare le prestazioni di una singola 4870x2? si avrebbe qualche cambiamento utilizzando x38 o x48? (io credo di no, ma vorrei avere qualche conferma)
Grazie

appleroof
26-06-2008, 18:09
Vorrei fare una domanda:
In base alle informazioni attualmente disponibili una scheda madre p35 potrebbe limitare le prestazioni di una singola 4870x2? si avrebbe qualche cambiamento utilizzando x38 o x48? (io credo di no, ma vorrei avere qualche conferma)
Grazie

in base alle informazioni attuali (non credo che la 4870x2 sarebbe limitata dalla banda del pci-ex 1.0....) non dovresti soffrire alcuna limitazione, il p35 và stretto con 2x 4870, non appunto con la 4870x2, cmq quando uscirà o poco prima ne sapremo di più è ancora presto...

goldorak
26-06-2008, 18:09
non ho capito xche mi hai quotato :boh:

Perche' stavo per controbattere al tuo discorso dei due negozi che vendevano la GTX280 a 475 €, io ne avevo trovati precchie che invece la vendevano sui 550 € e oltre e poi l'occhio mi e' caduto sulla super superclocked edition e l'ho postata per farci due risate.
Non credevo che la EVGA avesse una immaginazione cosi' fervida. :stordita:

Amph
26-06-2008, 18:11
fossero solo quei due che la vendono sotto i 500...

goldorak
26-06-2008, 18:13
in base alle informazioni attuali (non credo che la 4870x2 sarebbe limitata dalla banda del pci-ex 1.0....) non dovresti soffrire alcuna limitazione, il p35 và stretto con 2x 4870, non appunto con la 4870x2, cmq quando uscirà o poco prima ne sapremo di più è ancora presto...

Guarda che la differenza tra pci ex 1.0 e 2.0 sta nella possibilita' di alimentare la scheda con un wattaggio superiore ai 75W.
Per quanto riguarda il pci-ex 1.0 se dispone di 16 piste ha banda piena.
Io sulla mia scheda madre 975x posso usare o una singola scheda video con pci-ex 16x oppure due schede video in crossfire con modalita' 8x-8x. E sono avantaggiato rispetto alP35 perche' entrambi gli slot pci-ex sono collegati al northbridge invece di uno al northbriodge e uno al southbridge come nel P35.
E gli slot sono tutti pci-ex 1.0.

appleroof
26-06-2008, 19:00
Guarda che la differenza tra pci ex 1.0 e 2.0 sta nella possibilita' di alimentare la scheda con un wattaggio superiore ai 75W.
Per quanto riguarda il pci-ex 1.0 se dispone di 16 piste ha banda piena.
Io sulla mia scheda madre 975x posso usare o una singola scheda video con pci-ex 16x oppure due schede video in crossfire con modalita' 8x-8x. E sono avantaggiato rispetto alP35 perche' entrambi gli slot pci-ex sono collegati al northbridge invece di uno al northbriodge e uno al southbridge come nel P35.
E gli slot sono tutti pci-ex 1.0.

non solo, raddoppia anche la banda

Il PCI Express è in grado di fornire una banda superiore, combinando connessioni multiple, alle quali ci si riferisce comunemente come linee. Così, il PCI Express x8 offre un throughput otto volte maggiore (4 GB/s) di una singola linea di connessione, mentre il PCI Express x16 PCI può fornire una banda totale di 8 GB/s.

Il PCI Express 2.0 raddoppia la velocità di trasmissione a 5.0 Ghz, e perciò il throughput raggiunge un bandwidth di picco di 16 GB/s, nel caso di una connessione x16.

http://www.tomshw.it/graphic.php?guide=20080421&page=pci-express-2-scaling-01

Critterix
26-06-2008, 19:14
è old?

http://www.tgdaily.com/content/view/38137/135/

appleroof
26-06-2008, 19:22
è old?

http://www.tgdaily.com/content/view/38137/135/

mooooolto interessante devo dire...

Check the www.ngohq.com website for the software to become available this weekend.

Albi80
26-06-2008, 19:26
Vorrei fare una domanda:
In base alle informazioni attualmente disponibili una scheda madre p35 potrebbe limitare le prestazioni di una singola 4870x2? si avrebbe qualche cambiamento utilizzando x38 o x48? (io credo di no, ma vorrei avere qualche conferma)
Grazie


Guarda qua se il tuo pensiero è relativo al bus pciexhttp://www.tomshw.it/graphic.php?guide=20080421

<^MORFEO^>
26-06-2008, 19:31
è old?

http://www.tgdaily.com/content/view/38137/135/

Cioè nVidia se la starebbe per prendere nel :ciapet: anche ne caso usasse Ageia PhysX API per truccare i test?

:asd:

maexss
26-06-2008, 19:38
fossero solo quei due che la vendono sotto i 500...

si vero, non sono solo quei 2, bensì 3 sotto i 500 euri e i restanti 47 sopra le 500... sempre da trovaprezzi come suggerivi... un buon 6%, quindi tu da questo deduci che il prezzo medio sia sotto i 500 euri?
se la matematica non è un opinione, i conti non tornano.:confused:

ranf
26-06-2008, 19:39
Guarda che la differenza tra pci ex 1.0 e 2.0 sta nella possibilita' di alimentare la scheda con un wattaggio superiore ai 75W.
Per quanto riguarda il pci-ex 1.0 se dispone di 16 piste ha banda piena.
Io sulla mia scheda madre 975x posso usare o una singola scheda video con pci-ex 16x oppure due schede video in crossfire con modalita' 8x-8x. E sono avantaggiato rispetto alP35 perche' entrambi gli slot pci-ex sono collegati al northbridge invece di uno al northbriodge e uno al southbridge come nel P35.
E gli slot sono tutti pci-ex 1.0.

Quindi in previsione di un crossfire il p35 è da scartare perchè ha il secondo pci-ex al massimo a 4x che crea un collo di bottiglia, ma il nuovo p45 che dovrebbe avere pci-ex 2.0 e 2 slot da 8x ciscuno?
Basta l'8x o serve più banda per il crossfire?

So che la soluzione sarebbe un bel x38 ma la maximus foruma costa troppo e la p5e droppa in maniera allucinante sui quad......

Magari un p45 può rivelarsi un'ottima scelta....

goldorak
26-06-2008, 19:41
non solo, raddoppia anche la banda

Il PCI Express è in grado di fornire una banda superiore, combinando connessioni multiple, alle quali ci si riferisce comunemente come linee. Così, il PCI Express x8 offre un throughput otto volte maggiore (4 GB/s) di una singola linea di connessione, mentre il PCI Express x16 PCI può fornire una banda totale di 8 GB/s.

Il PCI Express 2.0 raddoppia la velocità di trasmissione a 5.0 Ghz, e perciò il throughput raggiunge un bandwidth di picco di 16 GB/s, nel caso di una connessione x16.

http://www.tomshw.it/graphic.php?guide=20080421&page=pci-express-2-scaling-01

Ah non lo sapevo questo.
Ad ogni modo una 4870x2 dubito che saturi la connessione pci-ex 1.0 16x visto che la comunicazione tra i due chipo avviene sul pcb della scheda stessa.
Diverso il discorso invece per due 4870 o due 4850.

ranf
26-06-2008, 19:42
Guarda qua se il tuo pensiero è relativo al bus pciexhttp://www.tomshw.it/graphic.php?guide=20080421

Da questo test che avevo visto tempo fa sembra che da 4x a 8x a 16x non ci sia un abisso.... solo 1x è limitante e anche parecchio.....
Però nei test di crossfire fatti con un x38 e con un p35 si vedevano delle differenze imbarazzanti.....

Adesso non riesco più a trovare il test ma era stato postato quà mi sembra.....

Può essere che il crossfire chieda molta più banda?

appleroof
26-06-2008, 19:43
Ah non lo sapevo questo.
Ad ogni modo una 4870x2 dubito che saturi la connessione pci-ex 1.0 16x visto che la comunicazione tra i due chipo avviene sul pcb della scheda stessa.
Diverso il discorso invece per due 4870 o due 4850.

esatto, quello che sostenevo ;)

Nannii
26-06-2008, 19:53
Innanzitutto grazie per le risposte
Il fatto è che stavo seriamente valutando di prendermi una 4870x2 quando uscirà, ma l'idea di cambiare mobo (ho una Dfi lanparty DK p35) non mi fa proprio impazzire....
Però stando così le cose (ossia pare che un x38/x48 non mi darebbe alcun vantaggio rispetto al p35) non dovrei avere alcun problema, sempre che il corsair hx620w ce la faccia^^

anomalos
26-06-2008, 20:09
guardate questo

nn so se è old ma è impressionante


http://www.xtremesystems.org/forums/showthread.php?t=192608


da paura :cool:

gianni1879
26-06-2008, 20:11
esatto, quello che sostenevo ;)

in ogni caso io non mi fiderei tantissimo che attraverso le piste del pcb della sk madre vengano erogati tutti quei W, preferisco che lo facciano i cavetti esterni

Mercuri0
26-06-2008, 20:15
mooooolto interessante devo dire...

Check the www.ngohq.com website for the software to become available this weekend.

Cioè nVidia se la starebbe per prendere nel :ciapet: anche ne caso usasse Ageia PhysX API per truccare i test?

:asd:
Sono piuttosto molto scettico.

Imo l'unico modo per cui questa storia non sia un fake, e che sia tutta un presa in giro.

Cioé che magari il tipo distribuisce una dll che dice di fare i calcoli ma in realtà non li fa*, così il Vantage segnala un punteggio esagerato perché in realtà né la GPU né la CPU calcolano un bel niente. Suppongo vada bene lo stesso, visto che lo scopo di quella dll, anche da parte di nVidia, è solo di fare un punteggio alto al Vantage. :rolleyes:

La cosa triste è che nessuno ci assicura che nVidia stessa non usi trucchi simili, come fece a suo tempo ATI per il codec video Avivo, che non è un codec accelerato dalla scheda video ma un codec che va velocissimo perché produce video di qualità infima.

*Perché che un tipo possa fare una interfaccia CUDA->CAL in due giorni è impossibile, mentre un qualsiasi cracker sa come fare a far restituire 0 a una funzione...

Mercuri0
26-06-2008, 20:22
Pare che EA, Sega e Blizzard nei loro prossimi giochi useranno le dx 10.1. :D
Veramente le info sono "un gioco di una azienda che verrà pubblicato da EA", e "un gioco SEGA".

Con Blizzard è una storia differente, a me pareva di aver capito che ci fosse solo un accordo di co-marketing.

Imo Blizzard è già tanto se utilizza il DX10. :rolleyes:
(loro non hanno tanto bisogno di vendere il logo "DX10" per vendere giochi)

appleroof
26-06-2008, 20:35
in ogni caso io non mi fiderei tantissimo che attraverso le piste del pcb della sk madre vengano erogati tutti quei W, preferisco che lo facciano i cavetti esterni

be no, imho direi che questo non è tanto un problema: gli attacchi per la alimentazione esterna li mettono per le elevate richieste di energia di queste gpu/retrocompatibilità con il pci-ex 1.0


Sono piuttosto molto scettico.

Imo l'unico modo per cui questa storia non sia un fake, e che sia tutta un presa in giro.

Cioé che magari il tipo distribuisce una dll che dice di fare i calcoli ma in realtà non li fa*, così il Vantage segnala un punteggio esagerato perché in realtà né la GPU né la CPU calcolano un bel niente. Suppongo vada bene lo stesso, visto che lo scopo di quella dll, anche da parte di nVidia, è solo di fare un punteggio alto al Vantage. :rolleyes:

La cosa triste è che nessuno ci assicura che nVidia stessa non usi trucchi simili, come fece a suo tempo ATI per il codec video Avivo, che non è un codec accelerato dalla scheda video ma un codec che va velocissimo perché produce video di qualità infima.

*Perché che un tipo possa fare una interfaccia CUDA->CAL in due giorni è impossibile, mentre un qualsiasi cracker sa come fare a far restituire 0 a una funzione...

Il vantage fà punteggioni con i driver phisix perchè è scritto per trarre beneficio dalla presenza di Ageia per calcolare la fisica

Ageia adesso è gpu Nvidia>il vantage segna il punteggione

Poi se volete sempre credere alla mafia verde e storie simili fate pure...

per la storia di quel tipo non saprei: Nvidia aveva offerto ad Ati la possibilità di usare Phisix ma Ati ha preferito Havock, quindi nulla toglie che Cuda possa essere tradotto in modo da lavorare su gpu Ati, ma ovviamente non essendo tecnico le mie sono pure illazioni

Kharonte85
26-06-2008, 20:37
Quindi in previsione di un crossfire il p35 è da scartare perchè ha il secondo pci-ex al massimo a 4x che crea un collo di bottiglia, ma il nuovo p45 che dovrebbe avere pci-ex 2.0 e 2 slot da 8x ciscuno?
Basta l'8x o serve più banda per il crossfire?

So che la soluzione sarebbe un bel x38 ma la maximus foruma costa troppo e la p5e droppa in maniera allucinante sui quad......

Magari un p45 può rivelarsi un'ottima scelta....
Pencil mod o Bios@maximus e tutto torna normale...;)

il p45 è castrato nelle prestazioni del crossfire...

Andrea deluxe
26-06-2008, 20:44
Pencil mod o Bios@maximus e tutto torna normale...;)

il p45 è castrato nelle prestazioni del crossfire...

verissimo!

Kharonte85
26-06-2008, 20:45
Il vantage fà punteggioni con i driver phisix perchè è scritto per trarre beneficio dalla presenza di Ageia per calcolare la fisica

Ageia adesso è gpu Nvidia>il vantage segna il punteggione

Poi se volete sempre credere alla mafia verde e storie simili fate pure..
Non a caso ancora prima dell'acquisizione si sapeva gia' che il vantage avrebbe tratto vantaggio dalla presenza della scheda Ageia, oggi Nvidia l'ha integrata in CUDA mentre ATI non ce l'ha...quindi non vedo proprio cosa ci sia di strano o di scandaloso...

appleroof
26-06-2008, 20:54
Non a caso ancora prima dell'acquisizione si sapeva gia' che il vantage avrebbe tratto vantaggio dalla presenza della scheda Ageia, oggi Nvidia l'ha integrata in CUDA mentre ATI non ce l'ha...quindi non vedo proprio cosa ci sia di strano o di scandaloso...

ognuno ci vede "quello" che vuole :)

certe volte però basta informarsi un minimo ;)

Critterix
26-06-2008, 20:55
Non a caso ancora prima dell'acquisizione si sapeva gia' che il vantage avrebbe tratto vantaggio dalla presenza della scheda Ageia, oggi Nvidia l'ha integrata in CUDA mentre ATI non ce l'ha...quindi non vedo proprio cosa ci sia di strano o di scandaloso...

Lo scandalo sta nel fatto che la scheda Ageia è un hardware a parte che lavora in parallelo alla GPU, così come la CPU. Se il vantage crede che quello che sta testando è una CPU (mentre invece è una GPU), allora si avrà il punteggio che si avrebbe con una superCPU, con un punteggio finale sfasato! (e lo stesso è se crede che sia una scheda Ageia) E' un punteggio senza senso, poiché non tiene conto del fatto che le risorse di una GPU nella pratica verranno condivise fra grafica e fisica! Spero di essere stato chiaro...

Mercuri0
26-06-2008, 20:56
Il vantage fà punteggioni con i driver phisix perchè è scritto per trarre beneficio dalla presenza di Ageia per calcolare la fisica

Quello che volevo dire io, è che non sappiamo cosa faccia quella dll. Se un cracker "cracca" quella dll in modo che non verifica la presenza di CUDA, e salti tutte le funzioni che lo richiedono, cosa succede?

Il motore fisico funzionerebbe "ad minchiam", ma il Vantage sparerebbe comunque numeroni enormi. E' quello che penso abbiano fatto i tipi del "driver physiX per Ati". C'è puzza di bufala, ma il rischio è che sia doppia.


per la storia di quel tipo non saprei: Nvidia aveva offerto ad Ati la possibilità di usare Phisix
Non è andata proprio così, la voce che era uscita era che nvidia avesse detto qualcosa del tipo "certo, se adottano CUDA" che in altre parole è "'sti cazzi!" :asd:

Io non avevo parlato di mafie verdi né di nessun colore. Anzi potrei pensare che dietro la storia del "driver ati" ci siano i rossi. ;)

Loll007
26-06-2008, 20:56
Quote:
Originariamente inviato da Marko91

Riassumendo, secondo questi rumor:
- R700 sarà un chip a 45nm
- R700 sarà un chip multi-core.
- Ogni core sarà di 72 mm^2 e avrà 300 milioni di transistor
- Vi saranno versioni single-core (entry-level), dual-core (mainstream), tri-core (high), quad-core (enthusiast)
- La versione quad-core raggiungerà i 2 Teraflops

e sti rumors? sarà per r800 o erano cagate?
tanto per curiosità,anche se queste schede si sono dimostrate veramente ottime e imbarazzanti per le loro prestazioni/prezzo e presto anche prestazioni assolute con larrivo della sorellona x2

Amph
26-06-2008, 21:00
si vero, non sono solo quei 2, bensì 3 sotto i 500 euri e i restanti 47 sopra le 500... sempre da trovaprezzi come suggerivi... un buon 6%, quindi tu da questo deduci che il prezzo medio sia sotto i 500 euri?
se la matematica non è un opinione, i conti non tornano.:confused:

non ho detto questo, xo se ci sono gia 3 negozi con un prezzo sotto i 500 e non sono negozi SCONOSCIUTI, per me possono essere benissimo contanti come siti da cui acquistare; riferendomi sempre al tipo, che diceva di non considerare i prezzi da negozi "tunisini"...
per me va visto il prezzo + basso, punto.

p.s. la 4850 secondo il tuo ragionamento ha un prezzo di 150 e non di 140...(ragionamento che no voglio seguire)

Mercuri0
26-06-2008, 21:03
Riassumendo, secondo questi rumor:
- R700 sarà un chip a 45nm
- R700 sarà un chip multi-core.
- Ogni core sarà di 72 mm^2 e avrà 300 milioni di transistor
- Vi saranno versioni single-core (entry-level), dual-core (mainstream), tri-core (high), quad-core (enthusiast)
- La versione quad-core raggiungerà i 2 Teraflops

e sti rumors? sarà per r800 o erano cagate?
tanto per curiosità,anche se queste schede si sono dimostrate veramente ottime e imbarazzanti per le loro prestazioni/prezzo e presto anche prestazioni assolute con larrivo della sorellona x2
Questi dati erano venuti fuori da una presentazione di ATI (subito dopo che fu acquistata da AMD... si parla del 2006 mi sembra) in cui spiegavano il passaggio alla strategia multi-core.

Nonostante ne sia passata acqua sotto i ponti da allora, si perse la fonte e nacque il rumor.

Magari per "R700" in quelle slide intendevano il loro chip DX11. E chi lo sa. ;)

Mercuri0
26-06-2008, 21:08
non ho detto questo, xo se ci sono gia 3 negozi con un prezzo sotto i 500 e non sono negozi SCONOSCIUTI, per me possono essere benissimo contanti come siti da cui acquistare...
Imo per adesso la differenza è così sconcertante che non c'è bisogno di star a contare gli euro. :)

Comunque sui prezzi a listino in america nVidia sta giocando sporco, non so qui in Italia... gia che ci sono lo posto.

Da [H]entusiast (che ha elogiato nVidia almeno dalla serie 8xxx)
http://enthusiast.hardocp.com/article.html?art=MTUxOSwxLCxoZW50aHVzaWFzdA==

Amph
26-06-2008, 21:10
Imo per adesso la differenza è così sconcertante che non c'è bisogno di star a contare gli euro. :)

Comunque sui prezzi a listino in america nVidia sta giocando sporco, non so qui in Italia... gia che ci sono lo posto.

Da [H]entusiast (che ha elogiato nVidia almeno dalla serie 8xxx)
http://enthusiast.hardocp.com/article.html?art=MTUxOSwxLCxoZW50aHVzaWFzdA==

si infatti, credo abbiano frainteso il mio primo post sui prezzi, come post da fanboy, volevo solo dire i prezzi giusti.

appleroof
26-06-2008, 21:17
cut
Non è andata proprio così, la voce che era uscita era che nvidia avesse detto qualcosa del tipo "certo, se adottano CUDA" che in altre parole è "'sti cazzi!" :asd:

cut

c'è un doppio errore, mio e tuo: phisix (da quando Nvidia ha comprato Ageia) non ha necessità di usare cuda, mi spiego: cuda è il modo con cui phisix funzia su schede Nvidia, ma phisix (il suo sdk) è libero e ciascuno può utilizzarlo (non so come Ati chiami il suo programma per gpu) senza dare una lira ad Nvidia

Poi è stata Ati ad dire "sti cazzi" per dare una mano ad Intel che ne ha tanto bisogno, in effetti (non in termini monetari diretti, visto che anche Havock è stato reso open da Intel)

quindi non è come dici tu (e come in parte sostenevo sbagliandomi anche io)

per il resto, avevo capito male io, ma non è che il tuo post fosse molto chiaro francamente :stordita:

appleroof
26-06-2008, 21:23
edit

Amph
26-06-2008, 22:43
starcraft 2 sarà anche per dx-10, è gia stato confermato.

Kharonte85
26-06-2008, 23:05
Semplicemente ciò viola le regole definite da Futuremark per la validità del benchmark :>
:eh: ma se l'hanno fatto loro...:sofico:

e poi i 3dmark hanno una validita'? :asd:

Loro ti indicano quanto performa quella macchina nell'accoppiatra CPU/GPU...se poi la GPU viene sfruttata anche per i calcoli della CPU che scandalo c'è? Tanto piu' che il supporto era gia' previsto quando la scheda era dedicata (quindi utilizzabile da chiunque)

Semplicemente quando si fanno i paragoni bisogna tenerne conto...nvidia ha il supporto a pysics mentre amd/ati no...poi si vedra' se questo vantaggio si tradurra' anche coi futuri giochi (ma sono scettico sul breve periodo)

Defragg
26-06-2008, 23:21
c'è un doppio errore, mio e tuo: phisix (da quando Nvidia ha comprato Ageia) non ha necessità di usare cuda, mi spiego: cuda è il modo con cui phisix funzia su schede Nvidia, ma phisix (il suo sdk) è libero e ciascuno può utilizzarlo (non so come Ati chiami il suo programma per gpu) senza dare una lira ad Nvidia

Poi è stata Ati ad dire "sti cazzi" per dare una mano ad Intel che ne ha tanto bisogno, in effetti (non in termini monetari diretti, visto che anche Havock è stato reso open da Intel)

quindi non è come dici tu (e come in parte sostenevo sbagliandomi anche io)

per il resto, avevo capito male io, ma non è che il tuo post fosse molto chiaro francamente :stordita:

Sbagli.
PhysX funziona sulle GPU nVidia perchè il suo SDK è stato adattato a CUDA, che è l'unico linguaggio che può funzionare su una GPU nVidia. :)
E AMD ha detto di no a CUDA per ovvi motivi, licenze e soprattutto motivi d'immagine. Sai che bella figura nell'adottare la tecnologia del principale concorrente. :asd:

Soulman84
26-06-2008, 23:23
Sbagli.
PhysX funziona sulle GPU nVidia perchè il suo SDK è stato adattato a CUDA, che è l'unico linguaggio che può funzionare su una GPU nVidia. :)
E AMD ha detto di no a CUDA per ovvi motivi, licenze e soprattutto motivi d'immagine. Sai che bella figura nell'adottare la tecnologia del principale concorrente. :asd:

ma ati mica ha comprato havok? qualcosa dovrebbe fare pure lei x la fisica,no?

Defragg
26-06-2008, 23:30
ma ati mica ha comprato havok? qualcosa dovrebbe fare pure lei x la fisica,no?

No, AMD non ha comprato Havok, ma lo ha fatto Intel.
Per la fisica AMD è ancora in una situazione fumosa: ha la capacità di processare la fisica sia su CPU che su GPU, ma non ha nulla di proprio in mano.
Per questo è nato l'accordo con Havok, Intel ha interesse nel mantenere i calcoli fisici ancora legati alle CPU ed eventualmente alle proprie soluzioni Larrabee.