View Full Version : Le prime immagini della GPU R600
Redazione di Hardware Upg
27-11-2006, 09:14
Link alla notizia: http://www.hwupgrade.it/news/skvideo/19350.html
Appaiono on line informazioni e immagini della prossima generazione di GPU ATI top di gamma, con shader unificati e supporto alle API DirectX 10
Click sul link per visualizzare la notizia.
dsajbASSAEdsjfnsdlffd
27-11-2006, 09:21
oggi sono un po rompico****ni... ma non è ruotato di circa 45 gradi? e non si dice ridurre al minimo?
sob... si vede che oggi al lavoro non ho niente da fare eh ? :P
Interessante la gpu ruotata, chissà , se l'ipotesi è giusta, di quanto può influenzare sulle interferenze nel dialogo con la memoria video.
Certo che il controller da 512bit di ampiezza è da primato :sbav:.
Ok fanboys e flamers, iniziate
Credo proprio tu abbia ragione. quelli sono 45° e si tende a ridurre al minimo la distanza :P
Vabeh dai è lunedì mattina, povero Paolo... ;)
zanardi84
27-11-2006, 09:26
R300 ^ 2 il ritorno?
L'uscita anticipata di G80 potrebbe essere stata una mossa poco astuta da parte di nVidia. ATI avrebbe tutto il tempo di studiare tutte le contromosse necessarie per sfornare un prodotto in grado di annichilire la concorrenza.
Cmq è sbavosissima sta scheda. Controller 512bit, 1 giga di ram gddr4, 64 unità di shading che svolgono il lavoro per 256. Insomma se è tutto verificato sarà un vero mostro.
Speriamo proprio che sia così, d'altronde questa è la scheda video di cui si è più discusso in questi ultimi anni (ricordate quando già al tempo di r420 si parlava di questo fantomatico r600??)
:ave:
Sim89one
27-11-2006, 09:30
512bit di controller per la memoria :sbavvv: speriamo che sia Ati(AMD) che Nvidia si facciano una insana guerra per cercare di far emergere la vga + potente il chè tutto andrà solo a vantaggio nostro,se R600 dovesse essere soltanto un bleff(spero si scriva così :D )spero che facciano una evoluzione della 8800gtx con consumi molto + bassi :fagiano:
DukeZ: per segnalare errori clicka sull'autore della news sotto al titolo. Gli puoi inviare una mail con riferimento a questa news.
MiKeLezZ
27-11-2006, 09:35
Sono 45°, altrimenti neppure si spiegherebbero i 4 tagli della cornice esattamente a metà.
Certo che potevano fare una cornice meno spessa... A meno che non abbiano già preventivato un die shrink nell'immediato futuro.
Riguardo i 512b, è impressionante!
Ma credo che nVidia possa raggiungerli, i suoi 384b sono infatti dovuti all'utilizzo di RAM (GDDR3) nel quantitativo di 768MB; se usasse 1GB di GDDR4 è chiaro che la sua naturale evoluzione sarebbero i 512b di bus.
Lcol, ma perchè 64 unità fanno il lavoro per 256? Che hanno implementato?
Speriamo solo che dal lancio alla effettiva disponibilità non passi una vita come è successo in passato e che il passaggio agli 80 nm consenta la riduzione dei consumi (e dei costi .... ). Se le caratteristiche sono quelle vociferate sarà una scheda spettacolare.
capitan_crasy
27-11-2006, 09:40
R300 ^ 2 il ritorno?
L'uscita anticipata di G80 potrebbe essere stata una mossa poco astuta da parte di nVidia. ATI avrebbe tutto il tempo di studiare tutte le contromosse necessarie per sfornare un prodotto in grado di annichilire la concorrenza.
quanto scommetti che Nvidia all'uscita del R600, presenterà una scheda con G80 (magari a 80nm) e memorie GDDR4 a frequenze assurde? :p
Riguardo i 512Mb, è impressionante!
Ma credo che nVidia possa raggiungerli, i suoi 384Mb sono infatti dovuti all'utilizzo di RAM (GDDR3) nel quantitativo di 768MB; se usasse 1GB di GDDR4 è chiaro che la sua naturale evoluzione sarebbero i 512Mb di bus.
512 bit di ampiezza del bus...
Non è che puoi modificare l'ampiezza del bus in base alla quantità di memoria. L'ampiezza del bus di memoria è un parametro di progetto...
Solitamente è la quantità di memoria e la configurazione di montaggio che dipendono dall'ampiezza del bus...non il contrario...
MakenValborg
27-11-2006, 09:44
interessante...
cmq non vedo l'ora di vedere anche le schede su cui và montato...chissà se continueremo sulla sfida che ce l'ha più lungo..ilpcb della scheda intendo..
in ogni caso forza ati ;)
Beh, passare da 384 bit di bus a 512 bit la vedo dura... ;) Si tratta di riprogettare il chip ed aggiungere altri controller e crossbar... ;) A meno che non ne abbia già 16 e sia predisposta a 512 bit ma per non farla costare troppo hanno deciso di metterne "solo" 384 (visto che la concorrenza è a "solo" 256 bit)... ;)
DarKilleR
27-11-2006, 09:51
ad essere sincero credevo che era più grande...
Cmq ruotata di 45 ° ^^
MiKeLezZ
27-11-2006, 09:54
Solitamente è la quantità di memoria e la configurazione di montaggio che dipendono dall'ampiezza del bus...non il contrario...
|
V
A meno che non ne abbia già 16 e sia predisposta a 512 bit ma per non farla costare troppo hanno deciso di metterne "solo" 384 (visto che la concorrenza è a "solo" 256 bit)... ;)
Bhe, è quello che ho detto.
8800 GTS utilizza un bus anomalo di 320b, e la sorellona ne utilizza una versione leggermente migliore da 384b, sempre anomalo (ma perchè, questi mezzi numeri......).
Aggiungiamoci che l'ex top gamma, 7950, già usava 1GB di memoria......
Non mi sembra improbabile abbiano già preventivato l'uso di 1GB, il che significherebbe un bus "reale" di 512b (non poi molto distante da quei 384b).
Ciao.
Ma nessuno ha notato quanto sià piccolo il chip?
All'incirca è un 20% più grande dell'R580, e considerando che è 80nm invece di 90, dovrebbe avere tra i 5 ed i 600 M di transistor.
Potremmo trovarci a parti invertite rispetto alla genereazione precedente (G71 vs R580).
Se verrà cloccata a 7-800 Mhz come si vocifera, beh, potrebbe essere una bella bestia ;-)
Ho una sola perplessità: tra bus a 512bit e memorie GDDR4 (potrebbero essere da 1Ghz, ma anche da 1.1-1.2Ghz, visto che sono già disponibili da mesi), la scheda è costruttivamente complessa e forse un po' costosa da produrre, anche se immagino che la top di gamma si assesterà sul prezzo della 8800GTX.
Ancora un paio di mesi di pazienza, e vediamo
CicCiuZzO.o
27-11-2006, 10:09
speriamo in una sana concorrenza :D
lostguardian
27-11-2006, 10:35
WAOOO UNA FOTO!! MAMMA MIA CHE ECCITAZIONE...
zanardi84
27-11-2006, 11:04
quanto scommetti che Nvidia all'uscita del R600, presenterà una scheda con G80 (magari a 80nm) e memorie GDDR4 a frequenze assurde? :p
Già! In arrivo una nuova FX5800, con DDR RAM 4 a 384bit sparate a 1000 mila MHz?
Mi aspetto grandissime cose da questa GPU :cool: .
Magari dico una cavolata, ma ho il sospetto che si ripeterà quanto già visto in precedenza: nVidia maggior potenza bruta, Ati avvantaggiata nell'uso dei filtri; certo dico questo partendo dal presupposto che il bus a 384 della nVidia non sia un 512 ridotto, se invece han già previsto l'abilitazione dei 512bit il mio discorso cade ;)
Magari dico una cavolata, ma ho il sospetto che si ripeterà quanto già visto in precedenza: nVidia maggior potenza bruta, Ati avvantaggiata nell'uso dei filtri; certo dico questo partendo dal presupposto che il bus a 384 della nVidia non sia un 512 ridotto, se invece han già previsto l'abilitazione dei 512bit il mio discorso cade ;)
Non riesco francamente ad immaginare filtri di qualità maggiore rispetto a quelli che ha integrato invidia con G80, non so sei hai letto la prova comparativa tra i filtri presente nella rece delle 8800GTX, ma posso assicurarti da possessore di questa scheda che la qualità dei filtri è veramente molto migliore sia di quelli della 7950Gx2 che di quelli della 1900XTX (avute entrambe).
Cmq per adesso è prematuro fare commenti sulla potenza della scheda, da parte mia posso solo sperare che sia ben più potente di G80 in modo che la guerra continuni e che le case produttrici siano spronate a produrre sempre qualcosa di meglio :D e magari anche a prezzi più bassi. Per ora non mi resta che godermi la 8800GTX :D.
Quel coso sembra avere più transistors del mio Opty... :|
Cmq con queste schede vedremo il supporto finale driver delle varie case.. adesso vorrei la g80 ma non mi fido più e aspetto la R600 che almeno avrà per certo il supporto Amd ottimizzato..heheh :D
Signori questa GPU sara' il nuovo "R300" poco ma sicuro.
Su un sito ho trovato questi dati,ovviamente non ufficiali:
65nm
64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
128 Shader Operations per Cycle
800MHz Core
102.4 billion shader ops/sec
512GFLOPs for the shaders
2 Billion triangles/sec
25.6 Gpixels/Gtexels/sec
256-bit 512MB 1.8GHz GDDR4 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
WGF2.0 Unified Shader
eta_beta
27-11-2006, 11:53
speriamo che AMD metta il bus a 512 sulla prossima generazione di CPU
Insomma della serie:
Ati Technologies (AMD) invites you to return and experience the adventure once again!
(Musichetta del trailer di WarCraft III di sottofondo)
Comunque sia... penso che R600 non deluderà, anche perchè ATi ha maggiore esperienza in campo shader unificati derivata dal chip di Xbox360.
nonikname
27-11-2006, 12:01
Probabilmente sia nVIDIA che Ati hanno già da tempo (X1800 e 7900) implementato la circuiteria necessaria a far funzionare il crossbar a 512bit .. il problema reale è che per usufruirne bisogna adottare dei PCB ipercomplessi & ipercostosi...(e relativeGDDR)
Dai rumor che si sentono in rete , l'R600 è ancora + affamato di energia del G80 e la lunghezza della scheda è esattamente identica all 8800GTX... Se poi si pensa che i prototipi di R600 distribuiti ai developer sono cloccati del 30-40% in meno della velocità finale , questo mi fa presupporre che probabilmente avrà effettivamente un bus a 512bit e un consumo leggermente più elevato della 8800gtx..
Solo che ormai nvidia ha imparato la poesia a memoria : subito dopo l'uscita della X2000XTX uscirà l'8900GTX a 80nm che avrà consumi inferiori e forse anche i tanto osannati 512bit ..Evviva la concorrenza :)
Solo che per decretare un vincitore assoluto bisognerà trovare dei monitor con risoluzioni superiori a 2560 e tutto ciò mi fa sorridere..
Per finire ho un pensiero che mi sta frullando nel cervello : ma ora che uscirà vista con il suo bel AERO che sfrutta le GPU anche in 2d (che poi le finestre sono texture , quindi 3d) la modalità idle della VGA sarà sufficiente ??
X Paolo Corsini : che ne dici di provare , nell'imminente articolo su Vista , l'assorbimento delle GPU con AERO attivato e non ???
speriamo che AMD metta il bus a 512 sulla prossima generazione di CPU
Non puo', gia' con il dual channel siamo a 128 bit. A 512 bit dovresti montare 8 moduli di Ram per sfruttare il bus. Inoltre ci vorrebbe un istruction set adatto per supportare questi trasferimenti molto grandi.
nonikname quello che hai detto del consumo delle schedozze con AERO è in parte vero e in parte falso ;)
ora ti spiego xkè :)
Come hai giustamente detto la VGA dovrà calcolare tutto il desktop e quindi consumerà sempre un po + di corrente (ma pochissimo in + non deve calcolare HDR + AA + AF a risoluzioni pazzesche ma un'interfaccia)
Il vantaggio a questo è che la CPU sarà libera e quindi non calcolera l'interfaccia neanche minimamente (quindi il consumo scende).
A conti fatti il consumo totale sarà cmq diminuito (ma con maggiori performance) un po come anni fa nei giochi potevi scegliere SOFTWARE T&L o HARDWARE T&L (il primo era non solo + lento xkè calcolato dalla CPU ma anche + esoso in risorse xkè la CPU lavorava al 100% x + tempo; il secondo invece era + veloce e meno esoso di risorse xkè la GPU era ottimizzata in quei calcoli e quindi non solo li faceva + velocemente ma anche in meno tempo ;) )
nonikname
27-11-2006, 12:52
A conti fatti il consumo totale sarà cmq diminuito (ma con maggiori performance) un po come anni fa nei giochi potevi scegliere SOFTWARE T&L o HARDWARE T&L (il primo era non solo + lento xkè calcolato dalla CPU ma anche + esoso in risorse xkè la CPU lavorava al 100% x + tempo; il secondo invece era + veloce e meno esoso di risorse xkè la GPU era ottimizzata in quei calcoli e quindi non solo li faceva + velocemente ma anche in meno tempo )
Solo che una cpu odierna di fascia medio alta consuma un quarto di quanto consuma una gpu della stessa fascia... ;)
Cmq il problema non saranno effettivamente le prestazioni , dato che una CPU attuale non dovrebbe essere in grado di gestire un interfaccia ( come aero ) in software mode , ma quanto il fatto che una GPU moderna ha 2 modalità di funzionamento : Idle con GPU e GDDR a velocità ridotte e full Load con il tutto a piena velocità... Ora mettiamo che appena parte l'interfaccia Aero , i driver di una (x es.) R600 , la farano lavorare in modalità 3d (quindi in full load) così mentre lavori sul desktop hai un assorbimento di 300W e 80/90C° solo per la vga , mentre stai solo scivendo su un forum!!!
Quello che mi chiedo è : una R600 potrebbe anche gestire Aero in modalità idle (ripeto, gpu e Vram a velocità ridotte) , ma una 6600GT (per esempio) a che modalità deve lavorare??...
E' questo che vorrei leggere sul prossimo articolo di Vista...
E qui chiudo l'OT.. ;)
ronthalas
27-11-2006, 13:10
aspetto di vedere tutte le versioni di livello più basso... 600 euro per un bestione del genere glieli posso dare solo in caso di vincita al Superenalotto (un 6 s'intende).
MenageZero
27-11-2006, 13:45
Sono 45°, altrimenti neppure si spiegherebbero i 4 tagli della cornice esattamente a metà.
Certo che potevano fare una cornice meno spessa... A meno che non abbiano già preventivato un die shrink nell'immediato futuro.
Riguardo i 512b, è impressionante!
Ma credo che nVidia possa raggiungerli, i suoi 384b sono infatti dovuti all'utilizzo di RAM (GDDR3) nel quantitativo di 768MB; se usasse 1GB di GDDR4 è chiaro che la sua naturale evoluzione sarebbero i 512b di bus.
Lcol, ma perchè 64 unità fanno il lavoro per 256? Che hanno implementato?
potrebbe riferirsi, ipotizzando suppongo, alla possibilità che ognuna delle 64 units di r600 abbia 4 alu scalari o una vettoriale da 4 ops (per es un'altro utente riporta tra le specifiche ufficiose addirittura 1 alu vett. da 4 + 1 alu scalare per ogni unit), contro per es i 128 "stream processors" con 1 alu scalare ognuno di g80. poi certo conta anche la freq a cui le unità di calcolo operano, inoltre con alu vettoriali può accadere che non sempre vengano usate tutte le "componenti" in ogni ciclo di clock e questo può portare ad una potenza di calcolo mediamente "espressa" inferiore a quella massima teorica possibile, con un gap forse maggiore tra i due livelli rispetto a soluzioni ancor + "granulari" (tipo le 128 alu scal. di g80 pr es)
o in altri termini se anche le specifiche effettive fossero quelle ufficiose messe in quel post e anche il clock delle unità di calcolo fosse sostanzialmente identico(per semplificare il paragone) tra g80 e r600 e insomma la situazuone fosse tale che si potesse brutalmente approx 1 unit di r600(alu vett. da 4 + 1 alu scal.) = 5 s.p.(1 alu scal.) di g80 non è detto che effettivamente r600 = 2,5*g80 come prestazioni. inoltre sempre stando a quelle specifiche ufficiose nv avrebbe dalla sua anche una maggiore freq. a tamponare lo svantaggio in termini di num. di op. contemporanee possibili.
imho c'è anche da dire però che se veramente il rapporto in termini di numero max di op. contemporanee su singolo dato fosse 2,5 a 1 a favore di r600, considerato che ati non è famosa per l'inefficenza delle sue architetture, la cosa potrebeb risultare significativa e ati "rischierebbe" di avere una"base" abbastanza solida per poter far spesso "sfigurare" g80 nei test.
Il Creativo
27-11-2006, 13:55
quanto scommetti che Nvidia all'uscita del R600, presenterà una scheda con G80 (magari a 80nm) e memorie GDDR4 a frequenze assurde? :p
Nvidia sta già lavorando ad una versione a 65nm di G80, sicuramente questa strategia è stata pensata apposta per questo motivo.
Spero che poi non venga fuori un catafalco come le 8800 di nVidia.
halduemilauno
27-11-2006, 13:56
|
V
Bhe, è quello che ho detto.
8800 GTS utilizza un bus anomalo di 320b, e la sorellona ne utilizza una versione leggermente migliore da 384b, sempre anomalo (ma perchè, questi mezzi numeri......).
Aggiungiamoci che l'ex top gamma, 7950, già usava 1GB di memoria......
Non mi sembra improbabile abbiano già preventivato l'uso di 1GB, il che significherebbe un bus "reale" di 512b (non poi molto distante da quei 384b).
Ciao.
la sorellona ha 12 moduli da 32 bit. quindi ecco il bus a 384 bit.
;)
MenageZero
27-11-2006, 14:08
512 bit di ampiezza del bus...
Non è che puoi modificare l'ampiezza del bus in base alla quantità di memoria. L'ampiezza del bus di memoria è un parametro di progetto...
Solitamente è la quantità di memoria e la configurazione di montaggio che dipendono dall'ampiezza del bus...non il contrario...
sì ma... proprio nella rece qui su hwupg si diceva che i 384bit di g80 son stati ottenuti "aggiungendo" altri 4 moduli con interfaccia dati da 32bit oltre ai soliti 8 delle gpu top precedenti e nello schema si vede che appunto il mc controller a crossbar è costituito da 6 blocchi da 64bit; mentre vediamo che per la vesione "segata" abbiamo 10(sempred a 32bit ovviamente) moduli ram e mc con 5 blocchi, sempre a 64 bit ciascuno...
... cioè... ad un occhio profano della tecnica a livelli seri delle gpu , la situazione sembra piuttosto modulare e dà l'idea che volendo potrebbero passare a 512bit di bus senza stravolgere il progetto aggiungendo altri 4 moduli di mem(o usando mopduli con interfaccia dati di ampiezza differente, non so se ad es mettendo gddr4 la cosa cambia) e altri due blocchi di mc... :boh:
certo questo impedirebbe un futuro refresh come solamente puro shrink o al max piccole ottimizzazioni "non strutturali" e se anche nei rumors (che non conosco) + "spinti" e/o in quelli più "attendibili" si parla del "refresh" di g80 come puro shrink e al max aumento delle frequenze, la cosa rimane molto improbabile
( o per caso la redazione sa già, sotto nda, come sarà "g81" o chi per lui - nonché il + vicino r600, ovviamente :sofico: )
Edit: errore :D scusate :D
Problemi di gradi
sì ma... proprio nella rece qui su hwupg si diceva che i 384bit di g80 son stati ottenuti "aggiungendo" altri 4 moduli con interfaccia dati da 32bit oltre ai soliti 8 delle gpu top precedenti e nello schema si vede che appunto il mc controller a crossbar è costituito da 6 blocchi da 64bit; mentre vediamo che per la vesione "segata" abbiamo 10(sempred a 32bit ovviamente) moduli ram e mc con 5 blocchi, sempre a 64 bit ciascuno...
8800 è un ibrido, la versione seria si vedrà quando esce R600 poco dopo.....
Crysis90
27-11-2006, 14:37
Io non vedo l'ora di vedere il confronto tra G80 e R600, così posso scegliere la scheda più potente e potermi così godere Crysis su Windows Vista e quindi in DX 10 e SM 4.0 con risoluzione ed effetti al massimo!
MenageZero
27-11-2006, 14:41
8800 è un ibrido, la versione seria si vedrà quando esce R600 poco dopo.....
ma allora dacci + info, no ? ;)
però un "ibrido" fra cosa e cosa (è l'architettura è tutta diversa dalla serie 7) ? al max potrebbe, teoricamente, essere una versione ufficiosamente depotenziata rispetto al max che hanno progettato... anche se mi sembra che in genere qui sul forum l'opinione prevalente è quella opposta alla tua... :stordita:
cmq io non seguo molto i "rumors" né li cerco, per cui personalmente non so, non ho info specifiche :boh:
MenageZero
27-11-2006, 14:45
Io non vedo l'ora di vedere il confronto tra G80 e R600, così posso scegliere la scheda più potente e potermi così godere Crysis su Windows Vista e quindi in DX 10 e SM 4.0 con risoluzione ed effetti al massimo!
... e quando starai per comprare (o avrai comprato uno dei due) uscirà un comunicato ufficiale della crytek in cui si dirà che per mettere tutto al max in crysis servirà g81 o r680 :O :Perfido:
:asd: :sofico:
Io non vedo l'ora di vedere il confronto tra G80 e R600, così posso scegliere la scheda più potente e potermi così godere Crysis su Windows Vista e quindi in DX 10 e SM 4.0 con risoluzione ed effetti al massimo!
E' evidente che R600 sarà più prestante dell'attuale 8800, lo si capisce già adesso.
E' evidente che R600 sarà più prestante dell'attuale 8800, lo si capisce già adesso.
Da cosa???
versione agp??
Come no forse anche ISA
Free Gordon
27-11-2006, 15:36
Signori questa GPU sara' il nuovo "R300" poco ma sicuro.
Su un sito ho trovato questi dati,ovviamente non ufficiali:
65nm
64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
128 Shader Operations per Cycle
800MHz Core
102.4 billion shader ops/sec
512GFLOPs for the shaders
2 Billion triangles/sec
25.6 Gpixels/Gtexels/sec
256-bit 512MB 1.8GHz GDDR4 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
WGF2.0 Unified Shader
Di sicuro non sono questi i dati, Tony. ^_^
La banda è troppo bassa per un mostro del genere.. 32rops molto probabilmente del tutto inutili. :D
Sulle 64 ALU unificate identiche a quelle di Xenos invece ci metterei quasi la mano sul fuoco.
32TMU tipo R520/580 invece, mi pare impensabile. :(
Free Gordon
27-11-2006, 15:38
Probabilmente sia nVIDIA che Ati hanno già da tempo (X1800 e 7900) implementato la circuiteria necessaria a far funzionare il crossbar a 512bit .. il problema reale è che per usufruirne bisogna adottare dei PCB ipercomplessi & ipercostosi...(e relativeGDDR)
ATI da R520 in poi non usa più il classico crossbar ma il ringbus.
Nvidia ha ancora il crossbar in G80.
Free Gordon
27-11-2006, 15:39
Da cosa???
Diciamo che nessuno lo sa, ma se ATI esce 4 mesi dopo, con una scheda meno veloce e magari anche con meno features.. fa un grosso flop..
Diciamo che nessuno lo sa, ma se ATI esce 4 mesi dopo, con una scheda meno veloce e magari anche con meno features.. fa un grosso flop..
Quindi uno si può immaginare che sia più veloce. Ma da qui a dire che è evidente che lo sarà... bhè c'è differenza :)
II ARROWS
27-11-2006, 16:27
Posso fare una domanda?
PErchè nelle CPU il processo produttivo è di 90nm(ormai 65nm), mentre nelle GPU di 80nm?
Window Vista
27-11-2006, 16:28
Posso fare una domanda?
PErchè nelle CPU il processo produttivo è di 90nm(ormai 65nm), mentre nelle GPU di 80nm?
Perchè sono 100 volte + complesse le GPU!!!!! ;)
MenageZero
27-11-2006, 16:44
Di sicuro non sono questi i dati, Tony. ^_^
La banda è troppo bassa per un mostro del genere.. 32rops molto probabilmente del tutto inutili. :D
Sulle 64 ALU unificate identiche a quelle di Xenos invece ci metterei quasi la mano sul fuoco.
32TMU tipo R520/580 invece, mi pare impensabile. :(
beh la news infatti lo accredita di un bus a 512bit ... ;)
xché 32tmu sono impensabili ?
(anche se non c'entra direttamente: ma il mc a ring-bus dà solo vantaggi di complessità (in meno) implementativa, o anche prstazionali ? nel thread della rece di g80 mi pareva di aver visto accreditata la prima ipotesi, ma non sono sicuro)
Diciamo che nessuno lo sa, ma se ATI esce 4 mesi dopo, con una scheda meno veloce e magari anche con meno features.. fa un grosso flop..
se esce il 20 gennaio, due mesi e mezzo esatti ;)
II ARROWS
27-11-2006, 17:26
Perchè sono 100 volte + complesse le GPU!!!!! ;)Concordo, ma se le CPU avessero sfruttato anch'esse un processo a 80nm(più semplice che per una GPU, essendo più semplice l'architettura) non ci sarebbero stati maggiori vantaggi in termini di clock, calore e costo?
riva.dani
27-11-2006, 17:27
è probabile che... NVIDIA possa presentare una versione evoluta della propria architettura G80, costruita con tecnologia produttiva a 80 nanometri e caratterizzata da frequenze di clock superiori rispetto a quelle delle schede GeForce 8800 GTX attualmente in commercio.
Un motivo in più per comprarsi G80 adesso... :rolleyes:
è probabile che... NVIDIA possa presentare una versione evoluta della propria architettura G80, costruita con tecnologia produttiva a 80 nanometri e caratterizzata da frequenze di clock superiori rispetto a quelle delle schede GeForce 8800 GTX attualmente in commercio.
Un motivo in più per comprarsi G80 adesso... :rolleyes:
La GTS magari perchè la GTX è oltremodo sbilanciata, io penso sia meglio aspettare...
Come no forse anche ISA
Si vocifera che uscirà anche una versione VESA Local Bus :D
daboss87
27-11-2006, 18:25
Io non vedo l'ora di vedere il confronto tra G80 e R600, così posso scegliere la scheda più potente e potermi così godere Crysis su Windows Vista e quindi in DX 10 e SM 4.0 con risoluzione ed effetti al massimo!
Si xk sei convinto k il PRIMO gioco x dx10 sulle PRIME schede dx10 girerà al massimo? Ma se non gira al massimo nemmeno most wanted o peggio oblivion ora con una "SEMPLICE" X1900XTX????? :muro: :muro: :muro:
Si xk sei convinto k il PRIMO gioco x dx10 sulle PRIME schede dx10 girerà al massimo? Ma se non gira al massimo nemmeno most wanted o peggio oblivion ora con una "SEMPLICE" X1900XTX????? :muro: :muro: :muro:
Ma sei convinto sopratutto che Crysis sia Dx10? :asd:
II ARROWS
27-11-2006, 19:05
DjLode, io ho visto i filmati. E tu?
Sei convinto che sia DirectX 9?
Non sono come Microsoft che sposta un gioco programmato con una base simile alle 8.1 alle DX10 che alla fine non usa.
Se potessero ottenere quello con DX 9, avrebbero MOOOLTA più base installate per vendere il gioco...
daboss87
27-11-2006, 19:10
beh, stando a quanto dicono quelli della crytek è stato progettato utilizzando l'sdk fornito dalla microsoft delle dx10, non quello delle 9... solo in seguito è stato convertito x la 9 eliminando tutti quelli effetti k non esistono su quest'ultime e convertendoli in tali... onde x cui...
daboss87
27-11-2006, 19:12
DjLode, io ho visto i filmati. E tu?
Sei convinto che sia DirectX 9?
Non sono come Microsoft che sposta un gioco programmato con una base simile alle 8.1 alle DX10 che alla fine non usa.
Se potessero ottenere quello con DX 9, avrebbero MOOOLTA più base installate per vendere il gioco...
appunto, se quelle cose si riesce a farle con dx9 allora TUTTI gli sviluppatori sono veramente degli incompetenti xk non sanno k potenzialità hanno sotto le mani :sofico: :D
Vedremo chi ha ragione, ok? :)
Ho visto tanti filmati, Killzone 2 tanto per dirne uno, che poi... boh, dove sono? Oppure di giochi che alla fine sono risultati parecchio diversi.
Ho visto i filmati di Crysis. Solo quelli però, vediamo la qualità finale e quanto di next-dx c'è dentro. Io sono pronto ad ammettere se sbaglio :)
Voi qualche filmati dell'Unreal Engine l'avete visto?
appunto, se quelle cose si riesce a farle con dx9 allora TUTTI gli sviluppatori sono veramente degli incompetenti xk non sanno k potenzialità hanno sotto le mani :sofico: :D
Tu sviluppatore butteresti fuori qualcosa che niente sul mercato riesce a far girare? ;)
Guardati le schede video più diffuse e fai 2 + 2 :)
MiKeLezZ
27-11-2006, 20:27
Posso fare una domanda?
PErchè nelle CPU il processo produttivo è di 90nm(ormai 65nm), mentre nelle GPU di 80nm?Perchè evidentemente è un po' problematico convertire decine di fabbriche a 80nm per dei benefici miseri, perdendo parte di economie di scala
II ARROWS
27-11-2006, 20:43
Bhe, DJ: i Gears of War è X360... X360 è circa DX10, come la prima XBOX è circa DX8.1...
Killzone 2, Killzone 2... Ci sono!
http://www.gametrailers.com/player.php?id=5833&type=mov&pl=game
PErò, sai che è un FMV? ;)
"Tu sviluppatore butteresti fuori qualcosa che niente sul mercato riesce a far girare?
Guardati le schede video più diffuse e fai 2 + 2"
Già, ottima frase. Veramente ottima.
Secondo questa tua frase, fanno scelte di mercato serie, e cazzate colossali allo stesso tempo... Mi spieghi perchè visto che il gioco è in DirectX 9, lo fanno compatibile con le DX 10 che ci sono su Vista?
Se potessero, lo avrebbero fatto con le 9 proprio per quel motivo...
daboss87
27-11-2006, 21:06
Vedremo chi ha ragione, ok? :)
Ho visto tanti filmati, Killzone 2 tanto per dirne uno, che poi... boh, dove sono? Oppure di giochi che alla fine sono risultati parecchio diversi.
Ho visto i filmati di Crysis. Solo quelli però, vediamo la qualità finale e quanto di next-dx c'è dentro. Io sono pronto ad ammettere se sbaglio :)
Voi qualche filmati dell'Unreal Engine l'avete visto?
Si, quello di brothers in arms, molto molto bello, xò kissà xk non è ancora uscito... ma forse xk è stato fatto x le dx10, cammuffato x le 9 cosikkè cominciasse a girare la voce su internet e tutti si interessassero e non rimanesse un flop x un bel po' di tempo bensì acrescesse la curiosità su di esso x poi farlo venire fuori e dire "ah scusate, non siamo riusciti a farlo x le dx9 xk...xk non avevamo voglia"... ma dico forse eh, solo una mia supposizione... :stordita:
JohnPetrucci
27-11-2006, 21:08
Dalle premesse direi che Ati sembra tutt'altro che defunta, direi che si prepara alla riscossa su Nvidia.
Cmq aspettiamo e vedremo cosa accadrà in realtà.
daboss87
27-11-2006, 21:09
Tu sviluppatore butteresti fuori qualcosa che niente sul mercato riesce a far girare? ;)
Guardati le schede video più diffuse e fai 2 + 2 :)
Io ora voglio vedere se mi trovi una grafica meglio di oblivion, ed esso su una "normale" x1900xtx gira benissimo senza filtri a 1280 dettagli al max, quindi.. e ad ogni modo, non possono progettare niente se ancora non esiste una scheda video k lo faccia girare xk non è k le texture e il gioco finale se lo immaginano o lo fanno andare tipo cartoni disegnandolo, anke loro hanno bisogno di schede video eh!!!
Bhe, DJ: i Gears of War è X360... X360 è circa DX10, come la prima XBOX è circa DX8.1...
Quindi secondo te l'Unreal Engine è un gioco DX10 solo perchè gira su una cosa "quasi" dx10? Hai una concezione dell'hw e del sw un pò particolare ;)
Killzone 2, Killzone 2... Ci sono!
http://www.gametrailers.com/player.php?id=5833&type=mov&pl=game
PErò, sai che è un FMV? ;)
Appunto. Sei tu che mi hai chiesto se ho visto i video di Crysis. Sì. Così come quelli di Kill Zone 2. Non arrivi a cosa volevo dire? :)
Già, ottima frase. Veramente ottima.
Secondo questa tua frase, fanno scelte di mercato serie, e cazzate colossali allo stesso tempo... Mi spieghi perchè visto che il gioco è in DirectX 9, lo fanno compatibile con le DX 10 che ci sono su Vista?
Se potessero, lo avrebbero fatto con le 9 proprio per quel motivo...
Quindi secondo te Crysis su Xp non girerà? Ma secondo te la Crytek è veramente così messa bene da far uscire un gioco che potranno godersi appieno circa 1000 (numero inventato) persone a sto mondo? Cioè quelli con una scheda dx10, Vista e una cpu multi core (visto che è ottimizzato a detta loro per i quad core).
D'altronde alla Crytek una cosa la sanno fare bene, sparare alto ;)
Si, quello di brothers in arms, molto molto bello, xò kissà xk non è ancora uscito... ma forse xk è stato fatto x le dx10, cammuffato x le 9 cosikkè cominciasse a girare la voce su internet e tutti si interessassero e non rimanesse un flop x un bel po' di tempo bensì acrescesse la curiosità su di esso x poi farlo venire fuori e dire "ah scusate, non siamo riusciti a farlo x le dx9 xk...xk non avevamo voglia"... ma dico forse eh, solo una mia supposizione... :stordita:
Ma secondo te, come secondo tanti gli altri, fare un gioco per dx10 e camuffarlo per le 9 cosa vuole dire? No perchè da come ne parlate sembra che i produttori abbiano un grosso tastone con su scritto dx9/dx10 e che basti schiacciarlo per far il gioco per l'una o l'altra versione...
Secondo te, come secondo tanti altri, quanto sviluppo c'è dietro ad un motore grafico? No perchè a detta vostra pare che per farlo su ci voglia un attimo...
Fate discorsi veramente strani :asd:
Io ora voglio vedere se mi trovi una grafica meglio di oblivion, ed esso su una "normale" x1900xtx gira benissimo senza filtri a 1280 dettagli al max, quindi.. e ad ogni modo, non possono progettare niente se ancora non esiste una scheda video k lo faccia girare xk non è k le texture e il gioco finale se lo immaginano o lo fanno andare tipo cartoni disegnandolo, anke loro hanno bisogno di schede video eh!!!
In due post mi hai quotato cercando di controbattere a quello che dico e in due casi mi hai dato ragione (vedi Brothers in arms e ora). Quindi convieni con me che non ha senso buttare fuori una cosa che non potrà godersi nessuno se non una piccola percentuale di videogiocatori al mondo. Cosa che ho effettivamente detto poco sopra :)
secondo sto ragionamento saremmo ancora a usare le dx3 (versione a caso) perchè nessuno avrebbe rischiato a fare il grande passo :asd:
tornando IT, che strano il chip girato.. sono davvero curioso di vedere che ne verrà fuori, nvidia ha tirato fuori un mostro di scheda, se ati riesce a stare dietro ok, bisogna solo vedere se il tempo in più che ha ati gli potrà davvero servire, in fondo non penso che possano dire a due mesi dalla release:
"hei nvidia ci owna, rifacciamo la scheda da capo"
a meno che ovviamente non vogliano lasciare definitvamente il mercato del tutto in mano ad nvidia (specie quando usciranno le versioni "economiche" di g80) ma dubito che vogliano suicidarsi cosi..
P.s. quella dell'r600 su ISA mi ha ucciso :rotfl:
secondo sto ragionamento saremmo ancora a usare le dx3 (versione a caso) perchè nessuno avrebbe rischiato a fare il grande passo :asd:
Peccato che non hai capito una fava di quello che ho detto :asd:
Chi ha parlato di usare ancora vecchie dx? Te lo sei sognato. Chi ha parlato che di rischio ad usare qualcosa di nuovo? Te lo sei sognato. Ho solo detto, ma non essendo un mostro di marketing magari sbaglio... ma anche no, che a fare un gioco che potranno godersi ben poche persone ha poco senso. Insomma una società ha a che fare con il bilancio. O Crytek produce soldi usando le Dx10 e un G80? :asd:
daboss87
27-11-2006, 21:51
Ci rinuncio :Prrr:
No vabbè io intendevo un altro discorso, cioè k su sta storia d dx9-10-ventordici c giocano un cosano gli sviluppatori... x il discorso d crysis su xp è OVVIO k girerà, lo hanno già detto loro, ma se pensi k i video k hai visto x la 8800 sono con dx9 allora sei veramente ingenuo: secondo te la nvidia x presentare la sua nuova creazione avendo a disposizione le dx10 (xk se quelli della crytek ce l'hanno non capisco xk non possano averle anke loro) non si fanno vanto d far girare x PRIMI un videogame con dx10??? pensaci un attimo... :read:
II ARROWS
27-11-2006, 22:45
Mi stai facendo venire il mal di testa...
Intanto ti spiego che significa "quasi DX10".
La GPU dell'X360 è stata sviluppata sulla base delle specifiche DirectX 10. Non ha tutte le sue caratteristiche, ma ha anche delle caratteristiche più avanzate rispetto a quelle che sono le specifiche finali. Per questo è "quasi DX 10", perchè l'architettura dell'X360 è molto simile a quella prevista dalle DX10.
nudo_conlemani_inTasca
27-11-2006, 23:23
G80 e GeForce 8800 Series, continuano ad affascinarmi come progetto & soluzioni tecniche
(contenute all'interno del super core..).
Devo dire però che ATI con R600 rischia di catalizzare direttamente il sonno
nelle mie future notti.. :O :eek: :cool:
Non vedo l'ora che esca anche questo chippone!
Ci sarà da ridere.. :asd: (per i prezzi invece, ci sarà da piangere! :D )
ciaooo.
psychok9
28-11-2006, 03:05
aspetto di vedere tutte le versioni di livello più basso... 600 euro per un bestione del genere glieli posso dare solo in caso di vincita al Superenalotto (un 6 s'intende).
Vedo che abbiamo 2 cose in comune :P
Ragazzi vorrei sapere 1 cosa:
Quando uscirà!? L'Attendo con troppa ansia... e soprattutto mi interesserà la versione mid/mid-high, intorno alle 300 max 400! Sopra quella cifra è solo beneficenza :muro:
psychok9
28-11-2006, 03:06
Peccato che non hai capito una fava di quello che ho detto :asd:
Chi ha parlato di usare ancora vecchie dx? Te lo sei sognato. Chi ha parlato che di rischio ad usare qualcosa di nuovo? Te lo sei sognato. Ho solo detto, ma non essendo un mostro di marketing magari sbaglio... ma anche no, che a fare un gioco che potranno godersi ben poche persone ha poco senso. Insomma una società ha a che fare con il bilancio. O Crytek produce soldi usando le Dx10 e un G80? :asd:
Quoto.
Attenderanno la diffusione prima di commercializzare giochi DX10 only!
IO PENSO AI DISPERATI CHE HANNO SPESO 600 eURO PER G80 CREDENDO, PENSANDO E SPERANDO D AVER FATTO L AFFARE DEL SECOLO LOL
Darkgift
28-11-2006, 15:07
La cosa che non ho capito è :
Nvidia ha integrato la PPU sulla sua GPU 88xx.....giusto ?? Parte delle risorse della scheda infatti sembrano appunto essere deputate a sfruttare questo "chip nel chip"....ho capito bene ??
E ATI ?? a parte il fatto che per capire quale scheda e' meglio sulla carta(a parte il bus e le frequenze teoriche a chiaro favore di Ati) comincio a fare un po di fatica sinceramente non essendo cosi' esperto....
Non ho ancora capito se Ati si è mossa nella stessa direzione(contrastare Ageia...se mai ce ne fosse bisogno...) integrando una PPu nella VPU oppure no ???
Qualcuno mi chiarisce il dubbio ???
PS: devo farmi un corso d'aggiornamento sull'hardware delle sk video prima del prossimo upgrade :D
Ancora con questa storia della PPU :cry:
Ma una recensione su qualunque sito.... leggerla?
psychok9
28-11-2006, 15:21
Ragazzi date di rilascio? Secondo voi in primavera potrò avere la mia bella R600 di medio-alta fascia?
CicCiuZzO.o
28-11-2006, 16:04
IO PENSO AI DISPERATI CHE HANNO SPESO 600 eURO PER G80 CREDENDO, PENSANDO E SPERANDO D AVER FATTO L AFFARE DEL SECOLO LOLnon credo che chi l'abbia comprata sperava e pensava di fare l'affare del secolo... ma solo di possedere il meglio sul mercato per poi rivenderla e riprendere il nuovo meglio del mercato... tutto qui :fagiano:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.