View Full Version : NVIDIA GT300, controller di memoria a 512 bit?
Redazione di Hardware Upg
07-05-2009, 08:07
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-gt300-controller-di-memoria-a-512-bit_28898.html
Continuano ad aumentare le indiscrezioni circa la prossima generazione di GPU: GT300, il nome in codice che dovrbebe avere la proposta NVIDIA sarà sviluppata con un bus di memoria a 512bit
Click sul link per visualizzare la notizia.
imperatore_bismark
07-05-2009, 08:13
Oltre ke in ritardo pe i problemi con i 40 nm anche costosissime! ddr5 a 512 bit possono superare anche i 30 gb\s....
martinez1983
07-05-2009, 08:16
Mi sa che nel periodo autunnale ne vedremo delle belle ta ATI e Nvidia!!!
Mi alletta parecchio questo GT300!!!
Vediamo poi se le indiscrezioni siano vere!!!
imperatore_bismark
07-05-2009, 08:24
beh, come dici tu, martinez1983... di sicuro la sfida tra ati ed nvidia è allettante, ma con ste specfiche, i prezzi saranno esorbitanti... 2 gb di ram ddr5 con un'interfaccia a 512 bit.. botenza bruta... ma a costi (speriamo) nn impossibili! dalle anteprime e indiscrezioni, sto gt300 dovrebbe essere una bomba... e a sto punto speriamo nn solo per il prezzo! cmq una salvezza risiede in ati, se rifà una scheda ottima, ma a prezzo contenuto, nvidia DOVRa' abbassare se vorrà vendere..
martinez1983
07-05-2009, 08:28
beh, come dici tu, martinez1983... di sicuro la sfida tra ati ed nvidia è allettante, ma con ste specfiche, i prezzi saranno esorbitanti... 2 gb di ram ddr5 con un'interfaccia a 512 bit.. botenza bruta... ma a costi (speriamo) nn impossibili! dalle anteprime e indiscrezioni, sto gt300 dovrebbe essere una bomba... e a sto punto speriamo nn solo per il prezzo! cmq una salvezza risiede in ati, se rifà una scheda ottima, ma a prezzo contenuto, nvidia DOVRa' abbassare se vorrà vendere..
In effetti i prezzi potrebbero essere un po altini!!!(in virtù di una complessità elevatissima e ram ddr5)
Ma come hai detto molto dipenderà da che cosa tirerà fuori Ati!!!
Cmq credo che come al solito il top di gamma resterà intorno a 550-600 euro!!
512 bit..
Lo fece ai tempi la Matrox Pharelia vi ricordate??
E' stata l'ultima scheda Matrox rivolta al mercato home user praticamente..
in autunno si scatenerà l'inferno, per fortuna che mi sono fermato e non ho comprato la 4890
imperatore_bismark
07-05-2009, 08:39
oops...nel primo post ho fatto un errore..nn 30 gb\s ma 300 gb\s
: )
Tuvok-LuR-
07-05-2009, 08:42
512 bit..
Lo fece ai tempi la Matrox Pharelia vi ricordate??
E' stata l'ultima scheda Matrox rivolta al mercato home user praticamente..
quindi?
anche la GT28x sono a 512 bit...
512bit e GDDR5 richiede un pcb meno complesso di 512bit e GDDR3.
Ed i 512bit sono già in schede sotto i 300 euro (vedi GTX285)
Una delle peculiarità delle GDDR5:
http://www.qimonda.com/static/download/products/Qimonda_GDDR5_whitepaper.pdf
è il "no trace lenght matching". Già d'aiuto con i 256bit per avere design più puliti, figuriamoci con i 512bit.
Quello che costerà di GT300 sono i "vociferati" 512 SU MIMD a 40nm, e con quest'ultimo processo TSMC afflitto da problemi, spero, in corso di risoluzione.
La scoperta dell'acqua calda...è ovvio che se la scheda sarà più potente di GT200 allora richiederà un bus più ampio, ergo 512bit + gddr5, a meno che non avessero in mente altre soluzioni "strampalate" tipo 448bit ecc
hermanss
07-05-2009, 08:58
E le directX 11?
E le directX 11?
Sarà Dx11, i 512 bit è un passo per me rischioso. La storia insegna.
maurilio968
07-05-2009, 09:06
E le directX 11?
Quando serviranno realmente, cioè boh? Con il continuo porting di videogame da console non penso che vedremo titoli dedicati directx 11 a breve. L'unica speranza sarebbe windows 7: se supportasse solo directx 11 in hardware anche per l'interfaccia grafica costringerebbe tutti al salto, ma taglierebbe la possibilità di raggiungere tutto l'attuale parco macchine, quindi è una cosa inverosimile.
In sostanza anche quando usciranno schede directx 11 è verosimile che di questa caratteristica non ce ne faremo nulla.
M@tteo79
07-05-2009, 09:23
E' chiaro che il divario tra Nvidia ed ATI è destinato ad aumentare in modo significativo con la presentazione delle loro nuove architetture.
Problemi di produzione a parte (che cmq coinvolgono entrambe le aziende) credo che per AMD questa sia l'ultima occasione per dimostrare la propria capacità di competere con il rivale di sempre ma leggendo le varie indiscrezioni riguardanti entrambe le architetture appare già chiaro che GT300 non solo sarà un mostro in se stesso ma avrà una potenza elaborativa pari a quasi il 50% in più rispetto al diretto rivale monoGPU.
Tutti ci auguriamo che AMD riesca ad essere competitiva (almeno con il DualGPU) cosicchè Nvidia sia costretta ad abbassare i prezzi ad esclusivo vantaggio nostro... il problema è che questa volta non credo si possa ripetere una situazione come quella attuale dove AMD "svende" il proprio hardware top di gamma per riuscire a competere con la fascia media di Nvidia... in quanto una mossa del genere graverebbe troppo sulle sue finanze.
Di sicuro scordiamoci di vedere una scheda video con lo stesso rapporto prezzo/prestazioni della GTX275 nella prossima generazione.
M@tteo79
07-05-2009, 09:28
Sarà Dx11, i 512 bit è un passo per me rischioso. La storia insegna.
Rischioso? La storia insegna?
Sei consapevole che le attuali proposte Nvidia della serie GTX28X sono TUTTE a 512Bit ? Cosa ci insegnerebbe la storia di così tanto preoccupante?
Il fatto che una delle due aziente non sia stata in grado di "maneggiare" il bus a 512bit (HD2900) non implica che il problema sussista anche per l'altra.
@ matteo79 : cioe speri che ati faccia una scheda video buona cosi poi t ti compri nvidia a un prezzo piu basso?
se faranno un mostro di potenza a 600€ mi sa che stavolta se lo terranno io mi accontentero di una ati che vada un 30% piu veloce delle attuali magari sui 200/250€ tanto per i giochi che escono ormai su pc ne hai piu che a sufficienza almeno che tu non abbia un monitor con risoluzione 8000*8000
Severnaya
07-05-2009, 09:31
mah...
le nuove schede video devono essere tutti mostri ma poi a conti fatti gli fps son sempre quelli :V
ottimizzazione? poca, pesantezza delle applicazioni... tanta
niente di nuovo sotto il sole
g.luca86x
07-05-2009, 09:37
più che altro con la serie attuale di gpu ati ha deciso di "scaricare" i costi di progettazione del bus memoria sui produttori di chip gddr5 mentre nvidia quei costi li ha voluti dedicare sulla progettazione dei controller più complessi, risparmiando sulle memorie. Sono due strategie diverse, giustificate dal fatto che nvidia può spalmare gli onerosi costi di progettazione su molti più esemplari venduti rispetto ad ati che, dal canto suo, ha voluto spendere leggermente più per le memorie ma riducendo di molto le spese legate alla progettazione del bus e dei layer della scheda video. Un bus molto più ampio si riperquote anche sulla disposizione e contorsione delle piste sulla scheda, quindi sulla necessità di un numero maggiore di layer. Evidentemente nvidia sa che di quella tipologia di mostri avrà il monopolio, visto che ati sulle singola gpu ha qualcosina in meno rispetto a nvidia nella fascia top di gamma...
Drakogian
07-05-2009, 09:42
@ matteo79 : cioe speri che ati faccia una scheda video buona cosi poi t ti compri nvidia a un prezzo piu basso?
se faranno un mostro di potenza a 600€ mi sa che stavolta se lo terranno io mi accontentero di una ati che vada un 30% piu veloce delle attuali magari sui 200/250€ tanto per i giochi che escono ormai su pc ne hai piu che a sufficienza almeno che tu non abbia un monitor con risoluzione 8000*8000
Sono d'accordo... e poi in base a quali informazioni la prossima nvidia sarà un mostro mentre la prossima ATI non lo sarà ?
Resta il fatto che "mostri o non mostri" la battaglia si gioca sulla fascia media del mercato... e forse anche nvidia sarà costretta a "svendere" le sue schede se vuole competere.
Guardate al rapporto prezzo/prestazioni e non alla potenza bruta... quella se la possono permettere solo in pochi e a oggi non c'è e, temo, non ci sarà nessun gioco che la giustifichi a quei prezzi (salvo giocare a mega risoluzioni con dettagli al massimo).
g.luca86x
07-05-2009, 09:42
@ matteo79 : cioe speri che ati faccia una scheda video buona cosi poi t ti compri nvidia a un prezzo piu basso?
se faranno un mostro di potenza a 600€ mi sa che stavolta se lo terranno io mi accontentero di una ati che vada un 30% piu veloce delle attuali magari sui 200/250€ tanto per i giochi che escono ormai su pc ne hai piu che a sufficienza almeno che tu non abbia un monitor con risoluzione 8000*8000
purtroppo di gente che pensa in questo modo ce n'è più di quanto tu creda in giro, che misura la qualità di gioco dal prezzo che ha pagato la scheda video e non da risoluzione e fps! per questo le soluzioni esagerate esistono! Io mi chiedo che differenza possa esserci tra giocare a 100 e 110 fps, visto che per l'occhio ne bastano meno per la fluidità. Certo che se uno vuol provare ad avere gta4 a 150 fps ma neanche con un computer quantistico ci riesce! Quelli sono giochi fatti per sfruttare un hardware che più di 30-35 fps non può fare...
tra l'altro se non risolvono le grane legate al nuovo processo produttivo questo chippone di gt300 gli costerà una costola! Almeno ati ha deciso di fare un test e un raffinamento del processo con un chip molto piccolo che compensa le basse rese del silicio a 40nm (4770)!
Mercuri0
07-05-2009, 09:47
Tutti ci auguriamo che AMD riesca ad essere competitiva (almeno con il DualGPU) cosicchè Nvidia sia costretta ad abbassare i prezzi ad esclusivo vantaggio nostro... il problema è che questa volta non credo si possa ripetere una situazione come quella attuale dove AMD "svende" il proprio hardware top di gamma per riuscire a competere con la fascia media di Nvidia... in quanto una mossa del genere graverebbe troppo sulle sue finanze.
Bah, dopo mesi e mesi pare ancora che nessuno abbia capito che AMD semplicemente ha deciso di non progettare più per la fascia 500€ ma direttamente per la 250€.
Non è una svendita, è una "scelta". Quando si progetta bisogna avere un target di costo come primo punto.
Il fatto che questa volta la 4870 sia risultata competitiva con la GTX260, è stata una cosa letterarmente assurda e imprevedibile, (è assurdo che un chip possa competere con uno di area doppia) dovuta al fatto che è uscito troppo bene (almeno per i giochi) o che il GT200 di nVidia è uscito troppo male.
Sul GT300, ammesso che il rumor sia vero (non avendo neanche fatto il tape-out, ancora niente è uscito dai palazzi di nVidia), il bus a 512 b implica per ragioni geometriche che ci riprovano con il super chippone, giocandosela sul fatto che TSMC riesca a sistemare i suoi 40 nm in tempo. C'erano anche voci che nVidia intendesse far produrre il GT300 a UMC.
M@tteo79
07-05-2009, 09:47
@ matteo79 : cioe speri che ati faccia una scheda video buona cosi poi t ti compri nvidia a un prezzo piu basso?
Capisco che possa sembrare un po' cinico da parte mia ma sinceramente ragiono solo ed esclusivamente da "consumatore". La risposta è SI.
Grazie ad ATI abbiamo la possibilità di acquistare una GTX275 (un mostro di scheda) a 210€... cosa impensabile fino a qualche mese fa.
io mi accontentero di una ati che vada un 30% piu veloce delle attuali magari sui 200/250€
Beh... io decisamente NO. Se spendo dei soldi ci deve essere una ragione più che valida alla base e nel mondo delle schede grafiche la "ragione più che valida" corrisponde come MINIMO al raddoppio delle prestazioni.
Non spendo 250€ per andare solo il 30% in più della mia scheda attuale...
Mercuri0
07-05-2009, 09:49
tra l'altro se non risolvono le grane legate al nuovo processo produttivo questo chippone di gt300 gli costerà una costola! Almeno ati ha deciso di fare un test e un raffinamento del processo con un chip molto piccolo che compensa le basse rese del silicio a 40nm (4770)!
Ovviamente anche nVidia dovrebbe seguire questa strada, anche se sui suoi chip a 40nm ancora non sta trapelando granché.
nvidia non ce la farà entro il 2009.... deve ancora fare un tapeout di prova (dovrebbe essere a giugno luglio), praticamente quando invece AMD presenterà rv870....
Rischioso? La storia insegna?
Sei consapevole che le attuali proposte Nvidia della serie GTX28X sono TUTTE a 512Bit ? Cosa ci insegnerebbe la storia di così tanto preoccupante?
Il fatto che una delle due aziente non sia stata in grado di "maneggiare" il bus a 512bit (HD2900) non implica che il problema sussista anche per l'altra.
Primo, calmati.
La storia insegna che con nuovi processi produttivi e nuove architetture è sempre rischioso fare bus complessi, onde evitare flop. Rischioso non vuol dire sicurezza di flop, ma solo rischioso, ipotizzabile, incerto.
Che poi tutta sta banda serva a qualcosa, questo è un altro punto che bisognerebbe verificare, perchè spesso si è visto che è molto più importante l'efficenza della pipeline.
M@tteo79
07-05-2009, 09:57
in base a quali informazioni la prossima nvidia sarà un mostro mentre la prossima ATI non lo sarà ?
Citazione articolo:
RV870, secondo quanto riportato, non sarà un'architettura del tutto nuova, ma un miglioramento di quanto già visto con RV770 e RV790. Come il prossimo chip di Nvidia, RV870 sarà realizzato con processo produttivo a 40 nanometri e dovrebbe integrare un numero di transistor superiore al chip GT200 di Nvidia (che ricordiamo è 1,4 miliardi). Un die molto grande, quindi, in stile Nvidia, che tuttavia non pregiudicherà l'approccio canonico alla fascia alta, ovvero attraverso una soluzione dual-GPU.
l core RV870 dovrebbe integrare 1200 SP, divisi in 12 gruppi di SIMD composte da 100 core ciascuna [20 unità "5D"]. Le unità texture memory dovrebbero essere 48, mentre le unità ROPs dovrebbero essere 32.
ATI avrebbe intenzione di presentare quattro schede video basate sul nuovo core, ricalcando grossomodo quanto visto ultimamente. Dalle due soluzioni di fascia "performance" Radeon HD 5850 e 5870, nasceranno le rispettive versioni X2. Attualmente, il sito tedesco riporta solamente le frequenze di lavoro delle soluzioni HD 5870/5870 X2.
http://i39.tinypic.com/1zj2a8.jpg
E qui Nvidia:
"GT300 è la vera nuova architettura dall'introduzione delle unità SIMD", ha affermato Valich. L'architettura di GT300 dovrebbe contare su 16 gruppi di unità composte da 32 core, per un totale di 512 core. Ciò che realmente differenzia il GT300 dal GT200 è l'uso di unità MIMD (multiple instructions multiple data) , rispetto alle SIMD ad oggi impiegate.
Questa "rivoluzione" dovrebbe permettere al GT300 di avere una potenza di calcolo di oltre 2 volte superiore a quella di GT200.
"Se Nvidia imposterà i 512 core MIMD a una frequenza di 2 GHz, la potenza di calcolo sarà pari a circa 3 TeraFlops per calcoli a singola precisione. I calcoli a doppia precisione saranno fortemente dipendenti dall'efficienza delle unità MIMD, ma si potrà contare su un miglioramento da 6 a 15 volte rispetto a GT200".
Mercuri0
07-05-2009, 09:57
Primo, calmati.
La storia insegna che con nuovi processi produttivi e nuove architetture è sempre rischioso fare bus complessi, onde evitare flop.
Come già detto con le GDDR5 il problema non è tanto il BUS in se, ma il fatto che i 512 b rivelano le mire sul superchippone (come tradizione), se non altro perché più piedini ci metti più devi fare il chip grande (e poi devi riempirlo).
I rischi un chip grande su un processo produttivo incerto sono enormi, e implicano costi, ritardi, e alla fine la possibilità un prodotto come la serie FX di nVidia o la HD2900 di ATI... storia già vista. A questi livelli quando un progetto scazza di brutto, scazza per colpa del silicio.
Comunque non è detto che per fine 2009-2010 non riescano a mettere le cose apposto, eh. C'è anche un piccolo rumor che nvidia abbia deciso di abbandonare il superchippone, ma contrasta con i recenti.
Che poi tutta sta banda serva a qualcosa, questo è un altro punto che bisognerebbe verificare, perchè spesso si è visto che è molto più importante l'efficenza della pipeline.
Se ce la mettono vuol dire che serve.
Mercuri0
07-05-2009, 10:01
Sono d'accordo... e poi in base a quali informazioni la prossima nvidia sarà un mostro mentre la prossima ATI non lo sarà ?
Perché ci si aspetta che ATI progetti specificatamente per i 250€ e raddoppi per i 500€ come la serie 4xxx, mentre nVidia vada direttamente a progettare per i 500€. Basta questo, non serve andare a guardare le specifiche...
Se le cose andranno così, mi chiedo cosa avrà come concorrente la 5850 a fine anno. Contro la 4850 c'è stato il mitico G92 (che ora deve vedersela con la 4770... Il G92 è il "Maldini" della storia dei chip grafici, in tutti i sensi. Un campione, ormai da pensione... ma finché tira...). Però la 5850 sarà DirectX11...
@ matteo79
anche io al tempo ho acquistato una 8800 gtx a 700 bandiere e sinceramente devo dire che fino ad oggi è ancora al suo posto e ho deciso di aspettare la prossima generazione di sk video tanto (in 2 anni e mezzo) non è ancora uscito nulla o quasi che non mi permetta di giocare bene, pero se dovessi decidere ora cosa prendere , andrei con una 4890, so che è leggermente inferiore a nvidia 275, ma so anche che senza ati la 275 la pagheresti 3/499 probabilmente.
ora non fraintendermi dico 30% rispetto ad una top fascia di oggi al prezzo di 200€ mi accontenteri molto volentieri ,ho capito con gli anni che rincorrere la tecnologie di questo tipo nn conviene, e non conviene mai.
Quel "quanto si dice" che GT300 NON ha fatto il tape out e NON debutterà entro il 2009 è affidato solo alle parole de "The Inquirer" nella "bocca" di Charlie Demerjian :D
E' opportuno precisarlo.
Per ora, le roadmap parlano di debutto di GT300 in concomitanza di CUDA 3.0 nel Q4 2009.
Staremo a vedere se rispettano i piani.
Severnaya
07-05-2009, 10:12
"un miglioramento da 6 a 15 volte rispetto a GT200"
eeeeeeeeeeeeeeeeeeeeeh O_o!
ci credo solo se lo vedo
Fabio985
07-05-2009, 10:23
cmq speriamo che le nuove schede video directx 11 escano presto...cosi finalmente mi deciderò a mandare in pensione il mio gloriosissimo athlonxp 2800+ 2gbram e 7300 gt...che soffre trp cn i giochi recenti....:( devo rassegnarmi a 800*600 dettagli medi
Quei valori pare si riferiscano all'efficienza con il GPGPU, non ai risultati che la scheda darà con i giochi.
Se le voci sono vere, e nvidia dovesse riuscire a sfornare il chip senza problemi, si avrà non solo un (più che) raddoppio di potenza a causa del maggior numero di unità di calcolo, ma anche un eventuale ulteriore aumento a causa di frequenze maggiorate (nell'articolo di parla di 2ghz per lo shader core, ma potrebbe essere di più, come di meno), un possibile aumento a causa della migliorata efficienza delle alu, e infine la maggiore efficienza dell'architattura MIMD.
Dal momento che la carne al fuoco sembra tanta, bisogna vedere se sarà possibile cuocerla tutta da subito: sarà un chippone grande e costoso (a causa del gran numero di shader, del bus a 512bit e della logica per gestire un'architettura mimd), ed eventuali problemi di consumo o calore potrebbero costringere inizialmente ad adottare frequenze più basse. Oppure i costi potrebbero comunque renderle non vendibili in fascia media.
Insomma, sono speculazioni sulle speculazioni, ciò che sarà è ancora ben lontano.
se su pc uscissero tanti giochi quanti modelli di schede video ogni mese sarei la persona più felice del mondo...
invece mi trovo con un mostro di pc, con vga sempre più potenti e costose, e NIENTE di decente da farci girare...siamo qua a parlare di bus a 512bit, 2gb ddr5, gigabitflopsalkm/h ma qua c'è carenza di programmatori con le palle che sfornino qualcosa che sfrutti anche solo il 50% di una 4870...
Drakogian
07-05-2009, 10:53
... cut ....
Dal momento che la carne al fuoco sembra tanta, bisogna vedere se sarà possibile cuocerla tutta da subito: sarà un chippone grande e costoso (a causa del gran numero di shader, del bus a 512bit e della logica per gestire un'architettura mimd), ed eventuali problemi di consumo o calore potrebbero costringere inizialmente ad adottare frequenze più basse. Oppure i costi potrebbero comunque renderle non vendibili in fascia media.
Insomma, sono speculazioni sulle speculazioni, ciò che sarà è ancora ben lontano.
Ecco... questo è quello che penso anche io... inutile esaltarsi ora e comunque il successo di una scheda video è il giusto compromesso tra prestazioni/consumi/prezzo.
Io spero solo che il divario tra le prossime vga ATI - nVidia non sia accessivo. Perchè in questo caso a smenarci saremo solo noi utenti. Quest'ultimo anno per noi compratori è stato un pacchia... abbiamo avuto la possibiltà di aggiornare le nostre schede di livello medio/alto a prezzi eccezzionali.
Ricordate come era la situazione prezzi quando dominava la serie 8800 nvidia e Ati arrancava ?
g.luca86x
07-05-2009, 10:58
effettivamente mi chiedo anche io come mai un'architettura ultra parallela con 800 stream processor vada in certi giochi più lenta di una con 216...
g.luca86x
07-05-2009, 10:59
Ecco... questo è quello che penso anche io... inutile esaltarsi ora e comunque il successo di una scheda video è il giusto compromesso tra prestazioni/consumi/prezzo.
Io spero solo che il divario tra le prossime vga ATI - nVidia non sia accessivo. Perchè in questo caso a smenarci saremo solo noi utenti. Quest'ultimo anno per noi compratori è stato un pacchia... abbiamo avuto la possibiltà di aggiornare le nostre schede di livello medio/alto a prezzi eccezzionali.
Ricordate come era la situazione prezzi quando dominava la serie 8800 nvidia e Ati arrancava ?
che c'era gente che si dedicava al traffico d'organi, allo spaccio di droga o ai sequestri di persona a scopo estorsivo per comprarsi la scheda video...
Mercuri0
07-05-2009, 11:11
Quel "quanto si dice" che GT300 NON ha fatto il tape out e NON debutterà entro il 2009 è affidato solo alle parole de "The Inquirer" nella "bocca" di Charlie Demerjian :D
E' opportuno precisarlo.
Yep, ma è la stessa fonte che ha detto che il GT300 avrebbe fatto il tapeout a giugno.
Non sembrano esserci ritardi nel tape-out, ma non sarebbe comunque stato ancora fatto. Le ultime voci che il tipo riporta sull'uscita del GT300 nel 2010 sembra che invece si riferiscano a comunicazione di nVidia ai patner.
Insomma, se davvero il tapeout non è stato ancora fatto, ancora tutto è dentro nVidia. In questa fase è praticamente impossibile che trapeli qualcosa di attendibile, a meno che non lo voglia nVidia.
E francamente, che il GT300 sarà alto due metri e cinquanta e che sparerà palle di fuoco dagli occhi e fulmini tonanti dal culo, lo sappiamo per certo :D
Mercuri0
07-05-2009, 11:14
effettivamente mi chiedo anche io come mai un'architettura ultra parallela con 800 stream processor vada in certi giochi più lenta di una con 216...
Perché questi due numeri rappresentano cose diverse e non sono confrontabili.
Kharonte85
07-05-2009, 11:15
Avrei puntato su un Bus piu' ridotto abbinato alle GDDR5 mi fa strano pensare che abbiano bisogno di tutta quella banda...forse sarà davvero una bestia stile G80...
Kharonte85
07-05-2009, 11:25
effettivamente mi chiedo anche io come mai un'architettura ultra parallela con 800 stream processor vada in certi giochi più lenta di una con 216...
Intanto in realtà sono 160SP a 5 vie "ultra paralleli" come li chiami tu, non 800...semplicemente nvidia e AMD intendono gli SP in modo diverso e quindi non sono direttamente comparabili.
g.luca86x
07-05-2009, 11:40
ah ecco, sapevo fossero architetture diverse dalle prestazioni simili ma non sapevo precisamente la diffente realizzazione interna del chip. Grazie.
MiKeLezZ
07-05-2009, 11:40
Primo, calmati.
La storia insegna che con nuovi processi produttivi e nuove architetture è sempre rischioso fare bus complessi, onde evitare flop. Rischioso non vuol dire sicurezza di flop, ma solo rischioso, ipotizzabile, incerto.
Che poi tutta sta banda serva a qualcosa, questo è un altro punto che bisognerebbe verificare, perchè spesso si è visto che è molto più importante l'efficenza della pipeline.BUS di 512-bit perchè NVIDIA punta tanto al GPGPU computing, con ad esempio la serie TESLA.
Ciò non significa non vedremo rispettive schede derivative (o ex-novo) per la fascia media e bassa...
E' semplicemente un fatto di scelta in più per il consumatore, non vedo che criticare.
Il problema invece si pone in riguardo l'utilità con i giochi, visto che le attuali console frenano un poco l'evoluzione, e quindi già delle HD4850/GTS250 bastano più che degnamente per lo scopo.
Senza contare le DX11 prima che saranno utilizzate dovremo aspettare il 23 Ottobre, e poi un altro anno ancora (per un'adeguata loro penetrazione nel mercato, e lo sviluppo software)...
Quindi inizi 2011. Un po' tanto.
Tuvok-LuR-
07-05-2009, 11:41
una banda di 256 GB/s o più non mi pare così inverosimile, alla fine siamo passati dagli 86 della 8800gtx ai 141 della gtx280, e non è che ci fosse un gran salto generazionale tra le due schede
MiKeLezZ
07-05-2009, 11:42
ah ecco, sapevo fossero architetture diverse dalle prestazioni simili ma non sapevo precisamente la diffente realizzazione interna del chip. Grazie.In linea di massima per ATI dovresti dividere il loro valore per 5.
aaaah... quindi uno sul quale contare ad occhi chiusi!! :asd:
Cmq, staremo a vedere...
per quanto mi riguarda se non escono fuori giochi killer-vga "seri"... resto con GTX280, evitando di cambiare gpu al day 9...
tanto ora come ora questa mi soddisfa al 101%. :)
Personalmente, salterò direttamente la prima generazione di schede Directx11, sia Amd che Nvidia ed aspetterò il die shrink verso la metà del 2010, vuoi per un discorso di applicazioni/giochi, vuoi perchè aspetto di vedere l'impatto che avrà sul mercato Intel Larrabee.
ghiltanas
07-05-2009, 12:50
ma quanto andrà a costare sto gt300 se tutte le speculazioni che girano sono vere? :rolleyes: ...la nvidia l'ha inteso che la gente, giustamente, nn vuole + svenarsi per comprare una scheda video? ora sotto i 200 euro ci sono schede incredibili,e questo dev'essere anche il trend prossimo, all'inizio magari un pò di +, ma assolutamente da evitare cifre spropositate imho
cervus92
07-05-2009, 12:53
il problema è che questa volta non credo si possa ripetere una situazione come quella attuale dove AMD "svende" il proprio hardware top di gamma per riuscire a competere con la fascia media di Nvidia... in quanto una mossa del genere graverebbe troppo sulle sue finanze.
4870x2 compete con gts250?
capito... probabilmente farò lo stesso, xkè sono dubbioso sull'uscita di titoli killer-vga e curioso delle prestazioni di larrabee (anche se credo che si piazzeranno ben al di sotto delle nuove uscite AMD e nVidia... come detto da Intel inizialmente non si punterà alla fascia enthusiast).
p.s.= mi sono accorto di aver scritto "day 9" nel mio precedente post... :asd:
naturalmente intendevo "day 0". ;)
Sì anche secondo me non usciranno titoli killer-vga...
ps non si dice day one? :O
Tuvok-LuR-
07-05-2009, 12:58
io sinceramente spero in una bella scheda che abbia prestazioni rivoluzionarie per una gpu singola. il prezzo non mi preoccupa più di tanto, sono quasi due anni che non spendo bei soldoni in hardware e non mi dispiacerebbe farlo per una scheda che li valesse; basta che la smettano con queste orrende dual-gpu
yossarian
07-05-2009, 13:16
512 bit..
Lo fece ai tempi la Matrox Pharelia vi ricordate??
E' stata l'ultima scheda Matrox rivolta al mercato home user praticamente..
la parhelia non aveva bus verso le ram di 512 bit ma un'architettura interna a 512 bit di tipo dual bus
Rischioso? La storia insegna?
Sei consapevole che le attuali proposte Nvidia della serie GTX28X sono TUTTE a 512Bit ? Cosa ci insegnerebbe la storia di così tanto preoccupante?
Il fatto che una delle due aziente non sia stata in grado di "maneggiare" il bus a 512bit (HD2900) non implica che il problema sussista anche per l'altra.
"maneggiare" un bus da 512 bit o da 256 o da 128 è la stessa identica cosa: l'unica differenza sta nell'utilità di avere un bus così ampio. I chip NV hanno un'architettura dei MC meno efficiente che necessità di bus più ampi e non si interfaccia con ram ad elevato bit rate: questo è un fatto. Quindi G80 e GT200 avevano bisogno di un bus a 512 bit. RV770, evidentemente, ne può fare a meno e la dimostrazione è che, nelle situazioni in cui si può essere più bandwidth limited (alte risoluzioni e filtri attivi), i chip ATi si comportano, a parità di quantitativo di ram, mediamente meglio dei chip NV.
Citazione articolo:
RV870, secondo quanto riportato, non sarà un'architettura del tutto nuova, ma un miglioramento di quanto già visto con RV770 e RV790. Come il prossimo chip di Nvidia, RV870 sarà realizzato con processo produttivo a 40 nanometri e dovrebbe integrare un numero di transistor superiore al chip GT200 di Nvidia (che ricordiamo è 1,4 miliardi). Un die molto grande, quindi, in stile Nvidia, che tuttavia non pregiudicherà l'approccio canonico alla fascia alta, ovvero attraverso una soluzione dual-GPU.
l core RV870 dovrebbe integrare 1200 SP, divisi in 12 gruppi di SIMD composte da 100 core ciascuna [20 unità "5D"]. Le unità texture memory dovrebbero essere 48, mentre le unità ROPs dovrebbero essere 32.
ATI avrebbe intenzione di presentare quattro schede video basate sul nuovo core, ricalcando grossomodo quanto visto ultimamente. Dalle due soluzioni di fascia "performance" Radeon HD 5850 e 5870, nasceranno le rispettive versioni X2. Attualmente, il sito tedesco riporta solamente le frequenze di lavoro delle soluzioni HD 5870/5870 X2.
http://i39.tinypic.com/1zj2a8.jpg
E qui Nvidia:
"GT300 è la vera nuova architettura dall'introduzione delle unità SIMD", ha affermato Valich. L'architettura di GT300 dovrebbe contare su 16 gruppi di unità composte da 32 core, per un totale di 512 core. Ciò che realmente differenzia il GT300 dal GT200 è l'uso di unità MIMD (multiple instructions multiple data) , rispetto alle SIMD ad oggi impiegate.
Questa "rivoluzione" dovrebbe permettere al GT300 di avere una potenza di calcolo di oltre 2 volte superiore a quella di GT200.
"Se Nvidia imposterà i 512 core MIMD a una frequenza di 2 GHz, la potenza di calcolo sarà pari a circa 3 TeraFlops per calcoli a singola precisione. I calcoli a doppia precisione saranno fortemente dipendenti dall'efficienza delle unità MIMD, ma si potrà contare su un miglioramento da 6 a 15 volte rispetto a GT200".
questi sono numeri buttati li a caso senza alcun fondamento. Le specifiche le conoscono gli ingegneri di nVidia e AMD. Inoltre, il fatto che RV870 sia un'evoluzione di RV770 era pressochè scontato, visto che le dx11 sono "un'evoluzione" delle dx10.1 e che l'architettura ATi è molto più flessibile rispetto a quella nVidia. Come era ovvio che per adeguarsi alle nuove API nVidia avrebbe dovuto rivedere pesantemente la sua architettura (la mancata adozione delle dx10.1 non è stata una libera scelta).
Bah, dopo mesi e mesi pare ancora che nessuno abbia capito che AMD semplicemente ha deciso di non progettare più per la fascia 500€ ma direttamente per la 250€.
Non è una svendita, è una "scelta". Quando si progetta bisogna avere un target di costo come primo punto.
Il fatto che questa volta la 4870 sia risultata competitiva con la GTX260, è stata una cosa letterarmente assurda e imprevedibile, (è assurdo che un chip possa competere con uno di area doppia) dovuta al fatto che è uscito troppo bene (almeno per i giochi) o che il GT200 di nVidia è uscito troppo male.
Sul GT300, ammesso che il rumor sia vero (non avendo neanche fatto il tape-out, ancora niente è uscito dai palazzi di nVidia), il bus a 512 b implica per ragioni geometriche che ci riprovano con il super chippone, giocandosela sul fatto che TSMC riesca a sistemare i suoi 40 nm in tempo. C'erano anche voci che nVidia intendesse far produrre il GT300 a UMC.
non c'è pegior sordo. Evidentemente a qualcuno è sfuggito il fatto che nVidia abbia saltato a piè pari l'intera generazione dei chip derivanti da GT200, sacrificandone gli scarti e utilizzando, per le fasce media e bassa, chip derivanti da G80 (che, vale la pena di ricordarlo, non ha la possibilità di fare calcoli in fp64, visto che si parla di gpgpu e applicazioni scientifiche, ed ha un rapporto alu/tmu inferiore). Il tutto per accelerare la transizione verso i 55 nm e abbassare i costi di produzione di un chippone di quasi 600 mm^2. E' evidente che il "chippone stile nVidia", per farafrasare qualcuno, economicamente è un disastro
Foglia Morta
07-05-2009, 13:18
E' chiaro che il divario tra Nvidia ed ATI è destinato ad aumentare in modo significativo con la presentazione delle loro nuove architetture.
Problemi di produzione a parte (che cmq coinvolgono entrambe le aziende) credo che per AMD questa sia l'ultima occasione per dimostrare la propria capacità di competere con il rivale di sempre ma leggendo le varie indiscrezioni riguardanti entrambe le architetture appare già chiaro che GT300 non solo sarà un mostro in se stesso ma avrà una potenza elaborativa pari a quasi il 50% in più rispetto al diretto rivale monoGPU.
Tutti ci auguriamo che AMD riesca ad essere competitiva (almeno con il DualGPU) cosicchè Nvidia sia costretta ad abbassare i prezzi ad esclusivo vantaggio nostro... il problema è che questa volta non credo si possa ripetere una situazione come quella attuale dove AMD "svende" il proprio hardware top di gamma per riuscire a competere con la fascia media di Nvidia... in quanto una mossa del genere graverebbe troppo sulle sue finanze.
Di sicuro scordiamoci di vedere una scheda video con lo stesso rapporto prezzo/prestazioni della GTX275 nella prossima generazione.
fanboyate di questo spessore non si leggevano dai tempi di Ginger79 , bannato il 27 Ottobre , e guardacaso M@tteo79 comincia postare il 28 Ottobre :asd:
yossarian
07-05-2009, 13:35
fanboyate di questo spessore non si leggevano dai tempi di Ginger79 , bannato il 27 Ottobre , e guardacaso M@tteo79 comincia postare il 28 Ottobre :asd:
a ben guardare, oltre al 79 e al numero di lettere che compongono il nick (6), comune ai due utenti, anche lo stile "catastrofista" pare lo stesso.
Questa è del 16 maggio 2008, come commento alle specifiche di GT200 ed RV770.
A Giugno assisteremo ai funerali della divisione grafica AMD. 256Bit di bus si saturano già a 1280X720 con AA4X e AF8X... non oso immaginare a risoluzioni e filtri maggiori.
Se le specifiche delle schede Nvidia dovessero coincidere con quelle trapelate nelle info non ufficali sarebbe una battaglia persa in partenza.
La 4870 sarà, ad essere ottimisti, un 50-60% più veloce della attuale 3870 poichè l'efficienza dell'architettura, nonostante l'aumento di SP (peraltro poco significatifi quelli di ATI), è più o meno la stessa della generazione precedente.
Di contro abbiamo una GTX 280 che presenta notevoli innovazioni architetturali rispetto alla 9800GTX: Raddoppio di Bus (da 256bit a 512Bit), Raddoppio (o quasi) degli SP (da 128 a 240), Raddoppio delle ROPS (Da 16 a 32), Raddoppio della Ram (Da 512Mb a 1Gb)... il tutto condito con frequenze di GPU, RAM e SP piuttosto alte che portano a sviluppare un incremento prestazionale che oscilla tra il 100% e il 150% rispetto alla generazione precedente.
Facendo 2 conti e ragionando per logica mi sembra chiaro che non ci siano dubbi su chi sarà il vincitore. Questa volta però non sarà una semplice supremazia temporale e di pochi punti percentuali ma qualcosa di devastante (ad alte risoluzioni e con filtri applicati)... il che, ahimè, non preannuncia nulla di buono per noi acquirenti.
@ REDAZIONE
l'interfaccia di ogni MC è a 64 bit, 32 in lettura e 32 in scrittura, non a 32 bit (64*8 fa 512)
cervus92
07-05-2009, 14:00
fanboyate di questo spessore non si leggevano dai tempi di Ginger79 , bannato il 27 Ottobre , e guardacaso M@tteo79 comincia postare il 28 Ottobre :asd:
Ora si spiega il tutto :asd:
blackshard
07-05-2009, 14:00
fanboyate di questo spessore non si leggevano dai tempi di Ginger79 , bannato il 27 Ottobre , e guardacaso M@tteo79 comincia postare il 28 Ottobre :asd:
Ahahah sgamato!! :D
M@tteo79
07-05-2009, 14:07
4870x2 compete con gts250?
Si parla SEMPRE di GPU singole (le 4870 X2 e le GTX295 non fanno testo). Per ATI il Top di Gamma a singolo chip era la 4870 (ora 4890) mentre la fascia media di Nvidia è costituita dalla GTX275.
Dunque la frase da te impropriamente quotata (e a solo scopo "flammatorio") è assolutamente esatta: Top Di Gamma ATI (4890) vs. Fascia Media Nvidia (GTX275)
P.s. La fascia media è sempre stata delimitata dalla soglia dei 200€ (prezzo delle due schede sopra citate). La GTS250 da te citata costituisce la Fascia Bassa (il suo prezzo è di 110€). Hai le idee un po' confuse (o forse non sapevi cosa scrivere per creare un po' di caos ed hai buttato li un paio di sigle a caso). ;)
Sì anche secondo me non usciranno titoli killer-vga...
Per il nuovo STALKER parlano di grafica fotorealistica... e giudicando la pesantezza dei motori grafici precedenti quello potrebbe essere un classico Killer-VGA.
M@tteo79
07-05-2009, 14:12
fanboyate di questo spessore non si leggevano dai tempi di Ginger79 , bannato il 27 Ottobre , e guardacaso M@tteo79 comincia postare il 28 Ottobre :asd:
Perdonami ma non vedo dove ci siano "fanboyate" (o come le chiami tu) nel discorso che ho fatto.
Ti pregherei inoltre di portare rispetto per le persone che non conosci e di non paragonare la mia persona ad altri utenti con i quali probabilmente hai avuto screzi in tempi passati.
Questo è il primo avvertimento. Al secondo ci incontriamo magari faccia a faccia così ti spiego meglio come funzionano le cose nella vita reale.
cervus92
07-05-2009, 14:15
Si parla SEMPRE di GPU singole (le 4870 X2 e le GTX295 non fanno testo). Per ATI il Top di Gamma a singolo chip era la 4870 (ora 4890) mentre la fascia media di Nvidia è costituita dalla GTX275.
Dunque la frase da te impropriamente quotata (e a solo scopo "flammatorio") è assolutamente esatta: Top Di Gamma ATI (4890) vs. Fascia Media Nvidia (GTX275)
P.s. La fascia media è sempre stata delimitata dalla soglia dei 200€ (prezzo delle due schede sopra citate). La GTS250 da te citata costituisce la Fascia Bassa (il suo prezzo è di 110€). Hai le idee un po' confuse (o forse non sapevi cosa scrivere per creare un po' di caos ed hai buttato li un paio di sigle a caso). ;)
Per il nuovo STALKER parlano di grafica fotorealistica... e giudicando la pesantezza dei motori grafici precedenti quello potrebbe essere un classico Killer-VGA.
Il flame le fai tu con le tue fanboyate (quando è previsto il funerale di ati?) e il caos lo crei tu non specificando...è un articolo della costituzione che si debba parlare sempre di mono-gpu? Se permetti, il top gamma ati è la 4870x2.
Poi se la fascia media media è una scheda che va il 4% in meno della fascia che chiami "alta" (gtx285), allora siamo messi bene :doh:
Sì, ma quando esce stalker?
M@tteo79
07-05-2009, 14:19
Ahahah sgamato!! :D
Purtroppo hanno "sgamato" un granchio (come si suol dire dalle mie parti) visto che non so chi sia l'utente al quale si riferiscono.
Io sono presente anche su AVMagazine e su AFdigitale e mi conoscono in molti operatori del settore audio/video.
MadJackal
07-05-2009, 14:20
Si parla SEMPRE di GPU singole (le 4870 X2 e le GTX295 non fanno testo). Per ATI il Top di Gamma a singolo chip era la 4870 (ora 4890) mentre la fascia media di Nvidia è costituita dalla GTX275.
Dunque la frase da te impropriamente quotata (e a solo scopo "flammatorio") è assolutamente esatta: Top Di Gamma ATI (4890) vs. Fascia Media Nvidia (GTX275)
P.s. La fascia media è sempre stata delimitata dalla soglia dei 200€ (prezzo delle due schede sopra citate). La GTS250 da te citata costituisce la Fascia Bassa (il suo prezzo è di 110€). Hai le idee un po' confuse (o forse non sapevi cosa scrivere per creare un po' di caos ed hai buttato li un paio di sigle a caso). ;)
Non ha senso parlare di GPU a chip singolo, lo sai vero?
Perchè AMD ha espressamente detto che NON FA PIU' CHIP DI FASCIA ALTA. Progetta fascia media, poi moltiplica per 2 ed ottiene quello che per nvidia è il megachippone da vendere a 600€.
Fare una comparazione tra due chip progettati per due segmenti di mercato diversi non ha senso. Spero che tu te ne accorga da solo... O ti devo ricordare quanto costavano al lancio le GTX 2x0, giusto per ricordarti chi è che sta svendendo e chi no? :rolleyes:
cervus92
07-05-2009, 14:20
E' chiaro che il divario tra Nvidia ed ATI è destinato ad aumentare in modo significativo con la presentazione delle loro nuove architetture.
Problemi di produzione a parte (che cmq coinvolgono entrambe le aziende) credo che per AMD questa sia l'ultima occasione per dimostrare la propria capacità di competere con il rivale di sempre ma leggendo le varie indiscrezioni riguardanti entrambe le architetture appare già chiaro che GT300 non solo sarà un mostro in se stesso ma avrà una potenza elaborativa pari a quasi il 50% in più rispetto al diretto rivale monoGPU.
Tutti ci auguriamo che AMD riesca ad essere competitiva (almeno con il DualGPU) cosicchè Nvidia sia costretta ad abbassare i prezzi ad esclusivo vantaggio nostro... il problema è che questa volta non credo si possa ripetere una situazione come quella attuale dove AMD "svende" il proprio hardware top di gamma per riuscire a competere con la fascia media di Nvidia... in quanto una mossa del genere graverebbe troppo sulle sue finanze.
Di sicuro scordiamoci di vedere una scheda video con lo stesso rapporto prezzo/prestazioni della GTX275 nella prossima generazione.
Perdonami ma non vedo dove ci siano "fanboyate" (o come le chiami tu) nel discorso che ho fatto.
Ti pregherei inoltre di portare rispetto per le persone che non conosci e di non paragonare la mia persona ad altri utenti con i quali probabilmente hai avuto screzi in tempi passati.
Questo è il primo avvertimento. Al secondo ci incontriamo magari faccia a faccia così ti spiego meglio come funzionano le cose nella vita reale.
Personalmente, il messaggio che ho quotato mi sembra una fanboyata...
ps passi alle minacce? è già morta la foglia , non trema tranquillo :asd:
Revenge81
07-05-2009, 14:23
nn dimenticate il ringbus di ati a 512 bit....E' stata ATI la pioniera e per di + con prestazioni di tutto rispetto!!(cosa ke esclude matrox..)
inoltre, se anke intel per il larrabee ha usato il ringbus, qualcosa d buono ati l'aveva creato..;)
M@tteo79
07-05-2009, 14:25
questi sono numeri buttati li a caso senza alcun fondamento. Le specifiche le conoscono gli ingegneri di nVidia e AMD.
Prenditela con chi li ha scritti (non di certo con me). Abbiamo detto in più di un'occasione che si tratta di "indiscrezioni" che vanno prese per quello che valgono.
Foglia Morta
07-05-2009, 14:30
Perdonami ma non vedo dove ci siano "fanboyate" (o come le chiami tu) nel discorso che ho fatto.
Ti è già stato fatto notare il "leggero" capovolgimento della realtà che hai fatto. Sforzati.
Ti pregherei inoltre di portare rispetto per le persone che non conosci e di non paragonare la mia persona ad altri utenti con i quali probabilmente hai avuto screzi in tempi passati.
Questo è il primo avvertimento. Al secondo ci incontriamo magari faccia a faccia così ti spiego meglio come funzionano le cose nella vita reale.
Insomma, sono fregato :asd:
ps passi alle minacce? è già morta la foglia , non trema tranquillo :asd:
appunto :D
io spero che coi 40nm le vga siano piu efficienti rispetto alle precedenti versioni a 55nm.....se i 512 bit saranno effettivamente dichiarati da nvidia ben venga....poi bisogna vedere che cosa porteranno in piu rispetto ai 256bit....
M@tteo79
07-05-2009, 14:46
Ti è già stato fatto notare il "leggero" capovolgimento della realtà che hai fatto. Sforzati.
Quello che chiami "capovolgimento della realtà" è una semplice opinione personale basata sulla lettura di "rumors". Non vedo tutta questa preoccupazione da parte tua. Sei addirittura arrivato a fare assurde congetture prive di qualsiasi attinenza al periodo quotato e alla news in oggetto.
leoneazzurro
07-05-2009, 14:51
Perdonami ma non vedo dove ci siano "fanboyate" (o come le chiami tu) nel discorso che ho fatto.
Ti pregherei inoltre di portare rispetto per le persone che non conosci e di non paragonare la mia persona ad altri utenti con i quali probabilmente hai avuto screzi in tempi passati.
Questo è il primo avvertimento. Al secondo ci incontriamo magari faccia a faccia così ti spiego meglio come funzionano le cose nella vita reale.
In invece l'avvertimento te l'avevo dato con l'altro nick: basta eccessi o ban della persona, non del nick. CVD, vedo che il lupo perde il pelo ma non il vizio.
Quindi, ban della persona.
g.luca86x
07-05-2009, 15:14
In invece l'avvertimento te l'avevo dato con l'altro nick: basta eccessi o ban della persona, non del nick. CVD, vedo che il lupo perde il pelo ma non il vizio.
Quindi, ban della persona.
azz... ma allora era davvero lui quello bannato di cui parlavate prima? certo che passare alla minaccia scritta pubblica ce ne vuole di follia...:mbe:
Fabio985
07-05-2009, 15:51
a rega perdonate....ma si può litigare su chi farà la scheda video piu potente???? cioe ma a noi che ci viene in tasca??? cioe se nvidia fa un'ottima scheda a un prezzo abbordabile prenderò nvidia, se lo fa ati..prenderò ati...se la fa un'altra casa magari strip zip (naturalmente nome inventato) prendo strip zip, penso cmq che i forum siano utili per capire l'effettiva qualita di un prodotto in modo per chi non conosce di sapersi indirizzare, non per gettare fango su un marchio o l'altro o per insultare chi possiede prodotti di 1 altra marca o la pensa diversamente.....poi io spero che siano tutte appollaiate come prestazioni questo si..perche se una sarà tanto migliore dell'altra i prezzi saliranno vertiginosamente e quindi perchè pagare 500 euro una top di gamma ke in regime di concorrenza costerebbe 250:)
Drakogian
07-05-2009, 16:16
*
HackaB321
07-05-2009, 16:28
In linea di massima per ATI dovresti dividere il loro valore per 5.
:sob:
ghiltanas
07-05-2009, 17:45
utilizzeranno anche le gddr5 della samsung che possono raggiungere i 7ghz? :D ...di sicuro la bande passante nn sarebbe + un problema dopo :asd:
blade9722
07-05-2009, 17:57
nn dimenticate il ringbus di ati a 512 bit....E' stata ATI la pioniera e per di + con prestazioni di tutto rispetto!!(cosa ke esclude matrox..)
inoltre, se anke intel per il larrabee ha usato il ringbus, qualcosa d buono ati l'aveva creato..;)
Se non erro il ringbus di Ati a 512bit corrisponde ad un bus tradizionale a 256bit.
blade9722
07-05-2009, 18:07
C'e' una cosa che mi lascia perplesso sulla corsa alle performance. La maggior parte dei titoli di nuova uscita gira sulle mie due G80 in SLI a frame rate elevati. non sembra esserci necessita' di elevate potenze di calcolo. Nvidia sta cercando di sfruttare la potenza in eccesso aggiungendo funzionalita' tramite i driver, mi riferisco all'ambient occlusion, al physx e alla stereoscopia.
Come idea non mi sembra malvagia, ma Ati non mi sembra stia facendo altrettanto.
Mercuri0
07-05-2009, 18:10
a rega perdonate....ma si può litigare su chi farà la scheda video piu potente????
Per alcuni è un pò come il tifo calcistico, che ci vuoi fà! :D
Anche se certo a volte par che si esagera, proprio come il tifo calcistico. Stessa raffinatezza, tra l'altro.
:sob:
... e moltiplicare per 3!
ghiltanas
07-05-2009, 18:16
C'e' una cosa che mi lascia perplesso sulla corsa alle performance. La maggior parte dei titoli di nuova uscita gira sulle mie due G80 in SLI a frame rate elevati.non sembra esserci necessita' di elevate potenze di calcolo. Nvidia sta cercando di sfruttare la potenza in eccesso aggiungendo funzionalita' tramite i driver, mi riferisco all'ambient occlusion, al physx e alla stereoscopia.
Come idea non mi sembra malvagia, ma Ati non mi sembra stia facendo altrettanto.
è quello che penso anch'io...se nn altro finalmente potremmo spararci crysis al massimo :asd:
blade9722
07-05-2009, 18:17
è quello che penso anch'io...se nn altro finalmente potremmo spararci crysis al massimo :asd:
By the way, io per Crysis dovrei cambiare la CPU.....
ghiltanas
07-05-2009, 18:20
By the way, io per Crysis dovrei cambiare la CPU.....
e dovresti cambiare anche mobo per farlo, perchè senn sbaglio la tua attuale nn supporta i phenom 2...
che poi anche crysis in futuro probabilmente sarà + leggero, il cryengine viene rivisto per le console e quindi ....
ghiltanas
07-05-2009, 18:21
Per alcuni è un pò come il tifo calcistico, che ci vuoi fà! :D
Anche se certo a volte par che si esagera, proprio come il tifo calcistico. Stessa raffinatezza, tra l'altro.
... e moltiplicare per 3!
la nvidia ha cambiato modulo e unito all'ultima campagna acquisti è diventata fortissima :D , il campionato è nostro :O :asd:
ghiltanas
07-05-2009, 18:24
non c'è pegior sordo. Evidentemente a qualcuno è sfuggito il fatto che nVidia abbia saltato a piè pari l'intera generazione dei chip derivanti da GT200, sacrificandone gli scarti e utilizzando, per le fasce media e bassa, chip derivanti da G80 (che, vale la pena di ricordarlo, non ha la possibilità di fare calcoli in fp64, visto che si parla di gpgpu e applicazioni scientifiche, ed ha un rapporto alu/tmu inferiore). Il tutto per accelerare la transizione verso i 55 nm e abbassare i costi di produzione di un chippone di quasi 600 mm^2. E' evidente che il "chippone stile nVidia", per farafrasare qualcuno, economicamente è un disastro
questo è un aspetto interessante...chissà come si comporterà con gt300...qui nn può + rifare una scelta del genere, perchè avrebbe fascia alta schede dx11 e fascia medio bassa dx10
blade9722
07-05-2009, 18:27
e dovresti cambiare anche mobo per farlo, perchè senn sbaglio la tua attuale nn supporta i phenom 2...
Manco i Phenom, se non con un BIOS taroccato per hobby da un tecnico della EVGA, che pero' sul mio sistema si bloccava al boot, subito dopo il riconoscimento delle periferiche. Meno male che il firmware comprendeva una versione ridotta di AWDFLASH con cui ho potuto tornare indietro. Una scelta commerciale di EVGA che e' stata oggetto di insulti nel suo forum. Altrimenti avrei messo un bel Phenom 2 X3 overcloccato. A questo punto, tenendo conto le due G80 me le tengo strette, dovendo spendere per una MB che supporti l'SLI passero' probabilmente all'I7. Ma attendo l'uscita di Windows 7 per acquistare la versione OEM.
che poi anche crysis in futuro probabilmente sarà + leggero, il cryengine viene rivisto per le console e quindi ....
+ leggero = - effetti
Kharonte85
07-05-2009, 18:36
questo è un aspetto interessante...chissà come si comporterà con gt300...qui nn può + rifare una scelta del genere, perchè avrebbe fascia alta schede dx11 e fascia medio bassa dx10
Probabilmente fara' come per G80... due modelli fascia alta derivati dal Chippone e per le altre fasce sara' obbligata a fare qualcosa di diverso ( come fu il non esattamente riuscito G84)....
ghiltanas
07-05-2009, 18:36
...
+ leggero = - effetti
ovvio :(
ghiltanas
07-05-2009, 18:40
Probabilmente fara' come per G80... due modelli fascia alta derivati dal Chippone e per le altre fasce sara' obbligata a fare qualcosa di diverso....
nn lo so, spero solo che anche con le prossime serie, si potranno portare a casa schede sotto i 200 euro che rullano alla grande anche in fullhd...
MiKeLezZ
07-05-2009, 18:47
... e moltiplicare per 3!Una frase banale come "il Sole è Giallo", è in realtà scorrettissima a seconda del punto di vista.
Soffermandosi solo sui raggi solari dovremmo dire sia bianco, perchè risultante di tutti i colori.
A causa dell'atmosfera terrestre possiamo poi rilevare colori che variano addirittura dall'azzurro, fino al rosso mattone.
Avvicinandoci alla superficie del Sole potremmo invece riscontrare, a seconda della nostra distanza, una serie di "macchie", oppure una vera e propria puntinatura.
Quando un bambino chiede al proprio genitore di che colore è il Sole, la risposta corretta è scassargli le mini-balle con una inutile trattazione tecnica (magari aggiungendo alla confusione il fatto che il fatto stesso del colore è un artifizio del corpo umano).
La risposta giusta è dirgli "Giallo". E così infatti lo troverai colorato nei suoi disegni.
Capacità di semplificazione e sintesi sono abilità non innate e che purtroppo non tutti hanno.
appleroof
07-05-2009, 18:48
C'e' una cosa che mi lascia perplesso sulla corsa alle performance. La maggior parte dei titoli di nuova uscita gira sulle mie due G80 in SLI a frame rate elevati. non sembra esserci necessita' di elevate potenze di calcolo. Nvidia sta cercando di sfruttare la potenza in eccesso aggiungendo funzionalita' tramite i driver, mi riferisco all'ambient occlusion, al physx e alla stereoscopia.
Come idea non mi sembra malvagia, ma Ati non mi sembra stia facendo altrettanto.
questa è l'osservazione più giusta che ho letto in tutta la discussione :D : in effetti o confidano in una svolta nel modo di programmare i giochi, o sanno che ci sarà, oppure di tutta stà potenza non saprei proprio cosa farmene
questo però se non consideriamo che Nvidia spinge tantissimo, più di Ati (che ha anche le cpu) anche e forse ormai sopratutto sul discorso GPGPU, dove invece un'elevata potenza, tale da annichilire qualsiasi cpu in determinati ambiti, serve eccome....
aggiungo che leggevo in altra notizia della decisione di Intel di togliere di produzione alcune cpu e del forte declino dei sistemi desktop in questa fase...se questo declino diventasse strutturale, te saluto vga discrete e compagnia bella ( :cry: )
appleroof
07-05-2009, 18:51
quella news è capziosa al massimo,
occhio a non farsi mettere sulla cattiva strada. ;)
cioè?
appleroof
07-05-2009, 18:56
cioè 940 e 965 non vengono tolti dal mercato perchè c'è recessione o perchè il mercato notebook è in crescita e quello desktop in calo...
semplicemente tali cpu saranno rimpiazzate da 2 nuove cpu: i7 950 e i7 975EE... cpu delle quali si è già a conoscenza da molti mesi.
ok, in effetti rileggendo bene la notizia c'è un evidente contraddizione logica: se togliessero di produzione quelle cpu e basta allora sarebbe un segnale evidente (se nemmeno Intel crede più nelle cpu desktop, sia pure ovviamente cominciando dalla fascia top, stiamo freschi :D ) ma il fatto che vengano sostituite da altri modelli toglie il nesso con il "declino assodato del settore desktop"
in effetti è scritta male quella notizia.
blade9722
08-05-2009, 09:03
quella news è capziosa al massimo,
occhio a non farsi mettere sulla cattiva strada. ;)
L'ho fatto notare anch'io: hanno fatto passare una operazione che Intel esegue regolarmente, cioe' il cambio del nome del processore abbinato ad una leggera variazione della frequenza di default, come se fosse il ritiro dei processori I7.
Mercuri0
08-05-2009, 10:19
Una frase banale come "il Sole è Giallo", è in realtà scorrettissima a seconda del punto di vista.
Soffermandosi solo sui raggi solari dovremmo dire sia bianco, perchè risultante di tutti i colori.
A causa dell'atmosfera terrestre possiamo poi rilevare colori che variano addirittura dall'azzurro, fino al rosso mattone.
Avvicinandoci alla superficie del Sole potremmo invece riscontrare, a seconda della nostra distanza, una serie di "macchie", oppure una vera e propria puntinatura.
Quando un bambino chiede al proprio genitore di che colore è il Sole, la risposta corretta è scassargli le mini-balle con una inutile trattazione tecnica (magari aggiungendo alla confusione il fatto che il fatto stesso del colore è un artifizio del corpo umano).
La risposta giusta è dirgli "Giallo". E così infatti lo troverai colorato nei suoi disegni.
Capacità di semplificazione e sintesi sono abilità non innate e che purtroppo non tutti hanno.
Alla faccia della capacità di sintesi :asd:
Comunque mica stavo sfottendo: per fare un paragone, ha abbastanza senso divederle per 5 e moltiplicare per 3, visto che l'efficienza che il compilatore raggiunge è circa del 60-70%, a sentir gli ing di AMD.
Fabio985
08-05-2009, 10:46
la nvidia ha cambiato modulo e unito all'ultima campagna acquisti è diventata fortissima :D , il campionato è nostro :O :asd:
vabbe noi della Ati (naturalmente in modo ironico) vorra dire ci accontenteremo del 2 posto..champions league...e nemmeno facciamo i preliminari ahahahaha e mi sa come allenatore prendiamo Ranieri:P visto come stanno adesso le cose ahahahahaha
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.