PDA

View Full Version : Informazioni su R600 e Barcelona direttamente da AMD


Redazione di Hardware Upg
01-03-2007, 12:57
Link alla notizia: http://www.hwupgrade.it/news/skvideo/20311.html

In occasione del lancio delle proprie nuove piattaforme chipset AMD ha fornito alcune informazioni sulle prorpie future architetture attese nel 2007

Click sul link per visualizzare la notizia.

Zoro82
01-03-2007, 13:01
a Maggio?
buonanotte!

NoX83
01-03-2007, 13:07
sono proprio gli ambiti applicativi nei quali al momento attuale le cpu Core 2 Duo e Core 2 Quad di Intel detengono un chiaro margine di vantaggio sulle soluzioni concorrenti di Intel.

Intel è così avanti da avere un margine di vantaggio rispetto alle proprie soluzioni? :D Scherzi a parte, sono davvero curioso di provare le nuove cpu AMD con core K10, anche se ritengo che oggi come oggi le cpu siano talmente potenti da essere sufficienti per il 75% degli utilizzatori; resta sempre l'hard disk il vero collo di bottiglia.

jp77
01-03-2007, 13:07
AMD, quindi, ha scelto di posticipare il debutto di R600 non per problemi tecnici ma per la volontà di debuttare in un mercato nel quale la domanda per architetture hardware DirectX 10 sia bilanciata dalla dispoinibilità di applicazioni

quindi ne possiamo dedurre che le prestazioni in DirectX 9 o precedenti sono inferiori a quelle delle proposte Nvidia mentre in Dx 10 dovrebbero andare meglio?

NoX83
01-03-2007, 13:12
quindi ne possiamo dedurre che le prestazioni in DirectX 9 o precedenti sono inferiori a quelle delle proposte Nvida mentre in Dx 10 dovrebbero andare meglio?

Nè una nè l'altra credo. Che ATI intenda far capire che le proprie soluzioni DX10 saranno superiori a quelle nvidia e probabile, anche se tutto da vedere, ma che queste rimarranno indietro a livello di DX rispetto alle vecchie soluzioni mi pare eccessivo.

Dexther
01-03-2007, 13:13
quindi ne possiamo dedurre che le prestazioni in DirectX 9 o precedenti sono inferiori a quelle delle proposte Nvida mentre in Dx 10 dovrebbero andare meglio?

non credo, come discorso sarebbe un pò contraddittorio :mc:

jp77
01-03-2007, 13:22
non credo, come discorso sarebbe un pò contraddittorio :mc:

perchè contraddittorio? a me pare lineare nel senso le nostre schede in dx9 vanno meno delle 8800 mentre in dx10 sono più veloci non le facciamo uscire ora perchè ci sarebbero solo giochi dx9 tra un paio di mesi con i primi giochi dx10 possiamo fare la nostra bella figura...se fossero più veloci anche in ambito dx9 IMHO non avrebbe senso lasciare il mercato per mesi nelle mani di Nvidia

Mparlav
01-03-2007, 13:23
Ma come fanno ad uscire applicazioni DirectX10 se non ci sono PRIMA le schede che le supportino?

Pretendono che una sw house si suicidi mettendo in commercio il suo gioco DirectX10 prima ancora che ci siano le schede per farlo girare?

Vista è uscito a fine gennaio: la loro scheda doveva essere pronta per quel periodo per andare forte già in DirectX9, e ancor meglio in DirectX10 man mano che uscivano i giochi.

A me sembra un discorso di comodo quello che fanno.
Ormai si parla di scheda presentata al Cebit a porte chiuse, e disponibilità reale a inizi maggio per la x2900XT GDDR3 e metà maggio per la XTX GDDR4, ma in quantità limitate (notizia su Vr-zone)

Speriamo almeno che quel 40% di "potenza bruta" di calcolo sulla 8800GTX si traduca in altrettante prestazioni nei giochi, il che non è per nulla scontato.

bonzuccio
01-03-2007, 13:25
Secondo me sulla storia delle direct x amd ha ragione,
ai pochi spiccioli derivanti dagli hard gamers che stanno comprando schede dx10 seguirà un calo di immagine spaventoso quando tra le mani si troveranno qualcosa che a confronto con r600 sarà obsoleto
o magari per recuperare il gap faranno uscire altre architetture
sempre senza che le dx10 siano ancora realtà.
Su k10 si dessero una mossa e anticipassero l'uscita che sto con la baaavaalalava alla bocca da troppo tempo che il mio htpc con 2 k10 piccolini piccolini aspetta

Dexther
01-03-2007, 13:27
perchè contraddittorio? a me pare lineare nel senso le nostre schede in dx9 vanno meno delle 8800 mentre in dx10 sono più veloci non le facciamo uscire ora perchè ci sarebbero solo giochi dx9 tra un paio di mesi con i primi giochi dx10 possiamo fare la nostra bella figura...se fossero più veloci anche in ambito dx9 IMHO non avrebbe senso lasciare il mercato per mesi nelle mani di Nvidia

quello che non capisco è se è concettualmente possibile che una VGA sia rispetto ad un' altra meno performante in dx9 e più performante in dx10 :boh: :boh: :mc: :what:

ErminioF
01-03-2007, 13:30
Intel è così avanti da avere un margine di vantaggio rispetto alle proprie soluzioni?
Rileggi: la cpu intel hanno vantaggi rispetto le soluzioni concorrenti (di intel): è scritta male la frase nell'articolo, ma ha un senso :)
quindi ne possiamo dedurre che le prestazioni in DirectX 9 o precedenti sono inferiori a quelle delle proposte Nvidia mentre in Dx 10 dovrebbero andare meglio?
No, possiamo solo dedurre che rinviano per qualche motivo (che sia quello che dichiarano o altri ci è impossibile saperlo) e che preferiscono continuare a vendere a prezzo pieno le x1950 anzichè mandarle in pensione.
Peccato perchè per stalker tra un mese avrei voluto poter valutare le soluzioni ati, credo che punterò direttamente alla 8800gts 320, a meno di tagli pesanti sulla x1950 xt/xtx

Xilema
01-03-2007, 13:30
AMD ha ragione tutta la vita su R600.
A cosa cacchio serve una scheda DX10 adesso ?
Maggio sarebbe ancora troppo presto, ma almeno è un mese più "decente".
E c' è da scommettere che Nvidia prenderà una discreta batosta prestazionale...

ErminioF
01-03-2007, 13:35
perchè contraddittorio? a me pare lineare nel senso le nostre schede in dx9 vanno meno delle 8800 mentre in dx10 sono più veloci non le facciamo uscire ora perchè ci sarebbero solo giochi dx9 tra un paio di mesi con i primi giochi dx10 possiamo fare la nostra bella figura...se fossero più veloci anche in ambito dx9 IMHO non avrebbe senso lasciare il mercato per mesi nelle mani di Nvidia
Mi riporti il pezzo in cui dicono "le nostre schede vanno peggio in dx9 ma meglio in dx10?" :asd:

bonzuccio
01-03-2007, 13:36
AMD ha ragione tutta la vita su R600.
A cosa cacchio serve una scheda DX10 adesso ?
Maggio sarebbe ancora troppo presto, ma almeno è un mese più "decente".
E c' è da scommettere che Nvidia prenderà una discreta batosta prestazionale...

prestazionale si ma a quanto sarà maggiore questa batosta se ci si pesa quante saranno le 8800 vendute allora hai idea del danno di immagine.
A questo punto ad amd conviene di brutto rimandare sembra
Cioè Vista e le sue dx ancora non è a punto, le software house programmano i loro investimenti in funzione del parco hardware disponibile
nvidia ha puntato tutto sul marketing pensando di essere l'unico attore presente sulla scena, e non è che ha più a che fare con ati (sarebbe stato già scorretto) ma con amd.. secondo me adesso una 1900gt o una 1950pro vanno strabenissimo

AndreKap
01-03-2007, 13:38
quindi ne possiamo dedurre che le prestazioni in DirectX 9 o precedenti sono inferiori a quelle delle proposte Nvidia mentre in Dx 10 dovrebbero andare meglio?

Come diceva qualcuno, a pensar male si fa peccato, ma difficilmente si sbaglia.... ;)

aaasssdddfffggg
01-03-2007, 13:41
Prenderà una batosta la 8800gtx quandfo uscirò la r600?Madonnma che cazzate.nVIDIA ha già pronto la 8900gtx che farà uscire proprio quando uscirà R600 è ovvio : al momento non ha nessuna fretta di aumentare la potenza di calcolo della 8800gtx visto che ha saldamente il mercato in mano.

bonzuccio
01-03-2007, 13:44
Prenderà una batosta la 8800gtx quandfo uscirò la r600?Madonnma che cazzate.nVIDIA ha già pronto la 8900gtx che farà uscire proprio quando uscirà R600 è ovvio : al momento non ha nessuna fretta di aumentare la potenza di calcolo della 8800gtx visto che ha saldamente il mercato in mano.

Ma quanto ci sta guadagnando secondo te nvidia sulla fascia alta attualmente?
Se non sfrutto in dx10 un hardware che costa un botto e poi come dici sapendo che quando inizierà a servire ho in mano una ciofeca perchè ne esce un altra secondo te possono essere in due grandi case a fare questi ragionamenti folli?

aaasssdddfffggg
01-03-2007, 13:46
caro bonzuccio.nVIDIA sta vendendo come il pane le 8800gtx in tutto il mondo per nopn parlare degli integratori di sistemi che hanno scelto proprio le 8800 come piattaforme per Vista (tutti soldi tolti ad ATI che non ha ancora nulla in proposito).Informati per benino dai...

bonzuccio
01-03-2007, 13:52
caro bonzuccio.nVIDIA sta vendendo come il pane le 8800gtx in tutto il mondo per nopn parlare degli integratori di sistemi che hanno scelto proprio le 8800 come piattaforme per Vista (tutti soldi tolti ad ATI che non ha ancora nulla in proposito).Informati per benino dai...

Sarà difficile capire dai bilanci quanto costa a nvidia produrre una scheda con tutti quei transistor e quanto ci guadagna in proporzione ai volumi..
ma tantè se vogliono farci pagare in questo modo un hardware compatibile a delle api propietarie allora lo facessero almeno un pochino meglio
mettendosi intorno a un tavolo e pianificando le date tra i diversi attori, non che attuano queste politiche commerciali spinte al limite del banditismo informatico (imho)
perchè adesso c'è chi dice: calma, adesso decido io

capitan_crasy
01-03-2007, 13:57
Alla fine AMD non ci dirà MAI le VERE motivazioni del ritardo del R600...
Ma forse ce una spiegazione più semplice:
Presentazione UNICA del K10 e R600 con derivati!!!
:p :D :p

zanardi84
01-03-2007, 14:03
Ragazzi, che fretta c'è di buttar fuori delle schede DX10 quando il software disponibile per sfruttarle ancora non c'è?

AMD si sta prendendo tutto il tempo necessario per affinare la sua tecnologia. Vedrete, non appena esce, di r600 saranno disponibili subito buoni volumi e arriverà subito sul mercato.

dwfgerw
01-03-2007, 14:03
peccato per ati.... ad oggi con 300€ si prende una 8800gts... vedremo cosa offrirà ati tra 3 mesi...

Defragg
01-03-2007, 14:09
finalmente qualcosa di ufficiale :) :O

Xilema
01-03-2007, 14:27
Prenderà una batosta la 8800gtx quandfo uscirò la r600?Madonnma che cazzate.nVIDIA ha già pronto la 8900gtx che farà uscire proprio quando uscirà R600 è ovvio : al momento non ha nessuna fretta di aumentare la potenza di calcolo della 8800gtx visto che ha saldamente il mercato in mano.

Saldamente in mano il mercato di quei poco furbi che hanno voluto spendere 600 € per una 8800 attualmente assolutamente inutile...
Le cose dei pazzi... o di chi ha soldi da buttare.

Dexther
01-03-2007, 14:32
Saldamente in mano il mercato di quei poco furbi che hanno voluto spendere 600 € per una 8800 attualmente assolutamente inutile...
Le cose dei pazzi... o di chi ha soldi da buttare.

Non sono d'accordo :) fondamentalmente perchè chi spende i propri soldi può farlo come vuole, senza essere pazzo e senza averne da buttare . Sono invece d'accordo sul fatto che non è corretto dire che abbia in mano il mercato poichè in esso le top di gamma sono una minuscola fetta del fatturato totale ;)

bonzuccio
01-03-2007, 14:34
Del fatturato.. figuriamoci del guadagno netto

toniz
01-03-2007, 14:35
Mah... io non sono un "enthusiast" anche se cambio hw spesso cmq capisco chi e' "voglioso" di nuove schede :D e avendone le possibilità economiche vorrebbe piu' scelta, ma sinceramente non vedo (IMHO) assolutamente la necessità per AMD/Ati di correre a proporre i suoi articoli ora... :boh:
In ritardo e' già in ritardo, quindi le conviene fare un'uscita posteriore in pompa magna con le armi piu' affilate che mai, anche se certo nvidia non starà con le mani in mano visto che ha già pronto 8900...
Ora come ora quanti sono quelli che hanno vista???
penso pochi
Quanti di questi hanno REALMENTE bisogno di una scheda DX10 per giocare??? non credo tutti... anzi... quindi quante schede dx10 sono REALMENTE necessarie???
Secondo me, nessuna fino a quando non escono giochi DX10...

e per adesso mi pare non ce ne siano no??? :what:
Mi spiace un po' per quelli che hanno già preso 8800 che tra un paio di mesi si troveranno con un articolo molto deprezzato anche se ancora prestante... avendoci smenato parecchi €€€ ma e' il prezzo che si deve pagare per avere le novità...

vendetele nel mercatino che una la comprero' io :D

The_SaN
01-03-2007, 14:36
Non sono d'accordo :) fondamentalmente perchè chi spende i propri soldi può farlo come vuole, senza essere pazzo e senza averne da buttare . Sono invece d'accordo sul fatto che non è corretto dire che abbia in mano il mercato poichè in esso le top di gamma sono una minuscola fetta del fatturato totale ;)

Esatto ;)
Non si puó certo parlare di vittorie/sconfitte nel mercato con schede da 600 Euro. Si e no saranno il 3% delle schede off-board.
Quelle che fanno la differenza sono la fascia media e soprattutto la bassa.
E qui ATI mi sembra messa meglio come vendite ...
Un altro motivo per prendersela piú comoda, visto che l' unico danno che ci puó stare é quello alla sua immagine (visto che non ha la scheda piú veloce del mercato)

adynak
01-03-2007, 14:40
Sapete dirmi quando usciranno le CPU 4 core AMD per sistemi desktop ?

Mister Tarpone
01-03-2007, 14:43
Esatto ;)
Non si puó certo parlare di vittorie/sconfitte nel mercato con schede da 600 Euro. Si e no saranno il 3% delle schede off-board.
Quelle che fanno la differenza sono la fascia media e soprattutto la bassa.
E qui ATI mi sembra messa meglio come vendite ...
Un altro motivo per prendersela piú comoda, visto che l' unico danno che ci puó stare é quello alla sua immagine (visto che non ha la scheda piú veloce del mercato)
E ti sembra poco??? :asd:

The_SaN
01-03-2007, 14:45
E ti sembra poco??? :asd:

Beh...é ben diverso da: nVidia ha il mercato in mano...

The_SaN
01-03-2007, 14:50
Inoltre quello che conta é il fatturato, e non mi sembra che ATI/AMD stia andando male nel settore video....
Chi compra una scheda di fascia media e bassa poco vuole starne a sapere di quale é la piú veloce in assoluto (anche perché son tutte dx9)
Anzi...il riferimento sarebbe tra x1950 e 7900 per la fascia media, e qui sappiamo come é finita ...;)

Dox
01-03-2007, 15:15
non fatevi false speranze sulle prestazioni del R600 , giusto per non rimanere delusi ...

Stigmata
01-03-2007, 15:16
E ti sembra poco??? :asd:

Secondo me sì, dato che è una cosa alla quale badano in pochi (rispetto all'utenza totale). Voglio dire: chi se ne frega se è X o Y ad avere la vga più veloce del pianeta, io - utente medio/basso cioè la maggioranza - non cerco certo nella fascia top per scegliere la mia vga.

JohnPetrucci
01-03-2007, 15:16
Che sia ancora presto per le DX10 e Vista in quanto a diffusione a livello games è fuor di dubbio, come lo è anche il fatto che chi acquista oggi una nuova vga punta sulle 8800(almeno così fanno gli appassionati) per avere il supporto alle nuove librerie, che risulta di sicuro la scelta più oculata.
Amd con il suo ritardo non ci guadagna mica in tal senso, e le quote di mercato in ascesa per Nvidia ne sono una conferma.
Non si può mascherare una perdita di fatturato con il discorso della convenienza a far uscire R600 a maggio perchè le DX10 non sono ancora diffuse, in quanto non regge come discorso.
Sappiamo bene che tutto fa marketing a livello tecnologico, compreso il supporto DX10, utile o no al momento in cui un prodotto è in vendita.

Dexther
01-03-2007, 15:19
non fatevi false speranze sulle prestazioni del R600 , giusto per non rimanere delusi ...

sfera di cristallo? :D

yossarian
01-03-2007, 15:27
sfera di cristallo? :D

ma no, è un giusto ammonimento a restare con i piedi per terra; ovviamente intendeva estendere l'esortazione anche a quelli che stanno aspettando con ansia G81

:sofico:

cecofuli
01-03-2007, 15:27
Tutti che vi siete fissati sulla scheda video, ma la CPU? 45% in più rispetto all'attuale migliore offerta Intel QuadCore... A parte che vorrei sapere i prezzi di un sistema del genera, ma 45% è veramente tanto...

@ndre1
01-03-2007, 15:30
Passare ora alle vga dx10 è un spreco di soldi per un semplice motivo: non sarà sfruttata e non ce la concorrenza!!
AMD non è scema.. con la presentazione K10+R600 e in più le DDR3..mmmh quanto ne venderà in giro di 1 mese :D
Ecco perche aspetto di cambiare tutto..

Dexther
01-03-2007, 15:32
ma no, è un giusto ammonimento a restare con i piedi per terra; ovviamente intendeva estendere l'esortazione anche a quelli che stanno aspettando con ansia G81

:sofico:

ma si era una battuta :D :sofico:

PsyCloud
01-03-2007, 15:38
beh non è contraddittorio che una scheda dx 9 sia più veloce di una dx 10 sulle dx 9. Le dx 10 strutturano i pacchetti dati in maniera completamente differente quindi la cosa può benissimo capitare.

Thunderace77
01-03-2007, 15:44
Bè però la 8800 macina di brutto in dx9 e da quello che si è visto (trailers e video in game di crysis) a regola rulla anche in dx10.

Sono deluso dal fatto che al cebit venga mostrata a porte chiuse l'R600... speriamo che trapelino dei bench.

In ogni caso ribadisco la poca lungimiranza di chi dice che le 8800 sono attualmente inutili.... che palle! Saranno inutili per chi gioca a 1024 o 1280 su un 17" o 19"!! Ma per chi usa un 20"+ altro che inutili... provate a giocare con una scheda che non sia una 8800 in 1680x1050 o 1920x1200 poi mi dite, e allora tutti quelli che hanno monitor professionali sono deficenti a comprarsi una svga in grado di muovere i giochi a quelle res? bah...

vedremo, cmq sulla faccenda cpu sono molto dubbioso che amd possa dare un 45% di performance fpu in più di un core 2 quad... tenendo anche conto che a breve usciranno i quad intel con un solo packaging e non 2 core 2 duo linkati da fsb, secondo me le prestazioni saranno migliori (infatti sto aspettando per quello a passare a un quad).

josefor
01-03-2007, 15:44
Se la fascia alta di VGA non ha grande incidenza economica sulle vendite perchè aspettano così tanto a fare uscire la fascia media, non avrebbe senso, il prestigio non è che faccia tirar avanti un azienda , ci vogliono i numeri.

tony73
01-03-2007, 15:45
Beati gli ultimi...che saranno i primi!! :)

AMD ci sta facendo penare,ma è certo che alla fine ne sara' valsa la pena..poi saranno nvidia e intel ad inseguire,poco ma sicuro vedrete ;)

@ndre1
01-03-2007, 15:49
Beati gli ultimi...che saranno i primi!! :)

AMD ci sta facendo penare,ma è certo che alla fine ne sara' valsa la pena..poi saranno nvidia e intel ad inseguire,poco ma sicuro vedrete ;)

Quoto in pieno ;)

MenageZero
01-03-2007, 15:50
:eek:

se le performance del k10 rapportate al core2 che amd dichiara sono mediamente veritiere (non un "picco" in un singolo specifico test per. es., per intenderci), intel potrebbe trovarsi nuovamente (forse inaspettatamente) in serio deficit di efficenza architetturale dopo appena 1 anno, ancora + nella fascia server multi-cpu dove soffrirà ancor più per la tutt'ora maggiore effecenza del link cpu-cpu di amd e della gestione della memoria (mc integrato e, soprattutto, numa);
situazione alla quale,se fosse tale, sembrerebbe difficile che intel possa porre rimedio largamente efficace prima di introdurre a sua volta la nuova arch. "nehalem"(non sono affatto sicuro di dove vada messa l' "h" :p ), a meno che non possa iniziare di botto a commercializzare in tutte le fascie dove amd avrà k10 dei core2 con clock molto più alto dei predecessori allo stesso tempo contenendo i consumi.
(l'unica novità architetturale che sembra prevista a breve per future vers. di core2 sono le sse4, ma non so se e quale boost queste possano effettivamente dare, fornissero anche una implementazione più performante anche delle versione precedenti già usate nei sw in circolazione)

appleroof
01-03-2007, 15:51
AMD ha ragione tutta la vita su R600.
A cosa cacchio serve una scheda DX10 adesso ?
Maggio sarebbe ancora troppo presto, ma almeno è un mese più "decente".
E c' è da scommettere che Nvidia prenderà una discreta batosta prestazionale...

BOOM! :asd:

Saldamente in mano il mercato di quei poco furbi che hanno voluto spendere 600 € per una 8800 attualmente assolutamente inutile...
Le cose dei pazzi... o di chi ha soldi da buttare.

ARIBOOM! :D :D

Meno male che ci sono i furboni come te a questo mondo :rolleyes:

almeno cerca di argomentare quello che dici, non limitarti a sparate fini a se stesse da fanboy....

Amd/Ati con R600 è in ritardo: sono tutti concordi, fai un giro in rete. Naturalmente è un ritardo commerciale, non tanto tecnologico, e la conseguenza è ormai stranota: Nvidia sta facendo soldi a palate, Ati/Amd se la compra tra poco una cordata di mobilieri della brianza :asd: :asd: (ovviamente scherzo, però si sà che passa un momento delicato, finanziariamente)

Quanto ai possessori di G80, io sono uno di quelli, che essendo appassionato di giochi per pc come te, ricava un enorme piacere a giocare a risoluzioni altissime e dettagli al max praticamente con qualsiasi gioco in giro, e questo mi basta a giustificare la spesa che ho fatto: in più la 8800GTX non credo proprio che non sia attrezzata per le dx10, visto che è stata progettata per quella e le caratteristiche tecniche sono da paura (a meno che le nuove librerie richiedano necessariamente 1 giga di ddr4, 1 giga di bit, 600 shader, e te saluto fascia media e bassa). La prossima volta spenderò 1200 euro per una vga per avere questo risultato? Bene, non sono mica soldi tuoi, evita queste uscite, ripeto, senza argomenti.

appleroof
01-03-2007, 15:53
Tutti che vi siete fissati sulla scheda video, ma la CPU? 45% in più rispetto all'attuale migliore offerta Intel QuadCore... A parte che vorrei sapere i prezzi di un sistema del genera, ma 45% è veramente tanto...

In effetti sembra un mostro, ma è meglio aspettare conferme ulteriori e sopratutto prove sul campo: se tutto quello è confermato, a fine anno/inizio prox me lo faccio sicuro, il K10 :D :sofico:

josefor
01-03-2007, 16:03
Saldamente in mano il mercato di quei poco furbi che hanno voluto spendere 600 € per una 8800 attualmente assolutamente inutile...
Le cose dei pazzi... o di chi ha soldi da buttare.

Hahhahah ma che dici, pazza...
Almeno per una volta chi ha speso un fottio di soldi si è trovato con una vga potente e che è da mesi il top in circolazione, oltre 6 mesi, e non si vede ancora chi la scalzerà, di solito conpri una scheda ed il mese dopo è superata.

gianni1879
01-03-2007, 16:04
In effetti sembra un mostro, ma è meglio aspettare conferme ulteriori e sopratutto prove sul campo: se tutto quello è confermato, a fine anno/inizio prox me lo faccio sicuro, il K10 :D :sofico:

beh sicuramente una bella architettura, ma non saprei se realmente andrà più veloce dei core2duo, mi pare un pò esagerato da quello che c'è scritto nella news

Dexther
01-03-2007, 16:06
beh sicuramente una bella architettura, ma non saprei se realmente andrà più veloce dei core2duo, mi pare un pò esagerato da quello che c'è scritto nella news

anche a me, ma sperare non costa nulla :p

euscar
01-03-2007, 16:09
...In ogni caso ribadisco la poca lungimiranza di chi dice che le 8800 sono attualmente inutili.... che palle! Saranno inutili per chi gioca a 1024 o 1280 su un 17" o 19"!! Ma per chi usa un 20"+ altro che inutili... provate a giocare con una scheda che non sia una 8800 in 1680x1050 o 1920x1200 poi mi dite... Questa è una argomentazione corretta... questo si deve dire quando si consiglia una 8800 e non altre argomentazioni... ;)

Tornando in Topic, AMD avrà le sue ottime ragioni, poi una scusa vale l'altra.
Inoltre tutte le supposizioni che sento dire su quale GPU sarà + veloce sono inutili IMHO.
L'unica è aspettare e vedere i risultati sul campo.

toniz
01-03-2007, 16:11
Se la fascia alta di VGA non ha grande incidenza economica sulle vendite perchè aspettano così tanto a fare uscire la fascia media, non avrebbe senso, il prestigio non è che faccia tirar avanti un azienda , ci vogliono i numeri.

Confesso che il discorso non mi e' molto chiaro...:confused:
le VGA di fascia alta contribuiscono a creare un alone di superiorità che ricade anche sulle vga inferiori della stessa marca... se ora uno (un po' utonto) legge in giro che "Nvidia ha la scheda piu' veloce sul mercato" sarà tenuto a pensare che "Tutte le Nvidia" sono le piu' veloci sul mercato (nella loro fascia di prezzo)...

Considera che mooooolta gente non sa neanche cos'ha nel pc, pero' sa la sua che marca di vga! Anche se molti rispondono "Ho una 256 mega" :doh:

cmq i numeri portano avanti un'azienda, ed e' molto probabile che 20 schede da 100 euro rendano piu' di 1 scheda da 600, ma e' anche vero che se non ci ricorda di "lustrare il marchio" anche le 20 schede da 100 euro resteranno sugli scaffali...;) non so se mi sono spiegato...

Ben vengano le VGA esagerate per le esigenze dei più (quindi le 8800gtx ecc.ecc. da millemilaeuro) ma non si puo' certo definire come standard del videogiocatore medio un set up da 2000 euro (IMHO) (600€ vga+400€ monitor+1000€ pc) e se facciamo i conti di quanti pc del genere troviamo in giro (non solo tra gli utenti di HWU :D ) i grandi numeri saltano fuori con ben altre schede...

Cmq e' un dato di fatto, AMD/Ati e' in ritardo (per quello che sappiamo o per quello che vogliono farci credere... ) e in questo momento e' Nvidia che sta "lustrando bene il marchio" e fino a che ati non giocherà le sue carte, di sicuro Nvidia ha gioco facile...

saluti

bjt2
01-03-2007, 16:12
Bè però la 8800 macina di brutto in dx9 e da quello che si è visto (trailers e video in game di crysis) a regola rulla anche in dx10.

Sono deluso dal fatto che al cebit venga mostrata a porte chiuse l'R600... speriamo che trapelino dei bench.

In ogni caso ribadisco la poca lungimiranza di chi dice che le 8800 sono attualmente inutili.... che palle! Saranno inutili per chi gioca a 1024 o 1280 su un 17" o 19"!! Ma per chi usa un 20"+ altro che inutili... provate a giocare con una scheda che non sia una 8800 in 1680x1050 o 1920x1200 poi mi dite, e allora tutti quelli che hanno monitor professionali sono deficenti a comprarsi una svga in grado di muovere i giochi a quelle res? bah...

vedremo, cmq sulla faccenda cpu sono molto dubbioso che amd possa dare un 45% di performance fpu in più di un core 2 quad... tenendo anche conto che a breve usciranno i quad intel con un solo packaging e non 2 core 2 duo linkati da fsb, secondo me le prestazioni saranno migliori (infatti sto aspettando per quello a passare a un quad).

A breve no... I quad core a 45nm prossimi, sono "solo" dei die shrink con 6 MB di cache... Quindi sempre doppi dual core... Bisognerà aspettare la nuova architettura, con nuovo socket, bus CSI e controller RAM integrato per avere quadcore nativi...

capitan_crasy
01-03-2007, 16:22
Sapete dirmi quando usciranno le CPU 4 core AMD per sistemi desktop ?

2/3 trimestre 2007...

Mparlav
01-03-2007, 16:24
Come ho già fatto notare, da che mondo è mondo, si è sempre fatto prima l'hw e poi il sw, mai il contrario.

Lo dimostra quanto tempo sia passato dall'introduzione dei 32bit prima e dei 64bit poi nelle cpu, prima dell'effettiva disponibilità di SO e applicazioni, o delle stesse DirectX8 e 9.

Cmq sarà il mercato a stabilire se Amd ha avuto ragione o torto a rinviare il lancio di R600.

Defragg
01-03-2007, 16:25
Amd/Ati con R600 è in ritardo: sono tutti concordi, fai un giro in rete. Naturalmente è un ritardo commerciale, non tanto tecnologico, e la conseguenza è ormai stranota: Nvidia sta facendo soldi a palate, Ati/Amd se la compra tra poco una cordata di mobilieri della brianza :asd: :asd: (ovviamente scherzo, però si sà che passa un momento delicato, finanziariamente)

infatti l'altro giorno mi è capitato di vedere in stazione a milano un dirigente AMD/ATi che chiedeva l'elemosina :rolleyes:

Defragg
01-03-2007, 16:27
beh sicuramente una bella architettura, ma non saprei se realmente andrà più veloce dei core2duo, mi pare un pò esagerato da quello che c'è scritto nella news

beh il 10% con numeri interi e il 43% con la virgola mobile mi sembra un'ottimo risultato :)

appleroof
01-03-2007, 16:30
Hahhahah ma che dici, pazza...
Almeno per una volta chi ha speso un fottio di soldi si è trovato con una vga potente e che è da mesi il top in circolazione, oltre 6 mesi, e non si vede ancora chi la scalzerà, di solito conpri una scheda ed il mese dopo è superata.

non posso che essere d'accordo: io l'ho presa a novembre, secondo quello che mi aspetto prima che cominci a "soffrire" con i giochi ci vorrà almeno un anno pieno da adesso (e chissà che quando la affiancherò ad un sistema in grado di liberarne tutta la potenza, visto che ora sono cpu-limited, non duri anche di più, poi c'è l'overclock, i flash bios ecc...:D ), tutto il tempo per ammortizzare la spesa e spendere quanto quello che nello stesso periodo prende 2/3 medie e gioca sempre a compromessi (se ha un monitor grande sopratutto)


Confesso che il discorso non mi e' molto chiaro...:confused:
le VGA di fascia alta contribuiscono a creare un alone di superiorità che ricade anche sulle vga inferiori della stessa marca... se ora uno (un po' utonto) legge in giro che "Nvidia ha la scheda piu' veloce sul mercato" sarà tenuto a pensare che "Tutte le Nvidia" sono le piu' veloci sul mercato (nella loro fascia di prezzo)...

Considera che mooooolta gente non sa neanche cos'ha nel pc, pero' sa la sua che marca di vga! Anche se molti rispondono "Ho una 256 mega" :doh:

cmq i numeri portano avanti un'azienda, ed e' molto probabile che 20 schede da 100 euro rendano piu' di 1 scheda da 600, ma e' anche vero che se non ci ricorda di "lustrare il marchio" anche le 20 schede da 100 euro resteranno sugli scaffali...;) non so se mi sono spiegato...

Ben vengano le VGA esagerate per le esigenze dei più (quindi le 8800gtx ecc.ecc. da millemilaeuro) ma non si puo' certo definire come standard del videogiocatore medio un set up da 2000 euro (IMHO) (600€ vga+400€ monitor+1000€ pc) e se facciamo i conti di quanti pc del genere troviamo in giro (non solo tra gli utenti di HWU :D ) i grandi numeri saltano fuori con ben altre schede...

Cmq e' un dato di fatto, AMD/Ati e' in ritardo (per quello che sappiamo o per quello che vogliono farci credere... ) e in questo momento e' Nvidia che sta "lustrando bene il marchio" e fino a che ati non giocherà le sue carte, di sicuro Nvidia ha gioco facile...

saluti

Esatto, Nvidia poi ha venduto 400.000 G80 nel mondo, dati a fine gennaio, quindi dopo tre mesi dal debutto, e se non sono i numeri da milioni sicuramente non fanno schifo a nessuna azienda, vogliono cmq dire una barca di soldi

A breve no... I quad core a 45nm prossimi, sono "solo" dei die shrink con 6 MB di cache... Quindi sempre doppi dual core... Bisognerà aspettare la nuova architettura, con nuovo socket, bus CSI e controller RAM integrato per avere quadcore nativi...

In effetti è proprio in previsione di K10 che ho resistito al core2duo, quando uscirà valuterò se prendere K10 o i quad Intel nativi, oppure ancora un core2duo a prezzi stracciati :)

Defragg
01-03-2007, 16:32
In effetti è proprio in previsione di K10 che ho resistito al core2duo, quando uscirà valuterò se prendere K10 o i quad Intel nativi, oppure ancora un core2duo a prezzi stracciati :)

quoto :O

halduemilauno
01-03-2007, 16:37
cmq(in risposta ad alcuni)nvidia ha venduto 400.000 8800 da novembre a gennaio. ora che è anche disponibile una versione + economica di 8800 per maggio starà sul milione.
;)

Defragg
01-03-2007, 16:40
cmq(in risposta ad alcuni)nvidia ha venduto 400.000 8800 da novembre a gennaio. ora che è anche disponibile una versione + economica di 8800 per maggio starà sul milione.
;)

:old:
l'hanno gia detto prima :asd:

metallus84
01-03-2007, 16:43
mazza quanto scrivete :D
Io devo essere sincero, certo non sto nel massimo della fluidità o dei dettagli, ma devo dire che la maggior parte dei giochi che sto provando (tra demo e giochi interi) mi vanno tutti abbastanza bene, cioè ho un 22'' preso per la mia vista ("v" minuscolo :P) e anche per vedere come si giocava a hl2 a 1680x1050 :oink: , ma la mia 7800 credo si stia comportando ancora molto bene! Ovviamente non ha nulla a che vedere cun le serie 8800 che sono uscite dopo, ma io penso che se arriverò ad andare a scatti, prendo (a poco) un'altra 7800 e la metto in sli! Non ho molta possibilità economica quindi aggiorno il pc di rado, cercando di comprare le cose che mi possono durare + a lungo, ma penso che questa sia cmq una corsa ai numeri... hl2 appena uscito girava egregiamente su una Geforce 4400 titanium... e dai! Poi volevo farvi una domanda, ma è vero che comunque una buona parte del calcolo è ancora in mano alla CPU o sbaglio? che % erano? + del 50%? a questo punto per far andare fluido io punterei a 1 aggiornamento della cpu (meno costosa) che altro! Tirando le somme, se avessi or ora gli euri necessari per prendere una 8800, li metterei da parte per un futuro salto di tecnologia (cioè cambio d tutto). Poi io personalmente sono litigato :P sono AMD da tanti anni e mi sono sempre piaciuti, poi la 3dfx che amavo tantissimo è stata assorbita dalla nvidia, quindi ho anche nvidia dall'epoca della Geforce2, ora che però amd e ati si sono unite sono in crisi :cry: :D .
Ah riguardo il ritardo che molte persone hanno citato, io credo che comunque bisogna ricordare che amd ha speso 1 bel po di quattrini ultimamente per la fusione con ati e credo che i tempi logistici di passaggio delle mansioni siano tutt'altro che finiti! Non so fisicamente cosa è cambiato negli uffici loro, però sicuramente qualcosa si, se riescono anzi a rispettare i termini ultimi imposti allora sono davvero avanti! toccherà aspettare, quest'anno ce ne racconteranno di belle :rolleyes:

MenageZero
01-03-2007, 16:45
su r600, se avesse addirittura 320 alu come sembra da questa news, sintetizzando in maniera seplicistica e rozza, mi verrebbe da pensare "ma in nv con g8x, se rimane a 128 sp, come progettano di competere ?"
punteranno tutto su un eventuale gap in clock in loro favore ?
:wtf:

toniz
01-03-2007, 16:47
cmq(in risposta ad alcuni)nvidia ha venduto 400.000 8800 da novembre a gennaio. ora che è anche disponibile una versione + economica di 8800 per maggio starà sul milione.
;)

per curiosità sai dirmi anche quante ne ha venduto Amd/Ati??? :D nello stesso periodo...

Pier de Notrix
01-03-2007, 16:50
credo ke vogliano tirare un altro po' la corda per spremere i consumatori... AMD ha bisogno di entrate dopo l'acquisizione di ATI.

Free Gordon
01-03-2007, 16:55
ma no, è un giusto ammonimento a restare con i piedi per terra; ovviamente intendeva estendere l'esortazione anche a quelli che stanno aspettando con ansia G81

:sofico:



Tu cos'hai da dire in proposito?? :Prrr:

halduemilauno
01-03-2007, 16:57
per curiosità sai dirmi anche quante ne ha venduto Amd/Ati??? :D nello stesso periodo...

di dx10 nessuna.
;)

halduemilauno
01-03-2007, 16:59
mazza quanto scrivete :D
Io devo essere sincero, certo non sto nel massimo della fluidità o dei dettagli, ma devo dire che la maggior parte dei giochi che sto provando (tra demo e giochi interi) mi vanno tutti abbastanza bene, cioè ho un 22'' preso per la mia vista ("v" minuscolo :P) e anche per vedere come si giocava a hl2 a 1680x1050 :oink: , ma la mia 7800 credo si stia comportando ancora molto bene! Ovviamente non ha nulla a che vedere cun le serie 8800 che sono uscite dopo, ma io penso che se arriverò ad andare a scatti, prendo (a poco) un'altra 7800 e la metto in sli! Non ho molta possibilità economica quindi aggiorno il pc di rado, cercando di comprare le cose che mi possono durare + a lungo, ma penso che questa sia cmq una corsa ai numeri... hl2 appena uscito girava egregiamente su una Geforce 4400 titanium... e dai! Poi volevo farvi una domanda, ma è vero che comunque una buona parte del calcolo è ancora in mano alla CPU o sbaglio? che % erano? + del 50%? a questo punto per far andare fluido io punterei a 1 aggiornamento della cpu (meno costosa) che altro! Tirando le somme, se avessi or ora gli euri necessari per prendere una 8800, li metterei da parte per un futuro salto di tecnologia (cioè cambio d tutto). Poi io personalmente sono litigato :P sono AMD da tanti anni e mi sono sempre piaciuti, poi la 3dfx che amavo tantissimo è stata assorbita dalla nvidia, quindi ho anche nvidia dall'epoca della Geforce2, ora che però amd e ati si sono unite sono in crisi :cry: :D .
Ah riguardo il ritardo che molte persone hanno citato, io credo che comunque bisogna ricordare che amd ha speso 1 bel po di quattrini ultimamente per la fusione con ati e credo che i tempi logistici di passaggio delle mansioni siano tutt'altro che finiti! Non so fisicamente cosa è cambiato negli uffici loro, però sicuramente qualcosa si, se riescono anzi a rispettare i termini ultimi imposti allora sono davvero avanti! toccherà aspettare, quest'anno ce ne racconteranno di belle :rolleyes:

piuttosto che comprare un'altra 7800gt per lo sli io venderei l'attuale per farmi una 8800gts320.
;)

appleroof
01-03-2007, 17:03
mazza quanto scrivete :D
Io devo essere sincero, certo non sto nel massimo della fluidità o dei dettagli, ma devo dire che la maggior parte dei giochi che sto provando (tra demo e giochi interi) mi vanno tutti abbastanza bene, cioè ho un 22'' preso per la mia vista ("v" minuscolo :P) e anche per vedere come si giocava a hl2 a 1680x1050 :oink: , ma la mia 7800 credo si stia comportando ancora molto bene! Ovviamente non ha nulla a che vedere cun le serie 8800 che sono uscite dopo, ma io penso che se arriverò ad andare a scatti, prendo (a poco) un'altra 7800 e la metto in sli! Non ho molta possibilità economica quindi aggiorno il pc di rado, cercando di comprare le cose che mi possono durare + a lungo, ma penso che questa sia cmq una corsa ai numeri... hl2 appena uscito girava egregiamente su una Geforce 4400 titanium... e dai! Poi volevo farvi una domanda, ma è vero che comunque una buona parte del calcolo è ancora in mano alla CPU o sbaglio? che % erano? + del 50%? a questo punto per far andare fluido io punterei a 1 aggiornamento della cpu (meno costosa) che altro! Tirando le somme, se avessi or ora gli euri necessari per prendere una 8800, li metterei da parte per un futuro salto di tecnologia (cioè cambio d tutto). Poi io personalmente sono litigato :P sono AMD da tanti anni e mi sono sempre piaciuti, poi la 3dfx che amavo tantissimo è stata assorbita dalla nvidia, quindi ho anche nvidia dall'epoca della Geforce2, ora che però amd e ati si sono unite sono in crisi :cry: :D .
Ah riguardo il ritardo che molte persone hanno citato, io credo che comunque bisogna ricordare che amd ha speso 1 bel po di quattrini ultimamente per la fusione con ati e credo che i tempi logistici di passaggio delle mansioni siano tutt'altro che finiti! Non so fisicamente cosa è cambiato negli uffici loro, però sicuramente qualcosa si, se riescono anzi a rispettare i termini ultimi imposti allora sono davvero avanti! toccherà aspettare, quest'anno ce ne racconteranno di belle :rolleyes:

Premesso che ognuno fà quello che vuole, come giustamente detto già da altri, ti dico solo 2 cose che forse dimentichi: hl2 è un gioco del 2004, ed è un campione di ottimizzazione (tuttora il source è un motore ottimo)

Inoltre le dx10 dovrebbero portare proprio il risultato di ridurre drasticamente l'overhead, cioè il carico sulla cpu, e quindi ribaltare la situazione che delinavi...certo se hai una 8800gtx o R600 su un sempron o celeron la situazione rimane "squilibrata" :D, però la cpu con le dx10 dovrebbe contare di meno che in passato a parità di carico, in relatà si dice che questo comporterà l'utilizzo della cpu per calcoli ad esempio relativi alla fisica, quindi una cpu potente sarà cmq importante...il risultato finale sulla carta dovrebbe essere strabiliante però :) (non prima del 2008 cmq)

per questo io più che mettere un'altra 7800 in sli mi metterei qualche soldo da parte e al momento giusto mi venderei quella che hai e prenderei una buona dx10, ati o nvidia che sia ;)

@halduemilauno: l'abbiamo scritto insieme:asd:

DjLode
01-03-2007, 17:04
su r600, se avesse addirittura 320 alu come sembra da questa news, sintetizzando in maniera seplicistica e rozza, mi verrebbe da pensare "ma in nv con g8x, se rimane a 128 sp, come progettano di competere ?"
punteranno tutto su un eventuale gap in clock in loro favore ?
:wtf:

Si è sempre parlato di alu vec4+1scalar, quindi 5 shader (pensando come Nvidia), che guarda caso moltiplicato per 64 da 320.
Altrimenti si è pure parlato di unità vec 3, scalare rimanendo, le unità quindi sarebbero 80 (320/4 = 80).
C'è anche da vedere come lavorano queste unità, perchè se entra un dato scalare e usano solo la parte scalare, appunto, le unità rimangono 64, mentre G80 ne ha 128. Chi vivrà, vedrà :)

toniz
01-03-2007, 17:09
di dx10 nessuna.
;)

:D LOL
ma cmq il mio interesse era: se Nvidia ha venduto 400.000 schede di fascia alta (per lei...) quante schede di fascia alta ha venduto AMD/Ati??? (sempre per lei, dato che non ha dx10) se i numeri non sono dissimili, allora avrebbe ragione Nvidia perche' vorrebbe dire che oltre a "tenere botta" ha guadagnato di piu' dato che le schede sono vendute ad un prezzo piu' alto, mentre se ha venduto piu' Ati schede della serie X1950 vorrebbe dire (sotto il mero profilo economico, non voglio entrare in logiche di trend e previsioni...:p ) diciamo 700.000 vuol dire che e' riuscita a spremere sangue dalle rape ormai... e a farci bei soldini...

(ricordati che al momento che le schede Nvidia siano Dx10 interessa poco, interessa invece che siano la Fascia Alta e che quindi concorrano con la fascia alta di Ati, ed e' OVVIO che al momento sono superiori e sono un acquisto piu' oCulato! ;) )

metallus84
01-03-2007, 17:14
Grazie del consiglio, ma 400 euro nn li ho purtroppo :( se mi dice :ciapet: magari su ebay a 100 euro una 7800gt la trovo :P e poi ho trovato ora i wb per tutte e due uahua sai che spreco! Chissà se riesco a far fare a tutto quello che ho 1 salto di tecnologia tale da farmi arrivare fino all'anno prossimo inoltrato... (scusate l' OT).

johnson
01-03-2007, 17:14
In ogni caso ribadisco la poca lungimiranza di chi dice che le 8800 sono attualmente inutili.... che palle! Saranno inutili per chi gioca a 1024 o 1280 su un 17" o 19"!! Ma per chi usa un 20"+ altro che inutili... provate a giocare con una scheda che non sia una 8800 in 1680x1050 o 1920x1200 poi mi dite, e allora tutti quelli che hanno monitor professionali sono deficenti a comprarsi una svga in grado di muovere i giochi a quelle res? bah...

Se parliamo della GTX ti do ragione. Ma ora come ora, i possessori di monitor 1280x1024 (mi sbilancio, un 90% deli videogiocatori) non compreranno mai una x1950xt o una xtx... compreranno la GTS a 320mb che va cmq molto meglio e in più è anche compatibile dx10.
Poi vi inviterei a dare un'occhiata anche alla qualità dell'immagine che riesce a sfornare g80, La qualità del filtro anisotropico è incredibile. Qua non si tratta solo di fps.
E' curioso come tutte quelle persone che hanno rinunciato a qualche fps pur di avere la vga con la miglior qualità d'immagine (ATI) in passato, ora si lamentano di una scheda (G80) che non solo fa più fps della concorrenza, ma la sbaraglia soprattutto dove in passato è stata più forte.

johnson
01-03-2007, 17:17
:D LOL
ma cmq il mio interesse era: se Nvidia ha venduto 400.000 schede di fascia alta (per lei...) quante schede di fascia alta ha venduto AMD/Ati??? (sempre per lei, dato che non ha dx10) se i numeri non sono dissimili, allora avrebbe ragione Nvidia perche' vorrebbe dire che oltre a "tenere botta" ha guadagnato di piu' dato che le schede sono vendute ad un prezzo piu' alto, mentre se ha venduto piu' Ati schede della serie X1950 vorrebbe dire (sotto il mero profilo economico, non voglio entrare in logiche di trend e previsioni...:p ) diciamo 700.000 vuol dire che e' riuscita a spremere sangue dalle rape ormai... e a farci bei soldini...

(ricordati che al momento che le schede Nvidia siano Dx10 interessa poco, interessa invece che siano la Fascia Alta e che quindi concorrano con la fascia alta di Ati, ed e' OVVIO che al momento sono superiori e sono un acquisto piu' oCulato! ;) )

Non ha molto senso :wtf:

A parità di unità vendute, bisognerebbe sapere che costo ha ogni scheda per l'azienda che la produce. Se facciamo il paragone solo sul prezzo di vendita, ne deriverebbe un analisi molto lontana dalla realtà.

Thunderace77
01-03-2007, 17:27
Da possessore di 8800GTX e precedentemente di 1900XTX devo dire che la qualità della nuova Nvidia è incredibile... veder girare Carbon a palla ha un' anisotropico che lascia a bocca aperta... e non perde frame nemmeno con 12 auto nelle race wars.

toniz
01-03-2007, 17:30
Non ha molto senso :wtf:

A parità di unità vendute, bisognerebbe sapere che costo ha ogni scheda per l'azienda che la produce. Se facciamo il paragone solo sul prezzo di vendita, ne deriverebbe un analisi molto lontana dalla realtà.

fino a un certo punto... il costo di ogni scheda top (dato che deve provenire da chip ottimi, testato e controllato in ogni parte, credo, nonche' con piu' condensatori ecc.ecc.) credo sia molto simile per entrambe, certo ora le schede nvidia costano piu' a nvidia che le 1950 ad ati (dato che ati ha già ammortizzato alla grande i costi di sviluppo, dato che e' un prodotto decisamente maturo :p ) ma non credo che il costo sia molto diverso tra le 2...

e' un po' lungo da spiegare... :) e ora non ho tempo scusa...
ma secondo me un indice lo da...

ciao

Pat77
01-03-2007, 17:34
Sinceramente per me non cambia nulla, a me interessa la fascia medio-alta (tipo x1900 gt per intenderci) che uscirà esattamente quando era prevista la sua uscita, cioè 1 mese e mezzo dopo r600.

worldrc
01-03-2007, 17:38
picciotti ci sara da ridere Amd fara il chiul de sac a tutti non vedo l'ora .................................... spettacolo brasilll nnannnannnannannaan brasil brasil brasil !!!!!!!!!!!!!!!!!!!!!!!!

ueeeee' ppa

Defragg
01-03-2007, 17:41
di dx10 nessuna.
;)

imho la vendita di schede DX10 è iniziata il giorno di uscita di vista ;)

prima le 8800 erano solo sulla carta schede DX10, ma all'atto pratico non te ne facevi nulla delle feature dedicate alle nuove librerie...erano solo vga DX9 di fascia alta

rimago del parere che una scheda per essere identificata come DX10 deve essere montata su Vista

se no delle DX10 non te ne fai una beneamata pippa
;)

imho :)

appleroof
01-03-2007, 17:43
picciotti ci sara da ridere Amd fara il chiul de sac a tutti non vedo l'ora .................................... spettacolo brasilll nnannnannnannannaan brasil brasil brasil !!!!!!!!!!!!!!!!!!!!!!!!

ueeeee' ppa

:eek:

cecofuli
01-03-2007, 18:05
C'è da dire che AMD dice una stupidata: paragonare il top do gamma attuale Intel, ovvero lo Xeon QuadCore Core2Duo a 2.66 Mhz con il loro K10 che troveremo sugli scaffali non si sa quando...

MA CHE RAZZA DI CONFRONTO E'?

Amd ha la sfera di cristallo e sa che, bohh, sparo... ad agosto il loro K10 sarann osuperiori dello Xeonn... emmm.. quale Xeon?

Se vediamo un QX QuadCore sale felicemente sopra i 3.2 Ghz, quindi secondo me l'attuale architettura Core2Duo può raggiungerla questa frequenza. Solo che Intel aspetta a buttare fuori queste CPU.

Insomma, AMD che cavolo dici???

The_SaN
01-03-2007, 18:10
C'è da dire che AMD dice una stupidata: paragonare il top do gamma attuale Intel, ovvero lo Xeon QuadCore Core2Duo a 2.66 Mhz con il loro K10 che troveremo sugli scaffali non si sa quando...

MA CHE RAZZA DI CONFRONTO E'?

Amd ha la sfera di cristallo e sa che, bohh, sparo... ad agosto il loro K10 sarann osuperiori dello Xeonn... emmm.. quale Xeon?

Se vediamo un QX QuadCore sale felicemente sopra i 3.2 Ghz, quindi secondo me l'attuale architettura Core2Duo può raggiungerla questa frequenza. Solo che Intel aspetta a buttare fuori queste CPU.

Insomma, AMD che cavolo dici???

Invece secondo me il paragone é giusto....
Poi intel paragonerá le future cpu al k10....
e cosi via ;)

appleroof
01-03-2007, 18:11
Invece secondo me il paragone é giusto....
Poi intel paragonerá le future cpu al k10....
e cosi via ;)

quoto, è sempre così e non ci vedo nulla di strano, il paragone si fà con l'attuale primo della classe...

UIQ
01-03-2007, 20:22
Più che altro staranno lavorando moltissimo sui driver in modo da avere un prodotto già maturo dal punto di vista del software, con pieno supporto di HDMI 1.3a, Avivo, OpenGL 2.1, Crossifire ecc su Vista 64 bit ecc

Kharonte85
01-03-2007, 20:40
AMD, quindi, ha scelto di posticipare il debutto di R600 non per problemi tecnici ma per la volontà di debuttare in un mercato nel quale la domanda per architetture hardware DirectX 10 sia bilanciata dalla dispoinibilità di applicazioni. A questo si aggiunga la scelta di presentare proposte DirectX 10 per tutti i segmenti di mercato: questo fa quindi dedurre che a Maggio AMD presenterà sia R600 che i derivati per i segmenti entry level e di fascia media.[/b]

:rotfl:

MenageZero
01-03-2007, 20:58
Si è sempre parlato di alu vec4+1scalar, quindi 5 shader (pensando come Nvidia), che guarda caso moltiplicato per 64 da 320.sì quello che (sotto)intendevo anch'io :)

Altrimenti si è pure parlato di unità vec 3, scalare rimanendo, le unità quindi sarebbero 80 (320/4 = 80). il (vect3+1)*80 non lo conoscevo, ma devo dire che suona decisamente meglio (vect4+1)*64 :D

C'è anche da vedere come lavorano queste unità, perchè se entra un dato scalare e usano solo la parte scalare, appunto, le unità rimangono 64, mentre G80 ne ha 128.infatti, questo è imho un punto cruciale...
tuttavia in altri recenti thread si accennava al fattro che la unit di r600 potesse lavorare contemporaneamente su diversi scalari non correlati (= 320 = gran mal di pancia per nv)

Chi vivrà, vedrà :):tie:
mi dipsiace, ma se uno di noi due non dovesse "vedere", che dipenda da te :O ... :D

DjLode
01-03-2007, 21:02
:tie:
mi dipsiace, ma se uno di noi due non dovesse "vedere", che dipenda da te :O ... :D

Intendevo... esclusi i presenti ovviamente :D

MenageZero
01-03-2007, 21:15
Intendevo... esclusi i presenti ovviamente :Dmeglio :p

cmq, a proposito del penultimo punto (l'ultimo "serio"), nel frattempo ho spulciato le mie vecchie "sottoscrizioni" ...

http://www.hwupgrade.it/forum/showpost.php?p=15805291&postcount=49

http://www.hwupgrade.it/forum/showpost.php?p=15806365&postcount=53

(il primo in particolare)

:read: :sofico:

sono cmq considerazioni fatte in maniera ipotetica ed in generale relativamente ad unità vect4, ma faccio notare che l'autore dei post non è il primo che passa ...

DjLode
01-03-2007, 21:22
sono cmq considerazioni fatte in maniera ipotetica ed in generale relativamente ad unità vect4, ma faccio notare che l'autore dei post non è il primo che passa ...

Da quelle considerazioni il mio "condizionale" della frase. Perchè 320>128 e fa quindi scena. Ma anche 160>128 (ricordando che le schede di cui si parla sono in Crossfire, si parla di 200W ognuna ma non si specifica se 320 unità sono per la singola o la coppia). Solo c'è da capire di cosa si sta parlando...
Diciamo che i calcoli che ho fatto prima, letti ovviamente in giro, sono magari stati fatti per dare un peso al rumor delle 64 unità vec4+scalar. Magari sono veramente 160 unità scalari generiche e noi si stanno facendo un sacco di pippe :)

Apple80
01-03-2007, 21:38
e che cavolo. Voglio vedere com'è và sto R600 !!!!
Se hanno detto che non è un problema di costruzione vuol dire che è pronto.
E più ritardano e più diventa "vecchia".

MenageZero
01-03-2007, 21:55
Da quelle considerazioni il mio "condizionale" della frase. Perchè 320>128 e fa quindi scena. Ma anche 160>128 (ricordando che le schede di cui si parla sono in Crossfire, si parla di 200W ognuna ma non si specifica se 320 unità sono per la singola o la coppia). Solo c'è da capire di cosa si sta parlando...
Diciamo che i calcoli che ho fatto prima, letti ovviamente in giro, sono magari stati fatti per dare un peso al rumor delle 64 unità vec4+scalar. Magari sono veramente 160 unità scalari generiche e noi si stanno facendo un sacco di pippe :)

beh a proposito del 320 proprio questa news dice:
"Caratteristiche di questo tipo possono far pensare che queste GPU abbiano frequenza di clock di 800 MHz per le unità MADD, considerando la presenza di 320 ALU per ogni GPU."
è prorio la parte in grassetto che fa più "scena"

se poi fossero per es 160 a 1600 MHz teoricamente la max potenza di calcolo "esprimibile" sempre quella sarebbe ...

certo se invece avesse 160 alu (come hai ipotizzato in ultimo) e magari a clock inferiore dei 1350Mhz del g80 allora probabilmente sarebbero lì-lì come al solito

ovviamente, se r600 usasse addirittura solo 1 alu su 5 nel caso di dati scalari avrebbe un "caso peggiore" molto penalizzante rispetto alla controparte
(ma se già usasse almeno 1 comp. della vect4 insieme alla alu scalare, con un (4+1)*64 nel caso peggiore avrebbe cmq 128 unità operative, pari al g80, avrebbe "solo" diff. di clock delle unità sfavore, se fossero a 800 MHz come da news)

se invece come si dice e come possono portare a pensare i post che ho linkato , la modalità di funzionamento prevede di poter "foraggiare" sempre tutte le alu, allora questa news di oggi accredita r600 di potenza di calcolo e gap a proprio favore nei confronti di g80 come mai altre precedenti:
in questa modalità di funzionamento, anche se fai due conti, ovviamente che lasciano il tempo che trovano, per "pesare" il numero presunto di alu con il clock, sembra cmq nettamente r600 > g80: 320*800MHz = 256*10^9 op/s, 128*1350MHz = 172,8*10^9 op/s ...
... troppo ci dovrebbe dare dentro nv con le freq. della 8900gtx o chi per essa ... :sofico: )

edit:

tra l'altro, sempre riferendoci alla news e alle moltiplicazioni qui sopra, un crossfire implicherebbe => 2*256*10^9 op/s = 0,512*10^12 ... da dove esce il "tera" (saremmo circa a mezzo) in xfire ? o meglio, se il teraflops e le 320 alu erano i dati di partenza comunicati ufficialmente o trattasi di xfire a 4 gpu (anche se sono menzionate 2 schede) o doveva essere "estrapolata" la frequenza "mostruosa" di 1,6GHz per le 320 alu
:wtf:

contro-edit:

800 (MHz circa) * 320 (alu scalari) * 2 (flops per alu) = 512 (circa) Gflops. I conti tornano
si parla di MAD, per cui i risultati, per ottenere le ops, vanno moltiplicati per 2 in caso di unità scalari e per 8 in caso di unità vect4.
non "sapevo" delle 2 flops per alu (mi ero scordato per strada la dicitura madd usata nella news), quindi fate conto che il mio precdedente paragrafo non esista... sorry ... :stordita:

grazie mille, yossarian

yossarian
01-03-2007, 21:56
Da quelle considerazioni il mio "condizionale" della frase. Perchè 320>128 e fa quindi scena. Ma anche 160>128 (ricordando che le schede di cui si parla sono in Crossfire, si parla di 200W ognuna ma non si specifica se 320 unità sono per la singola o la coppia). Solo c'è da capire di cosa si sta parlando...
Diciamo che i calcoli che ho fatto prima, letti ovviamente in giro, sono magari stati fatti per dare un peso al rumor delle 64 unità vec4+scalar. Magari sono veramente 160 unità scalari generiche e noi si stanno facendo un sacco di pippe :)

800 (MHz circa) * 320 (alu scalari) * 2 (flops per alu) = 512 (circa) Gflops. I conti tornano

DjLode
01-03-2007, 22:09
800 (MHz circa) * 320 (alu scalari) * 2 (flops per alu) = 512 (circa) Gflops. I conti tornano

Ero convinto di aver letto 200W ogni scheda ma che non fosse ribadita la cosa anche per il numero di shader.
Come dici tu i conti tornano, solo non capisco, e perdona l'ignoranza, perchè moltiplichi per 2 alla fine, ok flops per alu ma da cosa deriva?

Defragg
01-03-2007, 22:10
800 (MHz circa) * 320 (alu scalari) * 2 (flops per alu) = 512 (circa) Gflops. I conti tornano

O M G :eek:

yossarian
01-03-2007, 22:17
ovviamente, se r600 usasse addirittura solo 1 alu su 5 nel caso di dati scalari avrebbe un "caso peggiore" molto penalizzante rispetto alla controparte
(ma se già usasse almeno 1 comp. della vect4 insieme alla alu scalare, con un (4+1)*64 nel caso peggiore avrebbe cmq 128 unità operative, pari al g80, avrebbe "solo" diff. di clock delle unità sfavore, se fossero a 800 MHz come da news)



in tal caso sarebbe più corretto di parlare di vect4+1 (scalare); il che significherebbe che una delle componenti dell'unità vettoriale (vect4) è, in ogni caso, utilizzabile per calcoli di tipo scalare (come avviene anche con le unità vect3+1 o vect4+1 dei ps e vs dei chip da R300 in poi).



se invece come si dice e come possono portare a pensare i post che ho linkato , la modalità di funzionamento prevede di poter "foraggiare" sempre tutte le alu, allora questa news di oggi accredita r600 di potenza di calcolo e gap a proprio favore nei confronti di g80 come mai altre precedenti:
in questa modalità di funzionamento, anche se fai due conti, ovviamente che lasciano il tempo che trovano, per "pesare" il numero presunto di alu con il clock, sembra cmq nettamente r600 > g80: 320*800MHz = 256*10^9 op/s, 128*1350MHz = 172,8*10^9 op/s ...
... troppo ci dovrebbe dare dentro nv con le freq. della 8900gtx o chi per essa ... :sofico: )

si parla di MAD, per cui i risultati, per ottenere le ops, vanno moltiplicati per 2 in caso di unità scalari e per 8 in caso di unità vect4.

Comunque, un chip non è composto dal solo shader core; quindi trarre conclusioni sull'eventule divario prestazionale basandosi solo sul numero di possibili flops di cui sono capaci le unità di shading è fuorviante. Si incorre nello stasso errore di chi giudica ps3 più potente di xbox360 solo basandosi sulla capacità di calcolo in fp teorica del cell rispetto a xenon (senza, per altro, tener conto delle potenzialità di xenos e rsx); facendo lo stesso discorso assurdo (valutando, cioè, le prestazioni solo in base alla potenza di calcolo in fp) si arriverebbe alla conclusione che un solo R600 è potente quanto cell+rsx :D

yossarian
01-03-2007, 22:21
Ero convinto di aver letto 200W ogni scheda ma che non fosse ribadita la cosa anche per il numero di shader.
Come dici tu i conti tornano, solo non capisco, e perdona l'ignoranza, perchè moltiplichi per 2 alla fine, ok flops per alu ma da cosa deriva?

ogni alu effettua una MAD; il che significa un'operazione di moltiplicazione e una di addizione, per ogni ciclo di clock; poichè si tratta di alu scalari, il prodotto di frequenza per numero di alu va moltiplicato per il numero di operazioni elementari eseguibili per alu (che sono appunto 2); se si fosse trattato di alu vettoriali, lo stesso risultato (frequenza * numero di alu) lo si sarebbe dovuto moltiplicare per 8

DjLode
01-03-2007, 22:23
ogni alu effettua una MAD; il che significa un'operazione di moltiplicazione e una di addizione, per ogni ciclo di clock; poichè si tratta di alu scalari, il prodotto di frequenza per numero di alu va moltiplicato per il numero di operazioni elementari eseguibili per alu (che sono appunto 2); se si fosse trattato di alu vettoriali, lo stesso risultato (frequenza * numero di alu) lo si sarebbe dovuto moltiplicare per 8

Chiaro :)

MenageZero
01-03-2007, 22:38
in tal caso sarebbe più corretto di parlare di vect4+1 (scalare); il che significherebbe che una delle componenti dell'unità vettoriale (vect4) è, in ogni caso, utilizzabile per calcoli di tipo scalare (come avviene anche con le unità vect3+1 o vect4+1 dei ps e vs dei chip da R300 in poi).



si parla di MAD, per cui i risultati, per ottenere le ops, vanno moltiplicati per 2 in caso di unità scalari e per 8 in caso di unità vect4.

Comunque, un chip non è composto dal solo shader core; quindi trarre conclusioni sull'eventule divario prestazionale basandosi solo sul numero di possibili flops di cui sono capaci le unità di shading è fuorviante. Si incorre nello stasso errore di chi giudica ps3 più potente di xbox360 solo basandosi sulla capacità di calcolo in fp teorica del cell rispetto a xenon (senza, per altro, tener conto delle potenzialità di xenos e rsx); facendo lo stesso discorso assurdo (valutando, cioè, le prestazioni solo in base alla potenza di calcolo in fp) si arriverebbe alla conclusione che un solo R600 è potente quanto cell+rsx :D

chiaro, grazie :) ... ma un netto gap a livello di shader-core può essere determinante (almeno se chi ha vantaggio nell shader-core non ha grossi svantaggi altrove), tra due chip come r600 e g80, se consdierabili più "simili" tra loro come architettura di come possono essere per es xenon e cell ? ... o no ? ... :stordita:

MenageZero
01-03-2007, 22:43
ogni alu effettua una MAD; il che significa un'operazione di moltiplicazione e una di addizione, per ogni ciclo di clock; poichè si tratta di alu scalari, il prodotto di frequenza per numero di alu va moltiplicato per il numero di operazioni elementari eseguibili per alu (che sono appunto 2); se si fosse trattato di alu vettoriali, lo stesso risultato (frequenza * numero di alu) lo si sarebbe dovuto moltiplicare per 8

... quindi r600 ha in tutto 320 mad (alu scalari) un po' come g80 ha 128 "s.p." e diversamente dalle unit vect4+1 delle precedenti generazioni ? ... :fiufiu:

yossarian
01-03-2007, 23:11
chiaro, grazie :) ... ma un netto gap a livello di shader-core può essere determinante (almeno se chi ha vantaggio nell shader-core non ha grossi svantaggi altrove), tra due chip come r600 e g80, se consdierabili più "simili" tra loro come architettura di come possono essere per es xenon e cell ? ... o no ? ... :stordita:

un grosso vantaggio a livello di shader core può essere "compensato" negativamente da un grosso svantaggio, ad esempio, nelle operazioni di texturing; oppure uh grosso vantaggio a livello di capacità di calcolo può essere compensato da una eccessiva lentezza nell'accesso ai dati o da una maggiore complessità a livello logico e delle linee di trasmissione e controllo (logica più complessa significa cicli di clock spesi per operazioni che non sono puri e semplici calcoli). Oppure il gap negativo può esserci a livello di rop's (ad esempio G80 è in grado di quadruplicare l'output in caso di only z-ops).
Insomma, i colli di bottiglia possono essere tanti, troppi, per poter trarre conclusioni basandosi sulla sola potenza di calcolo teorica.

yossarian
01-03-2007, 23:13
... quindi r600 ha in tutto 320 mad (alu scalari) un po' come g80 ha 128 "s.p." e diversamente dalle unit vect4+1 delle precedenti generazioni ? ... :fiufiu:

così pare abbia lasciato intendere AMD parlando di 320 unità di calcolo :fiufiu:

ilperfezionista
01-03-2007, 23:57
cmq amd è stata sempre quella che ha buttato nel mercato soluzioni QUANDO SERVIVANO....come le ddr2. anche ora con ati... sta facendo che aspetta software dx10 prima di sfornare sk video! mlt bene......

Lud von Pipper
02-03-2007, 00:51
Vado contro corrente ma sono molto contento della scelta di AMD.

Ci dimentichiamo che le DX10 hanno un GROSSO problema rispetto a tutte le altre API del passato, cioè non possono andare su ogni sistema operativo preesistente.

Quanto pensate che sia la quota di installato Vista tra i videogiocatori accaniti?
I tecnici che conosco sono parecchio scontenti di come Vista si comporta, costreti come sono dai clianti a installarlo, e lamentano parecchie noie, tra cui la condivisione, messanger e altre cose di uso comune, senza contare la riduzione di prestazioni nei videogiochi; se spendo parecchi centoni per avere qualche FPS in più rispetto ad una EX di fascia alta, la cosa si riduce in un appiattimento in prestazioni visto che il 99% dei giocatori è ancora su XP (nel senso che una scheda DX10 su vista perde una parte consistente del il suo vantaggio rispetto ad una DX9 su XP).

Aggiungamo la rozzezza (e sono gentile) dei drivers per Vista sulla 8800 ad oltre sei mesi dalla sua presentazione?

Cioè chiedo: quale è la situazione delle schede DX10 su Vista al momento?
Perchè non buttano fuori applicazioni DX10?
Perchè non si parla neppure di 3DMark 2007, considerato che è sempre stato tra le prime applicazioni ad uscire ad ogni nuova relese delle DX?

Costa moltissimo sviluppare nuove schede video e dopo i bei tempi di R300 il mercato è diventato schizzofrenico, con schede di punta ogni sei mesi o anche meno, quasi incapaci di pareggiare i costi di produzione.

Vogliamo parlare di GF7800 e di X1800?
I videogiocatori Enthusiast sono una razza strana, su cui non vale la pena di fare affidameto: se butti fuori un prodotto acerbo e in fretta e furia si sentono presi in giro appena esce la versione riveduta e corretta.
Se invece si aspetta anche solo qualche mese, allora sparlano del produttore dicendo che non sa fare, che stanno fallendo, che il cielo ci cadrà sulla testa e che il concorrente dominerà l'unverso conosciuto...

Per quanto: per sei mesi? Macchissene...:muro: !!!!

AMD sembra molto fiduciosa sul suo nuovo prodotto e le specifiche sembrano darle ragione: sa che la sua R580 vende bene, avendo da tempo amortizato i costi di sviluppo senza soffrire ancora con i videogiochi in vendita sul mercato.
Probabilmente sa che lo spettro R600 incombente sta comunque frenando parecchie delle vendite Dx10 e che in ogni caso il mercato non è del tutto maturo.
Chi volesse svilupare seriamente per DX10 ha gia un sample di R600 nel computer perchè i chip sono in produzione da tempo e senza grossi problemi di realizzazione.

Nel frattempo si da modo ai produttori di memorie si adattarsi ai grossi volumi di GDDR4 necessari per queste nuove schede in modo da non creare scarsità con relative impennate di prezzo.
Inoltre R630 procede a passo spedito nello sviluppo, pronto ad essere trascinato nelle vendite dalla novità R600
La gente ha modo di convertirsi lentamente a Vista, valutando con calma, I driver di ATI si affinano (al contrario di quelli nVidia che ancora non esistono) e Microsoft sta lavorando a correggere i Bug che via via si rivelano.
Sapphire e soci hanno tutto il tempo di studiare e affinare la produzione, preparadosi a consegnare il nuovo prodotto in volumi dal giorno 1 della commercializzazione...

E in tutto ciò c'è una cosa fantastica: R600 non invecchia di un solo giorno perchè non esistono concorrenti escludendo G80, adeguato solo in versione GTX, e nVidia resta sui carboni ardenti, preoccupata di ciò che R600 potrebbe rivelarsi. Si, magari starà preparando G81 (secondo la roadmap vecchia di un anno) ma con che spirito?
E se R600 si rivelasse sul serio del 40% più potente dell'attuale G80, quanto sangue potrebbe riuscire a strizzare dalla rapa G81 per contenere le perdite?

E nel frattempo noi ce la godiamo, ben contenti delle schede che attualmente abbiamo nel case, economiche e più che sufficienti a fare girare qualunque cosa sia in commercio: ricordate che una 1950XT costa meno di 200€ ivata e gira bene anche in R6V, perfino sul mio 22" CRT (1600x1200)
La stragrande maggioranze dei monitor venduti oggi sono LCD a risoluzione fissa, e di questi vorrei davvero sapere quanti sono nativi nella risoluzione di 1680x1050, risoluzione non tanto più pesante di una 1200x1024, e a cui, magari con qualche piccolo compromesso, anche una top DX9 non ha problemi a girare.
Ma per chi avesse un 30" pensate davvero che una 8800GTX sarebbe sufficiente?

Non vale la pena di aspettare R600 in quel caso?

Ecco perchè AMD non ha fretta: aspetta che G80 diventi "OLD" nella percezione degli entusiast, sempre pronti a buttare centinaia di euro in hardware che si svaluta alla velocità della luce e che non avranno, come sempre, problemi a sostituirlo seduta stante con un nuovo e fiammante prodotto made in AMD/ATI se le promesse saranno mantenute. :cool:

Lud von Pipper
02-03-2007, 00:59
(opps!)

MenageZero
02-03-2007, 01:32
C'è da dire che AMD dice una stupidata: paragonare il top do gamma attuale Intel, ovvero lo Xeon QuadCore Core2Duo a 2.66 Mhz con il loro K10 che troveremo sugli scaffali non si sa quando...

MA CHE RAZZA DI CONFRONTO E'?

Amd ha la sfera di cristallo e sa che, bohh, sparo... ad agosto il loro K10 sarann osuperiori dello Xeonn... emmm.. quale Xeon?

Se vediamo un QX QuadCore sale felicemente sopra i 3.2 Ghz, quindi secondo me l'attuale architettura Core2Duo può raggiungerla questa frequenza. Solo che Intel aspetta a buttare fuori queste CPU.

Insomma, AMD che cavolo dici???
:wtf:

prendendo per buona la parola di amd almeno in senso letterale (cioè concediamogli almeno che il dato numerico in sé lo hanno veramente ottenuto in qualche modo),

caso mai, se ti secca un eventuale "ritorno in grande stile" di amd, dovresti chiedertì se il gap del 40 e rotti % float e 10% int sia statisticamente significativo (cioè non relativo per esempio ad un caso isolato, cmq amd non mi pare famosa per il vaporware, almeno no più della media dei grandi dl settore) e a quale clock del k10 è relativo (questo per sarebbe utile saperlo per poter valuare al meglio il passo avanti micro-architetturale, ideale sarebbe che il dato fosse riferito ad un k10 e c2 di pari clock)

in quanto, inoltre, un core2 a 2,66GHz è un signor processore e se il k10 avesse su questo un margine di oltre il 40% in float con un clock analogo, potrebbe anche non essere affatto un scherzo per intel recuperare il gap alzando le frequenze

riguardo al metodo in sé, se vogliono "sparare" una dichiarazione quantitativa relativamente alle performance di una loro nuova cpu non ancora presentata, mi pare uno dei modi più ovvi e immediati per dar modo di farsi un'dea concreta, quello di prendere come metro di paragone una cpu delle più recenti e performanti tra quelle attualmente in commercio qualunque essa sia intel o amd (ripeto,come metodo, indipendentemente se quanto dichiarato sarà poi effettivamente tale o meno, indpendentmente se poi alla presentazone del k10 intel avrà qualcosa di + performante o no); poi, va beh, dettagli in fondo, e anche questione di pdv personali ;)

MenageZero
02-03-2007, 01:46
Più che altro staranno lavorando moltissimo sui driver in modo da avere un prodotto già maturo dal punto di vista del software, con pieno supporto di HDMI 1.3a, Avivo, OpenGL 2.1, Crossifire ecc su Vista 64 bit ecc

non so se si sia mai accaduto per un prodotto "hw+sw" di averlo "maturo" già alla presentazione così tanto come tu sembri intendere, sottointendere e sperare ... mettici pure che nel caso specifico si è in periodo di transizione di os e in particolare di drv-model e api grafiche ... :asd:

cmq, una "prima volta" credo che sarebbe solo la benvenuta da parte di tutti :)

Giallo77
02-03-2007, 03:52
oggi, stasera la mia ragazza mi ha lasciato,dopo 1 mese,+ intenso ke mai.............e sto malissimo.. vorrei morire...sono solo come un cane...da un gg allaltro ho scoperto che gli piace 1altro...m aveva giurat oamore.. guardato negli okki x1mese...il mese+ bello della mia vita...e ora voglio vivere 1altra mia vita...hwupgrade m accompagna quasi ogni gg cn le sue notizie...e recensoni.ma spesso capisco che correre dietro a queste cose... serve solo ad allontanarci dalla vera vita... quella vita che puoi vedero SOLTANTO guardando negli occhi una persona... piangendo x un rapporto ke finisce.. perche la vita è questo....non un ammasso di circuiti che dopo 6 mesi sono oblsoleti.. l'amore è eterno... dentro ognuno d noi nei nostri ricordi...e anche se vorrei morire...e urlare a squarcia gola... stasera sn qui nel mio mondo informatico di cui sono appassionato quanto vittima...consapevole!VI SUPPLICO___NON CANCELLATE questo messaggio...io ho bisogno che qualcosa di me stanotte venga riskorda... fissato... lo so, su qualche BIT...ma meglio di niente...ma questo mio momento x quanto brutto non lo voglio dimenticare perche mi fara crescere....non si finisce mai di vedere uanto una persona o un chip siano affidabli.. finche non ti tradiscono... ti lascino a piedi...senza + la voglia di vivere.. di ricominciare!non sono ne il 1 nè l'unico a passare questi momenti ma in qst momento sto DAVVERO MALE...nn so smettere di piangere...non sara il form guisto ma è il MIO FORUM PREFERITO....ed è qui che voglio resti inciso questo pezzo della mia vita...ADDIO GIULIA. veramente.. potresti anche andare sotto 1 auto xme...xke dopo tanto amore ora resta soltanto tanto ODIO...grazie a tutto il forum..;-/

Guarda, con tutto il rispetto, anzi, molto di più di tutto, potrei dirti: Hai mai preso in considerazione l'apertura di un TUO Blog?
Li si che rimarrebbe e cmq il posto dove DEVE rimanere sai meglio di me qual'è, non certo in FORUM sottoforma di OFF TOPIC.
Ci siamo passati un po tutti, se qualcuno non ha avuto il piacere, IMHO, non ha mai vissuto.
Sfortunatamente, mio triste fratello, hai cominciato molto bene (non è cinismo) dimostrando un vero sentimento ma hai concluso molto male e, perdonami se te lo dico, si percepisce immaturità, non puoi coniugare Vita, Sentimenti, Morte e "Se finisci sotto una macchina non batto ciglio", giusto di quast'ultima cosa, ne sei profondamente sicuro?
Forse ho il doppio dei tuoi anni (e con questo non dico di essere maturo come un software ben affermato) ma credimi che quel BELLO che hai visto il mese scorso non è nulla di lontanamente paragonabile a quello che ti aspetta, ci mancherebbe, fa MALE e da TANTO fastidio un "IRQ NOT LESS OR EQUAL" e diventi BLU ma dalla Rabbia ma più che Amore si tratta di una cosa che ti Rode, ha preferito un altro... Dettagli... un utente enthusiast come un altro, il mondo ne è pieno, sono maschi e anche femmine;
Molte persone indubbiamente stupide e immature all'ennesima potenza spesso, a chi come te sta attraversando questa tortuosa strada, dicono: 1 Mese? che cosa vuoi che sia un mese vedrai che in meno della metà te lo scordi...
IO comprendo benissimo che in questo mese GIULIA, chiamiamola anche SANDRA, ti ha sfiorato come solo un Benchmark / Hardware Info sa fare, e proprio come il software della Sisoft sia volata via per testare qualcos'altro.
Caro fratello, conserva bene nella tua FAT l'esperienza che hai vissuto durante questo mese perchè non sarà mai più uguale a nessun'altra (non rattristarti leggendo questo), la tua vita non è affatto finita e stai certo che LA VITA, quella di tutti, è più imprevedibile di un Benchmark come quello che ti è capitato;
Un affettuoso abbraccio ;)

P.S.
Chiedo scusa x l'OT

Foglia Morta
02-03-2007, 08:39
http://hardocp.com/images/news/1172804747QRR8ewfqvI_1_1_l.jpg
http://hardocp.com/images/news/1172804747QRR8ewfqvI_1_2_l.jpg
http://hardocp.com/news.html?news=MjQ0MTcsLCxobmV3cywsLDE=

Direi che quanto si dice riguardo i consumi sia una sparata senza senso... 300W per una singola scheda imho rischierebbe di essere instabile a default anche con dei connettori 6+8. 200W sono già abbastanza

gianni1879
02-03-2007, 09:42
http://hardocp.com/images/news/1172804747QRR8ewfqvI_1_1_l.jpg
http://hardocp.com/images/news/1172804747QRR8ewfqvI_1_2_l.jpg
http://hardocp.com/news.html?news=MjQ0MTcsLCxobmV3cywsLDE=

Direi che quanto si dice riguardo i consumi sia una sparata senza senso... 300W per una singola scheda imho rischierebbe di essere instabile a default anche con dei connettori 6+8. 200W sono già abbastanza

ma infatti mi pare di grossa sparata :rolleyes:

CS25
02-03-2007, 11:07
Non sono propriamente d'accordo con la strategia AMD, secondo me il motivo dei ritardi e' altro... magari la volonta' di arrivare con un prodotto meno ingombrante e assetato delle proposte Nvidia... o driver troppo immaturi... chissa'.
Fintanto pero' che c'e' gente che non vede l'ora di cambiare le 8800 con le 8900 senza aver nemmeno mai sentito l'odore delle dx10, ogni mese e' tempo perso.
Devo ammettere che la piccola x1900xtx nel mio case continua a svolgere il suo lavoro egregiamente, con filtri e dettagli (e un monitor LCD 19" limitato ad "umani" 1280x1024), in qualsiasi gioco presente sul mercato... quindi "dal punto di vista di AMD" e' pur vero che tutte le schedone dx10 ora sono praticamente inutili.
Una bella equazione tra immagine, necessita' e fanatismo :D

Athlon 64 3000+
02-03-2007, 11:12
se ho capito bene si dice che ogni R600 singola consumi 200W? Mi sembrano tanti,chissa se il mio Enermax da 485W che da 32A in uscita potrà tenere un mostro di consumo del genere.
L'importante che AMD/ATI per R600 faccia oltre che per vista anche i driver per XP.

A.L.M.
02-03-2007, 11:17
non posso che essere d'accordo: io l'ho presa a novembre, secondo quello che mi aspetto prima che cominci a "soffrire" con i giochi ci vorrà almeno un anno pieno da adesso (e chissà che quando la affiancherò ad un sistema in grado di liberarne tutta la potenza, visto che ora sono cpu-limited, non duri anche di più, poi c'è l'overclock, i flash bios ecc...:D ), tutto il tempo per ammortizzare la spesa e spendere quanto quello che nello stesso periodo prende 2/3 medie e gioca sempre a compromessi (se ha un monitor grande sopratutto)
Beh, naturale. Le applicazioni DX9 sono stramature, ormai è difficile che esca qualcosa DX9 only molto più pesante di R6: Vegas, Oblivion e via dicendo. Di applicazioni DX10 (quelle per le quali è stata progettata la 8800) non ce ne sono ancora, ecco perchè sta durando tanto.
Paragoni con le generazioni precedenti, in termini di longevità, non è possibile farne, perchè è la prima volta, credo, che si verifica un delay tanto marcato tra l'uscita di una generazione di vga e i giochi che da quella generazione possono essere sfruttati.
Le 8800 sono state un furbo assaggio di Nvidia per fanboy e hardcore gamer, grazie alle quali ha guadagnato tempo e denaro, testando una beta delle vere schede DX10 di questa generazione (quelle a 80nm) sui consumatori: quello che dico è vero, visto che la lineup completa di Nvidia sarà a 80nm, e non a 90.
G81 uscirà tra questo mese e il prossimo, no? Quindi il ritardo vero di ATI rispetto ad una soluzione davvero comparabile (stesso processo produttivo, stesse ram, ecc...) sarà di 1 o 2 mesi.

P.S.: i problemi finanziari di AMD/ATI sono ascrivibili principalmente ad AMD, che sono nni che va male, da quel punto di vista. ;)

Athlon 64 3000+
02-03-2007, 13:07
Vado contro corrente ma sono molto contento della scelta di AMD.

Ci dimentichiamo che le DX10 hanno un GROSSO problema rispetto a tutte le altre API del passato, cioè non possono andare su ogni sistema operativo preesistente.

Quanto pensate che sia la quota di installato Vista tra i videogiocatori accaniti?
I tecnici che conosco sono parecchio scontenti di come Vista si comporta, costreti come sono dai clianti a installarlo, e lamentano parecchie noie, tra cui la condivisione, messanger e altre cose di uso comune, senza contare la riduzione di prestazioni nei videogiochi; se spendo parecchi centoni per avere qualche FPS in più rispetto ad una EX di fascia alta, la cosa si riduce in un appiattimento in prestazioni visto che il 99% dei giocatori è ancora su XP (nel senso che una scheda DX10 su vista perde una parte consistente del il suo vantaggio rispetto ad una DX9 su XP).

Aggiungamo la rozzezza (e sono gentile) dei drivers per Vista sulla 8800 ad oltre sei mesi dalla sua presentazione?

Cioè chiedo: quale è la situazione delle schede DX10 su Vista al momento?
Perchè non buttano fuori applicazioni DX10?
Perchè non si parla neppure di 3DMark 2007, considerato che è sempre stato tra le prime applicazioni ad uscire ad ogni nuova relese delle DX?

Costa moltissimo sviluppare nuove schede video e dopo i bei tempi di R300 il mercato è diventato schizzofrenico, con schede di punta ogni sei mesi o anche meno, quasi incapaci di pareggiare i costi di produzione.

Vogliamo parlare di GF7800 e di X1800?
I videogiocatori Enthusiast sono una razza strana, su cui non vale la pena di fare affidameto: se butti fuori un prodotto acerbo e in fretta e furia si sentono presi in giro appena esce la versione riveduta e corretta.
Se invece si aspetta anche solo qualche mese, allora sparlano del produttore dicendo che non sa fare, che stanno fallendo, che il cielo ci cadrà sulla testa e che il concorrente dominerà l'unverso conosciuto...

Per quanto: per sei mesi? Macchissene...:muro: !!!!

AMD sembra molto fiduciosa sul suo nuovo prodotto e le specifiche sembrano darle ragione: sa che la sua R580 vende bene, avendo da tempo amortizato i costi di sviluppo senza soffrire ancora con i videogiochi in vendita sul mercato.
Probabilmente sa che lo spettro R600 incombente sta comunque frenando parecchie delle vendite Dx10 e che in ogni caso il mercato non è del tutto maturo.
Chi volesse svilupare seriamente per DX10 ha gia un sample di R600 nel computer perchè i chip sono in produzione da tempo e senza grossi problemi di realizzazione.

Nel frattempo si da modo ai produttori di memorie si adattarsi ai grossi volumi di GDDR4 necessari per queste nuove schede in modo da non creare scarsità con relative impennate di prezzo.
Inoltre R630 procede a passo spedito nello sviluppo, pronto ad essere trascinato nelle vendite dalla novità R600
La gente ha modo di convertirsi lentamente a Vista, valutando con calma, I driver di ATI si affinano (al contrario di quelli nVidia che ancora non esistono) e Microsoft sta lavorando a correggere i Bug che via via si rivelano.
Sapphire e soci hanno tutto il tempo di studiare e affinare la produzione, preparadosi a consegnare il nuovo prodotto in volumi dal giorno 1 della commercializzazione...

E in tutto ciò c'è una cosa fantastica: R600 non invecchia di un solo giorno perchè non esistono concorrenti escludendo G80, adeguato solo in versione GTX, e nVidia resta sui carboni ardenti, preoccupata di ciò che R600 potrebbe rivelarsi. Si, magari starà preparando G81 (secondo la roadmap vecchia di un anno) ma con che spirito?
E se R600 si rivelasse sul serio del 40% più potente dell'attuale G80, quanto sangue potrebbe riuscire a strizzare dalla rapa G81 per contenere le perdite?

E nel frattempo noi ce la godiamo, ben contenti delle schede che attualmente abbiamo nel case, economiche e più che sufficienti a fare girare qualunque cosa sia in commercio: ricordate che una 1950XT costa meno di 200€ ivata e gira bene anche in R6V, perfino sul mio 22" CRT (1600x1200)
La stragrande maggioranze dei monitor venduti oggi sono LCD a risoluzione fissa, e di questi vorrei davvero sapere quanti sono nativi nella risoluzione di 1680x1050, risoluzione non tanto più pesante di una 1200x1024, e a cui, magari con qualche piccolo compromesso, anche una top DX9 non ha problemi a girare.
Ma per chi avesse un 30" pensate davvero che una 8800GTX sarebbe sufficiente?

Non vale la pena di aspettare R600 in quel caso?

Ecco perchè AMD non ha fretta: aspetta che G80 diventi "OLD" nella percezione degli entusiast, sempre pronti a buttare centinaia di euro in hardware che si svaluta alla velocità della luce e che non avranno, come sempre, problemi a sostituirlo seduta stante con un nuovo e fiammante prodotto made in AMD/ATI se le promesse saranno mantenute. :cool:

Non posso che essere completamente d'accordo con te.

Apple80
02-03-2007, 18:14
Vado contro corrente ma sono molto contento della scelta di AMD.

Ci dimentichiamo che le DX10 hanno un GROSSO problema rispetto a tutte le altre API del passato, cioè non possono andare su ogni sistema operativo preesistente.






Se il G80 non fosse uscito a novembre,ma avrebbero aspettato a farlo uscire a maggio come R600, molti non avrebbero la possibilità di prenderle a du nprezzo inferiore.
Invece , ora le 8800 sono scese di prezzo e quando uscirà R600, scendereanno ancora e a quel punto Nvidia venderà ancora di più, anche grazie al mercato dell'usato.
Quando uscirà R600, sarà per quei pochi (come mè) che avranno intenzione di tirare fuori più di 600 euro.
mentre molti si fionderanno sulla possibilità di avere cmq un'ottima scheda a meno di 500 euro. Aspettare l'uscita ,vuol dire anche , posticipare la discesa dei prezzi
Se R600 fosse uscito a gennaio ,a maggio la si sarebbe trovata a 100 euro di meno. E invece questo avverrà a ottobre. imho i ritardi fanno più male che bene,indipendentemente che sia utile o "inutile", ne và a discapito dei prezzi.

@ndre1
02-03-2007, 18:48
Ora come ora vado alla grande con la mia 7600gt e non penso ne meno a passare su una DX10!!
Io aspetto.., appena calano i prezzi mi prendo un top gamma di DX9 o di ATI o Nvidia..
Tanto Vista non installerò mai!! Millenium + DX10 = Vista :sofico:

Defragg
02-03-2007, 18:54
Se il G80 non fosse uscito a novembre,ma avrebbero aspettato a farlo uscire a maggio come R600, molti non avrebbero la possibilità di prenderle a du nprezzo inferiore.

in pratica fanno vendere di più la fascia alta della concorrenza, anche se inferiore :asd:

bluefrog
02-03-2007, 18:58
edit

Apple80
02-03-2007, 19:02
in pratica fanno vendere di più la fascia alta della concorrenza, anche se inferiore :asd:

non penso. se avessero aspettato sarebbe uscita con 1Gb di ram Gddr4 . :sofico:

Defragg
02-03-2007, 19:07
non penso. se avessero aspettato sarebbe uscita con 1Gb di ram Gddr4 . :sofico:

beh le X1950Pro e XT vendono (anche le 7950GT ma meno) molto probabilemnte di più...anche se non le si nomina spesso come si fà con R600 e le varie 8800 ;)

bluefrog
02-03-2007, 19:17
Se il G80 non fosse uscito a novembre,ma avrebbero aspettato a farlo uscire a maggio come R600, molti non avrebbero la possibilità di prenderle a du nprezzo inferiore.
Invece , ora le 8800 sono scese di prezzo e quando uscirà R600, scendereanno ancora e a quel punto Nvidia venderà ancora di più, anche grazie al mercato dell'usato.
Quando uscirà R600, sarà per quei pochi (come mè) che avranno intenzione di tirare fuori più di 600 euro.
mentre molti si fionderanno sulla possibilità di avere cmq un'ottima scheda a meno di 500 euro. Aspettare l'uscita ,vuol dire anche , posticipare la discesa dei prezzi
Se R600 fosse uscito a gennaio ,a maggio la si sarebbe trovata a 100 euro di meno. E invece questo avverrà a ottobre. imho i ritardi fanno più male che bene,indipendentemente che sia utile o "inutile", ne và a discapito dei prezzi.

Passare da una 8800GTX ad un R600 soltanto per avere 140 fps invece di 120 (esempio buttato lì) mi sembra davvero poco sensato dal momento che una 8800GTX non la si mette in ginocchio neanche alle più alte risoluzioni. E' soltanto una mia opinione ;) ciao.

Apple80
02-03-2007, 19:21
beh le X1950Pro e XT vendono (anche le 7950GT ma meno) molto probabilemnte di più...anche se non le si nomina spesso come si fà con R600 e le varie 8800 ;)

si. non intendevo che il G80 venda di più anzi. Sono sempre le schede video sulle 200 euro quele che si vendono di più ancora e maggiore quelle nei desktop preassemblati.

Defragg
02-03-2007, 19:24
si. non intendevo che il G80 venda di più anzi. Sono sempre le schede video sulle 200 euro quele che si vendono di più ancora e maggiore quelle nei desktop preassemblati.

:mano: :)

appleroof
02-03-2007, 19:30
Beh, naturale. Le applicazioni DX9 sono stramature, ormai è difficile che esca qualcosa DX9 only molto più pesante di R6: Vegas, Oblivion e via dicendo. Di applicazioni DX10 (quelle per le quali è stata progettata la 8800) non ce ne sono ancora, ecco perchè sta durando tanto.
Paragoni con le generazioni precedenti, in termini di longevità, non è possibile farne, perchè è la prima volta, credo, che si verifica un delay tanto marcato tra l'uscita di una generazione di vga e i giochi che da quella generazione possono essere sfruttati.
Le 8800 sono state un furbo assaggio di Nvidia per fanboy e hardcore gamer, grazie alle quali ha guadagnato tempo e denaro, testando una beta delle vere schede DX10 di questa generazione (quelle a 80nm) sui consumatori: quello che dico è vero, visto che la lineup completa di Nvidia sarà a 80nm, e non a 90.
G81 uscirà tra questo mese e il prossimo, no? Quindi il ritardo vero di ATI rispetto ad una soluzione davvero comparabile (stesso processo produttivo, stesse ram, ecc...) sarà di 1 o 2 mesi.

P.S.: i problemi finanziari di AMD/ATI sono ascrivibili principalmente ad AMD, che sono nni che va male, da quel punto di vista. ;)

i semplici appassionati no vero? :asd: :asd: In ogni caso per me il discorso sfruttabilità di questa scheda annulla le critiche che le vengono rivolte (prezzo, mancanza dx10 ecc.) e anche il tuo intervento mi pare confermarlo.

R600 sarà più potente, così come G81, e chissenefrega, dubito andranno il doppio, e sarò ancora più soddisfatto di questo G80, poi si vedrà ;)

Apple80
02-03-2007, 19:40
sensato dal momento che una 8800GTX non la si mette in ginocchio neanche alle più alte risoluzioni. E' soltanto una mia opinione ;) ciao.


ops sry. io non intedevo dire che passero' all'R600 :D ,ma che sono uno di quelli che compora sv top gamma, sempre che il cambio ,per le mie esigenze sia d'obbligo ( sicuramente non per 20frame in più,ma se fosse tipo da 60 a 100 frame allora ben venga )

Ecco x' ho tentuo la 7800GTX fino all'arivo del G80. La 7900 e la X1950 non rientravano nelle mie aspettative. :)

bonzuccio
02-03-2007, 19:49
hai tenuto una 7800.. mi sa che non ti sei trovato tanto bene
forse ti conviene aspettare la 8900 stavolta no?

bluefrog
02-03-2007, 19:49
ops sry. io non intedevo dire che passero' all'R600 :D ,ma che sono uno di quelli che compora sv top gamma, sempre che il cambio ,per le mie esigenze sia d'obbligo ( sicuramente non per 20frame in più,ma se fosse tipo da 60 a 100 frame allora ben venga )

Ecco x' ho tentuo la 7800GTX fino all'arivo del G80. La 7900 e la X1950 non rientravano nelle mie aspettative. :)

Così mi sembra molto più sensato dato che tra una 7800GTX ed un G80 c'è un abisso. Anche perchè poi saresti ulteriormente cpu limited ;)
Comunque avevo capito male io :) ..ciao.

Apple80
02-03-2007, 19:59
hai tenuto una 7800.. mi sa che non ti sei trovato tanto bene
forse ti conviene aspettare la 8900 stavolta no?


oh no devo dire che dalla 7800 al G80 ci si puo' trovare molto soddisfatti.

penso che la 8900 sarà una revisione della 8800,con ram più pompata (gddr4) e frequenza più alte. Questa la salto, se propio aspetto in un aumento degli shader unificati dove li, la differenza è maggiore.

appleroof
02-03-2007, 20:05
hai tenuto una 7800.. mi sa che non ti sei trovato tanto bene
forse ti conviene aspettare la 8900 stavolta no?

perchè? io addirittura ho avuto la gtx 256mb: 1280x1024 aa4x af8x con qualsiasi gioco fino alla fine dell'anno scorso, compreso Oblivion, senza mai decadimnti particolari...

Defragg
02-03-2007, 20:06
perchè? io addirittura ho avuto la gtx 256mb: 1280x1024 aa4x af8x con qualsiasi gioco fino alla fine dell'anno scorso, compreso Oblivion, senza mai decadimnti particolari...

c'era anche a 256Mb? :wtf: mica era a 512?

appleroof
02-03-2007, 20:10
c'era anche a 256Mb? :wtf: mica era a 512?

c'era ;)

The_SaN
02-03-2007, 20:31
c'era anche a 256Mb? :wtf: mica era a 512?

All' inizio le 7800 erano solo 256mb.
Poi Ati ha immesso la serie x1000, in versioni 256mb e 512mb, e nVidia ha tirato fuori il modello 512 per non perdere l' immagine (e la scheda piú potente), o se volete, per rimanere al passo :D .

Defragg
02-03-2007, 20:46
c'era ;)

caspita non me ne ricordavo proprio :fagiano:

nico88desmo
02-03-2007, 21:26
Magari nVidia rifarà la stessa cosa fra qualche mese...ossia, quando uscirà R600 con 1GB di memoria, farà uscira il G81 con lo stesso quantitativo di memoria...chi lo sà :D

Apple80
03-03-2007, 00:12
Magari nVidia rifarà la stessa cosa fra qualche mese...ossia, quando uscirà R600 con 1GB di memoria, farà uscira il G81 con lo stesso quantitativo di memoria...chi lo sà :D

dico che è molto probabile come mossa. ASpettiamo maggio e vediamo cosa succede.

De Visu Carlo
03-03-2007, 03:07
prima le 8800 erano solo sulla carta schede DX10, ma all'atto pratico non te ne facevi nulla delle feature dedicate alle nuove librerie...erano solo vga DX9 di fascia alta

Ed invece adesso che sono? :asd:

C'è da dire che AMD dice una stupidata: paragonare il top do gamma attuale Intel, ovvero lo Xeon QuadCore Core2Duo a 2.66 Mhz con il loro K10 che troveremo sugli scaffali non si sa quando...
MA CHE RAZZA DI CONFRONTO E'?
Amd ha la sfera di cristallo e sa che, bohh, sparo... ad agosto il loro K10 sarann osuperiori dello Xeonn... emmm.. quale Xeon?

Invece il confronto è sensato e giusto. I primi K10 usciranno in versione server, ovvero i vecchi Opteron (sempre che non decidano di cambiare nome) a brevissimo. Il top di gamma di Intel è appunto la versione quad core citata.
La sfera di cristallo? Ma dico ti rendi conto che ci lavorano ormai da un anno e mezzo? Insomma, prima di aprire la bocca occorrerebbe pensarci su.
Ciò non toglie che quel valore è estremamente elevato, e non sarà confermato in ambito general purpose.

perchè? io addirittura ho avuto la gtx 256mb: 1280x1024 aa4x af8x con qualsiasi gioco fino alla fine dell'anno scorso, compreso Oblivion, senza mai decadimnti particolari...

Perdonami, se non avevi nessun problema, perché hai deciso di spendere 700€ inutilmente?

Defragg
03-03-2007, 14:22
Ed invece adesso che sono? :asd:

dimmelo tu :Perfido:

De Visu Carlo
03-03-2007, 15:36
dimmelo tu :Perfido:

Sempre schede DX9 di fascia alta, vista che non vi sono applicativi in grado di supportarle. Non sei d'accordo? ;)

Defragg
03-03-2007, 15:38
Sempre schede DX9 di fascia alta, vista che non vi sono applicativi in grado di supportarle. Non sei d'accordo? ;)

sono d'accordo

appleroof
04-03-2007, 15:04
Perdonami, se non avevi nessun problema, perché hai deciso di spendere 700€ inutilmente?

perchè sono pazzo.

Kharonte85
04-03-2007, 16:49
perchè sono pazzo.
http://www.mmorpgitalia.it/forum/images/smilies/Lollosa2.gif

appleroof
04-03-2007, 17:16
http://www.mmorpgitalia.it/forum/images/smilies/Lollosa2.gif

:asd: :asd: :asd:

Defragg
04-03-2007, 19:28
perchè sono pazzo.

lo ammetti...

è già qualcosa :asd: :D

HeDo_Progz
05-03-2007, 17:40
Non per dire, ma imho è probabile che ati e nvidia si siano messe d'accordo per pareggiare le prestazioni, mi spiego meglio: da sempre si è visto che pur con differenze abissali di architettura/frequenze/ram, le proposte ati e nvidia sono state sempre più o meno allineate (almeno quelle top di gamma), con scarti di pochi fps. Cioè, non c'è mai stato un "vincitore assoluto", che senso avrebbe per il mercato avere un prodotto che allo stesso prezzo garantisce prestazioni doppie (come sarebbe potutto imho essere). Ora procedo per congetture: Ati (ops) Amd, probabilmente si è trovata con un R600 che, confrontando le prestazioni con g80, garantiva un ampio divario di prestazioni. La strategia concordata dalle due società è stata quella di lasciar uscire g80 e di aspettare a far uscire R600 in modo che, alla data di lancio di quest'ultimo, nvidia con il suo g81 o cos'altro sarebbe stata in grado di pareggiare le prestazioni con ati.
Probabilmente ho una fervida immaginazione, ma basta che ci si pensi...

HeDo

Athlon 64 3000+
05-03-2007, 19:00
http://forums.vr-zone.com/showthread.php?t=133447
http://forums.vr-zone.com/showthread.php?t=133455

johnson
05-03-2007, 19:08
Non per dire, ma imho è probabile che ati e nvidia si siano messe d'accordo per pareggiare le prestazioni, mi spiego meglio: da sempre si è visto che pur con differenze abissali di architettura/frequenze/ram, le proposte ati e nvidia sono state sempre più o meno allineate (almeno quelle top di gamma), con scarti di pochi fps. Cioè, non c'è mai stato un "vincitore assoluto", che senso avrebbe per il mercato avere un prodotto che allo stesso prezzo garantisce prestazioni doppie (come sarebbe potutto imho essere). Ora procedo per congetture: Ati (ops) Amd, probabilmente si è trovata con un R600 che, confrontando le prestazioni con g80, garantiva un ampio divario di prestazioni. La strategia concordata dalle due società è stata quella di lasciar uscire g80 e di aspettare a far uscire R600 in modo che, alla data di lancio di quest'ultimo, nvidia con il suo g81 o cos'altro sarebbe stata in grado di pareggiare le prestazioni con ati.
Probabilmente ho una fervida immaginazione, ma basta che ci si pensi...

HeDo

Anche secondo me hai una fervida immaginazione :D

johnson
05-03-2007, 19:08
http://forums.vr-zone.com/showthread.php?t=133447
http://forums.vr-zone.com/showthread.php?t=133455

Non sono buone notizie per R600 :(

bonzuccio
05-03-2007, 19:14
Non sono buone notizie per R600 :(

Veramente in quel forum si dice la stessa notizia dell'uscita a maggio,
solo che le motivazioni addotte dall'autore sono diverse cioè che r600 è stata rimandata nel lancio perchè più lenta di g80..
e infatti 3 post ci stanno un sentito ringraziamento all'autore del link che ci ha arricchiti tutti

johnson
05-03-2007, 19:26
Veramente in quel forum si dice la stessa notizia dell'uscita a maggio,
solo che le motivazioni addotte dall'autore sono diverse cioè che r600 è stata rimandata nel lancio perchè più lenta di g80..
e infatti 3 post ci stanno un sentito ringraziamento all'autore del link che ci ha arricchiti tutti

Intanto non è l'autore del post sul forum a fare queste speculazioni, ma fudo ex giornalista di inquirer che ha da poco aperto il suo nuovo sito.
Per quanto riguarda il vero motivo del ritardo, sapevamo solo quello che ATi aveva comunicato ufficialmente (che era pronto, ma non lo facevano uscire perchè non c'era software per sfruttare la scheda). Ora abbiamo due info in più, problemi di disponibilità di moduli GDDR4 e problema di performance rispetto a G80.
Chiaro che sono notizie non ufficiali, ma considerando le notizie ufficiali, non so quali siano più verosimili...

MenageZero
05-03-2007, 19:50
Intanto non è l'autore del post sul forum a fare queste speculazioni, ma fudo ex giornalista di inquirer che ha da poco aperto il suo nuovo sito.
Per quanto riguarda il vero motivo del ritardo, sapevamo solo quello che ATi aveva comunicato ufficialmente (che era pronto, ma non lo facevano uscire perchè non c'era software per sfruttare la scheda). Ora abbiamo due info in più, problemi di disponibilità di moduli GDDR4 e problema di performance rispetto a G80.
Chiaro che sono notizie non ufficiali, ma considerando le notizie ufficiali, non so quali siano più verosimili...
:eek:

e i problemi di performance rispetto a g80 da dove scaturirebbero ?
(dalle ultime sullo shader core, anche se giustamente yossarian faceva notare che non è determinante da solo per le performance effettive, 320 mad a 800Mhz, si è portati a immaginare il contrario)
:wtf:

Kharonte85
05-03-2007, 20:02
Chiaro che sono notizie non ufficiali, ma considerando le notizie ufficiali, non so quali siano più verosimili...
Infatti, questi sarebbero motivi piu' "validi"...certo che se le cose stessero davvero cosi' è proprio un disastro per AMD-ATI...

johnson
05-03-2007, 21:01
:eek:

e i problemi di performance rispetto a g80 da dove scaturirebbero ?
(dalle ultime sullo shader core, anche se giustamente yossarian faceva notare che non è determinante da solo per le performance effettive, 320 mad a 800Mhz, si è portati a immaginare il contrario)
:wtf:

io dico che il problema sono le prestazioni in dx 9 :D e più in la si va, più giochi dx 10 ci saranno (e li non ci sarebbe nulla da fare per la 8800... Ci vorrà la 8900)

Defragg
05-03-2007, 21:14
:eek:

e i problemi di performance rispetto a g80 da dove scaturirebbero ?
(dalle ultime sullo shader core, anche se giustamente yossarian faceva notare che non è determinante da solo per le performance effettive, 320 mad a 800Mhz, si è portati a immaginare il contrario)
:wtf:

magari è troppo potente e allora ne hanno fatta una nuova e inferiore per stare sopra (ma non di troppo) a G80...ne sarebbero capaci...pur di vendere schedi in più a poveri appassionati come noi :sofico: :asd:

Athlon 64 3000+
05-03-2007, 21:33
io mi sono limitato a riportarle e personamente non credo a nessun rumor fino a che le schede non verranno presentate e si saprà tutto su R600.

johnson
06-03-2007, 03:11
io mi sono limitato a riportarle e personamente non credo a nessun rumor fino a che le schede non verranno presentate e si saprà tutto su R600.

Giusto. Si sa che son rumors, e per tali vanno presi :D

Free Gordon
06-03-2007, 03:29
io mi sono limitato a riportarle e personamente non credo a nessun rumor fino a che le schede non verranno presentate e si saprà tutto su R600.


Problemi di performance... :asd:
I problemi di performance, se ci sono, non si risolvono certamente in due mesi...
Ah... questi fanboy, ne inventano di tutti i colori!! :sofico:

Lud von Pipper
06-03-2007, 06:05
Intanto non è l'autore del post sul forum a fare queste speculazioni, ma fudo ex giornalista di inquirer che ha da poco aperto il suo nuovo sito.

Accipicchia: se lo dice un ex di the Iquirer non può che essere vero!!!:eek:

Ma per favore: sono mesi che questi imbecilli dicono tutto e il contrario di tutto guadagnando palate di dollari sulla dabbenaggine di chi li legge e prende sul serio! :rolleyes:

Notate bene che non riportano MAI le fonti delle loro informazioni.


Quando sento il nome "The Inquirer" ormai ignoro la notizia a prescindere.:mc:

johnson
06-03-2007, 10:21
Accipicchia: se lo dice un ex di the Iquirer non può che essere vero!!!:eek:

Ma per favore: sono mesi che questi imbecilli dicono tutto e il contrario di tutto guadagnando palate di dollari sulla dabbenaggine di chi li legge e prende sul serio! :rolleyes:

Notate bene che non riportano MAI le fonti delle loro informazioni.


Quando sento il nome "The Inquirer" ormai ignoro la notizia a prescindere.:mc:

Imbecilli? perchè tanto odio? Che ti hanno fatto?

Io lo leggo ogni giorno da un bel pezzo e tutte queste notizie false non le vedo. Ti sfido a prendere la home page di inquirer e segnalare quali sono queste notizie false di cui tutti parlano. Sono sicuro che mi farò qualche risata.
Sembra quasi che la gente provi invidia per chi riesce ad avere informazioni fresche prima degli altri...

Ormai è diventata una moda.

Ma aprilo tu un bel sito di news, tanto con tutti i boccaloni che ci cascano con inquirer, faresti soldi a palate.

Athlon 64 3000+
06-03-2007, 10:58
http://forums.vr-zone.com/showthread.php?t=133520

Lud von Pipper
06-03-2007, 17:23
Imbecilli? perchè tanto odio? Che ti hanno fatto?

Io lo leggo ogni giorno da un bel pezzo e tutte queste notizie false non le vedo. Ti sfido a prendere la home page di inquirer e segnalare quali sono queste notizie false di cui tutti parlano. Sono sicuro che mi farò qualche risata.
Sembra quasi che la gente provi invidia per chi riesce ad avere informazioni fresche prima degli altri...

Così, su due piedi e senza aprire il sito, solo relativi alle schede video (perchè ne sparano davvero tante), mi viene in mente quando sbandieravano per certo il nome X2800XTX come cosa certa e l'uscita prossima della GF8600AGP, oltre al famoso G90 di cui nessun altro ha mai parlato: nota bene che ne AMD/ATi ne nVidia hanno mai confermato nulla del genere.
Occhio anche a dare credito ad altri link (HWUpgrade compreso) con notizie simili in giro: quasi tutti riprendono quelle di the Inquirer, che è l'unico sito a non riportare MAI le proprie fonti.
Un sito serio riporta SEMPRE le proprie fonti, uno che spaccia panzane non può farlo o sarebbe immediatamente smentito da quelli che chiama in causa; il loro grosso vantaggio è che i loro lettori hanno la memoria corta, io no :read:


Ormai è diventata una moda.

Ma aprilo tu un bel sito di news, tanto con tutti i boccaloni che ci cascano con inquirer, faresti soldi a palate.

Qui non mi incastri caro mio: io parlo solo quando ho qualcosa da dire, non per ascoltare la mia voce e vedere le reazioni degli altri.

(Ammesso che la ragione sia solo questa visto notizie come queste:http://www.hwupgrade.it/news/cpu/al-ribasso-le-stime-amd-per-il-primo-trimestre-2007_20358.html: sai, parliamo di società quotate in borsa :muro: )

"Un bel silenzio non fu mai detto" :ciapet:

Lud von Pipper
06-03-2007, 17:27
...

johnson
06-03-2007, 18:58
Così, su due piedi e senza aprire il sito, solo relativi alle schede video (perchè ne sparano davvero tante), mi viene in mente quando sbandieravano per certo il nome X2800XTX come cosa certa e l'uscita prossima della GF8600AGP, oltre al famoso G90 di cui nessun altro ha mai parlato: nota bene che ne AMD/ATi ne nVidia hanno mai confermato nulla del genere.
Occhio anche a dare credito ad altri link (HWUpgrade compreso) con notizie simili in giro: quasi tutti riprendono quelle di the Inquirer, che è l'unico sito a non riportare MAI le proprie fonti.
Un sito serio riporta SEMPRE le proprie fonti, uno che spaccia panzane non può farlo o sarebbe immediatamente smentito da quelli che chiama in causa; il loro grosso vantaggio è che i loro lettori hanno la memoria corta, io no :read:



Qui non mi incastri caro mio: io parlo solo quando ho qualcosa da dire, non per ascoltare la mia voce e vedere le reazioni degli altri.

(Ammesso che la ragione sia solo questa visto notizie come queste:http://www.hwupgrade.it/news/cpu/al-ribasso-le-stime-amd-per-il-primo-trimestre-2007_20358.html: sai, parliamo di società quotate in borsa :muro: )

"Un bel silenzio non fu mai detto" :ciapet:

intanto si dice "un bel silenzio non fu mai scritto :ciapet: "

Per il resto sei letteralmente sfuggito alla mia provocazione. Anche se ogni tanto qualcosa non corrisponde (il nome x2800 invece che x2900 wow, che errore madornale!!!), questo non può legittimare critiche a tutto il sito. Questo è il prezzo da pagare per cercare di essere sempre i primi a dare le notizie.
Se poi tieni conto che gli articoli sono anche considerazioni personali dei giornalisti, che commentano fatti concreti facendo qualche ipotesi sul futuro, capirai che ogni tanto si può anche sbagliare.

Cmq non ce l'ho con te. Mi da fastidio questa moda di dare addosso a the inquirer come se il 90% delle news che pubblica fosse falso, mentre la realtà sta all'opposto.

Ti invito a leggerlo più spesso. Non hai idea di quante volte ti capiterà di leggere le cose 1 o 2 giorni prima di qualsiasi altra testata del settore (hwupgrade compreso).
:cincin:

Defragg
06-03-2007, 20:13
ma certo...dovrebbero prendere tutti esempio da The Inquirer :rolleyes:


:asd: :doh:

GeforcePower
02-04-2007, 13:33
Che dilemma ragazzi ...e pensare che una volta quando uscirono le prime 3dfx di ati non si sapeva neanche l'ombra...UAHuHAuAuUA ricordo ancora la mia prima 3dfx voodoo montata insieme alla bellissima supervgaa 4 mb UHAUHAUHA che giochi tipo fifa 98 giravano da dio con l'accelerazione 3dfx ed il logo che appariva era stupendo prima di gioca...e pensate una cosa nvidia a acquisito 3dfx appunto per tanti motivi...credetemi amd o ati come dir si voglia non stanno perdendo nulla sul mercato e pensate che nvidia abbia lanciato una scheda geforce 8800gtx che e' un mostro credetemi prima del previsto perhce' aveva paura della concorenza...UAHUAuHAUHA nulla da fare amici miei e' stata lanciata solo sul mercato per l'uscita di windows vista ...cosa che avrebbe dovuto fare anche ati...mica nvidia ha lanciato 30 schede,ha messo sul mercato un solo chip grafico la 8800 che poi abbia piu' ram poca ram il chip e' sempre quello....ati cosa ha fatto???'se la prende comoda guardando nvidia che spopola sul mercato...non crederete che una geforce 8800gtx diventera' obsoleta fra 1 anno perche' non puo' esserla mai...le 8900gtx di nvidia saranno identiche ma avranno frequenze maggiori molto maggiori....ed R600 come fate gia' a parlarne cosi' bene solo per aver letto degli articoli...mentre il g80 lo possiamo provare sulle mani....e' cmq in directx 10 se vi fate un giro nel web vedrete che qualke gioco sta iniziando ad uscire tipo crisys che gira sia in 9 che in 10.cmq a conclusione vi dico che non c'e' nessuna battaglia fra ati ed nvidia..in questo momento nvidia e' gia su un altra generazione ati ancora e' rimasta indietro...mi spiace ma e' cosi'...ps ho letto che le x1950 hanno battuto le 7900 UAhuAUhauAUHAuHA ma siete drgti???paragonate la x1950 che e' fascia alta anzi la piu' alta ad una 7950gt e poi mi dite chi vince UHAuAhUAuAhUHAuHAUhauHAuHAUh

GeforcePower
02-04-2007, 13:46
UAhuAuha nvidia lancia schede supporto dx10 e ati ancora lancia schede ready for vista tipo x1650 pro x1950gt x1300 UHAuHAuHA...ma fate schede per vista beusciiiiii..UhauHAUHa la x1950xtx costa piu' di una geforce 8800gts AHuAhUAhu...il bello e' che la xtx vince la 8800 in directx9...ma sulle 10 che fa manco partecipa ...UAhuAhUAuauHAu che porcheria....cmq r600 sara' davvero una rivoluzione..infatti appena esce rimarra sugli scaffali perche' nvidia a maggio lancia la fascia 8600 ..e li che ci sara' davvero da ridere..e vedere chi e' piu' forte ...sulla fascia media :) UHuHAUHAUA dove tutti possiamo spendere quella cifra ...e non su cifre tipo 600 euro o 700...capite...."Geforce power vi chiede le sue scuse ma e' mio cugino che scrive questo mex..."

Defragg
02-04-2007, 14:07
"Geforce power vi chiede le sue scuse ma e' mio cugino che scrive questo mex..."

digli a tuo cugino di calmarsi :asd:

Free Gordon
05-04-2007, 14:06
penso che sia suo cugggino, non cugino :asd:

leoneazzurro
05-04-2007, 15:40
GeforcePower, evitiamo di dare inizio a flame e di usare questi toni irridenti?
Ammonizione.