View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
fdadakjli
17-12-2009, 15:29
speriamo in un qualche miracolo xchè altrimenti senza una concorrenza competitiva piglia malissimo :(
ovviamente... :sperem:
ovviamente... :sperem:
si.... :sperem: :fagiano:
appleroof
17-12-2009, 15:35
che il progetto di supercomputer dell'ORNL basato su fermi è stato cancellato per problemi di dissipazione termica. La versione tesla lavora a frequenze conservative rispetto a quella destinata al gaming e, addirittura, le frequenze dichiarate sono risultate inferiori a quelle attese, al punto che pongono fermi sullo stesso piano di cypress nell'esecuzione di fma a fp64.
Questo fa immaginare che gli stessi problemi, amplificati dalle maggiori frequenze (qualcuno ipotizzato 1600-1700 MHz per lo shader core) ci siano per la versione gaming.
scusa ma allora quale sarebbe il problema? Dai toni che usi (se così si può dire di un post :D ) sembrerebbe una cattiva notizia ma invece dici che a frequenze più basse di quelle ipoteticamente proprie della versione per il gaming, fermi andrebbe quanto cypress, il benchmark attualmente almeno per quanto riguarda le vga a singola gpu :what:
diciamo che non reputano fermi compatibile con i loro parametri. Non è necessariamente una bocciatura in senso assoluto ma lo è sicuramente in relazione al progetto in questione ed ai relativi parametri entro cui stare (in particolare quelli relativi alla dissipazione termica)
Insomma, per chi aspetta questa vga per giocare la notizia è quasi irrilevante
scusa ma allora quale sarebbe il problema? Dai toni che usi (se così si può dire di un post :D ) sembrerebbe una cattiva notizia ma invece dici che a frequenze più basse di quelle ipoteticamente proprie della versione per il gaming, fermi andrebbe quanto cypress, il benchmark attualmente almeno per quanto riguarda le vga a singola gpu :what:
forse il problema è di aspettative... xchè fermi doveva essere una cosa bella pompata sotto quell'aspetto... (fp64)
Insomma, per chi aspetta questa vga per giocare la notizia è quasi irrilevante
infatti!
speriamo in un qualche miracolo xchè altrimenti senza una concorrenza competitiva piglia malissimo :(
già :(
vabbe, passiamo tutti ad Ati :D
appleroof
17-12-2009, 15:41
forse il problema è di aspettative... xchè fermi doveva essere una cosa bella pompata sotto quell'aspetto... (fp64)
quindi direi così: se si pensa all'azienda Nvidia ed alla sua scelta di puntare molto sul GPGPU, allora la notizia non è buona (ovviamente per Nvidia stessa :D ) e cmq successive revision del chip e/o affinamenti dei pp e/o die-shrink potrebbero migliorare la cosa (eccome, visto che con tutti i problemi già eguaglierebbe cypress)
se si pensa all'utente che aspetta la vga per giocare, la notizia è fuffa perchè fp64 (corregetemi se sbaglio) non "tocca" i giochi
imho, naturalmente :)
già :(
vabbe, passiamo tutti ad Ati :D
nel caso, ti aspetto nel thread della 5870...o 5890 :D
cut
imho, naturalmente :)
e si.... direi che concordo in pieno ;)
yossarian
17-12-2009, 15:43
scusa ma allora quale sarebbe il problema? Dai toni che usi (se così si può dire di un post :D ) sembrerebbe una cattiva notizia ma invece dici che a frequenze più basse di quelle ipoteticamente proprie della versione per il gaming, fermi andrebbe quanto cypress, il benchmark attualmente almeno per quanto riguarda le vga a singola gpu :what:
ho omesso fp64 :D
La frase competa sarebbe: a frequenze più basse va come cypress a fp64. A fp32, che è quella che interessa il gaming, devi moltiplicare le flops teoriche, che hai a fp64, per 2 per fermi e per 5 per cypress.
Insomma, per chi aspetta questa vga per giocare la notizia è quasi irrilevante
dipende da quanto sono restrittivi i parametri imposti dall'ORNL
diciamo che non reputano fermi compatibile con i loro parametri. Non è necessariamente una bocciatura in senso assoluto ma lo è sicuramente in relazione al progetto in questione ed ai relativi parametri entro cui stare (in particolare quelli relativi alla dissipazione termica)Sisi, mi riferivo a quel progetto, non in senso assoluto.
Peró se termicamente una va male, é probabile succeda lo stesso anche con quella da gaming, che dovrá avere frequenze piú alte.
che alla fine non ci combina nulla con il progetto "scheda da gioco" ;) ed è qui che spero faccia bene!Come ho detto sopra, una connesione puó esserci.
Anche se ovviamente una scheda da gaming ha limiti piú alti per la questione TDP.
Peró il chip é sostanzialmente lo stesso, e la notizia non fa sperare molto bene sul lato frequenze/consumi.
Speriamo nelle prestazioni...
ho omesso fp64 :D
La frase competa sarebbe: a frequenze più basse va come cypress a fp64. A fp32, che è quella che interessa il gaming, devi moltiplicare le flops teoriche, che hai a fp64, per 2 per fermi e per 5 per cypress.
dipende da quanto sono restrittivi i parametri imposti dall'ORNL
:eek: Fermi quindi sarà cosi lento :eek: bene bene mi prendo di nuovo la seconda 5870 :sofico:
The_San cmq c'è anche da vedere che miglioramenti porterà l'A3 ;)
appleroof
17-12-2009, 15:49
ho omesso fp64 :D
La frase competa sarebbe: a frequenze più basse va come cypress a fp64. A fp32, che è quella che interessa il gaming, devi moltiplicare le flops teoriche, che hai a fp64, per 2 per fermi e per 5 per cypress.
quindi, ipoteticamente parlando, si potrebbe dire che così fermi andrebbe meno della metà di cypress con i giochi....cioè quasi peggio di g200 :stordita:
vabbè che tu mi insegni che 1 singolo dato(in questo caso le flops teoriche) non dà l'idea delle prestazioni reali, giusto?
cmq piano piano i pezzi del puzzle si stanno incastrando, imho...
vabbè che tu mi insegni che 1 singolo dato(in questo caso le flops teoriche) non dà l'idea delle prestazioni reali, giusto?
...
e si imho.. xchè altrimenti basandoci solo su quel dato, allora anche le gt200 sarebbero dovute andare di meno rispetto alla rv770 ;)
DavidM74
17-12-2009, 15:53
e si imho.. xchè altrimenti basandoci solo su quel dato, allora anche le gt200 sarebbero dovute andare di meno rispetto alla rv770 ;)
quoto.
e mi ritorna in mente la politica prezzi Nvidia :asd: volevano la gpu da 600 euro, bene non possono perchè le prestazioni non sono accettabili e dunque aspettano a produrla e a lanciarla fin tanto che non raggiungeranno le performance della 5970
appleroof
17-12-2009, 15:56
e si imho.. xchè altrimenti basandoci solo su quel dato, allora anche le gt200 sarebbero dovute andare di meno rispetto alla rv770 ;)
già...:)
nel caso, ti aspetto nel thread della 5870...o 5890 :D
se non esce niente a livello di notizie ufficiali per febbraio, che poi è il periodo insieme a marzo dell'uscita dei giochi che mi interessano, ci vediamo in quel thread :)
yossarian
17-12-2009, 16:02
integro quanto detto riportando la tabella di hardware.fr
http://www.hardware.fr/articles/772-7/nvidia-fermi-revolution-gpu-computing.html
con frequenze dell'ordine di 1200 MHz per lo shader core, fermi avrebbe una potenza di calcolo teorica in MADD fp32 (a condizione che si riesca a trasformare le fma in madd senza problemi) di 1230 Gflops circa anzichè le 1640 (fma) della tabella. Il rapporto tra madd cypress/madd fermi diverrebbe pari a circa 2,2 contro il precedente rapporto tra rv790 e gt200 revb era di 1,92, con un peggioramento del 28%.
Vero che le frequenze dello shader core e, di conseguenza, le flops, non sono l'unico parametro per valutare le prestazioni di una gpu, però, in quello specifico ambito, con le frequenze dichiarate per la versione tesla, ci sarebbe un paggioramento relativo del 28% che porterebbe, allo stato attuale, fermi, a meno di colli di bottiglia altrove, ad essere più lento di cypress.
Quando parlavo di difficoltà a rilasciare bench da parte di nVidia per problemi con le frequenze mi riferivo proprio a questo aspetto (all'epoca di NV30, successe qualcosa di simile con le frequenze che, all'uscita del chip, erano state aumentate di 50 MHz rispetto alle speculazioni che circolavano in rete)
integro quanto detto riportando la tabella di hardware.fr
http://www.hardware.fr/articles/772-7/nvidia-fermi-revolution-gpu-computing.html
con frequenze dell'ordine di 1200 MHz per lo shader core, fermi avrebbe una potenza di calcolo teorica in MADD fp32 (a condizione che si riesca a trasformare le fma in madd senza problemi) di 1230 Gflops circa anzichè le 1640 (fma) della tabella. Il rapporto tra madd cypress/madd fermi diverrebbe pari a circa 2,2 contro il precedente rapporto tra rv790 e gt200 revb era di 1,92, con un peggioramento del 28%.
Vero che le frequenze dello shader core e, di conseguenza, le flops, non sono l'unico parametro per valutare le prestazioni di una gpu, però, in quello specifico ambito, con le frequenze dichiarate per la versione tesla, ci sarebbe un paggioramento relativo del 28% che porterebbe, allo stato attuale, fermi, a meno di colli di bottiglia altrove, ad essere più lento di cypress.
Quando parlavo di difficoltà a rilasciare bench da parte di nVidia per problemi con le frequenze mi riferivo proprio a questo aspetto (all'epoca di NV30, successe qualcosa di simile con le frequenze che, all'uscita del chip, erano state aumentate di 50 MHz rispetto alle speculazioni che circolavano in rete)
nulla di buono dunque, cosa ci dici su Northern Islands ?
yossarian
17-12-2009, 16:06
quindi, ipoteticamente parlando, si potrebbe dire che così fermi andrebbe meno della metà di cypress con i giochi....cioè quasi peggio di g200 :stordita:
vabbè che tu mi insegni che 1 singolo dato(in questo caso le flops teoriche) non dà l'idea delle prestazioni reali, giusto?
cmq piano piano i pezzi del puzzle si stanno incastrando, imho...
ne parlo poco sopra
e si imho.. xchè altrimenti basandoci solo su quel dato, allora anche le gt200 sarebbero dovute andare di meno rispetto alla rv770 ;)
c'è da tener conto della diversa efficenza di un'architetutra superscalare ed una parzialmente vliw. A parità di efficienza, anche senza le dx10.1, rv770 sarebbe più veloce di gt200.
Altro aspetto, secondario, ma che va messo in conto: GT200 ha alu madd+mul, fermi ha solo fam convertibili (in terora) in madd, quindi niente mul aggiuntiva. Vero che le mul sono decisamente meno usate, ma in caso si renda necessario calcolarne una mentre in gt200 si faceva madd e mul in un solo ciclo, su fermi ne servono 2.
appleroof
17-12-2009, 16:07
integro quanto detto riportando la tabella di hardware.fr
http://www.hardware.fr/articles/772-7/nvidia-fermi-revolution-gpu-computing.html
con frequenze dell'ordine di 1200 MHz per lo shader core, fermi avrebbe una potenza di calcolo teorica in MADD fp32 (a condizione che si riesca a trasformare le fma in madd senza problemi) di 1230 Gflops circa anzichè le 1640 (fma) della tabella. Il rapporto tra madd cypress/madd fermi diverrebbe pari a circa 2,2 contro il precedente rapporto tra rv790 e gt200 revb era di 1,92, con un peggioramento del 28%.
Vero che le frequenze dello shader core e, di conseguenza, le flops, non sono l'unico parametro per valutare le prestazioni di una gpu, però, in quello specifico ambito, con le frequenze dichiarate per la versione tesla, ci sarebbe un paggioramento relativo del 28% che porterebbe, allo stato attuale, fermi, a meno di colli di bottiglia altrove, ad essere più lento di cypress.
Quando parlavo di difficoltà a rilasciare bench da parte di nVidia per problemi con le frequenze mi riferivo proprio a questo aspetto (all'epoca di NV30, successe qualcosa di simile con le frequenze che, all'uscita del chip, erano state aumentate di 50 MHz rispetto alle speculazioni che circolavano in rete)
ottimo, chiarissimo :)
ma....pur sempre teorico giusto? No perchè sui forum c'è l'abitudine ad esaltarsi o a deprimersi alla velocità della luce :D :D
yossarian
17-12-2009, 16:10
nulla di buono dunque, cosa ci dici su Northern Islands ?
http://images.google.it/imgres?imgurl=http://homepage.mac.com/patholleran/ParkVision/ChannelIslands/ci-079.jpg&imgrefurl=http://www.shannontech.com/ParkVision/ChannelIslands/Channelislands.html&usg=__Mi8GfXBx3aXRzSSnTeFB222q2rE=&h=341&w=512&sz=44&hl=it&start=15&um=1&tbnid=TD4GRsJpNwG-EM:&tbnh=87&tbnw=131&prev=/images%3Fq%3Dnorthern%2Bislands%26hl%3Dit%26client%3Dfirefox-a%26channel%3Ds%26rls%3Dorg.mozilla:it:official%26sa%3DX%26um%3D1
:D
yossarian
17-12-2009, 16:11
ottimo, chiarissimo :)
ma....pur sempre teorico giusto? No perchè sui forum c'è l'abitudine ad esaltarsi o a deprimersi alla velocità della luce :D :D
certo, si parla sempre di teoria, in attesa dei primi bench. Diciamo che le mie perplessità sono di due tipi: frequenze di funzionamento e trasformazione indolore di fma in madd (ovvero senza rischio di artefatti).
Il primo problema si può risolvere, almeno in parte, aumentando le frequenze ma è probabile che, a tale scopo, servano ulteriri revisioni del chip (e i conti tornerebbero con la rev3 e, se necessario, una successiva per procedere epr gradi all'affinamento).
Il secondo, se dovesse rivelarsi un problema, sarebbe un disastro e non ci sarebbe rev4, 5, 10000 che tengano perchè dimezzerebbe la potenza di calcolo teorica del chip portandola al di sotto del livello di GT200 per il gaming.
Ma, poichè si parla di necesità di successive revisioni, sono portato a pensare che il problema attuale sia una scarsa competitività a causa delle basse frequenze (non bisogna dimenticare che, dopo tuto l'hype generato, prestazioni allineate o leggermente inferiori ma anche impercettibilmente superiori a quelle di cypress sarebbero interpretate come un fallimento)
ne parlo poco sopra
c'è da tener conto della diversa efficenza di un'architetutra superscalare ed una parzialmente vliw. A parità di efficienza, anche senza le dx10.1, rv770 sarebbe più veloce di gt200.
Altro aspetto, secondario, ma che va messo in conto: GT200 ha alu madd+mul, fermi ha solo fam convertibili (in terora) in madd, quindi niente mul aggiuntiva. Vero che le mul sono decisamente meno usate, ma in caso si renda necessario calcolarne una mentre in gt200 si faceva madd e mul in un solo ciclo, su fermi ne servono 2.
capito... :fagiano:
certo, si parla sempre di teoria, in attesa dei primi bench. Diciamo che le mie perplessità sono di due tipi: frequenze di funzionamento e trasformazione indolore di fma in madd (ovvero senza rischio di artefatti).
Il primo problema si può risolvere, almeno in parte, aumentando le frequenze ma è probabile che, a tale scopo, servano ulteriri revisioni del chip (e i conti tornerebbero con la rev3 e, se necessario, una successiva per procedere epr gradi all'affinamento).
Il secondo, se dovesse rivelarsi un problema, sarebbe un disastro e non ci sarebbe rev4, 5, 10000 che tengano perchè dimezerebbe la potenza di calcolo teorica del chip portandola al di sotto del livello di GT200 per il gaming.
Ma, poichè si parla di necesità di successive revisioni, sono portato a pensare che il problema attuale sia una scarsa competitività a causa delle basse frequenze (non bisogna dimenticare che, dopo tuto l'hype generato, prestazioni allineate o leggermente inferiori ma anche impercettibilmente superiori a quelle di cypress sarebbero interpretate come un fallimento)
hai ragione sotto tutti i punti di vista, ma secondo me sarebbe stato meglio per Nvidia far uscire le schede video con Fermi verso novembre rispetto a farle uscire a Marzo ottenendo gli stessi risultati non ti pare? Ati è avanti come architettura sotto tutti punti di vista e pensare che Cypress deriva proprio dal disastro r600
Per quanto riguarda Northern Islands è davvero la rivoluzione nel campo delle schede video che mi aspettavo da anni, fotorealismo :eek:
Per quanto riguarda Northern Islands è davvero la rivoluzione nel campo delle schede video che mi aspettavo da anni, fotorealismo :eek:Infatti è una foto. :sofico:
hai ragione sotto tutti i punti di vista, ma secondo me sarebbe stato meglio per Nvidia far uscire le schede video con Fermi verso novembre rispetto a farle uscire a Marzo ottenendo gli stessi risultati non ti pare? Ati è avanti come architettura sotto tutti punti di vista e pensare che Cypress deriva proprio dal disastro r600
Per quanto riguarda Northern Islands è davvero la rivoluzione nel campo delle schede video che mi aspettavo da anni, fotorealismo :eek:Infatti sono le foto del posto...
Organizziamo una gita? :stordita:
Infatti sono le foto del posto...
Organizziamo una gita? :stordita:
se mi ospiti vengo volentieri a trovarti :asd:
per quanto riguarda sto intoppo quanto bisognerà aspettare ancora per le schede video con Fermi? Marzo diventa utopico
yossarian
17-12-2009, 16:33
hai ragione sotto tutti i punti di vista, ma secondo me sarebbe stato meglio per Nvidia far uscire le schede video con Fermi verso novembre rispetto a farle uscire a Marzo ottenendo gli stessi risultati non ti pare? Ati è avanti come architettura sotto tutti punti di vista e pensare che Cypress deriva proprio dal disastro r600
si tratta di situazioni differenti; con r600 ATi aveva già scelto la strada del chip piccolo ed economico (anche se r600 era tutt'altro che piccolo, ma questo è dipeso dal fatto che il pp non era idoneo; il vero chip che sarebbe dovuto uscire era rv670). Al contrario, nVidia ha scelto una strada differente, ossia quella di privilegiare le prestazioni sacrificando l'aspetto economico (da questo punto di vista, la serie gt200 è stata un bagno di sangue). se fallisce con fermi, anche sotto il profilo prestazionale, il disastro sarebbe inevitabile (fermi è tutt'altro che economico).
Il rinviare il lancio, se è valida l'ipotesi delle basse frequenze, è dovuto al fatto che hanno bisogno di freuqenze più alte per avere un chip competitivo (che non venga vosto come un flop) e attualmente non le hanno raggiunte.
Per quanto riguarda Northern Islands è davvero la rivoluzione nel campo delle schede video che mi aspettavo da anni, fotorealismo :eek:
non è fotorealismo: è una foto dell'arcipelago delle northern islands. E' un modo come un altro per dire che non posso parlarne :D
si tratta di situazioni differenti; con r600 ATi aveva già scelto la strada del chip piccolo ed economico (anche se r600 era tutt'altro che piccolo, ma questo è dipeso dal fatto che il pp non era idoneo; il vero chip che sarebbe dovuto uscire era rv670). Al contrario, nVidia ha scelto una strada differente, ossia quella di privilegiare le prestazioni sacrificando l'aspetto economico (da questo punto di vista, la serie gt200 è stata un bagno di sangue). se fallisce con fermi, anche sotto il profilo prestazionale, il disastro sarebbe inevitabile (fermi è tutt'altro che economico).
Il rinviare il lancio, se è valida l'ipotesi delle basse frequenze, è dovuto al fatto che hanno bisogno di freuqenze più alte per avere un chip competitivo (che non venga vosto come un flop) e attualmente non le hanno raggiunte.
non è fotorealismo: è una foto dell'arcipelago delle northern islands. E' un modo come un altro per dire che non posso parlarne :D
Infatti quoto tutto che devo dire, purtroppo piu' si va avanti piu' la vedo grigia per Nvidia a meno di un riassetto societario e o una diversificazione massiccia del Business
Per quanto riguarda Northern Islands era un modo come u altro per capire se effettivamente c'era qualcosa oppure no...... e a quanto pare si :sofico:
Foglia Morta
17-12-2009, 16:43
non è fotorealismo: è una foto dell'arcipelago delle northern islands. E' un modo come un altro per dire che non posso parlarne :D
Ma ti risulta che i 32nm di TSMC ( shrink ottico dei 40nm ) siano stati silurati ? Io credo di no , eventualmente: esistono casi analoghi successi in passato ( di killeraggio di un processo produttivo ) ? Non devi parlare di ATi , parlaci di TSMC :D
Diobrando_21
17-12-2009, 16:48
io uguale sto benissimo e come prestazioni migliora di driver in driver è stata la piu bella scheda video che ho comprato ma rimango dell idea che una signle gpu scalda e consuma meno e sotto questo punto di vista vorrei che nvidia tirasse fuori un architettura top attenta anche ai consumi e alle temp!
purtroppo il micro-stuttering ce sempre stato dai tempi della gx2 di nvidia vale per tutte le x2 cosi come la compatibilità con aa e multischermo sopratutto se tv con uscita dvi(dx10 con schermo tv):cry: !(a volte mi è successo sopratutto all inizio con la x2 e dovevo aspettare driver che facessero scalare il multi-gpu senza bug)!
mi spiace ma quasi un anno di utilizzo e mai avuto stuttering...con nessun gioco con qualsiasi impostazioni...
Manca un tassello nel tuo ragionamento: a Novembre non c'era un Fermi funzionante.
anche questo è vero, se andasse male Fermi allora un riassetto societario sarebbe l'unica via per salvare il salvabile, Ati sta davvero correndo
Severnaya
17-12-2009, 17:07
noooo nvidia -_-'
lo dicevo io che potevano slatare una generazione :|
noooo nvidia -_-'
lo dicevo io che potevano slatare una generazione :|
a quanto pare lo stanno facendo :stordita:
Iantikas
17-12-2009, 18:04
io mi stavo kiedendo una cosa...
...ma quando partendo da gt200 (evoluzione di g80) hanno deciso di farlo evolvere in fermi, nn era proprio possibile ripartire da zero (o quasi) e creare una nuova arkitettura?...
...cioè nn potevano aspettarselo d'avere tutti questi problemi con fermi se già con gt200 avevano visto ke la strada incominciava a nn essere + tutta rosa e fiori?...
...ciao
appleroof
17-12-2009, 18:16
certo, si parla sempre di teoria, in attesa dei primi bench. Diciamo che le mie perplessità sono di due tipi: frequenze di funzionamento e trasformazione indolore di fma in madd (ovvero senza rischio di artefatti).
Il primo problema si può risolvere, almeno in parte, aumentando le frequenze ma è probabile che, a tale scopo, servano ulteriri revisioni del chip (e i conti tornerebbero con la rev3 e, se necessario, una successiva per procedere epr gradi all'affinamento).
Il secondo, se dovesse rivelarsi un problema, sarebbe un disastro e non ci sarebbe rev4, 5, 10000 che tengano perchè dimezerebbe la potenza di calcolo teorica del chip portandola al di sotto del livello di GT200 per il gaming.
Ma, poichè si parla di necesità di successive revisioni, sono portato a pensare che il problema attuale sia una scarsa competitività a causa delle basse frequenze (non bisogna dimenticare che, dopo tuto l'hype generato, prestazioni allineate o leggermente inferiori ma anche impercettibilmente superiori a quelle di cypress sarebbero interpretate come un fallimento)
assolutamente....
io mi stavo kiedendo una cosa...
...ma quando partendo da gt200 (evoluzione di g80) hanno deciso di farlo evolvere in fermi, nn era proprio possibile ripartire da zero (o quasi) e creare una nuova arkitettura?...
...cioè nn potevano aspettarselo d'avere tutti questi problemi con fermi se già con gt200 avevano visto ke la strada incominciava a nn essere + tutta rosa e fiori?...
...ciao
non credo sia così facile cambiare in corsa, sopratutto quando come in questo caso dovresti proprio stravolgere tutto
Kharonte85
17-12-2009, 18:30
ottimo, chiarissimo :)
ma....pur sempre teorico giusto? No perchè sui forum c'è l'abitudine ad esaltarsi o a deprimersi alla velocità della luce :D :D
Già...infatti mi sono chiuso nel più totale agnosticismo :D
Ormai penso che le risposte siano vicine...anche se il caso peggiore si verificasse attendere oltre sarebbe ancor più dannoso per nvidia.
appleroof
17-12-2009, 18:44
Già...infatti mi sono chiuso nel più totale agnosticismo :D
Ormai penso che le risposte siano vicine...anche se il caso peggiore si verificasse attendere oltre sarebbe ancor più dannoso per nvidia.
imho se andasse come la 5870, considerato i problemi ed il ritardo lo riterrei un buon risultato, ma quello che mi interessa di più sarà valutare le prestazioni con Unigine rispetto alla mia, imho l'unico vero benchmark dx11 attualmente in giro, piuttosto che con i soliti giochi dx9 che girano (e per tali intendo pure Dirt2, che di dx11 ha quanto Crysis aveva di dx10, in proporzione),,,,
imho se andasse come la 5870, considerato i problemi ed il ritardo lo riterrei un buon risultato, ma quello che mi interessa di più sarà valutare le prestazioni con Unigine rispetto alla mia, imho l'unico vero benchmark dx11 attualmente in giro, piuttosto che con i soliti giochi dx9 che girano (e per tali intendo pure Dirt2, che di dx11 ha quanto Crysis aveva di dx10, in proporzione),,,,
Imho se con sei mesi di ritardo si ritroverà ad andare "solo" come una 5870 sarà un flop... Per nn parlare di consumi e overclock, infatti con un die-size da 530mm^2 le cose nn saranno come uno da 334mm^2. E poi nn dimentichiamoci il costo di tale chip ad nvidia e quindi il prezzo finale. Nn scommetterei nemmeno un centesimo che se andasse come la 5870 verrebbe venduto a prezzi concorrenziali, anzi...
fdadakjli
17-12-2009, 19:06
penso che dopo tutto questo ritardo...se disgraziatamente avesse prestazioni analoghe alla 5870...sarebbe già un mezzo flop...se per giunta nvidia non lo cederà a prezzi estremamente competitivi sarebbe una gran bella zappata sui piedi... :read:
appleroof
17-12-2009, 19:08
Imho se con sei mesi di ritardo si ritroverà ad andare "solo" come una 5870 sarà un flop... Per nn parlare di consumi e overclock, infatti con un die-size da 530mm^2 le cose nn saranno come uno da 334mm^2. E poi nn dimentichiamoci il costo di tale chip ad nvidia e quindi il prezzo finale. Nn scommetterei nemmeno un centesimo che se andasse come la 5870 verrebbe venduto a prezzi concorrenziali, anzi...
un flop è stato r600, che dopo sei mesi andava molto meno di g80; quanto al discorso oc è relativo e prima di avere la vga in mano non si può dire nulla; quanto al prezzo, non è assolutamente detto che andrà come dici per i motivi che dici, anzi se la scheda andrà pressapoco come la 5870, è molto più probabile che verrà venduta più o meno a quel prezzo, ovviamente guadagnando molto meno di quanto faccia Ati con la 5870 (ma di questo a noi ce ne pò fregare de meno :D ) - addirittura Nvidia potrebbe decidere di coprire giusto i costi se non proprio perderci, nel caso peggiore: nel breve periodo l'azienda credo se lo possa permettere-
tutto imho, ovviamente per ora è il solito "per parlare"...
un flop è stato r600, che dopo sei mesi andava molto meno di g80; quanto al discorso oc è relativo e prima di avere la vga in mano non si può dire nulla; quanto al prezzo, non è assolutamente detto che andrà come dici per i motivi che dici, anzi se la scheda andrà pressapoco come la 5870, è molto più probabile che verrà venduta più o meno a quel prezzo, ovviamente guadagnando molto meno di quanto faccia Ati con la 5870 (ma di questo a noi ce ne pò fregare de meno :D ) - addirittura Nvidia potrebbe decidere di coprire giusto i costi se non proprio perderci, nel caso peggiore: nel breve periodo l'azienda credo se lo possa permettere-
tutto imho, ovviamente per ora è il solito "per parlare"...
se la gtx380 andasse come la 5870 per nvidia sarebbe una disgrazia perchè a breve sarà persentata la 5890 con una conseguente diminuizione di prezzo della 5870......:bsod:
appleroof
17-12-2009, 19:17
se la gtx380 andasse come la 5870 per nvidia sarebbe una disgrazia perchè a breve sarà persentata la 5890 con una conseguente diminuizione di prezzo della 5870......:bsod:
non ho detto che sarebbe un ottimo risultato, diciamo che sarebbe già buono proprio considerati tutti i problemi: a parità di situazione r600 fu deludente
poi disgrazia è un termine credo grosso: proprio la storia di r600 -e poi rv670- può essere indicativo di come le cose possano cambiare...
non ho detto che sarebbe un ottimo risultato, diciamo che sarebbe già buono proprio considerati tutti i problemi: a parità di situazione r600 fu deludente
poi disgrazia è un termine credo grosso: proprio la storia di r600 -e poi rv670- può essere indicativo di come le cose possano cambiare...
r600 80nm rv670 55nm, il die shrink dai 40nm ai 32-28nm la vedo assai piu' complicata come cosa ;)
un flop è stato r600, che dopo sei mesi andava molto meno di g80; quanto al discorso oc è relativo e prima di avere la vga in mano non si può dire nulla; quanto al prezzo, non è assolutamente detto che andrà come dici per i motivi che dici, anzi se la scheda andrà pressapoco come la 5870, è molto più probabile che verrà venduta più o meno a quel prezzo, ovviamente guadagnando molto meno di quanto faccia Ati con la 5870 (ma di questo a noi ce ne pò fregare de meno :D ) - addirittura Nvidia potrebbe decidere di coprire giusto i costi se non proprio perderci, nel caso peggiore: nel breve periodo l'azienda credo se lo possa permettere-
tutto imho, ovviamente per ora è il solito "per parlare"...
Abbiamo idee diverse, io concordo con i post di delly ed okorop. Cioè secondo me se ci sono sei mesi di ritardo e si riescono a malapena a prendere le prestazioni della 5870 sarà un mezzo flop, ovvio se andasse addirittura meno (quindi per intenderci come i casi R600 e Nv30) allora sarà un flop assolto. E poi cmq c'è da considerare la 5890 che la si può vedere un po' come la mossa che fece prima del rilascio di R600 Nvidia con la 8800 Ultra.
Poi per la questione prezzi scusa ma quando mai Nvidia è stata economica? La storia degli ultimi 3/4 racconta che la dove i prodotti Nvidia andavano come quelli di ATI avevano un costo maggiore ed invece quando vi erano prestazioni superiori (anche se di poco) i prodotti di Nvidia avevano un rapporto prezzo/prestazioni inferiore a quello di ATI. Che poi uno voglia il TOP è un altro è un altro paio di maniche ma la maggioranza del mercato nn è fatta da persone come Luca (Delly) o okorop ;)
fdadakjli
17-12-2009, 19:27
Abbiamo idee diverse, io concordo con i post di delly ed okorop. Cioè secondo me se ci sono sei mesi di ritardo e si riescono a malapena a prendere le prestazioni della 5870 sarà un mezzo flop, ovvio se andasse addirittura meno (quindi per intenderci come i casi R600 e Nv30) allora sarà un flop assolto. E poi cmq c'è da considerare la 5890 che la si può vedere un po' come la mossa che fece prima del rilascio di R600 Nvidia con la 8800 Ultra.
Poi per la questione prezzi scusa ma quando mai Nvidia è stata economica? La storia degli ultimi 3/4 racconta che la dove i prodotti Nvidia andavano come quelli di ATI avevano un costo maggiore ed invece quando vi erano prestazioni superiori (anche se di poco) i prodotti di Nvidia avevano un rapporto prezzo/prestazioni inferiore a quello di ATI. Che poi uno voglia il TOP è un altro è un altro paio di maniche ma la maggioranza del mercato nn è fatta da persone come Luca (Delly) o okorop ;)
quoto... ;)
r600 80nm rv670 55nm, il die shrink dai 40nm ai 32-28nm la vedo assai piu' complicata come cosa ;)
Nn solo ma i 32nm su Bulk nn esistono, esistono i 32nm SOI ma (da ignorante in materia) ho capito che pur nn sapendo le distinzioni costruire un circuito per Bulk e uno per SOI è differente (anche se con SOI ci sono maggiori vantaggio, come ad esempio un dielettrico minore)
maxmix65
17-12-2009, 20:03
Abbiamo idee diverse, io concordo con i post di delly ed okorop. Cioè secondo me se ci sono sei mesi di ritardo e si riescono a malapena a prendere le prestazioni della 5870 sarà un mezzo flop, ovvio se andasse addirittura meno (quindi per intenderci come i casi R600 e Nv30) allora sarà un flop assolto. E poi cmq c'è da considerare la 5890 che la si può vedere un po' come la mossa che fece prima del rilascio di R600 Nvidia con la 8800 Ultra.
Poi per la questione prezzi scusa ma quando mai Nvidia è stata economica? La storia degli ultimi 3/4 racconta che la dove i prodotti Nvidia andavano come quelli di ATI avevano un costo maggiore ed invece quando vi erano prestazioni superiori (anche se di poco) i prodotti di Nvidia avevano un rapporto prezzo/prestazioni inferiore a quello di ATI. Che poi uno voglia il TOP è un altro è un altro paio di maniche ma la maggioranza del mercato nn è fatta da persone come Luca (Delly) o okorop ;)
:eek: Minchi@ ma la 5890 viene quasi 650 eurozzi ...ma dai
:eek: Minchi@ ma la 5890 viene quasi 650 eurozzi ...ma daiA parte che la HD5890 non esiste ancora... esiste la HD5970 che non costa 650 euro.
Più che altro è difficile da trovarsi e la si trova con "disponibilità a breve" a 529 euro.
yossarian
17-12-2009, 20:16
Ma ti risulta che i 32nm di TSMC ( shrink ottico dei 40nm ) siano stati silurati ? Io credo di no , eventualmente: esistono casi analoghi successi in passato ( di killeraggio di un processo produttivo ) ? Non devi parlare di ATi , parlaci di TSMC :D
nell'ottica di tsma, anche i 40 hp nm (high performance) dovevano essere uno shrink ottico dei 45 lp (low power). In pratica si sono visti i risultati :D
Ovvero, i problemi sono stati analoghi a quelli di un full node.
La domanda che sorge spontanea è: vale la pena di tentare uno shink ottico di "questi" 40 nm o investire in un nuovo pp a 28 nm (il lp, nella roadmap, è previsto per il Q1 2010 e l'hp per il Q3 2010)?
Non si fa killeragio di un pp ma si può decidere di saltarne uno perchè reputato non idoneo. In quel caso, ad esempio per i 32 nm, ci sarebbero altri campi d'impiego (come è stato per i 45 nm di tsmc, utilizzati solo per dispositivi lp.
io mi stavo kiedendo una cosa...
...ma quando partendo da gt200 (evoluzione di g80) hanno deciso di farlo evolvere in fermi, nn era proprio possibile ripartire da zero (o quasi) e creare una nuova arkitettura?...
...cioè nn potevano aspettarselo d'avere tutti questi problemi con fermi se già con gt200 avevano visto ke la strada incominciava a nn essere + tutta rosa e fiori?...
...ciao
fermi, con gt200, condivide l'impostazine superscalare. Per il resto si tratta di un'architettura profondamente modificata
un flop è stato r600, che dopo sei mesi andava molto meno di g80; quanto al discorso oc è relativo e prima di avere la vga in mano non si può dire nulla; quanto al prezzo, non è assolutamente detto che andrà come dici per i motivi che dici, anzi se la scheda andrà pressapoco come la 5870, è molto più probabile che verrà venduta più o meno a quel prezzo, ovviamente guadagnando molto meno di quanto faccia Ati con la 5870 (ma di questo a noi ce ne pò fregare de meno :D ) - addirittura Nvidia potrebbe decidere di coprire giusto i costi se non proprio perderci, nel caso peggiore: nel breve periodo l'azienda credo se lo possa permettere-
tutto imho, ovviamente per ora è il solito "per parlare"...
differenti filosofie. R600 non era nato per prendere la leadership prestazionale, anzi non sarebbe dovuto neppure uscire a 80 nm. Il suo target erano i 55 nm e, nell'intento di AMD c'era l'idea di inaugurare il nuovo corso: chip economici, con elevate rese produttivi e minori porblemi nel passaggio da un pp ad un altro.
Visto nell'ottica dell'azienda, gt200 è stato un flop peggiore di nv30, perchè dal primo si è avuta una intera generazione di chip, con commercializzazione di tutti gli scarti; con gt200 questo non è avvenuto e le fasce media e bassa sono state coperte da derivati di g80. Ciò ha comportato notevoli perdite economiche perchè nVidia ha tutta una serie di chip, parzialmente funzionanti, invenduti ma che hanno avuto un costo di produzione pari a quello di una 280 o una 285 GTX.
Foglia Morta
17-12-2009, 20:39
nell'ottica di tsma, anche i 40 hp nm (high performance) dovevano essere uno shrink ottico dei 45 lp (low power). In pratica si sono visti i risultati :D
Ovvero, i problemi sono stati analoghi a quelli di un full node.
La domanda che sorge spontanea è: vale la pena di tentare uno shink ottico di "questi" 40 nm o investire in un nuovo pp a 28 nm (il lp, nella roadmap, è previsto per il Q1 2010 e l'hp per il Q3 2010)?
Non si fa killeragio di un pp ma si può decidere di saltarne uno perchè reputato non idoneo. In quel caso, ad esempio per i 32 nm, ci sarebbero altri campi d'impiego (come è stato per i 45 nm di tsmc, utilizzati solo per dispositivi lp.
Ad ottobre si parlava di gpu a 32nm , mi pare strano che dall' oggi al domani si decida di sostituire un processo produttivo che dovrebbe essere lo shrink ottico di quello attualmente utilizzato con un nuovo full-node con HKMG , quindi in teoria molto diverso. La diversità dei processi produttivi potrebbe ridurre la gpu successiva ad un mero "shrink" con die size dimezzato per ridurre i cambiamenti architetturali e minimizzare i rischi, pensavo che per offrire il miglior rapporto costo - prestazioni si potesse restare sugli 230 - 300 mm^2 . Ma per Q3 2010 cosa intendi ? Produzione di massa o altro ?
aaasssdddfffggg
17-12-2009, 20:50
nell'ottica di tsma, anche i 40 hp nm (high performance) dovevano essere uno shrink ottico dei 45 lp (low power). In pratica si sono visti i risultati :D
Ovvero, i problemi sono stati analoghi a quelli di un full node.
La domanda che sorge spontanea è: vale la pena di tentare uno shink ottico di "questi" 40 nm o investire in un nuovo pp a 28 nm (il lp, nella roadmap, è previsto per il Q1 2010 e l'hp per il Q3 2010)?
Non si fa killeragio di un pp ma si può decidere di saltarne uno perchè reputato non idoneo. In quel caso, ad esempio per i 32 nm, ci sarebbero altri campi d'impiego (come è stato per i 45 nm di tsmc, utilizzati solo per dispositivi lp.
fermi, con gt200, condivide l'impostazine superscalare. Per il resto si tratta di un'architettura profondamente modificata
differenti filosofie. R600 non era nato per prendere la leadership prestazionale, anzi non sarebbe dovuto neppure uscire a 80 nm. Il suo target erano i 55 nm e, nell'intento di AMD c'era l'idea di inaugurare il nuovo corso: chip economici, con elevate rese produttivi e minori porblemi nel passaggio da un pp ad un altro.
Visto nell'ottica dell'azienda, gt200 è stato un flop peggiore di nv30, perchè dal primo si è avuta una intera generazione di chip, con commercializzazione di tutti gli scarti; con gt200 questo non è avvenuto e le fasce media e bassa sono state coperte da derivati di g80. Ciò ha comportato notevoli perdite economiche perchè nVidia ha tutta una serie di chip, parzialmente funzionanti, invenduti ma che hanno avuto un costo di produzione pari a quello di una 280 o una 285 GTX.
Mi sa che sei uscito un pochino fuori strada su R600...
Tale chip non era nato per scalare la vetta prestazionale in ambito 3d?Ne sei così sicuro?Allora rinfreschiamoci un attimo le idee insieme.
Ecco cosa diceva e sventolava ATI prima del lancio :
""R600 sarà assolutamente il chip DirectX 9 più veloce che abbiamo mai prodotto," afferma Richard Huddy in una conferenza stampa a Londra.
A Mr. Huddy è stato domandato se R600, con architettura unified shader, si comporterà bene con i giochi DirectX 9,sviluppati per processori con unità pixel e vertex dedicate. La risposta citata qui sopra implica che chi comprerà R600, avrà una soluzione top class a tutto tondo.
R600 porterà più potenza.
Nel 2002 ATi svelò al mondo la prima GPU DirectX 9, due volte più veloce dell'offerta DirectX 8 di punta, la GeForce4 Ti.
Secondo ATi, R600 potrebbe ripetere il successo di allora, grazie a 64 processori shader unificati, 16 unità texture, frequenza di clock vicina ai 650 MHz e supporto al controller di memoria GDDR4. Secondo le fonti il rivale, Nvidia G80, avrà un numero minore di processori shader e sarà un "ibrido", ovvero non avrà un'architettura unificata. Tuttavia queste sono ancora voci di corridoio, le specifiche ufficiali non sono state rilasciate dalle aziende. "
....l'intenzione di stare davanti nvidia con questa soluzione (che sulla carta risultava pià avanti di g80)cera tutta ma che poi la storia recente ci ricorda come sono andate le cose con G80 di nvidia questo è un altro piao di maniche.:D
maxmix65
17-12-2009, 20:52
A parte che la HD5890 non esiste ancora... esiste la HD5970 che non costa 650 euro.
Più che altro è difficile da trovarsi e la si trova con "disponibilità a breve" a 529 euro.
:D Esiste esiste ;)
http://www.skycomp.com.au/product.aspx?id=200473
:D Esiste esiste ;)
http://www.skycomp.com.au/product.aspx?id=200473
uscirà quasi sicuramente nel 2010, quel prezzo è pompato visto che l'hanno inserita un mese prima del lancio ufficiale.......
maxmix65
17-12-2009, 20:54
uscirà quasi sicuramente nel 2010, quel prezzo è pompato visto che l'hanno inserita un mese prima del lancio ufficiale.......
:D Pero' esiste
Foglia Morta
17-12-2009, 20:54
Mi sa che sei uscito un pochino fuori strada su R600...
Tale chip non era nato per scalare la vetta prestazionale in ambito 3d?Ne sei così sicuro?Allora rinfreschiamoci un attimo le idee insieme.
Ecco cosa diceva e sventolava ATI prima del lancio :
""R600 sarà assolutamente il chip DirectX 9 più veloce che abbiamo mai prodotto," afferma Richard Huddy in una conferenza stampa a Londra.
A Mr. Huddy è stato domandato se R600, con architettura unified shader, si comporterà bene con i giochi DirectX 9,sviluppati per processori con unità pixel e vertex dedicate. La risposta citata qui sopra implica che chi comprerà R600, avrà una soluzione top class a tutto tondo. "
....che poi la storia recente ci ricorda come sono andate le cose con G80 di nvidia questo è un altro piao di maniche.:D
In ciò che ha detto Huddy è implicito che R600 sarebbe stato più performante di R580 , eppure è molto chiaro
:D Pero' esiste
certo che esiste, sarà la versione xtx della serie 58x0 :)
aaasssdddfffggg
17-12-2009, 20:58
In ciò che ha detto Huddy è implicito che R600 sarebbe stato più performante di R580 , eppure è molto chiaro
Non hai letto bene : "La risposta citata qui sopra implica che chi comprerà R600, avrà una soluzione top class a tutto tondo."
è un pò diverso.;)
Dai ragazzi adesso non giochiamo a nascondino sulla storia di R600.Doveva stracciare g80 (e tutti ne erano convinti,ATI stessa inclusa)con le sue specifiche tecniche ma poi le cose hanno preso una piega leggermente diversa...
Non hai letto bene : "La risposta citata qui sopra implica che chi comprerà R600, avrà una soluzione top class a tutto tondo."
è un pò diverso.;)
Dai ragazzi adeso non giochiamo a nascondino sulla storia di R600.Doveva stracciare g80 con le sue specifiche tecniche ma poi le cose hanno preso una piega leggermente diversa...
non è il thread dedicato sui perchè del fallimento di r600, ma bensi il thread aspettando Fermi ;)
Foglia Morta
17-12-2009, 21:00
Non hai letto bene : "La risposta citata qui sopra implica che chi comprerà R600, avrà una soluzione top class a tutto tondo."
è un poò diverso.;)
Ma quello è ciò che ha detto chi ha scritto l' articolo che non hai linkato. Le parole tra virgolette e che quindi immagino siano un copia incolla di quanto detto da Huddy dicono altro , ossia che sarebbe stato più performante di R580.
aaasssdddfffggg
17-12-2009, 21:01
Ma quello è ciò che ha detto chi ha scritto l' articolo che non hai linkato. Le parole tra virgolette e che quindi immagino siano un copia incolla di quanto detto da Huddy dicono altro , ossia che sarebbe stato più performante di R580.
Vabè,R600 era nato per stare dietro G80.Mettiamola così, così siete tutti contenti.:)
aaasssdddfffggg
17-12-2009, 21:04
non è il thread dedicato sui perchè del fallimento di r600, ma bensi il thread aspettando Fermi ;)
si certo,stavo riallacciandomi ad un commento di un utente.;)
gianni1879
17-12-2009, 21:06
non è il thread dedicato sui perchè del fallimento di r600, ma bensi il thread aspettando Fermi ;)
ecco appunto tagliate corto con queste affermazioni, se ne è discusso già abbastanza nel passato.
aaasssdddfffggg
17-12-2009, 21:26
:D Pero' esiste
e sarà proprio con quella scheda che Fermi dovrà confrontarsi per la leadership prestazionale a singola GPU.
Ati la tiene pronta proprio in via dell'arrivo di FERMI sempre previsto per il Q1 2010 che ricordiamo va dal 26 gennaio al 26 aprile 2010.
yossarian
17-12-2009, 21:48
Mi sa che sei uscito un pochino fuori strada su R600...
Tale chip non era nato per scalare la vetta prestazionale in ambito 3d?Ne sei così sicuro?Allora rinfreschiamoci un attimo le idee insieme.
Ecco cosa diceva e sventolava ATI prima del lancio :
""R600 sarà assolutamente il chip DirectX 9 più veloce che abbiamo mai prodotto," afferma Richard Huddy in una conferenza stampa a Londra.
A Mr. Huddy è stato domandato se R600, con architettura unified shader, si comporterà bene con i giochi DirectX 9,sviluppati per processori con unità pixel e vertex dedicate. La risposta citata qui sopra implica che chi comprerà R600, avrà una soluzione top class a tutto tondo.
R600 porterà più potenza.
Nel 2002 ATi svelò al mondo la prima GPU DirectX 9, due volte più veloce dell'offerta DirectX 8 di punta, la GeForce4 Ti.
Secondo ATi, R600 potrebbe ripetere il successo di allora, grazie a 64 processori shader unificati, 16 unità texture, frequenza di clock vicina ai 650 MHz e supporto al controller di memoria GDDR4. Secondo le fonti il rivale, Nvidia G80, avrà un numero minore di processori shader e sarà un "ibrido", ovvero non avrà un'architettura unificata. Tuttavia queste sono ancora voci di corridoio, le specifiche ufficiali non sono state rilasciate dalle aziende. "
....l'intenzione di stare davanti nvidia con questa soluzione (che sulla carta risultava pià avanti di g80)cera tutta ma che poi la storia recente ci ricorda come sono andate le cose con G80 di nvidia questo è un altro piao di maniche.:D
sei tu che sei fuori strada: le parole testuali di Huddy sono quelle riportate in neretto, il resto sono tutte congetture di chi ha scritto l'articolo. Ora, non credo che tu possa confutare quanti affermato da Richard Huddy e neppure si può ritenere ATi responsabile di come vengono interpretate le parole di un suo dipendente. La dimostrazione che si tratta di pure illazioni è data da ciò che dice di G80. In ATi sapevano perfettamente che G80 sarebbe stato a shader unificati, contrariamente a quanto riportavano le fonti dell'articolista :D
Andrea deluxe
17-12-2009, 21:55
Il suo target erano i 55 nm e, nell'intento di AMD c'era l'idea di inaugurare il nuovo corso: chip economici, con elevate rese produttivi e minori porblemi nel passaggio da un pp ad un altro.
io mi ricordo che questo e' avvenuto dopo r600.....
http://www.amdplanet.it/art_img/sergio-news/R600_4_c.jpg
e se non ricordo male.... il progetto era tutto ati....
in quel periodo amd stava aquisendo quest'ultima....
aaasssdddfffggg
17-12-2009, 22:01
sei tu che sei fuori strada: le parole testuali di Huddy sono quelle riportate in neretto, il resto sono tutte congetture di chi ha scritto l'articolo. Ora, non credo che tu possa confutare quanti affermato da Richard Huddy e neppure si può ritenere ATi responsabile di come vengono interpretate le parole di un suo dipendente. La dimostrazione che si tratta di pure illazioni è data da ciò che dice di G80. In ATi sapevano perfettamente che G80 sarebbe stato a shader unificati, contrariamente a quanto riportavano le fonti dell'articolista :D
Mhumm,non erano quelle di stare dietro G80, le intenzioni di ATI con R600.
Mi ricordo ancora quando si aspettavano i cossidetti "driver miracolosi" che dovevano farla andare come sarebbe dovuta andare.....ma non arrivarono mai.:D
yossarian
17-12-2009, 22:04
Ad ottobre si parlava di gpu a 32nm , mi pare strano che dall' oggi al domani si decida di sostituire un processo produttivo che dovrebbe essere lo shrink ottico di quello attualmente utilizzato con un nuovo full-node con HKMG , quindi in teoria molto diverso.
diverso anche nella pratica ma, proprio perchè più "sofisticato", meno afflitto da potenziali rischi. Diciamo che questo half node o shrink ottico non è venuto molto bene (e tsmc ha le sue responsabilità poichè ha scelto un processo non idoneo a chip ad alte prestazioni come base di partenza). C'è da vedere quanto si riesce ad ottimizzare i 40 nm prima di prendere una decisione definitiva. Una pessima base di partenza può essere origine di nuovi problemi analoghi agli attuali.
La diversità dei processi produttivi potrebbe ridurre la gpu successiva ad un mero "shrink" con die size dimezzato per ridurre i cambiamenti architetturali e minimizzare i rischi,
comunque il passaggio a 28 nm è considerato un full node anche dalla stessa tsmc, poichè fa uso di tecnologie più avanzate rispetto a quello a 32. C'è solo da valutare se vale la pena di effettuare subito il passaggio o tentare la tappa intermedia dello shrink ottico dei 40nm. L'alternativa sarebbe mettere in produzione, a 28 nm, qualche derivato da rv870 di fascia bassa e poi iniziare la produzione della generazione successiva.
pensavo che per offrire il miglior rapporto costo - prestazioni si potesse restare sugli 230 - 300 mm^2 .
il goal fissato da amd per il die size è di circa 250-260 mm^2 (comunque non oltre i 270). Rv870 è già abbondantemente fuori da questo range :D
Ma per Q3 2010 cosa intendi ? Produzione di massa o altro ?
disponibilità del pp, ovvero il momento in cui ci si può iniziare a lavorare su. Per la produzione di massa passerà sicuramente più tempo (molto dipende da quanto tempo impieghi ad adattare il tuo progetto al nuovo pp o, se preferisci, viceversa; per questo si effettuano le transizioni sempre partendo da chip relativamente poco complessi e architetture stracollaudate).
:D Pero' esisteIl prodotto esiste quando è stato presentato, se ne conoscono le potenzialità (test) ed è in vendita. Come può esistere qualcosa che non ha ancora nessuno?
Fintanto non viene presentato e messo in vendita, non esiste; domani ATI potrebbe decidere di non fare uscire mai HD5890.
Poi come hai fatto ad arrivare a quasi 640 euro da 1.014 dollari, proprio non lo capisco, visto che sarebbe di più (707 euro) anche senza contare che solitamente i prodotti passano da dollari ad euro 1:1. Inoltre secondo te una HD5890 (Singola GPU) può costare più di una HD5970 (Dual-GPU)? Io non credo proprio.
Non facevi prima a dire che ti eri confuso?
yossarian
17-12-2009, 22:08
io mi ricordo che questo e' avvenuto dopo r600.....
http://www.amdplanet.it/art_img/sergio-news/R600_4_c.jpg
e se non ricordo male.... il progetto era tutto ati....
in quel periodo amd stava aquisendo quest'ultima....
infatti l'idea dei chip di dimensioni ridotte parte da ATi. Le alu vliw servono essenzialmente a ridurre la complessità dei circuiti logici e, di conseguenza, le dimensioni del chip
Mhumm,non erano quelle di stare dietro G80, le intenzioni di ATI con R600.
Mi ricordo ancora quando si aspettavano i cossidetti "driver miracolosi" che dovevano farla andare come sarebbe dovuta andare.....ma non arrivarono mai.:D
parli di ciò che ha detto ATi o delle aspettative degli utenti di forum? :p
aaasssdddfffggg
17-12-2009, 22:09
infatti l'idea dei chip di dimensioni ridotte parte da ATi. Le alu vliw servono essenzialmente a ridurre la complessità dei circuiti logici e, di conseguenza, le dimensioni del chip
parli di ciò che ha detto ATi o delle aspettative degli utenti di forum? :p
delle aspettative degli utenti del forum .....perchè ati aveva promesso loro una gpu velocissima.:D
Diciamo che chi ha ancora R600 nel case li sta ancora aspettando.La speranza è sempre l'ultima a morire...
parli di ciò che ha detto ATi o delle aspettative degli utenti di forum? :p
bhe, ricordo che qui in molti si sono strappati i capelli dalla disperazione :p E magari ora sarà il turno di chi attende Fermi.... un pò per uno :D
aaasssdddfffggg
17-12-2009, 22:12
bhe, ricordo che qui in molti si sono strappati i capelli dalla disperazione :p E magari ora sarà il turno di chi attende Fermi.... un pò per uno :D
io continuo a dare all'uscita di FERMI un 20-30 % (media dei bench) sulla 5870 da parte della geforce 380.Vediamo se ci prenderò...
Andrea deluxe
17-12-2009, 22:20
io continuo a dare all'uscita di FERMI un 20-30 % (media dei bench) sulla 5870 da parte della geforce 380.Vediamo se ci prenderò...
http://91.121.132.199/gifs/9708.gif
speriamooooooo!!!!
fdadakjli
17-12-2009, 22:34
speriamooooooo!!!!
lol...hihihihi... :sofico:
Andrea deluxe
17-12-2009, 22:37
lol...hihihihi... :sofico:
o lu, metti i 9.12 ufficiali ufficiali.....
frullano........
Anche questo... è chiaramente un fake!
Andrea deluxe
17-12-2009, 22:38
Anche questo... è chiaramente un fake!
:sbonk:
Anche questo... è chiaramente un fake!
:asd:
fdadakjli
17-12-2009, 22:41
o lu, metti i 9.12 ufficiali ufficiali.....
frullano........
già scaricati...domani li installo...sempre meglio questi catalyst... :cool:
hai notato miglioramenti anche rispetto ai 9.12 datati 14dic????
Andrea deluxe
17-12-2009, 22:42
già scaricati...domani li installo...sempre meglio questi catalyst... :cool:
hai notato miglioramenti anche rispetto ai 9.12 datati 14dic????
si!
14dicembre= dirt scattava
16dicembre= dirt non scatta piu'
:D
si!
14dicembre= dirt scattava
16dicembre= dirt non scatta piu'
:D
Andrea mi stai facendo scompisciare dal ridere :asd: con sti driver Ati o ne fa troppi o troppo pochi e non ci si capisce una mazza lo stesso :asd:
Andrea deluxe
17-12-2009, 22:47
Andrea mi stai facendo scompisciare dal ridere :asd: con sti driver Ati o ne fa troppi o troppo pochi e non ci si capisce una mazza lo stesso :asd:
o ma che ci posso fare.......:O
fino a ieri mi scattava e oggi no.....:D
io pero' lo dico...... :rolleyes:
fdadakjli
17-12-2009, 22:48
Andrea mi stai facendo scompisciare dal ridere :asd: con sti driver Ati o ne fa troppi o troppo pochi e non ci si capisce una mazza lo stesso :asd:
nel dubbio noi li proviamo tutti... :asd:
Kharonte85
17-12-2009, 23:06
parli di ciò che ha detto ATi o delle aspettative degli utenti di forum? :p
Vabbe' di sicuro non si saranno impegnati per farlo andare meno di G80...:sofico:
Diciamo pure che di per se R600 non andava nemmeno male in proporzione alla precedente generazione di schede ATI, era G80 che ha fatto un exploit esagerato, rendendo di fatto R600 un FLOP.
Come se un domani Fermi uscisse e riuscisse ad andare col suo modello di punta --> GTX 380 (o quel che sarà) quanto la HD5850...:fagiano:
Cut
speriamooooooo!!!!
Ma che film é? :rotfl:
veltosaar
17-12-2009, 23:57
:D Esiste esiste ;)
http://www.skycomp.com.au/product.aspx?id=200473
uscirà quasi sicuramente nel 2010, quel prezzo è pompato visto che l'hanno inserita un mese prima del lancio ufficiale.......
certo che esiste, sarà la versione xtx della serie 58x0 :)
Scusate ma la 5890 a 1014 dollari (800 euro) non vi sembrano troppe?
Io dico che la 380 dovrà essere almeno pari alla 5890 per avere mercato.
La 5990 di cui si parla (che potrebbe anche chiamarsi 5980) dovrebbe essere una 5870x2..
Mi chiedo se faranno mai una 5990 fatta con 2 5890. Questo ad esempio con la serie 4xxx non è successo.
Non esiste una 4890x2.
PS: inoltre ricordo che la 4870x2 era effettivamente una 4870x2 mentre la 5970 è una 5850x2 ;D
Scusate ma la 5890 a 1014 dollari (800 euro) non vi sembrano troppe?
Io dico che la 380 dovrà essere almeno pari alla 5890 per avere mercato.
La 5990 di cui si parla (che potrebbe anche chiamarsi 5980) dovrebbe essere una 5870x2..
Mi chiedo se faranno mai una 5990 fatta con 2 5890. Questo ad esempio con la serie 4xxx non è successo.
Non esiste una 4890x2.
PS: inoltre ricordo che la 4870x2 era effettivamente una 4870x2 mentre la 5970 è una 5850x2 ;D
Ancora vanno in giro ste storie che la 5970 sono 2 5850? Non vi piace molto leggere le recensioni eh? :D
Dunque, la 5970 è formata da 2 gpu 5870, downcloccate alle frequenze della 5850 per poter restare sotto la soglia dei 300w di consumo massimo e per non dare troppi problemi di surriscaldamento, dato che i primi driver non sono assolutamente maturi. Molte persone l'hanno portata senza alcun problema alle frequenze della 5870, ma hanno detto tutti che è inutile :asd:
Quindi ricordate bene che il motivo per cui le frequenze della 5970 sono uguali a quelle della 5850 è per rimanere sotto i 300w di consumo massimo, ma le gpu sono 2 5870.
Spero adesso sia chiaro ;)
Scusate ma la 5890 a 1014 dollari (800 euro) non vi sembrano troppe?
Io dico che la 380 dovrà essere almeno pari alla 5890 per avere mercato.
La 5990 di cui si parla (che potrebbe anche chiamarsi 5980) dovrebbe essere una 5870x2..
Mi chiedo se faranno mai una 5990 fatta con 2 5890. Questo ad esempio con la serie 4xxx non è successo.
Non esiste una 4890x2.
PS: inoltre ricordo che la 4870x2 era effettivamente una 4870x2 mentre la 5970 è una 5850x2 ;D
si, è decisamente troppo...
per il resto...
per me è inutile fare sti ragionamenti... magari non fanno un bel niente XD
si, è decisamente troppo...
per il resto...
per me è inutile fare sti ragionamenti... magari non fanno un bel niente XD
Ragazzi ma possibile che credevate veramente che questa (http://www.skycomp.com.au/product.aspx?id=200473) scheda fosse la 5890?? Vi svelo il segreto: hanno sbagliato a digitare il nome, dovevano scrivere "5970" ma hanno scritto "5890"! :asd:
Quella è una Asus EAH5970, guardate sotto al prezzo e vedrete che c'è scritto "Model: EAH5970-2DIS-2GD5" :D :D
Svelato il mistero ;)
halduemilauno
18-12-2009, 07:03
http://www.legitreviews.com/news/6999/
sempre in attesa di tutti i riscontri del caso.
Riporto per dovere d' informazione...
http://www.facebook.com/NVIDIA?v=feed&story_fbid=208604209109
Foglia Morta
18-12-2009, 07:39
Per fortuna che ci ricordano di 3d vision e physics ( che poi intende Physx ).
http://www.computerworld.com/s/article/9142411/AMD_s_lead_with_DirectX_11_is_insignificant_Nvidia_says?source=rss_hardware
AMD's lead with DirectX 11 is 'insignificant,' Nvidia says
IDG News Service - Nvidia brushed off the technology lead that rival Advanced Micro Devices built by releasing the first graphics chips to support DirectX 11, saying the release only gives AMD a short-term advantage that won't have a long-term effect on the graphics market.
The marginal advantage of beating Nvidia to market is overshadowed by wider changes in the graphics processing market, which is moving from just graphics processing to handling parallel computing tasks, said Michael Hara, senior vice president of investor relations and communications of Nvidia, at the Barclays Capital Global Technology Conference in San Francisco last week. Hara's remarks were carried online in a webcast.
"We go through revolutionary changes every three of four years, and that's exactly where we're at today. ...The next big evolution in the API world has come with DirectX 11 (DX11), but we believe that's a part of the experience," Hara said, adding that other technologies, including 3D stereo and physics, are also important.
DirectX 11 was introduced with the release of Windows 7 and includes several improvements over previous versions of the graphics programming technology, including tessalation for displaying smoother curved surfaces, support for multi-core processors, and DirectCompute, which allows developers to harness the parallel processing power of graphics chips for other tasks, such as video editing.
"To us, being out of sync with the API for a couple of months isn't as important as what we're trying to do in the big scheme of things for the next four or five years. We're just around the corner from preparing our next GeForce and the experience of what you'll see in 3D, what you'll feel in physics, and the improvements you get in graphics will be obvious to the market," he said.
Nvidia's upcoming GeForce chip, called Fermi, will support DX11. Nvidia has taken heat from observers over low Fermi production yields and a mock-up graphics board that the company showed off at its GPU Technology Conference on September 30. But Hara said the company would be vindicated when Fermi hits the market.
"This 60-day lag between these events of when our competition has DX11 and when we're coming to market will absolutely seem insignificant in the big picture," Hara said.
"We're almost there. ...In Q1, the world will get to see what we've done with Fermi," he said.
halduemilauno
18-12-2009, 07:44
Riporto per dovere d' informazione...
http://www.facebook.com/NVIDIA?v=feed&story_fbid=208604209109
se ne parla qui...
http://www.donanimhaber.com/Nvidia_Fermi_donanimsal_overclock_destegi_ile_geliyor-17140.htm
Kharonte85
18-12-2009, 08:25
http://www.legitreviews.com/news/6999/
sempre in attesa di tutti i riscontri del caso.
Chissà perchè non mi stupirebbe...:sofico:
Riporto per dovere d' informazione...
NVIDIA Fun Fact of the Week: GF100 graphics cards will provide hardware support for GPU overvoltaging for extreme overclocking!
http://www.facebook.com/NVIDIA?v=feed&story_fbid=208604209109
Interessante per chi ama stuprare le schede video...:D
Ragazzi ma possibile che credevate veramente che questa (http://www.skycomp.com.au/product.aspx?id=200473) scheda fosse la 5890?? Vi svelo il segreto: hanno sbagliato a digitare il nome, dovevano scrivere "5970" ma hanno scritto "5890"! :asd:
Quella è una Asus EAH5970, guardate sotto al prezzo e vedrete che c'è scritto "Model: EAH5970-2DIS-2GD5" :D :D
Svelato il mistero ;)
ma chi l'ha mai pensato infatti....
aaasssdddfffggg
18-12-2009, 10:21
http://www.fudzilla.com/content/view/16904/1/
bene così,e andiamo avanti per FERMI.:)
Chissà perchè non mi stupirebbe...:sofico:
Interessante per chi ama stuprare le schede video...:D
:eek: caspita che nuova feature e si che in nvidia innovano :eek:
le ati hanno i volterra dalla serie 38x0 :asd: proprio una notizia non notizia.........
http://www.fudzilla.com/content/view/16904/1/
bene così,e andiamo avanti per FERMI.:)
Certo che nVidia non si smentisce mai :asd:
Come previsto da molti utenti nei scorsi post, l'attenzione non si è portata sulle perfomance in game, ma si parla di 3D, physx e tamarrate varie... per loro la scheda più veloce del mondo lo è perchè può far girare physx... mah... :doh:
Certo che nVidia non si smentisce mai :asd:
Come previsto da molti utenti nei scorsi post, l'attenzione non si è portata sulle perfomance in game, ma si parla di 3D, physx e tamarrate varie... per loro la scheda più veloce del mondo lo è perchè può far girare physx... mah... :doh:
certo che se cosi fosse sarà una ciofeca al 200% vedrete :asd:
aaasssdddfffggg
18-12-2009, 10:33
:eek: caspita che nuova feature e si che in nvidia innovano :eek:
le ati hanno i volterra dalla serie 38x0 :asd: proprio una notizia non notizia.........
e ridaie con ste ati.sembra più un forum per ati che di nvidia questo.
Possibile che ogni notizia che venga fuori su FERMI sià da scartare o insignificante? Pensate voi se a marzo Fermi non dovesse deludere.Spero soltanto che allora,questo forum non si spopoli...:D
aaasssdddfffggg
18-12-2009, 10:35
certo che se cosi fosse sarà una ciofeca al 200% vedrete :asd:
infatti vedremo...soltanto a marzo se sarà una ciofeca.Non possiamo dirlo a dicembre...
è chiaro che se Fermi dovesse superare anche di "solo" un 5% la top di gamma ati a singola gpu presente in quel momento sul mercato, allora vuol dire che,seguendo il tuo discorso,ATi abbia tirato fuori un vero disastro.:cool:
e ridaie con ste ati.sembra più un forum per ati che di nvidia questo.
Possibile che ogni notizia che venga fuori su FERMI sià da scartare o insignificante? Pensate voi se a marzo Fermi non dovesse deludere.Spero soltanto che allora,questo forum non si spopoli...:D
E tu pensa se mamma nVidia non regala il giocattolino da 1000 euro con il quale i fanboy figli di papà possono fare i spacconi... :D :D :D
aaasssdddfffggg
18-12-2009, 10:39
E tu pensa se mamma nVidia non regala il giocattolino da 1000 euro con il quale i fanboy figli di papà possono fare i spacconi... :D :D :D
io non mi pronuncio più di tanto perchè ancora non si sa nulla.Ma qui dentro sembra che nvidia stia calpestando il cimitero...mi sembra un tantino eccessivo.
Io la dò sempre per un 20-30 % sulla media bench comunque.:)
Comunque Marzo non è lontansisimo.Poi l'avremo tutti sottomano e finalmente potremmo trarre le conclusioni in modo più accurato...
ciccionamente90
18-12-2009, 10:39
Evidentemente sta puntando ad una forte differenziazione... c'è anche da vedere come reagiscono le software-house, comunque non credo proprio che butteranno nel marcato una schedina da niente. Evidentemente prevede che nel LP le cose gli andranno bene, comunque adesso (e nell'immediato futuro) ha dei buoni introiti con 3d vision (tra l'altro in via di concessione anche per il blu-ray) e Tegra (che sembrerebbe concesso a Motorola e Samsung).
Abbiate pazienza :D
Poi ovvio che la storia delle DX11 è un po' quella della volpe e l'uva...
infatti vedremo...soltanto a marzo se sarà una ciofeca.Non possiamo dirlo a dicembre...
è chiaro che se Fermi dovesse superare anche di "solo" un 5% la top di gamma ati a singola gpu presente in quel momento sul mercato, allora vuol dire che,seguendo il tuo discorso,ATi abbia tirato fuori un vero disastro.:cool:
io lo avevo detto che se continuavano con 3d vision physx cuda blu ray 3d e cavolate varie ritengo che Nvidia con Fermi non abbia qualcosa d'altro da offrire, aspettiamo i bench spero che vada bene, ma credo stia troppo marcando il contorno rispetto alle reali performance
io lo avevo detto che se continuavano con 3d vision physx cuda blu ray 3d e cavolate varie ritengo che Nvidia con Fermi non abbia qualcosa d'altro da offrire, aspettiamo i bench spero che vada bene, ma credo stia troppo marcando il contorno rispetto alle reali performance
Quoto!!
E poi parliamoci chiaro, physx non ha vita lunga ;)
aaasssdddfffggg
18-12-2009, 10:42
io lo avevo detto che se continuavano con 3d vision physx cuda blu ray 3d e cavolate varie ritengo che Nvidia con Fermi non abbia qualcosa d'altro da offrire, aspettiamo i bench spero che vada bene, ma credo stia troppo marcando il contorno rispetto alle reali performance
ma tanto non scappa mica....lo sa benisimo nvidia che nei prossimi tre mesi il mondo conoscerà e toccherà con mano FERMI.
Non capisco che tipo di giochetti ,secondo te,starebbe facendo...
Life bringer
18-12-2009, 10:43
Ma scusate... non era gennaio, pagine indietro ricordo di aver letto gennaio per il momento della verità? Ora leggo marzo... fra 2 giorni passiamo a luglio? :asd:
aaasssdddfffggg
18-12-2009, 10:44
Ma scusate... non era gennaio, pagine indietro ricordo di aver letto gennaio per il momento della verità? Ora leggo marzo... fra 2 giorni passiamo a luglio? :asd:
marzo per il mercato di massa.leggiamoli i post e commenti vari però.:)
ma tanto non scappa mica....lo sa benisimo nvidia che nei prossimi tre mesi il mondo conoscerà e toccherà con mano FERMI.
Non capisco che tipo di giochetti ,secondo te,starebbe facendo...
Secondo la nostra teoria sta calcando i contorni ed evita di parlare delle vere performance in gaming perchè non è così performante come ci si aspetta. Quindi cercano di puntare l'attenzione su altre feauters...
veltosaar
18-12-2009, 10:45
Ancora vanno in giro ste storie che la 5970 sono 2 5850? Non vi piace molto leggere le recensioni eh? :D
Dunque, la 5970 è formata da 2 gpu 5870, downcloccate alle frequenze della 5850 per poter restare sotto la soglia dei 300w di consumo massimo e per non dare troppi problemi di surriscaldamento, dato che i primi driver non sono assolutamente maturi. Molte persone l'hanno portata senza alcun problema alle frequenze della 5870, ma hanno detto tutti che è inutile :asd:
Quindi ricordate bene che il motivo per cui le frequenze della 5970 sono uguali a quelle della 5850 è per rimanere sotto i 300w di consumo massimo, ma le gpu sono 2 5870.
Spero adesso sia chiaro ;)
Si hai ragione. Ma che intendi per "è inutile aumentare le frequenze a quella della 5870"? E comunque, con questa soglia dei 300w non uscirà MAI una 5990 :rolleyes:
si, è decisamente troppo...
per il resto...
per me è inutile fare sti ragionamenti... magari non fanno un bel niente XD
Che intendi per troppo?
Ragazzi ma possibile che credevate veramente che questa (http://www.skycomp.com.au/product.aspx?id=200473) scheda fosse la 5890?? Vi svelo il segreto: hanno sbagliato a digitare il nome, dovevano scrivere "5970" ma hanno scritto "5890"! :asd:
Quella è una Asus EAH5970, guardate sotto al prezzo e vedrete che c'è scritto "Model: EAH5970-2DIS-2GD5" :D :D
Svelato il mistero ;)
Hai ragione.. ;D Però non ho dubbi che uscirà prima o poi.
Quoto!!
E poi parliamoci chiaro, physx non ha vita lunga ;)
physx è insignificante non le dx11 :asd:
aaasssdddfffggg
18-12-2009, 10:47
Speriamo
i processi andranno magari fatti a carte scoperte...;)
Si hai ragione. Ma che intendi per "è inutile aumentare le frequenze a quella della 5870"? E comunque, con questa soglia dei 300w non uscirà MAI una 5990 :rolleyes:
E' inutile aumentare le frequenze perchè già va fortissimo così con i giochi attuali, poi in futuro si vedrà ;)
La 5990 potrebbe uscire, perchè cmq affineranno sicuramente i consumi... anche se sarà cmq difficile.
Kharonte85
18-12-2009, 10:48
io lo avevo detto che se continuavano con 3d vision physx cuda blu ray 3d e cavolate varie ritengo che Nvidia con Fermi non abbia qualcosa d'altro da offrire, aspettiamo i bench spero che vada bene, ma credo stia troppo marcando il contorno rispetto alle reali performance
Secondo questa logica quando AMD/ATI ha presentato eyenfinity ancor prima di diffondere le prestazioni si poteva dedurre la stessa cosa...a me sembra normale che Nvidia spinga anche sulle sue tecnologie proprietarie :boh: non è una novità lo fa da un bel po' e lo fa sempre...è marketing.
Secondo questa logica quando AMD/ATI ha presentato eyenfinity ancor prima di diffondere le prestazioni si poteva dedurre la stessa cosa...a me sembra normale che Nvidia spinga anche sulle sue tecnologie proprietarie :boh: non è una novità lo fa da un bel po' e lo fa sempre...è marketing.
Eyefinity è una feature nuova, puoi dire che sia poco sfruttata puoi dire che serve a poco, ma dopo una settimana dalla presentazione di eyefinity ecco le 5870 e i benchmark, i benchmark di fermi saran mostrati tutti tra 2 mesi, bene cosi questo non è marketing è una presa per il :ciapet:
aaasssdddfffggg
18-12-2009, 10:50
Secondo questa logica quando AMD/ATI ha presentato eyenfinity ancor prima di diffondere le prestazioni si poteva dedurre la stessa cosa...a me sembra normale che Nvidia spinga anche sulle sue tecnologie proprietarie :boh: non è una novità lo fa da un bel po' e lo fa sempre...è marketing.
è del tutto leggittimo fare ciò.Dici bene.Non ce proprio nulla di strano in questo.Ma proprio nulla.;)
è del tutto leggittimo fare ciò.Dici bene.Non ce proprio nulla di strano in questo.Ma proprio nulla.;)
E non è del tutto legittimo mostrare performance per il vero ambito per il quale sono importanti le vga, ovvero il gaming?
Ma non c'è problema, aspettiamo aspettiamo, però il buongiorno si vede dal mattino ;)
Kharonte85
18-12-2009, 10:57
Eyefinity è una feature nuova, puoi dire che sia poco sfruttata puoi dire che serve a poco, ma dopo una settimana dalla presentazione di eyefinity ecco le 5870 e i benchmark, i benchmark di fermi saran mostrati tutti tra 2 mesi, bene cosi questo non è marketing è una presa per il :ciapet:
No una presa per il :ciapet: sarebbe se dicesse che le presentano domani quando invece non è così.
E non è del tutto legittimo mostrare performance per il vero ambito per il quale sono importanti le vga, ovvero il gaming?
Ma non c'è problema, aspettiamo aspettiamo, però il buongiorno si vede dal mattino ;)
E' leggittimo farlo quando puoi farlo e quando ti conviene farlo.
Non c'è altro da aggiungere...il resto è complottismo spicciolo.
aaasssdddfffggg
18-12-2009, 10:58
E non è del tutto legittimo mostrare performance per il vero ambito per il quale sono importanti le vga, ovvero il gaming?
Ma non c'è problema, aspettiamo aspettiamo, però il buongiorno si vede dal mattino ;)
esatto,aspettiamo.Ce solo da attendere perchè come stanno realmente le cose non lo sa nessuno qui dentro.Nvidia al momento, avrà a che fare con diversi problemi da risolvere per FERMI ma questo è un loro problema.Noi utenti tireremo le conclusioni a prodotto finito e numeri alla mano.;)
No una presa per il :ciapet: sarebbe se dicesse che le presentano domani quando invece non è così.
E' leggittimo farlo quando puoi farlo e quando ti conviene farlo.
Non c'è altro da aggiungere...il resto è complottismo spicciolo.
lo è e ti spiego il perchè: dicono le dx11 sono insignificanti, physx e 3d vision servono, e caspita si son sbottonati con la nuova architettura, Fermi che avesse quelle feature si sapeva già da un sacco di tempo, be io mi sento preso in giro........
aaasssdddfffggg
18-12-2009, 11:03
lo è e ti spiego il perchè: dicono le dx11 sono insignificanti, physx e 3d vision servono, e caspita si son sbottonati con la nuova architettura, Fermi che avesse quelle feature si sapeva già da un sacco di tempo, be io mi sento preso in giro........
non ha detto proprio questo ma questo :
""To us, being out of sync with the API for a couple of months isn't as important as what we're trying to do in the big scheme of things for the next four or five years," said Hara. "We're just around the corner from preparing our next GeForce and the experience of what you'll see in 3D, what you'll feel in physics, and the improvements you get in graphics will be obvious to the market."
Leggiamo meglio prima di commentare.
halduemilauno
18-12-2009, 11:06
lo è e ti spiego il perchè: dicono le dx11 sono insignificanti, physx e 3d vision servono, e caspita si son sbottonati con la nuova architettura, Fermi che avesse quelle feature si sapeva già da un sacco di tempo, be io mi sento preso in giro........
"Secondo Computerworld, Hara ha anche parlato delle DirectX 11 come di una grande evoluzione per la API, grazie alla tessellation e al supporto ai processori multi-core. Le DirectX 11 hanno portato anche DirectCompute, ovvero la possibilità di usare la GPU con applicazioni come il processo di video."
chi è che prende in giro?
aaasssdddfffggg
18-12-2009, 11:07
"Secondo Computerworld, Hara ha anche parlato delle DirectX 11 come di una grande evoluzione per la API, grazie alla tessellation e al supporto ai processori multi-core. Le DirectX 11 hanno portato anche DirectCompute, ovvero la possibilità di usare la GPU con applicazioni come il processo di video."
chi è che prende in giro?
il discorso è che come la metti la metti ...quando ce FERMI di mezzo interpretano sempre le news allo stesso modo.:D
Mi pare chiaro che c'è chi vede il bicchiere mezzo pieno e chi il bicchiere mezzo vuoto. E su questo c'è poco da discutere, sono solo punti di vista.
Quello che mi lascia un po' perplesso è la mancanza di umiltà di nvidia con queste dichiarazioni, ammettere il ritardo non è proprio nel loro DNA.
Dire adesso che il vantaggio di ATI è inconsistente mi ricorda molto la sparata sul fatto che le 9800 fossero migliori delle 4870 perchè ci girava physics... non so come suonino queste dichiarazioni alle orecchie dei fan nvidia, alle mie suonano ridicole.
Personalmente mi auguro che Fermi non sia troppo performante, mi auguro che ATI pareggi nel market share con nvidia, perchè i giochini da monopolista di nvidia, che fanno in buona parte leva sul suo maggiore market share, non mi piacciono e spero di non veder ripetere un certo tipo di episodi.
Con un bacino di utenza equilibrato credo ci possa essere concorrenza migliore e una politica che si basa sulla bontà dei prodotti e non sui giochetti.
Io credo che stavolta Nvidia abbia fatto il passo pi lungo della gamba e che fermi sia troppo complesso per il processo a 40nm attuale, così come è accaduto ad ATI per R600 e ad AMD con il Phenom: entrambi, anche se in ritardo, hanno dimostrato di non essere tanto male con il passaggio al processo produttivo più affinato.
A questo punto la risposta l'avremo solo quando Nvidia deciderà di far uscire qualche bench su fermi, allora vedremo se le nostre speculazioni sono vere o meno.
il discorso è che come la metti la metti ...quando ce FERMI di mezzo interpretano sempre le news allo stesso modo.:D
quando lo provero' e sarà nel mio case allora il discorso sarà diverso, per ora tutte ste dichiarazioni che lasciano il tempo che trovano sinceramente se le potevano risparmiare, come potevano risparmiarsi la figuraccia fatta dal ceo a settembre con la scheda video Fake.....
aaasssdddfffggg
18-12-2009, 11:16
quando lo provero' e sarà nel mio case allora il discorso sarà diverso, per ora tutte ste dichiarazioni che lasciano il tempo che trovano sinceramente se le potevano risparmiare, come potevano risparmiarsi la figuraccia fatta dal ceo a settembre con la scheda video Fake.....
Esatto,aspettiamo di toccarle con mano prima di processarli...
Kharonte85
18-12-2009, 11:16
non ha detto proprio questo ma questo :
""To us, being out of sync with the API for a couple of months isn't as important as what we're trying to do in the big scheme of things for the next four or five years," said Hara. "We're just around the corner from preparing our next GeForce and the experience of what you'll see in 3D, what you'll feel in physics, and the improvements you get in graphics will be obvious to the market."
Leggiamo meglio prima di commentare.
Appunto...che mi sembra alquanto differente dalle percezioni che sono state espresse da qualcuno in questo thread.
Mi pare chiaro che c'è chi vede il bicchiere mezzo pieno e chi il bicchiere mezzo vuoto. E su questo c'è poco da discutere, sono solo punti di vista.
Quello che mi lascia un po' perplesso è la mancanza di umiltà di nvidia con queste dichiarazioni, ammettere il ritardo non è proprio nel loro DNA.
Dire adesso che il vantaggio di ATI è inconsistente mi ricorda molto la sparata sul fatto che le 9800 fossero migliori delle 4870 perchè ci girava physics... non so come suonino queste dichiarazioni alle orecchie dei fan nvidia, alle mie suonano ridicole.
Personalmente mi auguro che Fermi non sia troppo performante, mi auguro che ATI pareggi nel market share con nvidia, perchè i giochini da monopolista di nvidia, che fanno in buona parte leva sul suo maggiore market share, non mi piacciono e spero di non veder ripetere un certo tipo di episodi.
Con un bacino di utenza equilibrato credo ci possa essere concorrenza migliore e una politica che si basa sulla bontà dei prodotti e non sui giochetti.
Io credo che stavolta Nvidia abbia fatto il passo pi lungo della gamba e che fermi sia troppo complesso per il processo a 40nm attuale, così come è accaduto ad ATI per R600 e ad AMD con il Phenom: entrambi, anche se in ritardo, hanno dimostrato di non essere tanto male con il passaggio al processo produttivo più affinato.
A questo punto la risposta l'avremo solo quando Nvidia deciderà di far uscire qualche bench su fermi, allora vedremo se le nostre speculazioni sono vere o meno.
Come tutte le aziende a scopo di lucro Nvidia è fan di se stessa.
Mi sembra ovvio che le dichiarazioni degli nvidia-men assumano questi toni.
Lo stesso vale per i concorrenti eh, non è che AMD e Intel siano da meno con le sparate ;)
Esatto,aspettiamo di toccarle con mano prima di processarli...
si ma resta il fatto che tali dichiarazioni sono fuori luogo........ ;)
Si hai ragione. Ma che intendi per "è inutile aumentare le frequenze a quella della 5870"? E comunque, con questa soglia dei 300w non uscirà MAI una 5990 :rolleyes:
infatti deve essere proprio per i consumi e le temp che ati tiene la 5970 a frequenze della 5950....sarà anche per quello che sopra ha un vaporchamber in grado di dissipare 400w!!!! secondo me di 5990 se ne parlerà, considerando anche che deve uscire anche la 5950 e mi sembra strano che le 5970 e 5970 avranno le stesse frequenze...
aaasssdddfffggg
18-12-2009, 11:22
I processi si fanno al mercato. Attualmente il mercato ha un vincitore netto, fra 3 mesi faremo un nuovo processo e decideremo di nuovo chi vince, e lo farà sicuramente meno nettamente ;)
Mah...., rispetto la tua opinione.
quando lo provero' e sarà nel mio case allora il discorso sarà diverso, per ora tutte ste dichiarazioni che lasciano il tempo che trovano sinceramente se le potevano risparmiare, come potevano risparmiarsi la figuraccia fatta dal ceo a settembre con la scheda video Fake.....
quella è ormai negli annali della storia umana..... xD
http://i35.tinypic.com/255kys7.jpg
halduemilauno
18-12-2009, 11:34
I processi si fanno al mercato. Attualmente il mercato ha un vincitore netto, fra 3 mesi faremo un nuovo processo e decideremo di nuovo chi vince, e lo farà sicuramente meno nettamente ;)
esatto nvidia e da almeno 2 lustri ormai. poi per quanto riguarda il futuro si rimane in attesa di tutti i riscontri del caso.
aaasssdddfffggg
18-12-2009, 11:36
Ecco cosa ha detto nvidia esattamente (riferito a prima) :
http://www.tomshw.it/cont/news/directx-11-amd-ha-un-vantaggio-insignificante/23271/1.html
Adesso ditemi voi cosa centra dire che per nvidia le directx11 sono insignificanti.
Life bringer
18-12-2009, 11:37
marzo per il mercato di massa.leggiamoli i post e commenti vari però.:)
E quindi? Non eri tu a inneggiare a Gennaio come la primavera di Nvidia? Sembra che tu abbia cambiato idea, forse che faranno una presentazione a pochi fortunati e per avere i primi bench si debba aspettare volenterosi utenti? Ok ne prendo atto, grazie :D
Mi sembra ovvio che le dichiarazioni degli nvidia-men assumano questi toni.
A me no, capisco il voler promuovere i propri punti di forza, ma dichiarazioni del genere sono palesemente forzate e suonano ridicole, per lo meno se poste in quella maniera.
Sinceramente non capisco come dichiarazioni di questo tipo possano in qualche modo convincere qualcuno che non sia già cliente nvidia convinto.
quella è ormai negli annali della storia umana..... xD
http://i35.tinypic.com/255kys7.jpg
:sbonk:
aaasssdddfffggg
18-12-2009, 11:41
E quindi? Non eri tu a inneggiare a Gennaio come la primavera di Nvidia? Sembra che tu abbia cambiato idea, forse che faranno una presentazione a pochi fortunati e per avere i primi bench si debba aspettare volenterosi utenti? Ok ne prendo atto, grazie :D
Non ho mai,e nessuno di noi ha mai detto,che a gennaio sono sul mercato....
In merito alla tua domanda vedo che ti sei risposto da solo.
I processi si fanno al mercato. Attualmente il mercato ha un vincitore netto, fra 3 mesi faremo un nuovo processo e decideremo di nuovo chi vince, e lo farà sicuramente meno nettamente ;)
Si ma qui non si parla di un anno si parla di Q4 2009... ovvio che ati è in netto vantaggio al momento, ma bisogna anche vedere cosa tira fuori nvidia dopo questa lunga agonia... se punterà tutto su phisix, cuda, 3d vision ecc.. tralasciando il dettaglio di superare le performance di ati allora sicuramente nvidia perderà una fetta di clientela, ovvero i videogiocatori che guardano il singolo fotogramma...e non sono pochi!!!!
se invece nvidia ripete l'operazione dell'anno passato, quando la regina incontrastata era la 4870x2 e dopo poco tempo nvidia lancia sul mercato la 295, che se pur di poco superava la ati, le conseguenze non saranno così disastrose come qualcuno afferma....
darla per spacciata a 3 mesi dal lancio mi sembra esagerato... lo so che è lunga aspettare ragazzi, io sono il primo che vorrebbe farsi una 5970, ma secondo me ancora è il caso di attendere la risposta di nvidia e la controrisposta di ati (che sono certo che non mancherà dati i mesi che sta avendo per migliorare dei prodotti che di base sono già ottimi)....
chi ci guadagna nell'attesa siamo noi consumatori, che sicuramente prenderemo il prodotto migliore, che avrà dei driver anche piu maturi e soprattutto quando le due costruttrici si daranno veramente battglia sugli scaffali anche i prezzi caleranno!!!!
Life bringer
18-12-2009, 11:49
Non ho mai,e nessuno di noi ha mai detto,che a gennaio sono sul mercato....
In merito alla tua domanda vedo che ti sei risposto da solo.
Sai cosa, forse io non sono un fanboy e viaggio da nvidia ad ati in base alla convenienza, ma io prima di comprare mi baso sulle review dei siti specializzati, per poi decidere se questo giro andare sulla serie 5, su fermi o magari tenere la 8800gt :)
aaasssdddfffggg
18-12-2009, 11:52
Sai cosa, forse io non sono un fanboy e viaggio da nvidia ad ati in base alla convenienza, ma io prima di comprare mi baso sulle review dei siti specializzati, per poi decidere se questo giro andare sulla serie 5, su fermi o magari tenere la 8800gt :)
ed è esattamente quello che sto facendco io.Se FERMI dovesse deludere non ci metterei un secondo a ripiegare su ATI.....ma tutto questo non lo farò prima che possa vedere i risultati davanti sia dell'uno che dell'altro.;)
halduemilauno
18-12-2009, 11:56
Si ma qui non si parla di un anno si parla di Q4 2009... ovvio che ati è in netto vantaggio al momento, ma bisogna anche vedere cosa tira fuori nvidia dopo questa lunga agonia... se punterà tutto su phisix, cuda, 3d vision ecc.. tralasciando il dettaglio di superare le performance di ati allora sicuramente nvidia perderà una fetta di clientela, ovvero i videogiocatori che guardano il singolo fotogramma...e non sono pochi!!!!
se invece nvidia ripete l'operazione dell'anno passato, quando la regina incontrastata era la 4870x2 e dopo poco tempo nvidia lancia sul mercato la 295, che se pur di poco superava la ati, le conseguenze non saranno così disastrose come qualcuno afferma....
darla per spacciata a 3 mesi dal lancio mi sembra esagerato... lo so che è lunga aspettare ragazzi, io sono il primo che vorrebbe farsi una 5970, ma secondo me ancora è il caso di attendere la risposta di nvidia e la controrisposta di ati (che sono certo che non mancherà dati i mesi che sta avendo per migliorare dei prodotti che di base sono già ottimi)....
chi ci guadagna nell'attesa siamo noi consumatori, che sicuramente prenderemo il prodotto migliore, che avrà dei driver anche piu maturi e soprattutto quando le due costruttrici si daranno veramente battglia sugli scaffali anche i prezzi caleranno!!!!
quel poco tempo va da agosto a gennaio.
Kharonte85
18-12-2009, 12:10
A me no, capisco il voler promuovere i propri punti di forza, ma dichiarazioni del genere sono palesemente forzate e suonano ridicole, per lo meno se poste in quella maniera.
Sinceramente non capisco come dichiarazioni di questo tipo possano in qualche modo convincere qualcuno che non sia già cliente nvidia convinto.
Be' se uno pensa che lui possa saperne più di noi (ipotesi non remota) magari uno potrebbe anche pensare che possa avere qualche ragione a parlare così.
halduemilauno
18-12-2009, 12:20
ultime news...
http://www.expreview.com/9159.html
per chi non lo sapesse questo stesso sito in precedenza le aveva bollate come fake.
a quindi e a maggior ragione si rimane in attesa di tutti i riscontri del caso.
;)
halduemilauno
18-12-2009, 12:23
in inglese...
http://en.expreview.com/
;)
aaasssdddfffggg
18-12-2009, 12:31
in inglese...
http://en.expreview.com/
;)
Fidati,se dovesero essere veri quei bench....per molti FERMI risulterebbe lento lo stesso.:D
Fidati,se dovesero essere veri quei bench....per molti FERMI risulterebbe lento lo stesso.:D
:D
quel poco tempo va da agosto a gennaio.
che sono quei 5-6 mesi famosi che si stanno ripresentando... ovvero da novembre a marzo....quindi perchè non crederci!!! sicuramente la politica che sta portando avanti nvidia al momento è discutibilissima, ma sono i fatti che contano no?
In realtà si parla di Q3 :)
Si scusami l'imprecisione, hai afferrato cosa cmq!
Kharonte85
18-12-2009, 12:43
Qualcuno bene informato una volta ha detto "this puppy is Fermi", e aveva in mano un pezzo di legno con incollato un PCB segato a metà e un dissipatore.
Che abbia delle ragioni per parlare così non ci sono dubbi, è su quali siano che verte il dibattito. Le certezze, ovviamente, le avremo tutti solo al lancio :)
Appunto :)
in inglese...
http://en.expreview.com/
;)
Ma magari! :sofico:
mi rimane troppo sospetto che siano identici alle slide di THG con le specifiche fake...
GIAMPI87
18-12-2009, 12:45
Se andasse più forte della dual ATI 5870 (vedi bench postati prima), sarebbe un vero mostro, penso che più realisticamente si vada ad inserire tra la 5870 e la 5970, Incrociamo le dita, sperando che NVIDIA smentisca il trend negativo dell'ultimo periodo...
Forza NVIDIA, che voglio mandare in pensione la mia cara GTX280.. :sofico:
halduemilauno
18-12-2009, 12:45
Appunto :)
Ma magari! :sofico:
mi rimane troppo sospetto che siano identici alle slide di THG con le specifiche fake...
la news estesa...
http://en.expreview.com/2009/12/18/do-you-believe-the-geforce-gtx360gtx380-benchmarks-or-not/6149.html#more-6149
;)
aaasssdddfffggg
18-12-2009, 12:46
Il punto è: come fa questa volta a fare lo shrink per poi poter presentare la "GTX395"?
la gtx395 uscirà,a detta di nvidia,dopo 2 al massimo 3 mesi dal lancio delle singole GPU Fermi.Ora come faranno a mettercene 2 su un unico pcb (o doppio stile panino) loro solo lo sanno.....oppure qui dentro ci sono ingegneri che possono tenere testa a quelli di nvidia....
A questo punto,dopo tutto quello che si legge qui dentro,tutto è possibile....:)
aaasssdddfffggg
18-12-2009, 12:51
la news estesa...
http://en.expreview.com/2009/12/18/do-you-believe-the-geforce-gtx360gtx380-benchmarks-or-not/6149.html#more-6149
;)
Mi auguro che non siano veri alla fine...assisteremmo ad uno spopolamento collettivo da questo Thread in brevissimo tempo.:D
yossarian
18-12-2009, 12:54
ultime news...
http://www.expreview.com/9159.html
per chi non lo sapesse questo stesso sito in precedenza le aveva bollate come fake.
a quindi e a maggior ragione si rimane in attesa di tutti i riscontri del caso.
;)
infatti sono fake, come detto dalla stessa nVidia e come riportato nella stessa news che hai postato (dove non mi pare si dica che la fonte sia ufficiale) :D
Comunque, sono aperte le scommesse sulle veridicità di quei bench :p
Mi auguro che non siano veri alla fine...assisteremmo ad uno spopolamento collettivo da questo Thread in brevissimo tempo.:D
ma se sono stati ufficialmente smenditi da nvidia!
aaasssdddfffggg
18-12-2009, 12:55
ma se sono stati ufficialmente smenditi da nvidia!
e chi sta dicendo nulla.Prenditela con chi ha postato la news odierna.:D
aaasssdddfffggg
18-12-2009, 13:02
Se con G200 hanno dovuto aspettare lo shrink a 55nm per riuscire a farlo e si son dovuti "accontentare" di fare una "GTX260 x2" qui che non possono fare lo shrink si dovranno accontentare molto di più...
Ad ogni modo a detta di nVidia, Fermi sarà disponibile a Novembre 2009... :rolleyes:
Certo,infatti ho specificato.Sono parole loro.;)
Comunque la gtx295 non è una 260x2.Ma proprio per nulla.Gli sp restano pari a quelli di una gtx280 (240 per GPU) mentre l'interfaccia di memoria passa da 512 della 280 a 448bit e la dotazione di mem video da 1024 a 896.Un ibrido di gpu quindi.
Se con G200 hanno dovuto aspettare lo shrink a 55nm per riuscire a farlo e si son dovuti "accontentare" di fare una "GTX260 x2" qui che non possono fare lo shrink si dovranno accontentare molto di più...
Ad ogni modo a detta di nVidia, Fermi sarà disponibile a Novembre 2009... :rolleyes:
non avete capito niente, Fermi è talmente potente che ci realizzeranno la macchina del tempo, torneranno indietro e lo lanceranno esattamente a novembre 2009.
e così si spiega anche l'affermazioni di alibrandi "aspettate Fermi e non ve ne pentirete!"
Andrea deluxe
18-12-2009, 13:08
non avete capito niente, Fermi è talmente potente che ci realizzeranno la macchina del tempo, torneranno indietro e lo lanceranno esattamente a novembre 2009.
e così si spiega anche l'affermazioni di alibrandi "aspettate Fermi e non ve ne pentirete!"
flash forward :O
Kharonte85
18-12-2009, 13:09
la news estesa...
http://en.expreview.com/2009/12/18/do-you-believe-the-geforce-gtx360gtx380-benchmarks-or-not/6149.html#more-6149
;)
Sì avevo già visto :)
Ad ogni modo a detta di nVidia, Fermi sarà disponibile a Novembre 2009... :rolleyes:
Questa me la sono persa chi l'ha detto? :what:
aaasssdddfffggg
18-12-2009, 13:13
In effetti è un ibrido, ha gli SP di una 275/285, le frequenze della GPU di una 260 e le frequenze della ram di una 280, ad ogni modo il concetto si sarà capito :)
ma è ovvio che dovranno rinunciare a qualcosa della gpu top di gamma per creare la dual.Questo è scontato che avverrà.
D'altronde persino ATI ha dovuto ripiegare ad una soluzione più elastica per la sua dual.Non mi risulta infatti che sia formata da 2 5870 su un unico pcb...
yossarian
18-12-2009, 13:15
Sì avevo già visto :)
Questa me la sono persa chi l'ha detto? :what:
Update (12/15): NVIDIA’s Director of Public Relations EMEAI told us that these slides are fake, but also "when it's ready it's going to be awesome".
http://www.techpowerup.com/110471/NVIDIA_Pitches_GeForce_GTX_300_Series_to_Clinch_Performance_Crown.html
anche per oggi 2 non notizie: una non smentita sul supercomputer di oak ridge ("abbiamo parlato con diversi impiegati del laboratorio ma non ne sanno nulla" non è esattamente una smentita) e una riproposizione di bench fasulli (per quanto tempo torneranno ciclicamente?) :sofico:
ma è ovvio che dovranno rinunciare a qualcosa della gpu top di gamma per creare la dual.Questo è scontato che avverrà.
ATI che cosa ha fatto per fare la 5970?Non mi risulta che sia formata da 2 5870 su un unico pcb...
si normalissimo, ormai sono già così al limite con le single che mettere tutto su un pcb diventa sempre più difficile.
aaasssdddfffggg
18-12-2009, 13:17
Update (12/15): NVIDIA’s Director of Public Relations EMEAI told us that these slides are fake, but also "when it's ready it's going to be awesome".
http://www.techpowerup.com/110471/NVIDIA_Pitches_GeForce_GTX_300_Series_to_Clinch_Performance_Crown.html
anche per oggi 2 non notizie: una non smentita sul supercomputer di oak ridge ("abbiamo parlato con diversi impiegati del laboratorio ma non ne sanno nulla" non è esattamente una smentita) e una riproposizione di bench fasulli (per quanto tempo torneranno ciclicamente?) :sofico:
comunque più pro ati di te non l'ho visto ancora su questo Thread.
Oggi circola pure questa news che abbiamo già postato e la rimetto di nuovo :
http://www.tomshw.it/cont/news/directx-11-amd-ha-un-vantaggio-insignificante/23271/1.html
ma è ovvio che dovranno rinunciare a qualcosa della gpu top di gamma per creare la dual.Questo è scontato che avverrà.
D'altronde persino ATI ha dovuto ripiegare ad una soluzione più elastica per la sua dual.Non mi risulta infatti che sia formata da 2 5870 su un unico pcb...
veramente si, ha solo le frequenze piu basse di fabbrica e poi ti danno il sftware per l'oc.... cmq le gpu ati sono decisamenti meno ingombranti.... poi la 5970 è lunga 30 e passa cm...
comunque più pro ati di te non l'ho visto ancora su questo Thread.
Oggi circola pure questa news che abbiamo già postato e la rimetto di nuovo :
http://www.tomshw.it/cont/news/directx-11-amd-ha-un-vantaggio-insignificante/23271/1.html
mmm chi ha provato la 5970 sa che quei grafici sono un po' sbagliati...
yossarian
18-12-2009, 13:22
comunque più pro ati di te non l'ho visto ancora su questo Thread.
Oggi circola pure questa news che abbiamo già postato e la rimetto di nuovo :
http://www.tomshw.it/cont/news/directx-11-amd-ha-un-vantaggio-insignificante/23271/1.html
mettiamola così:
1) i bench sono veri e la cancellazione del supercomputer è stata ufficialmente smentita e io sono pro ati
2) i bench sono fasulli e la cancellazione del supercomputer non è stata ufficialmente smentita e tu sei pro nvidia
scegli pure :Prrr:
aaasssdddfffggg
18-12-2009, 13:22
mmm chi ha provato la 5970 sa che quei grafici sono un po' sbagliati...
guarda,mi sa che hai sbagliato a replicare post.:)
non avete capito niente, Fermi è talmente potente che ci realizzeranno la macchina del tempo, torneranno indietro e lo lanceranno esattamente a novembre 2009.
e così si spiega anche l'affermazioni di alibrandi "aspettate Fermi e non ve ne pentirete!"
Carina questa ipotesi :).
aaasssdddfffggg
18-12-2009, 13:24
mettiamola così:
1) i bench sono veri e la cancellazione del supercomputer è stata ufficialmente smentita e io sono pro ati
2) i bench sono fasulli e la cancellazione del supercomputer non è stata ufficialmente smentita e tu sei pro nvidia
scegli pure :Prrr:
cosa centra quello che stai dicendo adesso?Hai fatto un'affermazione che è incompleta per oggi visto che la news di riferimento (apparsa sia da noi,che all'estero)sono le affermazioni di HARA.
Vabè ,tanto dobbiamo sempre aspettare che FERMI esca per poter tirare le somme......insieme me lo auguro.;)
guarda,mi sa che hai sbagliato a replicare post.:)
No rispondevo a te riguardo ai test farlocchi di GTX360/380: secondo me sono farlocchi.
Kharonte85
18-12-2009, 13:25
Update (12/15): NVIDIA’s Director of Public Relations EMEAI told us that these slides are fake, but also "when it's ready it's going to be awesome".
http://www.techpowerup.com/110471/NVIDIA_Pitches_GeForce_GTX_300_Series_to_Clinch_Performance_Crown.html
Questa la sapevo, mi riferivo al lancio di novembre...
anche per oggi 2 non notizie: una non smentita sul supercomputer di oak ridge ("abbiamo parlato con diversi impiegati del laboratorio ma non ne sanno nulla" non è esattamente una smentita) e una riproposizione di bench fasulli (per quanto tempo torneranno ciclicamente?) :sofico:
Io rimango scettico su tutto come al solito :boh:
aaasssdddfffggg
18-12-2009, 13:27
No rispondevo a te riguardo ai test farlocchi di GTX360/380: secondo me sono farlocchi.
sono stati già smentiti da nvidia....solo che quel sito oggi ha fatto un'altra supposizione a riguardo(Notizia non postata da me d'altronde).;)
sono stati già smentiti da nvidia....solo che quel sito oggi ha fatto un'altra supposizione a riguardo(Notizia non postata da me d'altronde).;)
Ok ;)
aaasssdddfffggg
18-12-2009, 13:29
E' un'altra non news sul trend di quella che i giochi vanno meglio sulla GTS250 che non sulla HD5870 perché ha PhysX. Kickass insomma.
Perfetto...:D
yossarian
18-12-2009, 13:30
cosa centra quello che stai dicendo adesso?Hai fatto un'affermazione che è incompleta per oggi visto che la news di riferimento (apparsa sia da noi,che all'estero)sono le affermazioni di HARA.
Vabè ,tanto dobbiamo sempre aspettare che FERMI esca per poter tirare le somme......insieme me lo auguro.;)
che non dice nulla di più di quello che già si sapeva o che già sia stato detto.
Hai fatto una precisa affermazione dandomi del fanboy. Ne prendo atto e ripropongo la domanda
1) i bench sono veri e la cancellazione del supercomputer è stata ufficialmente smentita e io sono pro ati
2) i bench sono fasulli e la cancellazione del supercomputer non è stata ufficialmente smentita e tu sei pro nvidia
scegli pure
Intendi rispondere o vuoi che me la metta in signature? :p
comunque più pro ati di te non l'ho visto ancora su questo Thread.
Oggi circola pure questa news che abbiamo già postato e la rimetto di nuovo :
http://www.tomshw.it/cont/news/directx-11-amd-ha-un-vantaggio-insignificante/23271/1.html
diventa ancora più valida la mia teoria della macchina del tempo quando nell'articolo parla del vantaggio temporale di 60 gg di AMD.
A noi comuni comuni mortali potrebbero sembrare 120, invece con la macchina del tempo diventeranno solo 60! :D
scherzo eh ;)
aaasssdddfffggg
18-12-2009, 13:31
che non dice nulla di più di quello che già si sapeva o che già sia stato detto.
Hai fatto una precisa affermazione dandomi del fanboy. Ne prendo atto e ripropongo la domanda
1) i bench sono veri e la cancellazione del supercomputer è stata ufficialmente smentita e io sono pro ati
2) i bench sono fasulli e la cancellazione del supercomputer non è stata ufficialmente smentita e tu sei pro nvidia
scegli pure
Intendi rispondere o vuoi che me la metta in signature? :p
no,propongo di segnare questi post per poi riprenderli bench sotto mano di FERMI.Tanto sei così sicuro che sarà un fiasco o giù di lì.Ok?
aaasssdddfffggg
18-12-2009, 13:35
Non ti preoccupare, a segnare i post più interessanti ci pensano i miei bookmarks :asd:
bene così allora.Si farà prima a riprendere le discussioni....prodotto alla mano.;)
Severnaya
18-12-2009, 13:36
adoro i forum chat con i finti neutrali :asd:
yossarian
18-12-2009, 13:36
no,propongo di segnare questi post per poi riprenderli bench sotto mano di FERMI.Tanto sei così sicuro che sarà un fiasco o giù di lì.Ok?
dove l'avrei detto?
Ripeto ancora la domanda che cerchi di eludere
1) i bench sono veri e la cancellazione del supercomputer è stata ufficialmente smentita e io sono pro ati
2) i bench sono fasulli e la cancellazione del supercomputer non è stata ufficialmente smentita e tu sei pro nvidia
scegli pure
Intendi rispondere, vuoi che me la metta in signature o preferisci una segnalazione ai mod?
no,propongo di segnare questi post per poi riprenderli bench sotto mano di FERMI.Tanto sei così sicuro che sarà un fiasco o giù di lì.Ok?
Scusami ma dai del fanboy a Yoss quando tu vuoi per forza che Fermi sia una bomba per non cambiare quel disegno con il logo nvidia che hai fatto nel case??? Se prendi una ATI non ci starebbe molto bene quel logo mi sa :asd:
aaasssdddfffggg
18-12-2009, 13:37
dove l'avrei detto?
Ripeto ancora la domanda che cerchi di eludere
1) i bench sono veri e la cancellazione del supercomputer è stata ufficialmente smentita e io sono pro ati
2) i bench sono fasulli e la cancellazione del supercomputer non è stata ufficialmente smentita e tu sei pro nvidia
scegli pure
Intendi rispondere, vuoi che me la metta in signature o preferisci una segnalazione ai mod?
che problema hai?Scusa ma non capisco.Se non vuoi partecipare alla mia proposta basta dirlo.Non muore mica nessuno.Si parla e ci si confronta e si scambiano opinioni qui dentro no?:)
halduemilauno
18-12-2009, 13:40
infatti sono fake, come detto dalla stessa nVidia e come riportato nella stessa news che hai postato (dove non mi pare si dica che la fonte sia ufficiale) :D
Comunque, sono aperte le scommesse sulle veridicità di quei bench :p
ma che le slides siano state smentite appunto è stato detto anche da nvidia, ma ora si sta parlando di altro.
e cmq le scommesse sono aperte sul sito stesso.
sono stati già smentiti da nvidia....solo che quel sito oggi ha fatto un'altra supposizione a riguardo(Notizia non postata da me d'altronde).;)
esatto.
;)
aaasssdddfffggg
18-12-2009, 13:41
Scusami ma dai del fanboy a Yoss quando tu vuoi per forza che Fermi sia una bomba per non cambiare quel disegno con il logo nvidia che hai fatto nel case??? Se prendi una ATI non ci starebbe molto bene quel logo mi sa :asd:
No guarda,fino a prova contraria qui dentro avete già processato nvidia ancor prima che esca,mentre io ho sempre ribadito di attendere dati concreti prima di valutare le cose e dare giudizi più mirati.E' un po' diverso quello che stai dicendo...come hai frainteso la notizia di stamane che non centrava nulla con la tua affermazione.
Se ati dovesse risultare superiore ho già detto che ripiegherò su di lei....e per quanto riguarda il nuovo logo.....si riaccende il plotter da taglio e ci si lavora su di nuovo.Dove sta il problema?;)
yossarian
18-12-2009, 13:43
che problema hai?Scusa ma non capisco.Se non vuoi partecipare alla mia proposta basta dirlo.Non muore mica nessuno.Si parla e ci si confronta e si scambiano opinioni qui dentro no?:)
mi hai dato del fanboy senza motivarlo e mi hai messo in bocca cose che non ho mai detto. Ti sembra sufficente?
Allora, vuoi rispondere o no?
Non è così difficile, si tratta solo di dire
i bench sono veri, voglio credere fermamente che lo siano nonostante la smentita ufficiale di nVidia, oppure prendere atto del fatto che sono falsi. In tal caso ti rimanngi quanto detto sul mio conto.
E' così difficile? Hai solo quest'ultima possibilità, siamo abbondantemento OT; o ti decidi o ti segnalo
aaasssdddfffggg
18-12-2009, 13:44
mi hai dato del fanboy senza motivarlo e mi hai messo in bocca cose che non ho mai detto. Ti sembra sufficente?
Allora, vuoi rispondere o no?
Non è così difficile, si tratta solo di dire
i bench sono veri, voglio credere fermamente che lo siano nonostante la smentati ufficiale di nVidia, oppure prendere atto del fatto ceh sono falsi. In tal caso ti rimanngi quanto detto sul mio conto.
E' così difficile? Hai solo quest'ultima possibilità, siamo abbondantemento OT; o ti decidi o ti segnalo
Lascia perdere.;)
aaasssdddfffggg
18-12-2009, 13:46
Non avevo visto la firma, devi sperarci davvero che Fermi vada più delle AMD altrimenti ci devi spendere un'inferno di ore a rifare tutto il case *_*
Bel lavoro comunque, complimenti :)
Grazie,guarda ci vuole scarso un pomeriggio a realizzare quel logo.Al terzo tentativo mi riuscì tutto perfetto.Quello che non dovrei cambiare (nel caso dovesi farne uno per ATI)sono le lastre in vetro che resteranno tali.Quindi resta una passeggiata cambiare logo.;)
Kharonte85
18-12-2009, 13:46
Vai indietro di qualche dozzina di pagine in questo thread :)
Detto fra parentesi, visto che non sei nVidia, l'hai detto anche tu:
http://www.hwupgrade.it/forum/showpost.php?p=27471260&postcount=4417
"La verità sta nel mezzo" -> novembre-dicembre
:D
E secondo te posso ricordarmi di un post del precambriano? :sofico:
Era credibile Novembre prima di sapere che TSMC ha continuato ad aver problemi di produzione sui 40nm e prima di sentire che la A2 di gf100 non sarebbe stata la revision finale.
Da quello che mi risulta è da quando nvidia ha presentato le Tesla che parla ufficialmente di q1 2010 per la presentazione delle schede Geforce.
Su dai rilassatevi :D
http://www.youtube.com/watch?v=5Jj3wZVc7nw
mirmeleon
18-12-2009, 13:48
http://www.tomshw.it/cont/news/directx-11-amd-ha-un-vantaggio-insignificante/23271/1.html
:eek: :eek:
No guarda,fino a prova contraria qui dentro avete già porcessato nvidia ancor prima che esca,mentre io ho sempre ribadito diattendere dati concreti prima di valutar ele cose.E' un po' diverso quekllo che stai dicendo...come hai frintesola notizia di stamane che non centrava nulla la tua affermazione.
Se ati dovesse risultare superiore ho già detto che ripiegherò su di lei....e per quanto riguarda il nuovo logo.....si riaccende il plotter da taglio e ci si lavora su di nuovo.Dove sta il problema?;)
C'entrava eccome quello che ho detto fidati ;) Tu hai detto che non ti andava di rifare il tutto da capo perché ci sarebbero voluti 2 giorni, almeno questo hai detto nell'altro Thread... Lo sai secondo me perché tu non ti fai tanti problemi? Non penso che tu sappia che vuol dire fare tanto per comprarsi una scheda video da 450 euro compatibile con le directx 10.1 e giocare a un gioco che ti va da Dio... poi però arriva una sorpresina: siccome che le schede video dei signorini nvidia non è compatibile con le directx 10.1 il gioco viene patchato togliendo il supporto a tali directx e passando alle 10, vedendo il gioco con un framerate molto inferiore.... e molte altre cose già dette e ridette. Voglio vedere se dopo episodi del genere parleresti così ;)
Kharonte85
18-12-2009, 13:51
Su dai rilassatevi :D
http://www.youtube.com/watch?v=5Jj3wZVc7nw
Ahahha...Bellissimo quel film....:asd:
aaasssdddfffggg
18-12-2009, 13:52
C'entrava eccome quello che ho detto fidati ;) Tu hai detto che non ti andava di rifare il tutto da capo perché ci sarebbero voluti 2 giorni, almeno questo hai detto nell'altro Thread... Lo sai secondo me perché tu non ti fai tanti problemi? Non penso che tu sappia che vuol dire fare tanto per comprarsi una scheda video da 450 euro compatibile con le directx 10.1 e giocare a un gioco che ti va da Dio... poi però arriva una sorpresina: siccome che le schede video dei signorini nvidia non è compatibile con le directx 10.1 il gioco viene patchato togliendo il supporto a tali directx e passando alle 10, vedendo il gioco con un framerate molto inferiore.... e molte altre cose già dette e ridette. Voglio vedere se dopo episodi del genere parleresti così ;)
Dipende,se ci sto un pomeriggio intero lo riesco a portare a termine il logo.;) Si tratta di ricostruire un logo originale tramite COREL DRAW e poi portarlo su plotter da taglio.Fidati che è così...in un pomeriggio intero ci si riesce.:)
Dipende,se ci sto un pomeriggio intero lo riesco a portare a termine il logo.;) Si tratta di ricostruire un logo originale tramite COREL DRAW e poi portarlo su plotter da taglio.Fidati che è così...in un pomeriggio intero ci si riesce.:)
Va beh ma questo non è un problema, anzi sono contento per te perché alla fine esce un bel lavoro ;)
aaasssdddfffggg
18-12-2009, 13:59
Va beh ma questo non è un problema, anzi sono contento per te perché alla fine esce un bel lavoro ;)
Comunque ti ripeto,aspetto FERMI per valutare meglio cosa prendere...se dovesse risultare deludente ripiegherò su ATI senza problemi,ma questo discorso lo farò solo e soltanto dopo che FERMI sarà sul mercato.;)
AnonimoVeneziano
18-12-2009, 14:00
Scusami ma dai del fanboy a Yoss quando tu vuoi per forza che Fermi sia una bomba per non cambiare quel disegno con il logo nvidia che hai fatto nel case??? Se prendi una ATI non ci starebbe molto bene quel logo mi sa :asd:
E' un po' come quando uno si tatua addosso il nome della ragazza , se poi la molli/ti molla son dolori :asd:
E' un po' come quando uno si tatua addosso il nome della ragazza , se poi la molli/ti molla son dolori :asd:
ahaha puoi sempre tatuarci sopra una barra e mettere il nuovo nome sotto :D
mettiamola così:
1) i bench sono veri e la cancellazione del supercomputer è stata ufficialmente smentita e io sono pro ati
2) i bench sono fasulli e la cancellazione del supercomputer non è stata ufficialmente smentita e tu sei pro nvidia
chissà quale scelgono in questo thread.... :D
Kharonte85
18-12-2009, 14:38
chissà quale scelgono in questo thread.... :D
3) i bench sono fasulli e la cancellazione del supercomputer è stata ufficialmente smentita e io sono pro me stesso :fagiano:
3) i bench sono fasulli e la cancellazione del supercomputer è stata ufficialmente smentita e io sono pro me stesso :fagiano:
che i bench siano fasulli è pacifico, ma del supercomputer, qui su, a qualcuno frega qualcosa? :D
fdadakjli
18-12-2009, 14:40
chissà quale scelgono in questo thread.... :D
bisognerebbe fare un sondaggino... :asd: :D:D
Kharonte85
18-12-2009, 14:41
che i bench siano fasulli è pacifico, ma del supercomputer, qui su, a qualcuno frega qualcosa? :D
Onestamente non credo...:asd:
fdadakjli
18-12-2009, 14:44
http://www.tomshw.it/cont/news/directx-11-amd-ha-un-vantaggio-insignificante/23271/1.html
:eek: :eek:
interessante...soprattutto "le schede GF100 forniranno supporto hardware per l'overvolt della GPU"... :fagiano:
per il resto era molto meglio se evitavano certi commenti cmq... :doh:
appleroof
18-12-2009, 14:49
Non credo possa farlo. Con G200 vendeva in perdita, con G200b è riuscita a limitare i danni pur con un'efficienza complessiva molto inferiore a RV770.
Con G300 non possono farlo perché non c'è un half node disponibile per uno shrink ottico, quindi questa strategia sarebbe molto ma molto distruttiva.
:asd: non sa nemmeno contare :asd:
davvero? non lo sapevo, hai un link a qualcosa di ufficiale?
mapoetti
18-12-2009, 15:04
:sob:
.....ati:boxe: fermi :D
su dai ragazzi!!
appleroof
18-12-2009, 17:19
non c'entra direttamente con Fermi, ma non sapevo dove postarla
http://www.tgdaily.com/business-and-law-features/45101-nvidia-applauds-ftc-action-against-intel
ma quanti anni ha Jen-Hsun Huang?
fdadakjli
18-12-2009, 17:23
non c'entra direttamente con Fermi, ma non sapevo dove postarla
http://www.tgdaily.com/business-and-law-features/45101-nvidia-applauds-ftc-action-against-intel
che scheda è quella che ha in mano??? che sia un'esemplare di Fermi... :asd:
fdadakjli
18-12-2009, 17:26
ma quanti anni ha Jen-Hsun Huang?
46anni...ma che ti importa??? :sofico:
appleroof
18-12-2009, 17:28
che scheda è quella che ha in mano??? che sia un'esemplare di Fermi... :asd:
Mi sà che quella è un'immagine della presentazione di qualche settimana fà, dove pare appurato che fosse una scheda fake (dico pare perchè poi non ho mai trovato una conferma/smentita ufficiale della cosa) ;)
p.s.: Delly in quella conf stellare che hai in firma manca un bel raid di x25-m g2....cosa aspetti? :D :D
46anni...ma che ti importa??? :sofico:
x curiosità eheheh :D
luX0r.reload
18-12-2009, 17:34
p.s.: Delly in quella conf stellare che hai in firma manca un bel raid di x25-m g2....cosa aspetti? :D :D
Azz... mi ero perso la megaconfigurazione di Delly.
A questo punto urge la domanda dell'anno...
Come ti gira Crysis? :D :sofico: :ciapet:
p.s. Scusate ma oramai è una droga... sono troppo abituato a leggere questa domanda che se non la fanno la devo fare io:spam:
appleroof
18-12-2009, 17:35
Azz... mi ero perso la megaconfigurazione di Delly.
A questo punto urge la domanda dell'anno...
Come ti gira Crysis :D :sofico: :ciapet:
p.s. Scusate ma oramai è una droga... sono troppo abituato a leggere questa domanda che se non la fanno la devo fare io:spam:
:asd: :asd: :asd: :asd:
fdadakjli
18-12-2009, 17:41
Azz... mi ero perso la megaconfigurazione di Delly.
A questo punto urge la domanda dell'anno...
Come ti gira Crysis? :D :sofico: :ciapet:
p.s. Scusate ma oramai è una droga... sono troppo abituato a leggere questa domanda che se non la fanno la devo fare io:spam:
e qui ci scatta la mia risposta dell'anno...lol... :asd:
l'ho giocato e finito ai tempi delle 8800...bene o male che sia stato...non mi è più passato per il cervello di reinstallarlo per vedere se migliorava con le successive vga... :D
fdadakjli
18-12-2009, 17:42
p.s.: Delly in quella conf stellare che hai in firma manca un bel raid di x25-m g2....cosa aspetti? :D :D
aspetto qualcosa di meglio per passare agli ssd... :)
non c'entra direttamente con Fermi, ma non sapevo dove postarla
http://www.tgdaily.com/business-and-law-features/45101-nvidia-applauds-ftc-action-against-intel
Me lo immaginavo che nVidia avrebbe detto qualcosa in merito, già fa le vignette ( belline ), figurati se non approvava l'operato dell'FTC.
OT
Anche io come Delly ho un raid 0 di Velociraptor da 300 GB:sofico: . Anche io come Delly ho... ehm ho i Velociraptor e poi.. ehm.. i Veloci.. ehm... si, ok.
Comunque mi unisco e chiedo: come mai non hai inserito un raid di SSD? Magari un Fusion-io?
appleroof
18-12-2009, 18:00
aspetto qualcosa di meglio per passare agli ssd... :)
bè intendi come capienza? Perchè come prestazioni non c'è storia con i velociraptor...
cmq stiamo andando abbondantemente Ot :stordita:
fdadakjli
18-12-2009, 18:04
bè intendi come capienza? Perchè come prestazioni non c'è storia con i velociraptor...
cmq stiamo andando abbondantemente Ot :stordita:
non mi riferivo ad un confronto con i wd...so bene che non c'è storia...
solo che aspetto qualcosa di superiore tra gli ssd...sia come capienza che come prestazioni...magari sata3... ;)
fine OT...;)
mapoetti
18-12-2009, 18:10
:ot: :sob:
aaasssdddfffggg
18-12-2009, 18:11
aspetto qualcosa di meglio per passare agli ssd... :)
il 2010 sarà l'anno giusto allora.:Prrr:
fdadakjli
18-12-2009, 18:15
il 2010 sarà l'anno giusto allora.:Prrr:
già...lo penso anch'io... :)
appleroof
18-12-2009, 18:16
non mi riferivo ad un confronto con i wd...so bene che non c'è storia...
solo che aspetto qualcosa di superiore tra gli ssd...sia come capienza che come prestazioni...magari sata3... ;)
fine OT...;)
prendi il top appena esce e aspetti qualcosa di meglio dell'attuale top in materia di dischi fissi? non ci siamo .... :nonsifa: :D
prendi 2 g2 e mettili in raid, con quella conf. sono d'obbligo, poi quando usciranno i sata 3 passerai a quelli :sofico:
cmq mi scuso, chiudo def, l'Ot :read:
fdadakjli
18-12-2009, 18:22
prendi il top appena esce e aspetti qualcosa di meglio dell'attuale top in materia di dischi fissi? non ci siamo .... :nonsifa: :D
prendi 2 g2 e mettili in raid, con quella conf. sono d'obbligo, poi quando usciranno i sata 3 passerai a quelli :sofico:
il tuo discorso non fa una piega in effetti...ma non mi so spiegare come mai non mi attirano minimamente gli attuali ssd... :asd:
poi cmq non me li posso permettere...sono povero io... :read: :D :D
appleroof
18-12-2009, 18:23
il tuo discorso non fa una piega in effetti...ma non mi so spiegare come mai non mi attirano minimamente gli attuali ssd... :asd:
poi cmq non me li posso permettere...sono povero io... :read: :D :D
:asd: :asd:
;)
poi cmq non me li posso permettere...sono povero io... :read: :D :D
certo che se con quella config. te sei povero allora gli altri vivono sotto i tombini :rotfl: :sofico:
appleroof
18-12-2009, 19:19
Ovviamente non te lo diranno mai, basta farsi qualche conto. Ovviamente la superoverpriced GTX280 non era il problema, il problema era nella 260, di cui ne hanno vendute una valanga di più ma che gli costava essenzialmente uguale :)
a vabbè, allora possiamo dire tutto ed il contrario di tutto :read:
Ho l'impressione sempre più stringente che alla fin fine AMD non abbia fatto così male a prendersi quel piccolo malloppo offertole, ormai Intel si è attirata più sguardi inquisitori di Microsoft, e non era un compito facile :asd:
se sono vere le accuse che le rivolgono, sono stracontento che sia così ;)
A meno che non fosse la VGA di Harry Potter che funziona solo con la magia non può che essere una scheda fake. Si vece bene dal mio avatar il dettaglio più eclatante: le alimentazioni addizionali di cui una segata e i connettori che sono in posizioni diverse rispetto alle saldature sul PCB.
in effetti non capivo cosa fosse il tuo avatar :D
Ad ogni modo nVidia ha prima taciuto, poi negato dicendo che la scheda era vera e le dimostrazioni giravano su Fermi, poi detto che il prototipo era brutto e hanno fatto vedere una scheda non funzionante per fare un piacere estetico alla stampa. Insomma è un fake conclamato e non sussite la benché minima ombra di dubbio.
non lo so....invece quella immagine in cui si vede Fermi che fà girare il bench unigine dx11 dovrebbe essere vera, o no?
Kharonte85
18-12-2009, 19:25
in effetti non capivo cosa fosse il tuo avatar :D
Ormai è comprovato che fosse una skeda mock-up, anche Nvidia l'ha ammesso: http://www.overclockersclub.com/news/25658/
non lo so....invece quella immagine in cui si vede Fermi che fà girare il bench unigine dx11 dovrebbe essere vera, o no?
Potrebbe essere vera.
Potrebbe essere vera.
e quella dello sli dentro quel case nero? a me sembra uguale a quella della foto di unigine :fagiano:
Kharonte85
18-12-2009, 19:36
e quella dello sli dentro quel case nero? a me sembra uguale a quella della foto di unigine :fagiano:
Infatti, secondo me la foto è sicuramente vera, e probabilmente lo sono anche le schede. ;)
potrebbe essere vera pure quella
e l'uomo che teneva il case era vero o no? :confused: :asd:
e qui ci scatta la mia risposta dell'anno...lol... :asd:
l'ho giocato e finito ai tempi delle 8800...bene o male che sia stato...non mi è più passato per il cervello di reinstallarlo per vedere se migliorava con le successive vga... :D
Sacrilegio :D
Anche perché diciamocelo, se non hanno ancora una scheda che funziona vorrebbe dire che esce ad Agosto, e va contro ogni notizia più o meno attendibile che si possa trovare da chicchessia in questo momento :)
infatti ;)
appleroof
18-12-2009, 19:41
Basta che ti fai due conti ;)
cut
si ma partendo da quale base?? :stordita:
Ormai è comprovato che fosse una skeda mock-up, anche Nvidia l'ha ammesso: http://www.overclockersclub.com/news/25658/
Potrebbe essere vera.
ok...;)
Anche perché diciamocelo, se non hanno ancora una scheda che funziona vorrebbe dire che esce ad Agosto, e va contro ogni notizia più o meno attendibile che si possa trovare da chicchessia in questo momento :)
ah bè...:O
marco XP2400+
18-12-2009, 19:46
old scusate
si erano fintissimi, è old questa notizia cmq... se ne è parlato pagine fa !
Kharonte85
18-12-2009, 19:52
Anche perché diciamocelo, se non hanno ancora una scheda che funziona vorrebbe dire che esce ad Agosto, e va contro ogni notizia più o meno attendibile che si possa trovare da chicchessia in questo momento :)
Appunto...facciamo anche 2 va...:D
Appunto...facciamo anche 2 va...:D
era uno Sli infatti :D
era uno Sli infatti :D
vero :D
appleroof
18-12-2009, 19:56
Quanto guadagna AMD su una scheda RV770, quanti ce ne stanno su un wafer, quanti ce ne stanno di G200, quanta ram, quanti layers del pcb, le rese di entrambi...
I numeri ci sono tutti, basta sapere dove cercarli, alcuni più approssimati di altri ovviamente, ma una stima si può fare, nemmeno troppo approssimata :)
non lo so, troppe variabili...:boh:
Appunto...facciamo anche 2 va...:D
era uno Sli infatti :D
:D :D
luX0r.reload
18-12-2009, 20:00
Quanto guadagna AMD su una scheda RV770, quanti ce ne stanno su un wafer, quanti ce ne stanno di G200, quanta ram, quanti layers del pcb, le rese di entrambi...
I numeri ci sono tutti, basta sapere dove cercarli, alcuni più approssimati di altri ovviamente, ma una stima si può fare, nemmeno troppo approssimata :)
... stavo appunto dedicendo con quale dolce chiudere la cena :D
Legolas84
18-12-2009, 20:09
adoro i forum chat con i finti neutrali :asd:
ahahah lol.... miglior post della discussione :asd:
Severnaya
18-12-2009, 21:32
grazie grazie :asd:
fdadakjli
18-12-2009, 22:31
Sacrilegio :D
e perchè mai??
scusa...se l'ho finito anni fa non vedo perchè dovrei perdere tempo a rimetterlo solo per vedere se sono aumentati gli fps... ;)
Foglia Morta
19-12-2009, 07:45
Il siggraph : http://translate.google.it/translate?u=http%3A%2F%2Fgame.watch.impress.co.jp%2Fdocs%2Fevent%2F20091218_336947.html&sl=ja&tl=en&hl=&ie=UTF-8
e perchè mai??
scusa...se l'ho finito anni fa non vedo perchè dovrei perdere tempo a rimetterlo solo per vedere se sono aumentati gli fps... ;)
bhe a me piacerebbe vederlo spinto al massimo (o quasi ?? :D) delle sue possibilità, con i filtri attivati. Se lo hai già fatto allora in effetti non ha senso, però dubito, magari sbagliando, che ai tempi l'hardware che era disponibile, ti abbia permesso di farlo. :)
bhe a me piacerebbe vederlo spinto al massimo (o quasi ?? :D) delle sue possibilità, con i filtri attivati. Se lo hai già fatto allora in effetti non ha senso, però dubito, magari sbagliando, che ai tempi l'hardware che era disponibile, ti abbia permesso di farlo. :)
io la prima cosa che ho fatto è stata installare crysis per vedere come andasse XD
e non va al max -.-''
aaasssdddfffggg
19-12-2009, 11:26
io la prima cosa che ho fatto è stata installare crysis per vedere come andasse XD
e non va al max -.-''
intanto i primi screen ingame di CRYSIS 2 stanno per fare la loro comparsa...
http://www.incrysis.com/index.php?option=com_content&task=view&id=838&Itemid=1
veltosaar
19-12-2009, 11:28
Giudizio personale? so che non interessa a nessuno. Ma per me applicazioni come Crysis non hanno senso di esistere.
Mi spiego meglio. E' un capolavoro. Ma che senso ha fare un gioco bellissimo che però non può essere giocato.
Mi viene in mente il campo dei motori e delle auto.
Dal punto di vista teorico non ci vuole molto a passare da 200 a 300 cavalli. Il problema è che a fronte di un aumento del 50% di potenza si ha un incremento di consumi di circa il 200%!
Questo per spiegare che sono buoni tutti a fare dell'hadware o del software potentissimo. La sfida è mantenere costi e consumi. Facile sarebbe fare una scheda video con 4GPU!! Ma poi i consumi?? Ecco, io credo che tutto debba essere sostenibile. Ma non per un principio di ambientalismo che personalmente non mi interessa ma proprio per un principio di efficienza.
Ad esempio al raddoppiare della potenza dovrebbero aumentare MENO che proporzionalmente i consumi. Se non rimanere uguali. Se non diminuire in un cambio generazionale. Se ciò vale per l'hardware perchè non deve valere per i software. Ci sono persone che hanno giocato con il max fps a giochi come far cry 2, batman, Resident evil 5.. eppure su Crysis restano a 30\35 frame.. SE GLI VA BENE!
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.