PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 [70] 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

zorco
20-01-2010, 20:03
Sì, sarebbe stata sicuramente la cosa più sensata. Ma sò che a volte la scimmia è inevitabile...è più forte di noi...:asd:



http://www.pctunerup.com/up/results/_201001/20100120203306_scimmia_ati_sergiodirio.jpg
vero:D quando ti sale addosso cè poco da fare,spesso e volentieri ha il sopravvento....;)

The_SaN
20-01-2010, 20:04
si, quoterrimo e non perchè ce l'ho, ma con quella imho stà a posto per almeno tutto quest'anno spendendo il giusto :)

di certo 100 euro di differenza con la 5870 non sono giustificati dal divario di prestazioni che c'è tra le dueÉ quello che ho fatto pure io...
Pensavo sinceramente ad una differenza piú marcata con la 5870, ma a 1000/1250 per entrambe la differenza 2 é MINIMA.
I 100 euro tanto minimi non sono...

Sono curioso di sapere come va Fermi (come tutti d'altronde).
La 5850 a 1000/1250 supera agevolmente la 5870 a default, costando 250 euro circa...é un prezzo/prestazioni difficile da battere.

Cicciuzzone
20-01-2010, 20:08
ma lì può alzare anche adesso perché e in assenza di concorrenza, ma non lo fa e si tiene i suoi piccoli prezzi-paragonati alle prestazioni-consumo etc
secondo te nvidia cosa avrebbe fatto al posto di ati?

Magari ora non li alza per l'incognita di Fermi. Magari ATI ha esordito con prezzi bassi per accaparrarsi subito fette di mercato. Chissà...

PConly92
20-01-2010, 20:10
Magari ora non li alza per l'incognita di Fermi. Magari ATI ha esordito con prezzi bassi per accaparrarsi subito fette di mercato. Chissà...

no anche con le hd 4xxx ha esordito con prezzi bassi e le gt200 erano già sul mercato.;)

Cicciuzzone
20-01-2010, 20:12
no anche con le hd 4xxx ha esordito con prezzi bassi e le gt200 erano già sul mercato.;)

Beh, allora meglio così. Anche se Fermi sarà un flop, ci sarà su chi ripiegare tranquillamente ;)

aaasssdddfffggg
20-01-2010, 20:32
Also, the February 2010 issue of PC Gamer US magazine recently printed out a release date estimate of October-December 2010 for Crysis 2

...saremo già ben equipaggiati in quel periodo dell'anno.:asd:

Greifi Grishnackh
20-01-2010, 20:46
Also, the February 2010 issue of PC Gamer US magazine recently printed out a release date estimate of October-December 2010 for Crysis 2

...saremo già ben equipaggiati in quel periodo dell'anno.:asd:
cosi tardi?? uff...allora fermi per me puo aspettare

gianni1879
20-01-2010, 20:47
e pensare che ci sono utenti che erano convinti (mi auguro che non lo siano più) di vederlo addirittura a settembre sul mercato NI.:muro:

in autunno si diceva una nuova revisione, la cosa è diversa.

Kharonte85
20-01-2010, 20:49
vedremmo quanto costerà fermi:asd:
facciamo sui 500-600 euro singola gpu?oppure 700 stile 8800 ultra
ma non so perché vi lamentate...:mad:
se nvidia avesse lanciato per prima le schede dx11 secondo te quanto la pagheresti adesso una scheda nvidia con prestazioni diciamo simili alla hd5850? SICURAMENTE NON 250 MA SUI 600:read:
io invece di lamentarmi ringrazierei ati per gli ottimi prezzi delle nuove schede dx11;)
ps. non mi riferisco solo a te ma a molti che ho visto dire: ""ati costa troppo 250 per un scheda non li spendo...etc" ma prima con g80 dove vi faceva pagare 600-700 euro a scheda non le sentivo ste lamentele, chissà perché...:doh:
ps2. anche ati si trova senza concorrenza ma non alza a dismisura i prezzi;)...

In rapporto a cosa lo dici?
Rispetto a quanto c'è ora nel mercato, sono quelle che costano meno pur essendo più potenti (senza contare dx11, consumi e tutto il resto).
Se lo dici rispetto a quanto si è visto negli ultimi anni a livello di VGA "top", è chiaro che stai "sbagliando".

Infine non penso tu lo dica in previsione di una Nvidia potentissima a prezzi stracciati, in primo luogo perchè non è nelle consuetudini Nvidia, in secondo luogo perchè non ci sono i presupposti; non si sa ancora come andranno e quanto costeranno le Nvidia e se si dovesse fare una previsione allo stato attuale, non penso proprio che i prezzi attuali di ATI potrebbero essere definiti alti.

Quindi in base a quale parametro i prezzi di una HD5850 o di una HD5870 possono venire definiti alti?

io l'ho detto ma qui, a certi non piace sentire cose negative su nvidia:rolleyes:
dobbiamo solo ringraziare ati non criticarla perché se non ci fosse stata lei a fare concorrenza con nvidia ora staremmo a pagare 500 euro il solito rembranding nvidia (cioè truffa)
ps. certo che nvidia fa schede buone ma costa un botto (non sempre in relazione alle prestazioni) e cerca sempre di fregare i meno informati:mad: ma purtroppo questa è la verità

Uffa...sono alti rispetto al prezzo del lancio (avvenuto mesi fa)

Eppure scrivo in Italiano :what:

Anche io ringrazio che esiste la concorrenza ma non sono certo convinto che AMD/ATI faccia beneficenza :asd:

aaasssdddfffggg
20-01-2010, 20:50
in autunno si diceva una nuova revisione, la cosa è diversa.

beh non tutti dicevano questo.Dai moderatore non difendiamo a 360° adesso.Ci sono stati utenti che hanno affermato di vedere NI (e non una revisione dell'attuale) già da settembre prossimo (eppure convinti).Basta sfogliare un po' dentro questo Thread.;)

aaasssdddfffggg
20-01-2010, 20:50
cosi tardi?? uff...allora fermi per me puo aspettare

There are at least six more games that will support DirectX 11 and some of them such as Crysis 2 will be highly expected but might probably launch in later part of 2010.

Native DirectX 11 games will only come with next generation console refresh, something that is expected in 2012.

gianni1879
20-01-2010, 20:57
Also, the February 2010 issue of PC Gamer US magazine recently printed out a release date estimate of October-December 2010 for Crysis 2

...saremo già ben equipaggiati in quel periodo dell'anno.:asd:

http://www.freesaveweb.net/hwupgrade/smile/plugin/frecamani.gif

non vedo l'ora :D

aaasssdddfffggg
20-01-2010, 20:57
http://www.freesaveweb.net/hwupgrade/smile/plugin/frecamani.gif

non vedo l'ora :D

:asd: ...i miei poster si cominciano ad animare nella stanza.:D

gianni1879
20-01-2010, 21:00
beh non tutti dicevano questo.Dai moderatore non difendiamo a 360° adesso.Ci sono stati utenti che hanno affermato di vedere NI (e non una revisione dell'attuale) già da settembre prossimo (eppure convinti).Basta sfogliare un po' dentro questo Thread.;)

io ricordo che si parlava o di una revisione o di processo, ma non ricordo NI (forse un paio), può anche darsi che mi sbagli, ma non sto difendendo nulla e nessuno, se ribecchi i post puoi dimostrare il contrario...

Qua se c'è qualcuno che difende qualcosa non sono io....e non penso c'è da aggiungere altro ;)

aaasssdddfffggg
20-01-2010, 21:03
io ricordo che si parlava o di una revisione o di processo, ma non ricordo NI (forse un paio), può anche darsi che mi sbagli, ma non sto difendendo nulla e nessuno, se ribecchi i post puoi dimostrare il contrario...

Qua se c'è qualcuno che difende qualcosa non sono io....e non penso c'è da aggiungere altro ;)

vabè non è importante sbagliare una previsione.Non succede nulla.Per carità.
Nono,nonci penso proprio a rispolverare tute le pagine del Thread .La cosa resta irrilevante ma una cosa resta certa per chi ha ancora qualche dubbio : scordate NI di vederlo entro l'anno.:)
Per quanto riguarda me,non difendo mica NVIDIA : io sono certo che Fermi sarà una GPU molto veloce e tra un paio di mesi potrò finalmente vedere se mi sono sbagliato (non ho mai cambiato di una virgola la mia opinione da quando sono entrato in questo Thread.Non ce ne bisogno)...:Prrr:

gianni1879
20-01-2010, 21:05
vabè non è importante sbagliare una previsione.Non succede nulla.Per carità.
Nono,nonci penso proprio a rispolverare tute le pagine del Thread .La cosa resta irrilevante ma una cosa resta certa per chi ha ancora qualche dubbio : scordate NI di vederlo entro l'anno.:)
Per quanto riguarda me,non difendo mica NVIDIA : io sono certo che Fermi sarà una GPU molto veloce e tra un paio di mesi potrò finalmente vedere se mi sono sbagliato (non ho mai cambiato di una virogla la mia opinione da quando sono entrato in questo Thread.Non ce ne bisogno)...:p

quest'anno si vedrà una revisione delle attuali che si potrebbe anche chiamare hd6000, NI se ne parla 2011.

P.S.
non mi riferivo a te nello specifico ma un discorso generale.

aaasssdddfffggg
20-01-2010, 21:06
Se fosse un flop totale semplicemente i prezzi AMD rimarrebbero invariati.

Quello che dobbiamo sperare è comunque che invece fermi vada in media circa uguale ad una 5870. In questo caso ci sarebbe da divertirsi sul fronte prezzi :)



Quelli che hanno detto NI a settembre pensavano a NI=Evergreen refresh ;)

ah.....vabè non ho proprio voglia di sfogliare tutto il thread.Ripeto,per quanto mi riguarda la cosa è irrilevante.;)

aaasssdddfffggg
20-01-2010, 21:07
quest'anno si vedrà una revisione delle attuali che si potrebbe anche chimarer hd6000, NI se ne parla 2011.

si,l'ho ribadito per NI.;)

aaasssdddfffggg
20-01-2010, 21:08
quest'anno si vedrà una revisione delle attuali che si potrebbe anche chimarer hd6000, NI se ne parla 2011.

P.S.
non mi riferivo a te nello specifico ma un discorso generale.

si ok,ho preso spunto dal tuo post per ribadire la mia posizione.E' tutto ok....perchè Fermi sta arrivando.:)

Mark_91
20-01-2010, 21:08
ps. non mi riferisco solo a te ma a molti che ho visto dire: ""ati costa troppo 250 per un scheda non li spendo...etc" ma prima con g80 dove vi faceva pagare 600-700 euro a scheda non le sentivo ste lamentele, chissà perché...:doh:
Mi ricordo che nel 2006 pagai la 8800 gts da 640 mb versione xxx della xfx a modica cifra di 540€ :muro: ,e nn era nemmeno una top di gamma,a quei tempi la 8800 gtx dominava indiscussa nel regno delle schede video,ma costava davvero troppo.
Spero che tutto ciò non si ripeterà con fermi

Greifi Grishnackh
20-01-2010, 21:10
There are at least six more games that will support DirectX 11 and some of them such as Crysis 2 will be highly expected but might probably launch in later part of 2010.

Native DirectX 11 games will only come with next generation console refresh, something that is expected in 2012.
prenderò fermi per metro 2033. Per tutti gli altri la povera 9800gtx+ puo ancora andare bene :D :D

aaasssdddfffggg
20-01-2010, 21:10
Mi ricordo che nel 2006 pagai la 8800 gts da 640 mb versione xxx della xfx a modica cifra di 540€ :muro: ,e nn era nemmeno una top di gamma,a quei tempi la 8800 gtx dominava indiscussa nel regno delle schede video,ma costava davvero troppo.
Spero che tutto ciò non si ripeterà con fermi

nvidia non regala mai nulla.Mettiti l'anima in pace.Le sue GPU se la fa pagare fino all'ultimo transistor.:)

aaasssdddfffggg
20-01-2010, 21:11
prenderò fermi per metro 2033. Per tutti gli altri la povera 9800gtx+ puo ancora andare bene :D :D

Bravo,vedrai che quello sarà un titolone.Tenetelo d'occhio tutti ragazzi.;)

aaasssdddfffggg
20-01-2010, 21:14
Se può.

Rata tu che pensi...in questo caso con Fermi "potrà"?

Greifi Grishnackh
20-01-2010, 21:15
Bravo,vedrai che quello sarà un titolone.Tenetelo d'occhio tutti ragazzi.;)
gia solo il fatto di avere un motore grafico nuovo la dice lunga. Infatti il vero potenziale di fermi (a quanto ho capito io da quello che piu o meno si sa) si vedrà con giochi nuovi e basati su dx11. Lo scopriremo quando uscirà fuori un bench completo sull'ungine heaven :)

appleroof
20-01-2010, 21:18
gia solo il fatto di avere un motore grafico nuovo la dice lunga. Infatti il vero potenziale di fermi (a quanto ho capito io da quello che piu o meno si sa) si vedrà con giochi nuovi e basati su dx11. Lo scopriremo quando uscirà fuori un bench completo sull'ungine heaven :)

quel gioco è destinato anche alla xbox, scordatevi un motore nativo dx11, purtroppo :(

aaasssdddfffggg
20-01-2010, 21:19
quel gioco è destinato anche alla xbox, scordatevi un motore nativo dx11, purtroppo :(

i nativi directx11 li vedremo solo nel 2012 con l'arrivo della nuova generazione di console.Tutti i motori grafici odierni sono sulla base delle directx10 con effetti aggiunti delle nuove api.;)
Ma non paragoniamo più i giochi su PC con le console pure se escono su entrambe le piattafome.Quando uscirà METRO 2033 vallo a vedere sulla xbox360 e poi corri subito a casa mia così lo vediamo sul pc....sarà la stessa cosa?:D

zorco
20-01-2010, 21:22
i nativi directx11 li vedremo solo nel 2012 con l'arrivo della nuova generazione di console.Tutti i motori grafici odierni sono sulla base delle directx10 con effetti aggiunti delle nuove api.;)
per quella data saremo tutti morti,altro che dx11:sofico: :stordita:

aaasssdddfffggg
20-01-2010, 21:24
per quella data saremo tutti morti,altro che dx11:sofico: :stordita:

io sono alieno....quindi ospite di questo mondo.Quando arriverà il momento prendo il disco e volo via.:asd:

appleroof
20-01-2010, 21:25
i nativi directx11 li vedremo solo nel 2012 con l'arrivo della nuova generazione di console.Tutti i motori grafici odierni sono sulla base delle directx10 con effetti aggiunti delle nuove api.;)
Ma non paragoniamo più i giochi su PC con le console pure se escono su entrambe le piattafome.Quando uscirà METRO 2033 vallo a vedere sulla xbox360 e poi corri subito a casa mia così lo vediamo sul pc....sarà la stessa cosa?:D

no, so bene che i giochi per pc sono graficamente migliori delle stesse versioni per consolle, pure adesso è così..

mi era sembrato di capire che credeste fosse un gioco "full dx11"

cmq dì piuttosto che è dx9 (ancora :rolleyes: ) con spruzzate dx11, insomma solite cose...HLSL e porting... (delle quali comincio ad essere molto stufo, almeno avessero delle storie originali e coinvolgenti non penserei così tanto alla grafica...)

zorco
20-01-2010, 21:26
io sono alieno....quindi ospite di questo mondo.Quando arriverà il momento prendo il disco e volo via.:asd:
ah mè l'ero scordato:doh:

Simedan1985
20-01-2010, 21:27
per quella data saremo tutti morti,altro che dx11:sofico: :stordita:

Ah che bella grattata ...cmq fa male sentire che i giochi dx 11 li vedremo alla lontana...sopratutto se hai appena speso 600 euri di vga dx11:stordita: :ciapet:

aaasssdddfffggg
20-01-2010, 21:36
"I have NF200 version R3E,too. Its size is the same as E762. I am not sure it will be available in the future. It depends on Nvidia "Quad SLI" support."

è un noto tester che sta testando la RAMPAGE 3 EXTREME di prossima uscita (tra l'altro la mia prossima mobo)e dice di avere anche la versione con nforce200 per avere la banda massima su tutte e 4 le porte pci-e a 16x.Bene,dice che asus non sa se commercializzerà questa variante perchè dipenderà dal supporto quadsli di nvidia....(come dire che ce ancora incertezza sulla dual?)
__________________

ghiltanas
20-01-2010, 22:28
io sono alieno....quindi ospite di questo mondo.Quando arriverà il momento prendo il disco e volo via.:asd:

" oh extraterrestre portami via, voglio una stella che sia tutta mia....." :asd:

ghiltanas
20-01-2010, 22:31
Ah che bella grattata ...cmq fa male sentire che i giochi dx 11 li vedremo alla lontana...sopratutto se hai appena speso 600 euri di vga dx11:stordita: :ciapet:

per il discorso dx11, Nemesis Elite ha purtroppo in gran parte ragione..fino alla prossima gen di console, + in la di tanto le sh nn si spingeranno :(

Athlon 64 3000+
20-01-2010, 22:41
secondo me alla fine di questa estate presenteranno una GPU a 28 nm sempre della classe HD 5000 series tipo come hanno fatto con la HD 4770 e non penso che uscirà la serie 6000 e nel 2011 inoltrato verranno fuori le schede basate su NI alias per me HD 6000 series.
Tornando in topic dico che non ci metta troppo ad uscire fermi visto che come siamo messi adesso non è il massimo.

cd125
20-01-2010, 23:06
certo qui ancora aspettiamo i giochi basati su dx10 e giustamente loro dicono che nel 2012 si baserà tutto su dx11, tanto in un anno tutti quanti avranno aggiornato il loro pc, per me da qui al 2012 si inizieranno a vedere i nativi dx10(che ancora non si è ben capito a che servivano rispetto alle meravigliose dx 9.c).
a parte lo scherzo, si sono resi conto che da qui al 2012 fermi ed rv870 saranno reputati dei bei cimeli da museo, fino a 2 anni fa, parlo di inizio 2008, dominavano incontrastate le 8800gtx e la 3870 seguiva, e si discuteva di 9800 e 4870, oggi se hai 3870 fatichi veramente a far girare un gioco in dx10 per come si deve...

ghiltanas
20-01-2010, 23:10
si spera che con le dx11 sia un pò meglio...intanto stiamo a vedere bad company 2 come se la cava.Considera anche che in questi anni si è salito parecchio con la risoluzione ( io sono passato da un crt 1024*768 a un lcd 1680*1050 e ora a un fullhd), ma adesso sotto questo aspetto dovremmo aver raggiunto un pò di stallo; questo per dirti che le schede attuali potrebbero avere una longevità decisamente maggiore, la mia gt ad esempio la voglio cambiare anche perchè sono salito di risoluzione, altrimenti il peso degli anni (ne ha ben 2 :asd:) l'avrebbe sentito molto meno ;)

DukeIT
20-01-2010, 23:18
Uffa...sono alti rispetto al prezzo del lancio (avvenuto mesi fa)

Eppure scrivo in Italiano :what:
Parlerai anche italiano, ma attaccare ATI sul fronte prezzi è assurdo. Soprattutto se per dire che le HD58x0 costano tanto, prendi come riferimento non la concorrenza, ma i prezzi che avevano... le stesse HD58x0 due mesi prima :mc:
Sinceramente affermare che una HD5850 da 230 euro è sovraprezzata perchè costa 10 euro in più rispetto al momento del lancio mi sembra quantomeno una forzatura, in particolare di fronte ad una concorrenza che ci ha abituato a ben altri metri per definire il sovraprezzo (diciamo 600/800 euro?).

Non valuti il prezzo in modo oggettivo, ma solo la circostanza dell'aumento che, oltre al fatto che ha una motivazione ben nota, non porta automaticamente a considerare un prodotto sovraprezzato (oggettivamente non lo è tenendo conto del basso prezzo di partenza).
Se per definire un oggetto prezzato correttamente o sovraprezzato tu utilizzi solo il metro delle oscillazioni di mercato, allora potresti tranquillamente affermare che una VGA che prima costava 220 euro ed ora ne costa 230 è sovraprezzata, mentre se la stessa VGA inizialmente fosse costata 400 euro ed adesso venisse venduta a 350 euro, allora sarebbe un affare.

scorpion73
20-01-2010, 23:30
con tutta sta gente che ha la 295, mi sa che io aspetto Fermi per prendermi alla fine una 295 usata a buon prezzo da mettere nel muletto (VGA di lusso, lo so, ma anche il muletto ha i suoi diritti :D), insieme a Fermi per il PC base.
Così anche mio figlio è contento sul suo PC, dove adesso staziona una 9800GTX+ (quella che avevo inizialmente dedicato alla fisica).
Spero solamente che la politica dei prezzi di fermi tenga conto che c'è la 5970 in giro, anche se dual, comunque la scheda più veloce del mercato attualmente

ghiltanas
20-01-2010, 23:53
http://vr-zone.com/articles/-rumour-dual-gpu-gf100-in-april-possible-/8314.html

articolo molto interessante, che spiega il perchè molto probabilmente nn sarà possibile un dual gpu con fermi, almeno nn prima di un dieshrink

"Even so, barring a major miracle, the power draw of GF100 is likely to remain north of 225W" :eek:

Kharonte85
21-01-2010, 00:48
Parlerai anche italiano, ma attaccare ATI sul fronte prezzi è assurdo. Soprattutto se per dire che le HD58x0 costano tanto, prendi come riferimento non la concorrenza, ma i prezzi che avevano... le stesse HD58x0 due mesi prima :mc:
Sinceramente affermare che una HD5850 da 230 euro è sovraprezzata perchè costa 10 euro in più rispetto al momento del lancio mi sembra quantomeno una forzatura, in particolare di fronte ad una concorrenza che ci ha abituato a ben altri metri per definire il sovraprezzo (diciamo 600/800 euro?).

Non valuti il prezzo in modo oggettivo, ma solo la circostanza dell'aumento che, oltre al fatto che ha una motivazione ben nota, non porta automaticamente a considerare un prodotto sovraprezzato (oggettivamente non lo è tenendo conto del basso prezzo di partenza).
Se per definire un oggetto prezzato correttamente o sovraprezzato tu utilizzi solo il metro delle oscillazioni di mercato, allora potresti tranquillamente affermare che una VGA che prima costava 220 euro ed ora ne costa 230 è sovraprezzata, mentre se la stessa VGA inizialmente fosse costata 400 euro ed adesso venisse venduta a 350 euro, allora sarebbe un affare.
E che ci sarebbe di strano? :boh:

Quello che fai tu è un discorso vacuo io mi limito a valutare 2 dati e ne traggo una conclusione:

- all'uscita (Ottobre) la HD5850 ha un prezzo a listino medio di 220e

- ora il prezzo medio della Hd5850 è di 250e (non 230)

Ne consegue che la scheda è sovraprezzata rispetto al valore stesso che AMD le ha dato all'inizio ---> non conviene acquistare fino a che il prezzo non si rilivella perlomeno al prezzo di lancio ---> cosa che al 99% si verificherà all'arrivo della concorrenza ---> se uno non è obbligato a comprare adesso gli conviene aspettare.

Greifi Grishnackh
21-01-2010, 01:04
secondo voi con la configurazione che ho in firma...prendendo una ipotetica gtx360 sarei cpu limited?

persa
21-01-2010, 04:21
secondo voi con la configurazione che ho in firma...prendendo una ipotetica gtx360 sarei cpu limited?

mah...magari fai overclock e vai tranqui...

LurenZ87
21-01-2010, 06:35
secondo voi con la configurazione che ho in firma...prendendo una ipotetica gtx360 sarei cpu limited?

secondo me, è presto ancora per tirare pareri... come ad esempio per le prestazioni con il tassellator attivato, imho, i giochi come avp e compagnia bella diventeranno pesanti con quell'opzioni attivata (poi da vedere che differenze corrono tra x9, x10 ed x11), poi vabbè, magari mi sbaglio io :stordita:

Andrea deluxe
21-01-2010, 06:54
io sono alieno....quindi ospite di questo mondo.Quando arriverà il momento prendo il disco e volo via.:asd:

http://www.spaziogames.it/notizie_videogiochi/console_multi_piattaforma/116834/crysis-2-si-svolgera-a-new-york.aspx

persa
21-01-2010, 07:07
i nativi directx11 li vedremo solo nel 2012 con l'arrivo della nuova generazione di console.

ed a quel punto tradirò il mondo pc passando alla Xbox720 :tie: :D


oddio che ho detto :ops:

gianni1879
21-01-2010, 07:32
ed a quel punto tradirò il mondo pc passando alla Xbox720 :tie: :D


oddio che ho detto :ops:

eretico....

http://www.freesaveweb.net/hwupgrade/smile/plugin/banned.gif http://www.freesaveweb.net/hwupgrade/smile/plugin/doppiaammonizione.gif

persa
21-01-2010, 07:44
hahahaha :D

scherzavo ;) pc a vita :sborone:

halduemilauno
21-01-2010, 07:54
un'altro articolo...
http://techreport.com/articles.x/18332
http://img44.imageshack.us/img44/8338/catturay.th.png (http://img44.imageshack.us/i/catturay.png/)

;)

zorco
21-01-2010, 07:54
ed a quel punto tradirò il mondo pc passando alla Xbox720 :tie: :D


oddio che ho detto :ops:
:eek:

aaasssdddfffggg
21-01-2010, 08:33
ed a quel punto tradirò il mondo pc passando alla Xbox720 :tie: :D


oddio che ho detto :ops:

sarai perseguitato per tutti i sistemi stellari conosciuti.Non ti darò fiato.:D

aaasssdddfffggg
21-01-2010, 08:35
edit

persa
21-01-2010, 08:35
sarai perseguitato per tutti isistgemi stellari conosciuti.Non ti darò fiato.:D

ma ovvio che scherzavo :cool: ;)

Maury
21-01-2010, 08:37
ATI sta incassando così tanto dalla serie 5xxx che all'uscita, o poco prima, di Fermi farà una tale guerra dei prezzi che le troveremo pure nei detersivi... vedrete :D

aaasssdddfffggg
21-01-2010, 08:38
Non ho la sfera di cristallo, lo sapremo ad aprile :)



In realtà sappiamo bene che non è vero, perché l'NF200 non è altro che uno split, la banda a monte rimane la stessa, e introduce anche uno step in più e quindi latenze addizionali.

Questo per dire che quando sarà il momento ti conviene andare per quella senza NF200 perché andrà meglio :)



In realtà in USA il prezzo è rimasto fermo all'MSRP del lancio, ma il $ è aumentato sull'€ e di qui l'aumento sul mercato europeo. Soluzione:

- Aspetti che il cambio sia più favorevole.
- Speri che Fermi vada uguale ad una HD5870, in modo che si inneschi una guerra di prezzi.

nojn solo,è stato anche dimostrato che far lavorare le vga a 8x e a 16x in SLI o quadSLI che sia,ha un impatto sulle prestazioni praticamente nullo.Siamo dell'ordine dell'1-2% massimo.

aaasssdddfffggg
21-01-2010, 08:39
ma ovvio che scherzavo :cool: ;)

ma lo so.Si scherza dai.;)

persa
21-01-2010, 08:44
nojn solo,è stato anche dimostrato che far lavorare le vga a 8x e a 16x in SLI o quadSLI che sia,ha un impatto sulle prestazioni praticamente nullo.Siamo dell'ordine dell'1-2% massimo.

be, un quad sli/crossfire xò sensa nf200 non ce lo fai su x58 ;)

e su p55 (lasciando stare l'utilità di tale soluzione su queste mobo, che poi devantano anche troppo costose) un tri sli/fire senza nf200, con questi risultati poi:

http://www.xtremesystems.org/forums/showthread.php?t=239660

non ce lo fai, quindi a qualche cosa serve ;)


cmq chiudiamo questo ot che questo non è il thread adatto a parlare di mobo, cpu ram ecc...qui si parla di GeForce100 :cool: ;)

persa
21-01-2010, 08:50
ma lo so.Si scherza dai.;)

;)

aaasssdddfffggg
21-01-2010, 08:55
be, un quad sli/crossfire xò sensa nf200 non ce lo fai su x58 ;)

e su p55 (lasciando stare l'utilità di tale soluzione su queste mobo, che poi devantano anche troppo costose) un tri sli/fire senza nf200, con questi risultati poi:

http://www.xtremesystems.org/forums/showthread.php?t=239660

non ce lo fai, quindi a qualche cosa serve ;)


cmq chiudiamo questo ot che questo non è il thread adatto a parlare di mobo, cpu ram ecc...qui si parla di GeForce100 :cool: ;)

perchè non ce lo fai?fammi capire sta cosa.Sono adesso sotto quad sli a 16x-16x senza nforce 200 e su X58.:)

persa
21-01-2010, 08:57
perchè nojn ce lo fai?fammi capire sta cosa.Sono adesso sotto quad sli a 16x-16x senza nforce 200 e su X58.:)

no mi sono spiegato male. intendevo 4 schede :D x58 normalmente dovrebbe avere 3 slot pci-e che vanno a 16x8x8x... ma con nf200 so che dovrebbe dare un ulteriore slot pci-e in alcune mobo, sbaglio? ;)

parlo del 4 way sli ;)

bjt2
21-01-2010, 08:59
E che ci sarebbe di strano? :boh:

Quello che fai tu è un discorso vacuo io mi limito a valutare 2 dati e ne traggo una conclusione:

- all'uscita (Ottobre) la HD5850 ha un prezzo a listino medio di 220e

- ora il prezzo medio della Hd5850 è di 250e (non 230)

Ne consegue che la scheda è sovraprezzata rispetto al valore stesso che AMD le ha dato all'inizio ---> non conviene acquistare fino a che il prezzo non si rilivella perlomeno al prezzo di lancio ---> cosa che al 99% si verificherà all'arrivo della concorrenza ---> se uno non è obbligato a comprare adesso gli conviene aspettare.

Ma siamo così sicuri che la colpa sia di AMD?
Qui state dicendo che la GTX285, che va circa come la 5870, costa ALMENO 280 euro. E se fossero i costruttori di schede che hanno alzato il prezzo perchè è comunque un affare?

aaasssdddfffggg
21-01-2010, 08:59
no mi sono spiegato male. intendevo 4 schede :D x58 normalmente dovrebbe avere 3 slot pci-e che vanno a 16x8x8x... ma con nf200 so che dovrebbe dare un ulteriore slot pci-e in alcune mobo, sbaglio? ;)

si dici bene,infatti nella rampage 3 senza nforce 200 andranno (le 4 porte pci-e presenti)8-8-8-8 nel caso le impegnassi tutte però.
Chiudiamo qui OT e torniamo a parlare di Fermi adesso.;)

persa
21-01-2010, 09:01
si dici bene,infatti nella rampage 3 senza nforce 200 andranno (le 4 porte pci-e presenti)8-8-8-8 nel caso le impegnassi tutte però.
Chiudiamo qui OT e torniamo a parlare di Fermi adesso.;)

ah ok ;) pensavo di no ;)


Ma siamo così sicuri che la colpa sia di AMD?
Qui state dicendo che la GTX285, che va circa come la 5870, costa ALMENO 280 euro. E se fossero i costruttori di schede che hanno alzato il prezzo perchè è comunque un affare?

chi ha detto questa cosa? la gtx285 va meno della 5870, in giochi come Crysis ne esce con le ossa frantumate ;)

bjt2
21-01-2010, 09:03
no mi sono spiegato male. intendevo 4 schede :D x58 normalmente dovrebbe avere 3 slot pci-e che vanno a 16x8x8x... ma con nf200 so che dovrebbe dare un ulteriore slot pci-e in alcune mobo, sbaglio? ;)

parlo del 4 way sli ;)

Io ho un mac pro con doppio penryn quad core 3 Ghz (xeon) e fbdimm e 4 slot pci express... Ho aperto il case e sono 4 slot 16x meccanici, ma sullo slot 1 e 2 c'è scritto 16x e sul 3 e 4 c'è scritto 4x. Che chipset monta?

bjt2
21-01-2010, 09:05
ah ok ;) pensavo di no ;)




chi ha detto questa cosa? la gtx285 va meno della 5870, in giochi come Crysis ne esce con le ossa frantumate ;)

Non seguo molto i benchmark. Ho solo letto questo qualche post fa. Io ho una misera 8800GT a 112 SP con cui al max gioco a GTA SA a 1680x1050...

persa
21-01-2010, 09:06
Io ho un mac pro con doppio penryn quad core 3 Ghz (xeon) e fbdimm e 4 slot pci express... Ho aperto il case e sono 4 slot 16x meccanici, ma sullo slot 1 e 2 c'è scritto 16x e sul 3 e 4 c'è scritto 4x. Che chipset monta?

con DOPPIO penryn?? :boh: e che razza di mobo è?? :D


cmq chiudiamo qui xchè stiamo andando troppo ot.. ;)

halduemilauno
21-01-2010, 09:19
Ma siamo così sicuri che la colpa sia di AMD?
Qui state dicendo che la GTX285, che va circa come la 5870, costa ALMENO 280 euro. E se fossero i costruttori di schede che hanno alzato il prezzo perchè è comunque un affare?

5850.


ps speriamo che finisca questo ot.

persa
21-01-2010, 09:23
ps speriamo che finisca questo ot.

tranquillo da parte mia è chiuso ;)

bjt2
21-01-2010, 09:37
con DOPPIO penryn?? :boh: e che razza di mobo è?? :D


cmq chiudiamo qui xchè stiamo andando troppo ot.. ;)

Boh... Forse skulltrail... I penryn hanno bus a 1600 e l'uso delle FBDIMM indica che sono server...

HackaB321
21-01-2010, 12:34
Sembra che Nvidia intenda ridurre la capacità di calcolo in DP di GeForce Fermi di 1/4 per avvantaggiare le vendite di Tesla. 64 FMA per clock anzichè 256.

By all rights, in this architecture, double-precision math should happen at half the speed of single-precision, clean and simple. However, Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock—one fourth of what the chip can do. This is presumably a product positioning decision intended to encourage serious compute customers to purchase a Tesla version of the GPU instead. Double-precision support doesn't appear to be of any use for real-time graphics, and I doubt many serious GPU-computing customers will want the peak DP rates without the ECC memory that the Tesla cards will provide. But a few poor hackers in Eastern Europe are going to be seriously bummed, and this does mean the Radeon HD 5870 will be substantially faster than any GeForce card at double-precision math, at least in terms of peak rates.

http://www.techreport.com/articles.x/18332/5

halduemilauno
21-01-2010, 12:55
Sembra che Nvidia intenda ridurre la capacità di calcolo in DP di GeForce Fermi di 1/4 per avvantaggiare le vendite di Tesla. 64 FMA per clock anzichè 256.

By all rights, in this architecture, double-precision math should happen at half the speed of single-precision, clean and simple. However, Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock—one fourth of what the chip can do. This is presumably a product positioning decision intended to encourage serious compute customers to purchase a Tesla version of the GPU instead. Double-precision support doesn't appear to be of any use for real-time graphics, and I doubt many serious GPU-computing customers will want the peak DP rates without the ECC memory that the Tesla cards will provide. But a few poor hackers in Eastern Europe are going to be seriously bummed, and this does mean the Radeon HD 5870 will be substantially faster than any GeForce card at double-precision math, at least in terms of peak rates.

http://www.techreport.com/articles.x/18332/5

gia postato. cmq è per meglio differenziare le due tipologie di prodotti non a caso da una parte gt300 tesla e dall'altra gf100 geforce per due distinti mercati. tanto come si era detto da subito la dp nel gaming non serve ed ecco quindi la riduzione.

Dobermann75
21-01-2010, 13:14
Non seguo molto i benchmark. Ho solo letto questo qualche post fa. Io ho una misera 8800GT a 112 SP con cui al max gioco a GTA SA a 1680x1050...
ot on
Prova a vedere sul sito di EVGA o di XFX o BFg (non ricordo il produttore) dovresti trovare disponibile la GTX285 versione per MAC...dovresti poter giocare tranquillamente a tutto ;)
ot off

Maury
21-01-2010, 13:17
Sembra che Nvidia intenda ridurre la capacità di calcolo in DP di GeForce Fermi di 1/4 per avvantaggiare le vendite di Tesla. 64 FMA per clock anzichè 256.

By all rights, in this architecture, double-precision math should happen at half the speed of single-precision, clean and simple. However, Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock—one fourth of what the chip can do. This is presumably a product positioning decision intended to encourage serious compute customers to purchase a Tesla version of the GPU instead. Double-precision support doesn't appear to be of any use for real-time graphics, and I doubt many serious GPU-computing customers will want the peak DP rates without the ECC memory that the Tesla cards will provide. But a few poor hackers in Eastern Europe are going to be seriously bummed, and this does mean the Radeon HD 5870 will be substantially faster than any GeForce card at double-precision math, at least in terms of peak rates.

http://www.techreport.com/articles.x/18332/5

E per fortuna che le gpu le stavano già producendo... ma quando mai :rolleyes:

halduemilauno
21-01-2010, 13:20
E per fortuna che le gpu le stavano già producendo... ma quando mai :rolleyes:

esatto e anche l'articolo lo dice.

AnonimoVeneziano
21-01-2010, 13:21
Sembra che Nvidia intenda ridurre la capacità di calcolo in DP di GeForce Fermi di 1/4 per avvantaggiare le vendite di Tesla. 64 FMA per clock anzichè 256.

By all rights, in this architecture, double-precision math should happen at half the speed of single-precision, clean and simple. However, Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock—one fourth of what the chip can do. This is presumably a product positioning decision intended to encourage serious compute customers to purchase a Tesla version of the GPU instead. Double-precision support doesn't appear to be of any use for real-time graphics, and I doubt many serious GPU-computing customers will want the peak DP rates without the ECC memory that the Tesla cards will provide. But a few poor hackers in Eastern Europe are going to be seriously bummed, and this does mean the Radeon HD 5870 will be substantially faster than any GeForce card at double-precision math, at least in terms of peak rates.

http://www.techreport.com/articles.x/18332/5

In questo modo si contrappone alle Radeon che invece , rispetto alle FireStream, non hanno alcuna differenza (le radeon 5xxx hanno sia la memoria ECC che la stessa performance in DP delle FireStream).

Vedremo, è un peccato comunque sta limitazione anche se non credo vedremo in tempo breve applicazioni per GPU casalinghe che si avvantaggiano della potenza in double precision

halduemilauno
21-01-2010, 13:26
In questo modo si contrappone alle Radeon che invece , rispetto alle FireStream, non hanno alcuna differenza (le radeon 5xxx hanno sia la memoria ECC che la stessa performance in DP delle FireStream).

Vedremo, è un peccato comunque sta limitazione anche se non credo vedremo in tempo breve applicazioni per GPU casalinghe che si avvantaggiano della potenza in double precision

e pensare che questa modifica va proprio contro a chi pensava che nvidia stava abbandonando il mercato gaming visto che ha proprio eliminato quelle componenti da calcolo professionale specifiche delle gt300 tesla. mentre le gf100 son proprio fatte per giocare.

RaZoR93
21-01-2010, 13:27
gia postato. cmq è per meglio differenziare le due tipologie di prodotti non a caso da una parte gt300 tesla e dall'altra gf100 geforce per due distinti mercati. tanto come si era detto da subito la dp nel gaming non serve ed ecco quindi la riduzione.Tuttavia non penso che avrebbe fatto certo male per CUDA e physX. Peccato.

Pelvix
21-01-2010, 13:32
E per fortuna che le gpu le stavano già producendo... ma quando mai :rolleyes:

No no, le hanno già belle e pronte, è solo che ora ne tagliano via un pezzetto con il seghetto... :D

gianni1879
21-01-2010, 13:33
e pensare che questa modifica va proprio contro a chi pensava che nvidia stava abbandonando il mercato gaming visto che ha proprio eliminato quelle componenti da calcolo professionale specifiche delle gt300 tesla. mentre le gf100 son proprio fatte per giocare.

io la vedo diversamente, stanno facendo uscire le Tesla in più fretta possibile e stanno cercando di eliminare i problemi, quindi se mi permetti per adesso stanno guardando un'altra ottica che non è il gaming.

Significa anche che i problemi ci sono, altro che già in produzione come qualcuno sostenne...

halduemilauno
21-01-2010, 13:35
Tuttavia non penso che avrebbe fatto certo male per CUDA e physX. Peccato.

non credo che vadano ad intaccare quegli aspetti. e cmq era una modifica nell'aria praticamente gia annunciata. da subito nvidia disse che ci sarebbero state modifiche per meglio differenziare le due linee di prodotti.

Foglia Morta
21-01-2010, 13:38
e pensare che questa modifica va proprio contro a chi pensava che nvidia stava abbandonando il mercato gaming visto che ha proprio eliminato quelle componenti da calcolo professionale specifiche delle gt300 tesla. mentre le gf100 son proprio fatte per giocare.

Ma dove sta scritto che sono 2 gpu diverse ? Le critiche relative a Fermi e il mercato gaming venivano dai costi associati al silicio utile al gpu computing ed inutile alla grafica per gaming. Si producono schede Tesla e Geforce per differenti ambiti ma la gpu è sempre quella... se ridurranno le performance in DP per le Geforce potrebbero farlo allo stesso modo in cui modificano le Quadro dalle Geforce , cioè con bios e driver ( o quant' altro ), ma la gpu è sempre quella con i relativi costi di tutto il suo die size a prescindere dall' utilizzo che ne faranno.

HackaB321
21-01-2010, 13:39
In questo modo si contrappone alle Radeon che invece , rispetto alle FireStream, non hanno alcuna differenza (le radeon 5xxx hanno sia la memoria ECC che la stessa performance in DP delle FireStream).

Vedremo, è un peccato comunque sta limitazione anche se non credo vedremo in tempo breve applicazioni per GPU casalinghe che si avvantaggiano della potenza in double precision

La domanda da farsi è perchè hanno avuto la necessità di tagliare questa funzionalità che sebbene non necessaria per il gaming avrebbe fatto comodo anche solo a livello di marketing.
Probabilmente le Tesla con la sola ECC in più non sono state ritenute sufficientemente appetibili.

gianni1879
21-01-2010, 13:40
non credo che vadano ad intaccare quegli aspetti. e cmq era una modifica nell'aria praticamente gia annunciata. da subito nvidia disse che ci sarebbero state modifiche per meglio differenziare le due linee di prodotti.

guarda che la gpu è la stessa....

halduemilauno
21-01-2010, 13:40
io la vedo diversamente, stanno facendo uscire le Tesla in più fretta possibile e stanno cercando di eliminare i problemi, quindi se mi permetti per adesso stanno guardando un'altra ottica che non è il gaming.

Significa anche che i problemi ci sono, altro che già in produzione come qualcuno sostenne...

e che centra con la news e con quanto vado dicendo io? lo avete capito vero che si sta parlando di due schede diverse? di due chip diversi? di due mercati diversi? certo che sono in produzione ci sono dichiarazioni ufficiali e pubbliche e dichiarazioni della fonderia che parla di rese quindi si sono in produzione.

halduemilauno
21-01-2010, 13:43
Ma dove sta scritto che sono 2 gpu diverse ? Le critiche relative a Fermi e il mercato gaming venivano dai costi associati al silicio utile al gpu computing ed inutile alla grafica per gaming. Si producono schede Tesla e Geforce per differenti ambiti ma la gpu è sempre quella... se ridurranno le performance in DP per le Geforce potrebbero farlo allo stesso modo in cui modificano le Quadro dalle Geforce , cioè con bios e driver ( o quant' altro ), ma la gpu è sempre quella con i relativi costi di tutto il suo die size a prescindere dall' utilizzo che ne faranno.

l'architettura è uguale. i chip sono diversi infatti devono rispondere a mercati e tipologie diverse. e la news postata ne è la prova.

gianni1879
21-01-2010, 13:43
e che centra con la news e con quanto vado dicendo io? lo avete capito vero che si sta parlando di due schede diverse? di due chip diversi? di due mercati diversi? certo che sono in produzione ci sono dichiarazioni ufficiali e pubbliche e dichiarazioni della fonderia che parla di rese quindi si sono in produzione.

lascia perdere... :mc:


a cosa si riferiscono le dichiarazioni sulle rese?


p.s.
abbassa i toni, grazie

Maury
21-01-2010, 13:46
esatto e anche l'articolo lo dice.

Non è quello che ha detto il Manager Cinese (o Corenao ? o Giappo ?) al CES, alla fine della diretta... che pallonaro cronico, cmq nessuno gli aveva creduto manco per mezzo secondo ;)

faber80
21-01-2010, 13:49
Non è quello che ha detto il Manager Cinese (o Corenao ? o Giappo ?) al CES, alla fine della diretta... che pallonaro cronico, cmq nessuno gli aveva creduto manco per mezzo secondo ;)

ma perchè, c'è ancora qualcuno che gli crede, oltre ai "fiduciosi" ?
:asd:

yossarian
21-01-2010, 13:51
esatto e anche l'articolo lo dice.

l'ho letto velocemente e forse mi è sfuggito, ma non ho trovato dove l'articolo parla di chip già in produzione

e pensare che questa modifica va proprio contro a chi pensava che nvidia stava abbandonando il mercato gaming visto che ha proprio eliminato quelle componenti da calcolo professionale specifiche delle gt300 tesla. mentre le gf100 son proprio fatte per giocare.

disattivato, non eliminato

non credo che vadano ad intaccare quegli aspetti. e cmq era una modifica nell'aria praticamente gia annunciata. da subito nvidia disse che ci sarebbero state modifiche per meglio differenziare le due linee di prodotti.

come fai a sostenere una cosa del genere quando il "vero gpgpu" è soprattutto fp64? Stando così le cose, chi ha bisogno di potenza di calcolo o compra le tesla oppure ATi

La domanda da farsi è perchè hanno avuto la necessità di tagliare questa funzionalità che sebbene non necessaria per il gaming avrebbe fatto comodo anche solo a livello di marketing.
Probabilmente le Tesla con la sola ECC in più non sono state ritenute sufficientemente appetibili.

se la notizia fosse confermata, lo farebbero solo per spingere il più possibile la vendita delle tesla (su cui i ricarichi sono molto maggiori).

e che centra con la news e con quanto vado dicendo io? lo avete capito vero che si sta parlando di due schede diverse? di due chip diversi? di due mercati diversi? certo che sono in produzione ci sono dichiarazioni ufficiali e pubbliche e dichiarazioni della fonderia che parla di rese quindi si sono in produzione.

d'accordo sui due mercati e sulle due schede ma non sui due chip diversi. Mi spighi, tecnicamente, come fa fermi a fare i clacoli in fp64 partendo dalla configurazione delle alu negli SP?

l'architettura è uguale. i chip sono diversi infatti devono rispondere a mercati e tipologie diverse. e la news postata ne è la prova.

vale quanto detto sopra. Vediamo se tecnicamente è possibile che abbiano fisicamente eliminato unità che fanno fp64

p.s. te l'ho già detto: le rese si stimano sui sample di preproduzione: non metto in piedi una pipeline col rischio che mi costi miliardi e mi sforni 4 chip buoni ogni wafer senza aver fatto test preventivi

aaasssdddfffggg
21-01-2010, 13:53
ma perchè, c'è ancora qualcuno che gli crede, oltre ai "fiduciosi" ?
:asd:

e già....siccome i "fiduciosi" ,nel mondo ,si contano sulla punta delle dita...:asd:

Kharonte85
21-01-2010, 13:56
Ma dove sta scritto che sono 2 gpu diverse ? Le critiche relative a Fermi e il mercato gaming venivano dai costi associati al silicio utile al gpu computing ed inutile alla grafica per gaming. Si producono schede Tesla e Geforce per differenti ambiti ma la gpu è sempre quella... se ridurranno le performance in DP per le Geforce potrebbero farlo allo stesso modo in cui modificano le Quadro dalle Geforce , cioè con bios e driver ( o quant' altro ), ma la gpu è sempre quella con i relativi costi di tutto il suo die size a prescindere dall' utilizzo che ne faranno.
Puo' essere molto probabile, pero' non so se effettivamente possiamo escludere che non possano esserci alcune differenze anche a livello di chip (riaguardo ad altro).

Comunque la notizia dice semplicemente che questa mossa servirebbe per incentivare chi interessato a comprare le Tesla invece che le Geforce, non mi pare nomini nulla della produzione nelle fonderie.

ghiltanas
21-01-2010, 14:02
si ma se sono ancora dietro a modifiche e il chip nn è ancora in produzione, quando cavolo lo tirano fuori? :mbe:

pandyno
21-01-2010, 14:05
Secondo me hanno gravi problemi di resa mi sbaglierò... è un progetto che letteralmente pesa una tonellata...

PConly92
21-01-2010, 14:07
Parlerai anche italiano, ma attaccare ATI sul fronte prezzi è assurdo. Soprattutto se per dire che le HD58x0 costano tanto, prendi come riferimento non la concorrenza, ma i prezzi che avevano... le stesse HD58x0 due mesi prima :mc:
Sinceramente affermare che una HD5850 da 230 euro è sovraprezzata perchè costa 10 euro in più rispetto al momento del lancio mi sembra quantomeno una forzatura, in particolare di fronte ad una concorrenza che ci ha abituato a ben altri metri per definire il sovraprezzo (diciamo 600/800 euro?).

Non valuti il prezzo in modo oggettivo, ma solo la circostanza dell'aumento che, oltre al fatto che ha una motivazione ben nota, non porta automaticamente a considerare un prodotto sovraprezzato (oggettivamente non lo è tenendo conto del basso prezzo di partenza).
Se per definire un oggetto prezzato correttamente o sovraprezzato tu utilizzi solo il metro delle oscillazioni di mercato, allora potresti tranquillamente affermare che una VGA che prima costava 220 euro ed ora ne costa 230 è sovraprezzata, mentre se la stessa VGA inizialmente fosse costata 400 euro ed adesso venisse venduta a 350 euro, allora sarebbe un affare.

ma è inutile spiegarglielo...:rolleyes:
lascialo pagare 600 euro di scheda nvidia;) visto che trova ati una "ladra" perché aumenta una scheda di 30 euro(schede senza concorrenza)
qui siamo arrivati al ridicolo...
@kharonte85 le 8800 ultra(frequenze superiori alla 8800gtx ma costava anche 200euro in più) costavano poco? le schede serie 98xx ,in realta g80 con dieshrink che andavano uguale alle precedenti e costavano lo stesso come erano?
maddai...

faber80
21-01-2010, 14:09
e già....siccome i "fiduciosi" ,nel mondo ,si contano sulla punta delle dita...:asd:

bisogna vedere ancora il "dopo" Fermi cosa riserverà nel market share ;)
in un ipotetico pareggio (+15% non lo ritengo nel contesto un vantaggio) non so come verrebbe interpretato dalla "prole" verde... :asd:
.... saranno contentissimi, quando sarà, naturalmente....

aaasssdddfffggg
21-01-2010, 14:11
bisogna vedere ancora il "dopo" Fermi cosa riserverà nel market share ;)
in un ipotetico pareggio (+15% non lo ritengo nel contesto un vantaggio) non so come verrebbe interpretato dalla "prole" verde... :asd:
.... saranno contentissimi.

si è in attesa di sapere le reali prestazioni infatti.Fino a prova contraria le decisioni si prendono dopo aver visto il prodotto nella sua completezza....e noi (utenti in attesa di Fermi)non abbiamo alcuna fretta di aspettare (che sia Marzo o Aprile non ha importanza):asd:

Kharonte85
21-01-2010, 14:19
si ma se sono ancora dietro a modifiche e il chip nn è ancora in produzione, quando cavolo lo tirano fuori? :mbe:
Non abbiamo prove del fatto che il chip NON sia in produzione. Nessuno lo ha detto.

Se non lo fosse a Marzo sarebbe utopico sperare in un lancio.

faber80
21-01-2010, 14:19
si è in attesa di sapere le reali prestazioni infatti.Fino a prova contraria le decisioni si prendono dopo aver visto il prodotto nella sua completezza....e noi (utenti in attesa di Fermi)non abbiamo alcuna fretta di aspettare (che sia Marzo o Aprile non ha importanza):asd:

assolutamente.;)


Yoss, la disabilitazione di una parte del chip può rallentare/rimandare la produzione ? non è risolvibile tramite firmware ?

Legolas84
21-01-2010, 14:29
ma è inutile spiegarglielo...:rolleyes:
lascialo pagare 600 euro di scheda nvidia;) visto che trova ati una "ladra" perché aumenta una scheda di 30 euro(schede senza concorrenza)
qui siamo arrivati al ridicolo...
@kharonte85 le 8800 ultra(frequenze superiori alla 8800gtx ma costava anche 200euro in più) costavano poco? le schede serie 98xx ,in realta g80 con dieshrink che andavano uguale alle precedenti e costavano lo stesso come erano?
maddai...

livelli di fanboysmo fuori parametro...

DukeIT
21-01-2010, 14:37
livelli di fanboysmo fuori parametro...Fanboismo è quando dici cose non esatte o non ti accorgi dei punti negativi di un dato oggetto.
Sinceramente io quel discorso lo trovo assolutamente coerente, non ci vedo nulla di inesatto nella valutazione del diverso atteggiamento, sul fronte prezzi, delle due aziende. Ma senza andare al recente passato, basta guardare l'attuale listino prezzi per accorgersene.
Semmai trovo imolto distante dalla realtà chi consiglia di aspettare Fermi motivando la cosa con i prezzi troppo alti di ATI.

PConly92
21-01-2010, 14:42
livelli di fanboysmo fuori parametro...

guarda che io non sono fanboy di nessuno, solo che come già detto apprezzo ati per i suoi prezzi che applica alle sue vga...
invece critico nvidia per le sue "ladrate" contro noi consumatori;)
ora mi spiego meglio: un giorno ero in un negozio di informatica e c'era un mio amico che avendo visto una "nuova" geforce 9800gt disse: "ohh guarda nvidia a fatto uscire una nuova scheda!!!" lui essendo poco informato se la voleva comprare anche se aveva già una 8800gts da 512mb:eek:
subito gli spiegai la situazione e ci rimase di m"""a...:(
è questo che volevo dire non altro, nvidia certo che fa buone schede ma cerca sempre di fregare il consumatore(sparando anche prezzi assurdi non paragonati alle prestazioni) meno informato o magari quello che non ha tempo da passare nei forum...
non so se mi sono capito;)

halduemilauno
21-01-2010, 14:46
l'ho letto velocemente e forse mi è sfuggito, ma non ho trovato dove l'articolo parla di chip già in produzione



disattivato, non eliminato



come fai a sostenere una cosa del genere quando il "vero gpgpu" è soprattutto fp64? Stando così le cose, chi ha bisogno di potenza di calcolo o compra le tesla oppure ATi



se la notizia fosse confermata, lo farebbero solo per spingere il più possibile la vendita delle tesla (su cui i ricarichi sono molto maggiori).



d'accordo sui due mercati e sulle due schede ma non sui due chip diversi. Mi spighi, tecnicamente, come fa fermi a fare i clacoli in fp64 partendo dalla configurazione delle alu negli SP?



vale quanto detto sopra. Vediamo se tecnicamente è possibile che abbiano fisicamente eliminato unità che fanno fp64

p.s. te l'ho già detto: le rese si stimano sui sample di preproduzione: non metto in piedi una pipeline col rischio che mi costi miliardi e mi sforni 4 chip buoni ogni wafer senza aver fatto test preventivi


GF100 chips are "in full production at TSMC" and we can expect to see products in "Q1 2010." in prima pagina.

si intendevo disattivato.


certo o le tesla o le ati. di certo non le geforce. ma le tesla son sempre nvidia.


certo è ovvio le hanno annunciate a 3000 e 4000$.


li fa il fermi tesla GT300 non la fermi geforce GF100.


esatto le rese si stimano etc etc. evidentemente se parlano di rese(40%) saranno a quel punto. dopotutto per metà febbraio è attesa l'inizio produzione schede dovranno pur incominciare prima di qualche settimana a fare i chip.

DukeIT
21-01-2010, 14:52
Più che altro motivandolo con i prezzi aumentati delle schede ATi, cosa non vera ;)

L'aumento dei prezzi sul mercato europeo dipende esclusivamente da speculazioni locali e dalla dinamica del cambio $/€.

Infatti su newegg.com sono blindate al prezzo iniziale, perché l'MSRP è rimasto invariato...

Quanto al fatto che l'uscita di Fermi potrebbe portare ad un abbassamento dei prezzi delle 58xx lo sarà se Fermi andrà almeno uguale, altrimenti no. Se lo farà AMD ha tutto lo spazio per tagliare il prezzo e mettere nVidia in serie difficoltà.Concordo.
I prezzi vanno valutati oggettivamente in base al valore della scheda, non in base al prezzo della stessa scheda due mesi prima.
Un oggetto, anche se aumentato di dieci euro, può continuare ad avere un rapporto prestazioni/prezzo molto alto (ed è il caso di una HD5850), altre VGA, pur avendo subito una flessione di prezzo, possono continuare a costare esageratamente (vedi GTX285).
Dire il contrario dà l'impressione di un pizzico di parzialità nel giudizio...

Personalmente io penso che ATI potrebbe rivedere il listino (oltre alle naturali flessioni di prezzo), di fronte ad un Fermi molto competitivo, ma non solo sul lato prestazioni, ma anche sul versante prezzi. Quindi è possibile che non cambi molto con l'uscita di Fermi.

persa
21-01-2010, 14:52
e già....siccome i "fiduciosi" ,nel mondo ,si contano sulla punta delle dita...:asd:

boh, a me anche dopo sta notizia la fiducia rimane :boh:
voglio dire... chi se ne frega delle fp64 se tanto non servono nei giochi? :D

hanno fatto sta manovra x differenziare ancor di + le schede tesla rispetto alle geforce.... si vede che x loro la memoria ECC ed il grosso taglio di memoria, non bastava a giustificare l'acquisto di una tesla

yossarian
21-01-2010, 15:00
GF100 chips are "in full production at TSMC" and we can expect to see products in "Q1 2010." in prima pagina.

si intendevo disattivato.


certo o le tesla o le ati. di certo non le geforce. ma le tesla son sempre nvidia.


certo è ovvio le hanno annunciate a 3000 e 4000$.


li fa il fermi tesla GT300 non la fermi geforce GF100.


esatto le rese si stimano etc etc. evidentemente se parlano di rese(40%) saranno a quel punto. dopotutto per metà febbraio è attesa l'inizio produzione schede dovranno pur incominciare prima di qualche settimana a fare i chip.

quindi sono lo stesso chip e in uno ci sono delle unità disattivate? Hai fatto un'affermazione ben precisa e molto categorica circa il fatto che si tratti di due chip differenti; affermazione che ti è stata contestata da più parti. Per questo vorrei sapere come ritieniu sia possibile disattivare o eliminare (se si tratta di due chip distinti vale la seconda) delle unità fp64 in fermi. Tutto qui

Foglia Morta
21-01-2010, 15:03
Puo' essere molto probabile, pero' non so se effettivamente possiamo escludere che non possano esserci alcune differenze anche a livello di chip (riaguardo ad altro).

Sarebbe molto stupido avere due design con due linee produttive diverse per un settore ( Tesla ) per il quale le gpu vendute saranno delle migliaia , forse qualche decina di migliaia ( fatti i conti su quanti wafer sono necessari per TSMC si rivelerebbe una perdita di tempo molto costosa ,anche per nVidia). Si tratterà di castrazione fisica del chip o qualche altra cosa , ma la gpu è sempre quella.

DukeIT
21-01-2010, 15:03
come fai a sostenere una cosa del genere quando il "vero gpgpu" è soprattutto fp64? Stando così le cose, chi ha bisogno di potenza di calcolo o compra le tesla oppure ATi
Se ho ben capito, nel GPGPU l'unica alternativa economica sarebbe una ATI?
Ma in questo caso non sarebbe un clamoroso autogoal di Nvidia che proprio nel mondo del GPGPU, motivo principale delle scelte progettuali di Fermi, regalerebbe una grossa fetta di mercato ad ATI?

aaasssdddfffggg
21-01-2010, 15:04
Sulla memoria ECC non c'è niente da dire, visto che non esiste, è chiaro come il sole che la manovra serve a scoraggiare chi volesse prendersi delle GeForce per fare il lavoro per cui esiste la linea Tesla e risparmiare l'80% degli investimenti, cosa che di certo non è un problema per i giocatori, che tanto non se ne sarebbero fatti nulla.

non ce da aggiungere altro su questa news(in grassetto ce tutto quello che serve per capire).Le prestazioni nei giochi non saranno in alcun modo compromesse.

PConly92
21-01-2010, 15:12
livelli di fanboysmo fuori parametro...

guarda che io non sono fanboy di nessuno, solo che come già detto apprezzo ati per i suoi prezzi che applica alle sue vga...
invece critico nvidia per le sue "ladrate" contro noi consumatori;)
ora mi spiego meglio: un giorno ero in un negozio di informatica e c'era un mio amico che avendo visto una "nuova" geforce 9800gt disse: "ohh guarda nvidia a fatto uscire una nuova scheda!!!" lui essendo poco informato se la voleva comprare anche se aveva già una 8800gts da 512mb:eek:
subito gli spiegai la situazione e ci rimase di m"""a...:(
è questo che volevo dire non altro, nvidia certo che fa buone schede ma cerca sempre di fregare il consumatore(sparando anche prezzi assurdi non paragonati alle prestazioni) meno informato o magari quello che non ha tempo da passare nei forum...
non so se mi sono capito;)

vedo che non hai ancora risposto...
a me non mi va che qualcuno mi dia del fanboy ati:mad: come già detto apprezzo ati per l'ottima ripresa (dopo r600) con prezzi bassi e sopratutto perché ha prestazioni più alte (adesso ma anche con serie 4xxx in alcuni casi) ma non alza il prezzo !!!

yossarian
21-01-2010, 15:18
GF100 chips are "in full production at TSMC" and we can expect to see products in "Q1 2010." in prima pagina.



intendevo che non c'è nessun cenno in questa news

http://www.techreport.com/articles.x/18332/5

quello che ha detto JHH al ces lo so bene (e l'ho già commentato)

yossarian
21-01-2010, 15:22
Se ho ben capito, nel GPGPU l'unica alternativa economica sarebbe una ATI?


si


Ma in questo caso non sarebbe un clamoroso autogoal di Nvidia che proprio nel mondo del GPGPU, motivo principale delle scelte progettuali di Fermi, regalerebbe una grossa fetta di mercato ad ATI?

chi si rivolge al mercato dei prodotti professionali compra tesla o firestream. Chi non ha particolari esigenze di certificazioni e garanzie e cerca prodotti più economici con le stesse performance di quelli dedicati compra radeon.
In quanto al fare autogol, considera che la geforce fa lo stesso concorrenza alle tesla a parità di potenza di calcolo. E' evidente che nVIDIA pensa sia meglio, a livello economico, vendere meno geforce e qualche tesla in più. Sempre ammesso che la notizia trovi conferma.

halduemilauno
21-01-2010, 15:30
Sulla memoria ECC non c'è niente da dire, visto che non esiste, è chiaro come il sole che la manovra serve a scoraggiare chi volesse prendersi delle GeForce per fare il lavoro per cui esiste la linea Tesla e risparmiare l'80% degli investimenti, cosa che di certo non è un problema per i giocatori, che tanto non se ne sarebbero fatti nulla.

appunto. e in + hanno risposto a quelli che alla presentazione di tesla avanzarono dubbi sul fatto che secondo loro nvidia stava abbandonando il settore gaming. settore niente affatto in abbandono tutt'altro.

HackaB321
21-01-2010, 15:30
intendevo che non c'è nessun cenno in questa news

http://www.techreport.com/articles.x/18332/5

quello che ha detto JHH al ces lo so bene (e l'ho già commentato)

Tra l'altro techreport riporta 64 TFU a differenza di Anandtech che dice 256.
Se ha ragione techreport sono 64TAU, 256 TSU e 64 TFU con un picco teorico di filtraggio che, a meno di grosse sorprese nelle frequenze è inferiore a GT200.

halduemilauno
21-01-2010, 15:34
Se ho ben capito, nel GPGPU l'unica alternativa economica sarebbe una ATI?
Ma in questo caso non sarebbe un clamoroso autogoal di Nvidia che proprio nel mondo del GPGPU, motivo principale delle scelte progettuali di Fermi, regalerebbe una grossa fetta di mercato ad ATI?

no perchè nel mondo GPGPU pare che nvidia sia in netto vantaggio quindi chi in quell'ambito cerca le prestazioni alla fine tra le attuali ati e le tesla è portato a scegliere quest'ultime. tanto stiamo parlando di mercati che hanno sia le necessità e sia le risorse da dedicargli.

halduemilauno
21-01-2010, 15:36
Tra l'altro techreport riporta 64 TFU a differenza di Anandtech che dice 256.
Se ha ragione techreport sono 64TAU, 256 TSU e 64 TFU con un picco teorico di filtraggio che, a meno di grosse sorprese nelle frequenze è inferiore a GT200.

ma sempre la news dice infatti che se prima erano 80 a 648 ora sarebbero(uso questo termine)64 ma a (lui azzarda)725. come al solito tocca aspettare tutti i riscontri del caso.

yossarian
21-01-2010, 15:37
Tra l'altro techreport riporta 64 TFU a differenza di Anandtech che dice 256.
Se ha ragione techreport sono 64TAU, 256 TSU e 64 TFU con un picco teorico di filtraggio che, a meno di grosse sorprese nelle frequenze è inferiore a GT200.

64 TAU e 256 TSU sono sicure (il rapporto di 1:4 è lo schema adottato da ATi da R600, per la cronaca :D ); sulle TFU continuo a restare perplesso sul fatto che ce ne siano di dedicate. Le dx11 prevedono l'adozione di filtri custom. Già le dx10.1 implementavano una funzionalità definita gather4 (in dx11 si parla di improved gather4) che consiste nel fare fetching con blocchi 2x2 di texture non filtrate per permettere, in caso, l'applicazione di filtri di ordine più elevato rispetto al primo. L'adozione di TFU che sono sempre delle unità di tipo FF va decisamente in controtendenza (anche con la scelta di non dotare fermi di hull e domain shader)

DukeIT
21-01-2010, 15:40
Chi non ha particolari esigenze di certificazioni e garanzie e cerca prodotti più economici con le stesse performance di quelli dedicati compra radeon.
considera che la geforce fa lo stesso concorrenza alle tesla a parità di potenza di calcolo.
Misono perso tra queste due affermazioni :(
L'alternativa economica a Tesla sarà ATI o indifferentemente ATI o GF?

DukeIT
21-01-2010, 15:43
no perchè nel mondo GPGPU pare che nvidia sia in netto vantaggio quindi chi in quell'ambito cerca le prestazioni alla fine tra le attuali ati e le tesla è portato a scegliere quest'ultime. tanto stiamo parlando di mercati che hanno sia le necessità e sia le risorse da dedicargli.Certo, ma io mi riferivo ovviamente a quella parte di mercato dove se da una parte è richiesta potenza, dall'altro non sempre si hanno a disposizione 3000/4000 euro per una VGA e si cerca quindi soluzioni potenti ed a basso prezzo (anche se non certificate) .

yossarian
21-01-2010, 15:44
Misono perso tra queste due affermazioni :(
L'alternativa economica a Tesla sarà ATI o indifferentemente ATI o GF?

se è cofermata la news solo ATi; in caso contrario, la geforce si pone in diretta concorrenza ocn le tesla.

halduemilauno
21-01-2010, 15:45
quindi sono lo stesso chip e in uno ci sono delle unità disattivate? Hai fatto un'affermazione ben precisa e molto categorica circa il fatto che si tratti di due chip differenti; affermazione che ti è stata contestata da più parti. Per questo vorrei sapere come ritieniu sia possibile disattivare o eliminare (se si tratta di due chip distinti vale la seconda) delle unità fp64 in fermi. Tutto qui

ho gia detto che intendevo disattivate. quindi con diversi specificavo questo appunto. diversi nelle unità interne abilitate, diversi nella tipologia d'impiego, diversi nel mercato ai quali sono destinati. l'ho detto l'architettura è la stessa ambedue fermi ma dandogli denominazioni diverse nvidia voleva e vuole sottolineare appunto tutto questo. se ne vuoi sapere di + chiedi direttamente all'autore dell'articolo.

halduemilauno
21-01-2010, 15:47
Misono perso tra queste due affermazioni :(
L'alternativa economica a Tesla sarà ATI o indifferentemente ATI o GF?

in questo caso ati. dato che le attuali hanno una capacità in DP superiore alle gf100.

ally
21-01-2010, 15:52
no perchè nel mondo GPGPU pare che nvidia sia in netto vantaggio quindi chi in quell'ambito cerca le prestazioni alla fine tra le attuali ati e le tesla è portato a scegliere quest'ultime. tanto stiamo parlando di mercati che hanno sia le necessità e sia le risorse da dedicargli.

...si ma in situazioni estreme come il Tianhe (http://www.top500.org/system/10186) possono anche venir usate soluzioni non specifiche contenendo di gran lunga i costi...parliamo di installazioni da oltre 5000 schede...

...ciao Andrea...

halduemilauno
21-01-2010, 15:56
...si ma in situazioni estreme come il Tianhe (http://www.top500.org/system/10186) possono anche venir usate soluzioni non specifiche contenendo di gran lunga i costi...parliamo di installazioni da oltre 5000 schede...

...ciao Andrea...

che ti devo dire dipende dalle specifiche esigenze e possibilità e ognuno le valuterà.

ally
21-01-2010, 16:30
che ti devo dire dipende dalle specifiche esigenze e possibilità e ognuno le valuterà.

...da 17 anni nvidia fa questo lavoro...lungimiranza ed esperienza dovrebbero averne...

...ciao Andrea...

yossarian
21-01-2010, 16:53
ho gia detto che intendevo disattivate. quindi con diversi specificavo questo appunto. diversi nelle unità interne abilitate, diversi nella tipologia d'impiego, diversi nel mercato ai quali sono destinati. l'ho detto l'architettura è la stessa ambedue fermi ma dandogli denominazioni diverse nvidia voleva e vuole sottolineare appunto tutto questo. se ne vuoi sapere di + chiedi direttamente all'autore dell'articolo.

hal non prendiamoci in giro: "due chip" diversi non significa "lo stesso chip con unità disabilitate. La 280 e la 260 sono lo stesso chip e lo stesso vale per la 275 e la 285. In quel caso non parliamo di 2 chip diversi, eppure uno ha unità disabilitate rispetto all'altro.
A me non interessa sapere come ridurre ad 1/4 la capacità di calcolo fp64 e non ho bisogno di chiederlo all'autore dell'articolo (anche perchè già lo so come fare). La domanda era rivolta a te riguardava la tua affermazione, ribadita categoricamente, circa il fatto che si tratta di 2 chip diversi, uno per il gaming ed uno per il gp computing.
Inoltre, come ti ha già fatto notare qualcuno, la riduzione della potenza di calcolo in fp64 non ha nessuna correlazione specifica con l'ambito gaming. La capacità o meno di fare fp64 non incide sulle prestazioni in ambito gaming anche perchè le unità che fanno calcoli a fp32 e quelle che li hanno a fp64, CONTRARIAMENTE A QUANTO AVVENIVA IN GT200 CHE AVEVA UNITà DEDICATE, in fermi sono le stesse, solo che sono organizzate diversamente

appleroof
21-01-2010, 16:56
se è cofermata la news solo ATi; in caso contrario, la geforce si pone in diretta concorrenza ocn le tesla.

:what: no aspetta yossarian, ma allora Ati che le produce a fare le Fire?

yossarian
21-01-2010, 16:59
:what: no aspetta yossarian, ma allora Ati che le produce a fare le Fire?

per il mercato pro, come le tesla di nVIDIA.
se, però, non hai 4000 € da spendere per certificazioni e garanzie varie ma ti serve solo la potenza di calcolo di una fire o di una tesla compri radeon :D
Evidentemente ATi non si preoccupa di questo fenomeno perchè non spinge atutti i costi le vendite delle fire come sembrerebbe fare nvidia con le tesla

appleroof
21-01-2010, 17:01
per il mercato pro, come le tesla di nVIDIA.
se, però, non hai 4000 € da spendere epr certificazioni e garanzie varie ma ti serve solo la potenza di calcolo di una fire o di una tesla compri radeon :D

si ma quant'è questo mercato? In proporzione, pochissimo sia del settore pro che di quello consumer

Evidentemente ATi non si preoccupa di questo fenomeno perchè non spinge atutti i costi le vendite delle fire come sembrerebbe fare nvidia con le tesla

Evidentemente Ati è parte di Amd :D

halduemilauno
21-01-2010, 17:07
hal non prendiamoci in giro: "due chip" diversi non significa "lo stesso chip con unità disabilitate. La 280 e la 260 sono lo stesso chip e lo stesso vale per la 275 e la 285. In quel caso non parliamo di 2 chip diversi, eppure uno ha unità disabilitate rispetto all'altro.
A me non interessa sapere come ridurre ad 1/4 la capacità di calcolo fp64 e non ho bisogno di chiederlo all'autore dell'articolo (anche perchè già lo so come fare). La domanda era rivolta a te riguardava la tua affermazione, ribadita categoricamente, circa il fatto che si tratta di 2 chip diversi, uno per il gaming ed uno per il gp computing.
Inoltre, come ti ha già fatto notare qualcuno, la riduzione della potenza di calcolo in fp64 non ha nessuna correlazione specifica con l'ambito gaming. La capacità o meno di fare fp64 non incide sulle prestazioni in ambito gaming anche perchè le unità che fanno calcoli a fp32 e quelle che li hanno a fp64, CONTRARIAMENTE A QUANTO AVVENIVA IN GT200 CHE AVEVA UNITà DEDICATE, in fermi sono le stesse, solo che sono organizzate diversamente

guarda non entro + nel merito aggiungo solo una cosa.
questo hai ora detto:
" La 280 e la 260 sono lo stesso chip e lo stesso vale per la 275 e la 285. In quel caso non parliamo di 2 chip diversi, eppure uno ha unità disabilitate rispetto all'altro."
quello è una cosa ovvero stessa architettura, stessi chip per le stesse cose, stessa utenza, stessi ambiti e stessi mercati. io parlo di GT300 Tesla e GF100 GeForce. stessa architettura ma per fare cose diverse, in ambiti diversi, utenze diverse e per mercati diversi.
non prendiamoci in giro. questo intendevo.

STOP!

yossarian
21-01-2010, 17:11
si ma quant'è questo mercato? In proporzione, pochissimo sia del settore pro che di quello consumer


al momento è molto ridotta anche la quota del mercato consumer e, comunque, l'utenza pro, nel complesso del mercato del gpu computing è meno esigua di quello che si può pensare (è il mercato intero ad essere di nicchia).


Evidentemente Ati è parte di Amd :D

non è un mistero per nessuno, credo :D

yossarian
21-01-2010, 17:13
guarda non entro + nel merito aggiungo solo una cosa.
questo hai ora detto:
" La 280 e la 260 sono lo stesso chip e lo stesso vale per la 275 e la 285. In quel caso non parliamo di 2 chip diversi, eppure uno ha unità disabilitate rispetto all'altro."
quello è una cosa ovvero stessa architettura, stessi chip per le stesse cose, stessa utenza, stessi ambiti e stessi mercati. io parlo di GT300 Tesla e GF100 GeForce. stessa architettura ma per fare cose diverse, in ambiti diversi, utenze diverse e per mercati diversi.
non prendiamoci in giro. questo intendevo.

STOP!

mi risulta che gli stessi g200 siano quelli messi in commercio come tesla e come quadro. Andare sul sito nVIDIA e vedere le specifiche per credere. Per quanto possa essere strano, c'è più differenza tra una 280 ed una 260 che tra una 280 e la sua versione quadro; eppure sono mercati diversi :D

persa
21-01-2010, 17:13
se è cofermata la news solo ATi; in caso contrario, la geforce si pone in diretta concorrenza ocn le tesla.

non che mi freghi, xchè da giocatore a me ripeto, gf100 interessa x le prestazioni nei giochi... ma praticamente sta news sarebbe pure da confermare?

yossarian
21-01-2010, 17:16
non che mi freghi, xchè da giocatore a me ripeto, gf100 interessa x le prestazioni nei giochi... ma praticamente sta news sarebbe pure da confermare?

finchè non leggo un comunicato ufficiale di nVIDIA o non vedo le specifiche definitive delle geforce, per quanto mi riguarda non c'è nulla di sicuro.

HackaB321
21-01-2010, 17:20
ma sempre la news dice infatti che se prima erano 80 a 648 ora sarebbero(uso questo termine)64 ma a (lui azzarda)725. come al solito tocca aspettare tutti i riscontri del caso.

64 TAU e 256 TSU sono sicure (il rapporto di 1:4 è lo schema adottato da ATi da R600, per la cronaca :D ); sulle TFU continuo a restare perplesso sul fatto che ce ne siano di dedicate. Le dx11 prevedono l'adozione di filtri custom. Già le dx10.1 implementavano una funzionalità definita gather4 (in dx11 si parla di improved gather4) che consiste nel fare fetching con blocchi 2x2 di texture non filtrate per permettere, in caso, l'applicazione di filtri di ordine più elevato rispetto al primo. L'adozione di TFU che sono sempre delle unità di tipo FF va decisamente in controtendenza (anche con la scelta di non dotare fermi di hull e domain shader)

Che non siano 256 penso sia sicuro, lo ammette Nvidia stessa nel wp "While GT200 has more texture units than GF100, GF100 delivers higher real world
performance thanks to improved efficiency."
L'improved efficiency consiste in
-Tmu interne e proprie di ogni singolo SM
-aumento delle cache
-nuovi formati di compressione per le dx11
-Gather4
-aumento della frequenza

Hanno puntato tutto sulla efficienza un pò come fece ATi con R600. Certo che con 512 alu potrebbe essere texture limited specie con engine grafici non recenti

Severnaya
21-01-2010, 17:24
guarda non entro + nel merito aggiungo solo una cosa.
questo hai ora detto:
" La 280 e la 260 sono lo stesso chip e lo stesso vale per la 275 e la 285. In quel caso non parliamo di 2 chip diversi, eppure uno ha unità disabilitate rispetto all'altro."
quello è una cosa ovvero stessa architettura, stessi chip per le stesse cose, stessa utenza, stessi ambiti e stessi mercati. io parlo di GT300 Tesla e GF100 GeForce. stessa architettura ma per fare cose diverse, in ambiti diversi, utenze diverse e per mercati diversi.
non prendiamoci in giro. questo intendevo.

STOP!


che nn vuol dire "due chip diversi"


ogni tanto ammettere di aver sbagliato nn è male eh

aaasssdddfffggg
21-01-2010, 17:24
edit

appleroof
21-01-2010, 17:25
al momento è molto ridotta anche la quota del mercato consumer e, comunque, l'utenza pro, nel complesso del mercato del gpu computing è meno esigua di quello che si può pensare (è il mercato intero ad essere di nicchia).


intendevo dire che quello che ha bisogno di grande potenza in DP, ma non compra la scheda da 4000 euro perchè non può, rappresenta una fetta esigua dell'intero mercato, sia che quest'ultimo lo si guardi dal lato pro che da quello consumer.

non è un mistero per nessuno, credo :D

esatto, però nonostante questo ti sfugge il motivo per cui Amd non spinge le schede Ati per il GPGPU :D

yossarian
21-01-2010, 17:28
i
esatto, però nonostante questo ti sfugge il motivo per cui Amd non spinge le schede Ati per il GPGPU :D

a me no; ma a qualcun altro sta sfuggendo il fatto che nVIDIA stia spingendo la vendita delle tesla a scapito delle geforce. :D

Severnaya
21-01-2010, 17:30
a me no; ma a qualcun altro sta sfuggendo il fatto che nVIDIA stia spingendo la vendita delle tesla a scapito delle geforce. :D


bhe è difficile da capire?


1 tesla vele anche 10 volte una geforce da 400€

faber80
21-01-2010, 17:32
STOP!

dev'essere la schermata blu di hal... :asd: (scherzo, eh ?) ;)

DukeIT
21-01-2010, 17:50
esatto, però nonostante questo ti sfugge il motivo per cui Amd non spinge le schede Ati per il GPGPU :DSemmai è il contrario, visto che (se verrà confermata la cosa) le VGA ATI gaming potrebbero essere utilizzate anche per GPU Computing con una spesa modesta, mentre con Nvidia dovresti rivolgerti alle Tesla dal costo decisamente superiore.

Maury
21-01-2010, 17:51
a me no; ma a qualcun altro sta sfuggendo il fatto che nVIDIA stia spingendo la vendita delle tesla a scapito delle geforce. :D

Chissà... magari perchè Fermi dal lato game nasce mezzo morto e loro lo sanno benissimo :asd:

ghiltanas
21-01-2010, 18:07
ok che le tesla hanno un costo decisamente elevato, ma ci si guadagna veramente cosi tanto di +, rispetto alle schede desktop?:confused: (comprese quelle di fascia bassa, che hanno volumi di vendita notevoli)

AnonimoVeneziano
21-01-2010, 18:09
ok che le tesla hanno un costo decisamente elevato, ma ci si guadagna veramente cosi tanto di +, rispetto alle schede desktop?:confused: (comprese quelle di fascia bassa, che hanno volumi di vendita notevoli)

Considerando che sono quasi uguali alle Geforce (ma certificate) direi che moltiplicandone il prezzo per dieci si guadagna abbastanza :D

AnonimoVeneziano
21-01-2010, 18:11
Evidentemente ATi non si preoccupa di questo fenomeno perchè non spinge atutti i costi le vendite delle fire come sembrerebbe fare nvidia con le tesla

Dopotutto AMD vende anche CPU. Non si è mai messa troppo a sponsorizzare il GPU Computing come invece fa Nvidia , perchè danneggerebbe uno dei propri settori di guadagno (mentre Nvidia non ha licenze x86).

Vedremo quando uscirà Fusion come si comporterà AMD :D

faber80
21-01-2010, 18:16
Considerando che sono quasi uguali alle Geforce (ma certificate) direi che moltiplicandone il prezzo per dieci si guadagna abbastanza :D

e quindi se 2+2 fa 22 :D
è logico che almeno per questa serie sia veritiero l'antico rumor che indicava fermi puntare più al gpgpu che al gaming. certo, sempre in attesa....

ghiltanas
21-01-2010, 18:17
Considerando che sono quasi uguali alle Geforce (ma certificate) direi che moltiplicandone il prezzo per dieci si guadagna abbastanza :D

si questo si, ma quante ne vendono poi? perchè di schede desktop se ne vendono un casino, di tesla e firestream invece?

AnonimoVeneziano
21-01-2010, 18:21
si questo si, ma quante ne vendono poi? perchè di schede desktop se ne vendono un casino, di tesla e firestream invece?

Secondo me è un campo sottovalutato dai più , ma che ha un mercato.

Altrimenti perchè Nvidia avrebbe profuso tutta questa fatica nel fare architetture, compilatori, piattaforme di sviluppo, plugins per Visual Studio ... etc per un mercato senza seguito?

Coloro che richiedono queste tecnologie , come i centri di ricerca che necessitano di grosse potenze di elaborazione per lavori di simulazione, ci sono, sennò tutto questo orientarsi verso il GPU computing per nvidia non avrebbe senso.

Ciao

appleroof
21-01-2010, 18:23
Semmai è il contrario, visto che (se verrà confermata la cosa) le VGA ATI gaming potrebbero essere utilizzate anche per GPU Computing con una spesa modesta, mentre con Nvidia dovresti rivolgerti alle Tesla dal costo decisamente superiore.

leggi sotto

Dopotutto AMD vende anche CPU. Non si è mai messa troppo a sponsorizzare il GPU Computing come invece fa Nvidia , perchè danneggerebbe uno dei propri settori di guadagno (mentre Nvidia non ha licenze x86).

Vedremo quando uscirà Fusion come si comporterà AMD :D

esatto ;)

calabar
21-01-2010, 18:29
si questo si, ma quante ne vendono poi? perchè di schede desktop se ne vendono un casino, di tesla e firestream invece?
Forse i numeri assoluti non sono elevati, ma i margini sono decisamente superiori.
Poniamo che una geforce costi 100 e sia venduta a 150. Poniamo che una tesla tra materiali di qualità superiore, chip selezionati e certificazioni costi 200, o anche 250, ma sia venduta a 1500... capirai che il margine di una singola tesla corrisponde a quello di 25 geforce.
In una situazione in cui i margini su geforce rischiano di essere molto bassi per la concorrenza di ATI e per i costi produttivi molto elevati del chip, questo divario potrebbe essere ancora più marcato.
Da qui l'intenzione di vendere più tesla possibile, evitando di farsi erodere questo mercato dalle più economiche geforce.

Dopotutto AMD vende anche CPU. Non si è mai messa troppo a sponsorizzare il GPU Computing come invece fa Nvidia , perchè danneggerebbe uno dei propri settori di guadagno (mentre Nvidia non ha licenze x86).
Oddio... secondo me invece ha tutto l'interesse a sponsorizzare il GpGpu, soprattutto ora che le sue cpu non sono al livello della concorrente e puntare sull'efficienza della piattaforma può aiutarla ad uscire meglio da questo periodo.
Oltretutto, come fai notare, AMD punta alla realizzazione della apu, per cui un buon investimento ora su questo tipo mercato aiuterebbe in preparazione di questo prodotto.
Ciò che ha impedito ad AMD di investire maggiori risorse nel GpGpu a mio parere è stata la situazione critica in cui si è trovata, che l'ha obbligata a concentrare gli sforzi sui settori primari per riprendersi adeguatamente.
Del resto non è neanche vero che nel GpGpu sia tanto indietro, spesso si tratta solamente di un supporto meno pubblicizzato.

appleroof
21-01-2010, 18:33
cut
Oddio... secondo me invece ha tutto l'interesse a sponsorizzare il GpGpu, soprattutto ora che le sue cpu non sono al livello della concorrente e puntare sull'efficienza della piattaforma può aiutarla ad uscire meglio da questo periodo.
Oltretutto, come fai notare, AMD punta alla realizzazione della apu, per cui un buon investimento ora su questo tipo mercato aiuterebbe in preparazione
Ciò che ha impedito ad AMD di investire maggiori risorse nel GpGpu a mio parere è stata la situazione critica in cui si è trovata, che l'ha obbligata a concentrare gli sforzi sui settori primari per riprendersi adeguatamente.
Del resto non è neanche vero che nel GpGpu è tanto indietro, spesso si tratta solamente di un supporto meno pubblicizzato.

mai visto un post più pieno di contraddizioni :D

calabar
21-01-2010, 18:36
mai visto un post più pieno di contraddizioni :D
Non esitare a sottolinearle, allora.

A mio parere la questione è semplice: con l'acquisizione di ati, amd punta a realizzare una piattaforma di calcolo più ampia che sarà finalizzata con la realizzazione delle APU.
Per questo ha senso che abbia a cuore e investa nel GPU Computing, e questo volevo sottolineare con il messaggio precedente.

luX0r.reload
21-01-2010, 18:42
vedo che non hai ancora risposto...
a me non mi va che qualcuno mi dia del fanboy ati:mad: come già detto apprezzo ati per l'ottima ripresa (dopo r600) con prezzi bassi e sopratutto perché ha prestazioni più alte (adesso ma anche con serie 4xxx in alcuni casi) ma non alza il prezzo !!!
... la differenza di prezzi non dipende mica dal fatto che alla ATI sono dei benefattori e alla nVidia sono dei ladri.
Dipende dalla posizione di mercato... nVidia era (e forse lo è ancora) in una posizione dominante e ha fatto bene (chiaramente non per noi utenti ma per le loro tasche) ad aumentare i prezzi e a battere il ferro quando era caldo.
ATI avrebbe fatto la stessa cosa se si fosse trovata nella posizione in cui era nVidia. Ne è una dimostrazione l'aumento dei prezzi della serie 5000.
Stai sicuro che sia ATI che nVidia non appena possono ce lo mettono in quel posto... :D

ilcose
21-01-2010, 18:51
... la differenza di prezzi non dipende mica dal fatto che alla ATI sono dei benefattori e alla nVidia sono dei ladri.
Dipende dalla posizione di mercato... nVidia era (e forse lo è ancora) in una posizione dominante e ha fatto bene (chiaramente non per noi utenti ma per le loro tasche) ad aumentare i prezzi e a battere il ferro quando era caldo.
ATI avrebbe fatto la stessa cosa se si fosse trovata nella posizione in cui era nVidia. Ne è una dimostrazione l'aumento dei prezzi della serie 5000.
Stai sicuro che sia ATI che nVidia non appena possono ce lo mettono in quel posto... :D

Era gia stato fatto notare che i listini sono rimasti invariati... gli aumenti sono applicati dai rivenditori e seguono la legge del mercato... io per trovare la 5970 che forse mi arriva domani ho tirato giu i santi.... e anche dove l ho presa mi hanno detto che piu di 2 o 3 per volta non mandano... quindi è ovvio che chi la ha disponibile non la vende certo a 530 o 540... ma la fanno pagare dai 600 agli 800 euro ... (guardate sulla baia per credere)... mentre il prezzo di listino non è certo quello..

luX0r.reload
21-01-2010, 18:58
Era gia stato fatto notare che i listini sono rimasti invariati... gli aumenti sono applicati dai rivenditori e seguono la legge del mercato... io per trovare la 5970 che forse mi arriva domani ho tirato giu i santi.... e anche dove l ho presa mi hanno detto che piu di 2 o 3 per volta non mandano... quindi è ovvio che chi la ha disponibile non la vende certo a 530 o 540... ma la fanno pagare dai 600 agli 800 euro ... (guardate sulla baia per credere)... mentre il prezzo di listino non è certo quello..
Ma il mio discorso rimane comunque valido... oppure c'è qualcuno che davvero crede che la ATI/AMD l'hanno portato i re magi? :rolleyes:

appleroof
21-01-2010, 19:27
Non esitare a sottolinearle, allora.

A mio parere la questione è semplice: con l'acquisizione di ati, amd punta a realizzare una piattaforma di calcolo più ampia che sarà finalizzata con la realizzazione delle APU.
Per questo ha senso che abbia a cuore e investa nel GPU Computing, e questo volevo sottolineare con il messaggio precedente.

Amd ha a cuore il GPGPU ma non lo pubblicizza...credo che solo tu non abbia visto questa contraddizione :D

le vga Ati farebbero faville in questo campo, ma proprio il fatto di produrre anche cpu la ferma a puntare tutto su quelle vga (si cannibalizza), con il risultato che imho se continua così non vende nè le Fire nè gli Opteron a chi è interessato a mega computer per GPGPU


Era gia stato fatto notare che i listini sono rimasti invariati... gli aumenti sono applicati dai rivenditori e seguono la legge del mercato... io per trovare la 5970 che forse mi arriva domani ho tirato giu i santi.... e anche dove l ho presa mi hanno detto che piu di 2 o 3 per volta non mandano... quindi è ovvio che chi la ha disponibile non la vende certo a 530 o 540... ma la fanno pagare dai 600 agli 800 euro ... (guardate sulla baia per credere)... mentre il prezzo di listino non è certo quello..

rimane il fatto che molti che ieri gridavano allo scandalo e chiamavano pazzi chi (come me :D ) spendeva quella cifra per una vga top come la88gtx che presi al lancio (che tra l'altro ancora oggi può dire la sua :eek: ) oggi fanno finta di niente :D

ilcose
21-01-2010, 19:28
Ma il mio discorso rimane comunque valido... oppure c'è qualcuno che davvero crede che la ATI/AMD l'hanno portato i re magi? :rolleyes:

Beh certamente non spara cifre di 800 euro per una vga overcloccata (8800 ultra) e parla uno che ha sempre avuto nvidia..

E comunque nvidia ha di contro il fatto che i suoi chip costano sensibilmente di piu rispetto alla concorrenza e hanno rese mediamente inferiori... quindi il costo è superiore anche all'utente finale ... ma quando r600 non usciva si sono visti i prezzi... ora ati poteva fare la stessa cosa ma fa pagare la top single 329 euro e la dual 499(se non sbaglio) ma visto la disponibilita gli shop online se ne approfittano e anche parecchio. per la cronaca in america la 5970 la vendono anche a 560 dollari... addirittura 30 dollari meno del prezzo di listino.
Non sono certo benefattori ma almeno fanno pagare delle vga per quello che valgono. E questa cosa sinceramente a me fa comodo..:asd:


rimane il fatto che molti che ieri gridavano allo scandalo e chiamavano pazzi chi (come me :D ) spendeva quella cifra per una vga top come la88gtx che presi al lancio (che tra l'altro ancora oggi può dire la sua :eek: ) oggi fanno finta di niente :D

mmm stavate perlando di me?? :asd:
se ti ricordi eravamo nel 3d assieme con la 88gtx !!

Pero te lo dico... ho comprato una 5970 e l ho pagata 50 euro meno di quanto pagai la 8800gtx... e la cosa mi fa molto piacere...

luX0r.reload
21-01-2010, 19:33
Devo dedurne che visto che i listini sono gli stessi del lancio (Settembre 2009) allora ciò dimostra il contrario? :rolleyes:
Devi denurne che allora ATI non è ancora in posizione dominante nel mercato... semmai lo sarà stai sicuro che applicherà la stessa politica di prezzi di nVidia.

appleroof
21-01-2010, 19:37
cut

mmm stavate perlando di me?? :asd:
se ti ricordi eravamo nel 3d assieme con la 88gtx !!

Pero te lo dico... ho comprato una 5970 e l ho pagata 50 euro meno di quanto pagai la 8800gtx... e la cosa mi fa molto piacere...

si che mi ricordo :D ;)

per il resto sono davvero contento per te, ma è sempre stato così: una 9800pro al lancio (quasi 7 anni fà, mettici l'inflazione) stava sui 500 e passa euro...

poi è arrivata l'epoca di g80 vs r600 e le parti sono state Nvidia cattivona, Ati samaritana, in realtà era dovuto tutto alle scarse prestazioni delle vga Ati di quel periodo, leggi quanta analogia a parti inverse :asd: : http://demisoft.altervista.org/article173.html

in seguito Ati approfittando dei costi molto bassi dei suoi chip ha furbescamente proseguito nella politica dei prezzi bassi (ma margini pur sempre alti, non dimentichiamolo, mica perchè è santa) per conquistare quote di mercato

ma a noi consumatori a loro non importa una cippa lippa, possiamo godere o meno -sempre "indirettamente"- delle diverse situazioni in cui le 2 aziende si muovono nel duopolio, quindi chi continua con la storiella Nvidia ladrona Ati bonacciona o non ha memoria, o non seguiva il mercato prima, oppure è un fan, oppure infine non analizza le cose per quello che sono (cioè è un fan :D )

luX0r.reload
21-01-2010, 19:48
si che mi ricordo :D ;)

per il resto sono davvero contento per te, ma è sempre stato così: una 9800pro al lancio (quasi 7 anni fà, mettici l'inflazione) stava sui 500 e passa euro...

poi è arrivata l'epoca di g80 vs r600 e le parti sono state Nvidia cattivona, Ati samaritana, in realtà era dovuto tutto alle scarse prestazioni delle vga Ati di quel periodo, leggi quanta analogia a parti inverse :asd: : http://demisoft.altervista.org/article173.html

in seguito Ati approfittando dei costi molto bassi dei suoi chip ha furbescamente proseguito nella politica dei prezzi bassi (ma margini pur sempre alti, non dimentichiamolo, mica perchè è santa) per conquistare quote di mercato

ma a noi consumatori a loro non importa una cippa lippa, possiamo godere o meno -sempre "indirettamente"- delle diverse situazioni in cui le 2 aziende si muovono nel duopolio, quindi chi continua con la storiella Nvidia ladrona Ati bonacciona o non ha memoria, o non seguiva il mercato prima, oppure è un fan, oppure infine non analizza le cose per quello che sono (cioè è un fan :D )
Proprio il discorso che facevo qualche post sopra ;)

HackaB321
21-01-2010, 19:51
Amd ha a cuore il GPGPU ma non lo pubblicizza...credo che solo tu non abbia visto questa contraddizione :D

le vga Ati farebbero faville in questo campo, ma proprio il fatto di produrre anche cpu la ferma a puntare tutto su quelle vga (si cannibalizza), con il risultato che imho se continua così non vende nè le Fire nè gli Opteron a chi è interessato a mega computer per GPGPU



Non sono d'accordo. L'intera presentazione di Cypress aveva come punto fermo ATi Stream e il GPGPU, il quale mi sembra giusto sottolinearlo, ha ambiti di utilizzo diversi dalle cpu perchè sono richiesti calcoli paralleli che penalizzano fortemente le strutture di calcolo "seriali" delle cpu.
Semplicemente quello che per nvidia è un mercato essenziale se vuole espandersi oltre l'ambito gaming ( che è vasto ma non sufficiente per un big del settore di questo calibro) per AMD è uno dei mercati su cui puntare e su cui proporre un'integrazione cpu-gpu.
Semmai in questo settore ATi risulta un pò penalizzata negli strumenti che è in grado di offrire agli sviluppatori e dalla intrinseca maggiore difficoltà nel programmare dei chip VLIW come RV770-RV870. In questo senso il supporto al C++ e il nuovo IDE Nexus sono grosse frecce nell'arco di Fermi

appleroof
21-01-2010, 19:54
Proprio il discorso che facevo qualche post sopra ;)

Già, il bello è che chi glorifica la politica dei prezzi di Ati, pensando che è una onlus :D non si rende conto che fà proprio il suo gioco, acquistando le sue vga

nulla questio: tanto di guadagnato se io posso avere vga da ottime prestazioni a prezzi ottimi, e quindi godere delle circostanze, ma non posso mistificare le cose e credere che Ati lo fà perchè mi vuole bene, lo fà perchè persegue -bene, a mio avviso- l'obiettivo di un'azienda, fare soldi e conquistare quote di mercato.

Non sono d'accordo. L'intera presentazione di Cypress aveva come punto fermo ATi Stream e il GPGPU, il quale mi sembra giusto sottolinearlo, ha ambiti di utilizzo diversi dalle cpu perchè sono richiesti calcoli paralleli che penalizzano fortemente le strutture di calcolo "seriali" delle cpu.
Semplicemente quello che per nvidia è un mercato essenziale se vuole espandersi oltre l'ambito gaming ( che è vasto ma non sufficiente per un big del settore di questo calibro) per AMD è uno dei mercati su cui puntare e su cui proporre un'integrazione cpu-gpu.
Semmai in questo settore ATi risulta un pò penalizzata negli strumenti che è in grado di offrire agli sviluppatori e dalla intrinseca maggiore difficoltà nel programmare dei chip VLIW come RV770-RV870. In questo senso il supporto al C++ e il nuovo IDE Nexus sono grosse frecce nell'arco di Fermi

che è la stessa cosa che dicevo io, con termini diversi :boh:

quanto agli strumenti, credo che se Amd volesse sfruttare meglio le vga Ati per il GPGPU, stai pur certo che non sarebbe da meno di Nvidia nel farlo: il problema è che non vuole :D

luX0r.reload
21-01-2010, 19:56
Non sono d'accordo. L'intera presentazione di Cypress aveva come punto fermo ATi Stream e il GPGPU, il quale mi sembra giusto sottolinearlo, ha ambiti di utilizzo diversi dalle cpu perchè sono richiesti calcoli paralleli che penalizzano fortemente le strutture di calcolo "seriali" delle cpu.
Semplicemente quello che per nvidia è un mercato essenziale se vuole espandersi oltre l'ambito gaming ( che è vasto ma non sufficiente per un big del settore di questo calibro) per AMD è uno dei mercati su cui puntare e su cui proporre un'integrazione cpu-gpu.
Semmai in questo settore ATi risulta un pò penalizzata negli strumenti che è in grado di offrire agli sviluppatori e dalla intrinseca maggiore difficoltà nel programmare dei chip VLIW come RV770-RV870. In questo senso il supporto al C++ e il nuovo IDE Nexus sono grosse frecce nell'arco di Fermi
Già... per chi è abituato ai linguaggi "C-Like" (cioè tutti i programmatori che lavorano nell'ambito dei videogiochi) gli SDK di nVidia sono una manna!

LurenZ87
21-01-2010, 19:56
Stai sicuro che sia ATI che nVidia non appena possono ce lo mettono in quel posto... :D

allora non sono l'unico che ci penso :stordita:... io più vado avanti e più sono convinto di una cosa, queste "guerre" tra Ati ed Nvidia mi ricordano tanto gli incontri di wrestling, dove prima si "scannano" sul ring con mosse e caxxate varie per far scena, e poi dopo vanno a cena :ciapet: ... cioè quello che voglio dire, che secondo me ci sono degli accordi dietro, per 6 mesi buoni Ati si è venduta le sue schede, adesso tireranno fuori Fermi ed Nvidia vende le sue, così entrambe si son fatti i loro "soldini" e noi ce lo prendiamo in quel posto :mc: , facendoci (retorica è ;)) abbindolare da feature ancora allo stato embrionale (directx11) e dalla potenza mostrusa di queste schede (che effettivamente alla stragrande maggioranza degli utenti non serve)... ciauz

Simedan1985
21-01-2010, 19:56
Tralasciando il fatto dei listini ufficiali delle due case,che in questi momenti di scarsa concorrenza non sono giudicabili..il prezzo in Italia li fanno i venditori.il prezzo ufficiale della 5970 lo ha Nexx a 529 ,in un regime di disponibilità maggiore da altri store la si pagherebbe anche sotto le 500...Siccome arrivano con il contagocce l'abbiamo presa a 600.Diciamo che chi c'è la disponibile è come se si trovi in regime di monopolio

appleroof
21-01-2010, 20:00
allora non sono l'unico che ci penso :stordita:... io più vado avanti e più sono convinto di una cosa, queste "guerre" tra Ati ed Nvidia mi ricordano tanto gli incontri di wrestling, dove prima si "scannano" sul ring con mosse e caxxate varie per far scena, e poi dopo vanno a cena :ciapet: ... cut

certo, cose del genere sono già successe: http://www.hwupgrade.it/news/skvideo/nvidia-e-ati-pagano-per-chiudere-la-causa-antitrust_26710.html

oggi sono cambiate parecchie cose, ma sia Nvidia che Ati rimangono aziende a scopo di lucro, con tutto quel che segue ;)

LurenZ87
21-01-2010, 20:06
certo, cose del genere sono già successe: http://www.hwupgrade.it/news/skvideo/nvidia-e-ati-pagano-per-chiudere-la-causa-antitrust_26710.html

oggi sono cambiate parecchie cose, ma sia Nvidia che Ati rimangono aziende a scopo di lucro, con tutto quel che segue ;)

questa proprio non la sapevo :eek: :eek: :eek: , comunque come sempre, si accorderanno, ci "mangieranno" sopra, ed i poveri utenti finali come me e te se la prenderanno li dietro :muro: :muro: :muro:

appleroof
21-01-2010, 20:12
questa proprio non la sapevo :eek: :eek: :eek: , comunque come sempre, si accorderanno, ci "mangieranno" sopra, ed i poveri utenti finali come me e te se la prenderanno li dietro :muro: :muro: :muro:

credo che uno con i suoi soldi possa comprare quello che vuole e quando vuole, ma da qui a credere che le aziende gli facciano un piacere è meglio che si rilegga "Alice nel paese delle meraviglie" :D

DukeIT
21-01-2010, 20:12
quindi chi continua con la storiella Nvidia ladrona Ati bonacciona o non ha memoria, o non seguiva il mercato prima, oppure è un fan, oppure infine non analizza le cose per quello che sonoGuarda, prima di comprare una VGA, ho sempre guardato con attenzione il rapporto prestazioni/prezzo.
Dai tempi della Radeon 8500 (mia prima ATI), solo una volta mi è successo di comprare Nvidia (una GT8600M -> portatile, ottimo acquisto), negli altri casi ho sempre notato un miglior rapporto prestazioni/prezzo nei prodotti ATI.

Ma non ho mai pensato che le aziende esistano per fare regali ai consumatori quindi, quando devo comprare una VGA, continuo a verificare quale mi conviene prendere... e domani potrebbe essere un'altra Nvidia.

Detto questo non ci si può però nemmeno foderare gli occhi di prosciutto e, con la solita frase "sono tutti ladri", non accorgersi che ogni azienda ha le sue strategie per acquisire fette di mercato e che, per ovvie ragioni (minor incidenza nel mercato), ATI ha spesso utilizzato l'arma dei prezzi, cosa che sta facendo ancora oggi.

persa
21-01-2010, 20:31
credo che uno con i suoi soldi possa comprare quello che vuole e quando vuole, ma da qui a credere che le aziende gli facciano un piacere è meglio che si rilegga "Alice nel paese delle meraviglie" :D

hahahaha :D

LurenZ87
21-01-2010, 20:58
credo che uno con i suoi soldi possa comprare quello che vuole e quando vuole, ma da qui a credere che le aziende gli facciano un piacere è meglio che si rilegga "Alice nel paese delle meraviglie" :D

ovvio :ciapet:

davide155
21-01-2010, 20:59
Insomma parlando seriamente.........facendo due calcoli veloci, quando potremo avere una scheda Fermi nel nostro case?

Io dico non prima di pasqua, ad essere MOLTO ottimisti.

Voi che dite? :O

AgonizedPhobos
21-01-2010, 21:01
Direi che la disponibilità sul mercato potrebbe arrivare dopo quella data, sì.

io penso di sicuro non prima di marzo,però speriamo prima :D

davide155
21-01-2010, 21:02
Direi che la disponibilità sul mercato potrebbe arrivare dopo quella data, sì.

No no......non sul mercato.

Proprio nel case. Con annessi i giorni che servono per farle arrivare nei magazzini dei negozianti e i giorni che servono per i ritardi di spedizioni ai clienti (cioè noi).

Diciamo fine Aprile? :stordita:

davide155
21-01-2010, 21:05
Stai a squartare il capello, dipenderà da negozio a negozio, chiaramente, ma il mese caldo credo sarà quello, molto caldo :)

Ok è ufficiale.......prendo una 5850.......ciao Fermi........

persa
21-01-2010, 21:06
No no......non sul mercato.

Proprio nel case. Con annessi i giorni che servono per farle arrivare nei magazzini dei negozianti e i giorni che servono per i ritardi di spedizioni ai clienti (cioè noi).


allora 2012 :O

appleroof
21-01-2010, 21:08
Chi fa i mega computer compra compra CPU. O se può adattare i propri processi può comprarsi CPU e GPU. Non certo GPU da sole.


un piccolo esempio di cosa può accadere: "l nuovi Personal Supercomputer basati su Nvidia Tesla, racchiudono in un unico sistema desktop tutta la potenza di calcolo di una cluster room ad una frazione del suo costo. Questa tecnologia permetterà alla comunità di ricercatori italiani di processare i dati in modo molto più rapido ed ottenere, quindi, i risultati dei loro studi più velocemente." http://www.tech360.eu/20081119216/notizie/e-station-5095-il-personal-supercomputer-con-tecnologia-nvidia.html

quanto ai super computer tipo quelli fatti da centinaia di cpu, usati per calcoli astonomici e similia, ovvio che devono pure essere ammortizzati, non è esattamente come un utente come io e te che decide di upgrade il suo desktop :asd: questo per dire che ora i megacomputer sono basati su centinaia di cpu, domani magari con decine (e poi centinaia) di gpu ;)

davide155
21-01-2010, 21:09
allora 2012 :O

Te ci scherzi ma........ :asd:

Fai due conti...........Debutto ufficiale a finre Marzo. Presentazione alla stampa con il CEO Nvidia pacioccoso che tiene in mano una bella scheda con Fermi dentro.

Messa nei listini dei vari negozi online e non, e arrivo delle schede in volumi nei loro magazzini........arriviamo a metà Aprile.
Tra che fai l'ordine........tra che gli arrivi disponibile, tra che la spediscono.......eccoci arrivati a fine Aprile.

E non ho contato eventuali false disponibilità con annessi altri giorni persi per disdire l'ordine ed aspettare l'ok della disdetta per rifare tutto da capo in un altro negozio.

Voi ridete ma non è tanto rosea la situazione :asd:

Andrea deluxe
21-01-2010, 21:14
troppe illazioni pensando di prevedere il futuro fanno male....


e poi tutti ad arrampicarsi sugli specchi......

appleroof
21-01-2010, 21:16
Ti faccio notare:



Sono due Xeon e tre Tesla da un migliaio di € a pezzo, esattamente quello che dicevo nel post precedente sull'argomento. AMD ha tutto l'interesse a spingere il GPU Computing, perché la stessa configurazione in cui Intel vende due CPU e nVidia tre GPU, AMD venderebbe 2 CPU e 3 GPU ;)

peccato che le tre GPU che venderebbe Amd non hanno il supporto Nvidia e non sono usabili come queste per il GPGPU (perchè non spingono su questo?) quindi forse venderebbe 2 cpu (ammesso che riesca di nuovo a farle migliori di quelle di Intel, come spererei dopo tutti questi anni) e basta ;)

aaasssdddfffggg
21-01-2010, 21:18
Te ci scherzi ma........ :asd:

Fai due conti...........Debutto ufficiale a finre Marzo. Presentazione alla stampa con il CEO Nvidia pacioccoso che tiene in mano una bella scheda con Fermi dentro.

Messa nei listini dei vari negozi online e non, e arrivo delle schede in volumi nei loro magazzini........arriviamo a metà Aprile.
Tra che fai l'ordine........tra che gli arrivi disponibile, tra che la spediscono.......eccoci arrivati a fine Aprile.

E non ho contato eventuali false disponibilità con annessi altri giorni persi per disdire l'ordine ed aspettare l'ok della disdetta per rifare tutto da capo in un altro negozio.

Voi ridete ma non è tanto rosea la situazione :asd:

Ragazzi non fateci una telenovela.Se non resistete al rientro di NVIDIA sul mercato con la nuova gamma, vi ricordo che ATI ha per voi sulla piazza l'intera gamma directx11.Dovete solo scegliere quello che fa più per voi.:D

davide155
21-01-2010, 21:18
Credo sia assai più probabile inizio marzo ;) (http://www.cebit.de/homepage_e)

Si al Cebit......ci sta.......come non ci sta :mc:

Cmq l'arrivo in volumi sarà sicuramente una tragedia........ancora nemmeno le Ati 5800 sono arrivate in volumi nonostante siano sul mercato da Settembre.

Certo......adesso TSMC ha affinato i 40nm ed ha superato i problemi, ma finchè non vedo ogni negozio con più di 20pezzi in magazzino di ogni scheda non ci credo che la fabbrica ha "superato i problemi" ;)

aaasssdddfffggg
21-01-2010, 21:24
No, non ancora ;)

vabè ho capito cosa alludi,ma l'offerta per tutte le fasce sono lì belle pronte.:D

appleroof
21-01-2010, 21:27
allora (a volte pretendo troppo :D) :

:mbe:

Ati non offre supporto sw come Nvidia, a chi voglia sfruttare le vga in ambito GPGPU (chissà perchè)

:mbe:

leggi sopra, a quei livelli, cosa compro dovendo spendere migliaia di euro?


Migliori=?

Quando feci il primo acquisto di un cluster per VI3 il commerciale DELL mi disse, quasi sussurrando "per questo tipo di utilizzo di solito consigliamo un sistema AMD [...]". Fu una cosa sorprendente detta da DELL :asd:

Non fare l'errore di applicare teoremi da desktop enthusiast ad un campo diverso ;)

bè, tu che sai tutto e non fai mai nè errori nè teoremi, ovviamente mi dirai che una cpu Opteron odierna è migliore di una Xeon odierna in tutto e per tutto, io ho un pelino di perplessità al riguardo :)

magari se me lo sussurri...:asd:

aaasssdddfffggg
21-01-2010, 21:27
No, che hai capito, io mi riferivo a Cedar... :rolleyes: :D

:eek: io e te non ci capiamo mai.:asd:

luX0r.reload
21-01-2010, 21:29
Sei stato tu a tirare in ballo la cosa perché faceva comodo al tuo ragionamento. Ora che hai scoperto che tira l'acqua al mulino del vicino non va più bene. In ognuno dei due casi il tuo ragionamento è sbagliato.
Il mio mulino? Ah, ah... io conosco solo quello bianco!
Caro Ratatosk, il mio ragionamento non è sbagliato... leggiti tutto il post (e non solo le frasi che non vanno bene al TUO mulino) e magari qualche altro post di qualche utente che la pensa come me e non ha le sinapsi di color rosso:D

appleroof
21-01-2010, 21:39
Perché costa?

:mbe:


Quello che voglio, come faccio a tutti gli altri livelli, valutando costi e benefici :)

Fammi indovinare cosa prenderesti nel tuo caso :asd:

Esattamente il contrario di quello che hai scritto sopra, ed esattamente sbagliato per lo stesso motivo ;)

:mbe:

No grazie :nonsifa:

Immagino (spero :D ) sia quello che hai risposto al commerciale Dell :asd:

HackaB321
21-01-2010, 21:41
allora (a volte pretendo troppo :D) :



Ati non offre supporto sw come Nvidia, a chi voglia sfruttare le vga in ambito GPGPU (chissà perchè)




Per lo stesso motivo per cui non offre lo stesso supporto in ambito gaming. Perchè non tutte le aziende sono brave a fare le cose nello stesso modo, e nvidia nel sostenere e supportare le varie comunità di sviluppatori non è seconda a nessuno potendo avvantaggiarsi anche di tecnologie che di per sè sono un pò meno complicate da usare e ottimizzare.
Ma non pensare che ATi nel gpgpu non ci creda o non ci investa risorse enormi. E le cpu non cannibalizzano nulla: costituiscono anzi per AMD un'ottima soluzione per offrire piattaforme complete e integrate negli ambiti dove la parallelizzazione dei calcoli predilige l'uso di gpu.

Mercuri0
21-01-2010, 21:46
Ati non offre supporto sw come Nvidia, a chi voglia sfruttare le vga in ambito GPGPU (chissà perchè)

nVidia si direbbe stia investendo di più, ma è anche comprensibile, il GPGPU per nVidia è di importanza essenziale per la sua sopravvivenza futura (insieme ai chip per sistemi embedded, come Tegra).

AMD non ha certo tutta questa fretta, può evolvere la simbiosi CPU + GPU in tutta calma. E intanto fare GPU mirate ai videogiochi...

Pultroppo il marketing spinto sul GPGPU di quest'ultimo periodo mi ha fatto un pò perdere fiducia, troppo spesso il confine tra reale progresso e bufala è stato troppo stretto. Però confido che mano a mano che le architetture si evolvono, si creano gli standard, ed escono i programmi, se ne può parlare.

Per esempio, Photoshop o Lighroom accelerati in tutte le loro funzioni.
O magari rendering 3d per chi si occupa del campo.

L'altra cosa per cui le GPU fanno molto di questi tempi è la decodifica video... ma per quello non si usa il GPGPU ma hw apposito.

aaasssdddfffggg
21-01-2010, 21:47
Per lo stesso motivo per cui non offre lo stesso supporto in ambito gaming. Perchè non tutte le aziende sono brave a fare le cose nello stesso modo, e nvidia nel sostenere e supportare le varie comunità di sviluppatori non è seconda a nessuno potendo avvantaggiarsi anche di tecnologie che di per sè sono un pò meno complicate da usare e ottimizzare.
Ma non pensare che ATi nel gpgpu non ci creda o non ci investa risorse enormi. E le cpu non cannibalizzano nulla: costituiscono anzi per AMD un'ottima soluzione per offrire piattaforme complete e integrate negli ambiti dove la parallelizzazione dei calcoli predilige l'uso di gpu.

i soldi che ATI spende per lo sviluppo,NVIDIA li spende per sostenere le software house e ottimizzare i giochi per le proprie vga.E si,nonosotante che all'inizio in questo Thread la davano quasi per fallita come azienda solo perchè Fermi non usciva sul mercato.Ma si può essere cosi banali?:D

luX0r.reload
21-01-2010, 21:48
Spiegaci quella fraseallora, sono curioso di vedere quanto sali sullo specchio, te la riporto per comodità:

Io non attacco nessuno. Ti stai attaccando da solo.
"Quella frase"... a dimostrazione che, come ti ho appena detto, ti sei fossilizzato su una frase (che può essere anche "sbagliata" come hai detto tu e qualche altro utente) e non hai letto il restante contenuto che è stato poi anche rafforzato da appleroof.

Chissa perchè?
Io leggendo i tuoi post mi sono fatto un'idea... ma naturalmente è sbagliata perchè in questo thread non ci sono fanboy :rolleyes:

Chiudo l'off topic.

appleroof
21-01-2010, 21:49
Per lo stesso motivo per cui non offre lo stesso supporto in ambito gaming. Perchè non tutte le aziende sono brave a fare le cose nello stesso modo, e nvidia nel sostenere e supportare le varie comunità di sviluppatori non è seconda a nessuno potendo avvantaggiarsi anche di tecnologie che di per sè sono un pò meno complicate da usare e ottimizzare.
Ma non pensare che ATi nel gpgpu non ci creda o non ci investa risorse enormi. E le cpu non cannibalizzano nulla: costituiscono anzi per AMD un'ottima soluzione per offrire piattaforme complete e integrate negli ambiti dove la parallelizzazione dei calcoli predilige l'uso di gpu.

io penso che le multinazionali abbiano una cosa che si chiama marketing (al di là della bontà dei propri prodotti), se Amd non spinge sul mercato le schede Ati per il GPGPU (ed è un dato di fatto) non può essere altro che una precisa scelta, poi non ho certo la pretesa di convincere nessuno, qui si chiacchera, ma d'altro canto non ho trovato nessuna argomentazione nei vostri post che mi convinca del contrario :boh:

nVidia si direbbe stia investendo di più, ma è anche comprensibile, il GPGPU per nVidia è di importanza essenziale per la sua sopravvivenza futura (insieme ai chip per sistemi embedded, come Tegra).

AMD non ha certo tutta questa fretta, può evolvere la simbiosi CPU + GPU in tutta calma.
cut

ma è proprio qui che è partito tutto questo discorso, affermavo e affermo, nei post dietro a questo mio che hai quotato, esattamente questo

Mercuri0
21-01-2010, 21:50
Aggiungo che ho anche anche la SDK di Cuda nella cartella qui di fianco... però i programmi Cuda mi impallano il portatile (nel senso che non sembrano gestire il carico come fa la CPU). Boh, mi sembra un'infrastruttura ancora da sviluppare per essere mainstream.

Ora che c'è il supporto OpenCL, ma a dirla tutta non mi viene in mente che tipo di esperimento potrei farci.

A dirla tutta ultimamente non sento quasi mai la necessità di avere più potenza di calcolo nel piccì :mbe:

Mercuri0
21-01-2010, 21:52
io penso che le multinazionali abbiano una cosa che si chiama marketing (al di là della bontà dei propri prodotti), se Amd non spinge sul mercato le schede Ati per il GPGPU (ed è un dato di fatto) non può essere altro che una precisa scelta, poi non ho certo la pretesa di convincere nessuno, qui si chiacchera, ma d'altro canto non ho trovato nessuna argomentazione nei vostri post che mi convinca del contrario :boh:


Certamiente, alla fine ogni azienda c'ha il suo budget e lo alloca come meglio gli pare opportuno. :)

aaasssdddfffggg
21-01-2010, 21:52
Aggiungo che ho anche anche la SDK di Cuda nella cartella qui di fianco... però i programmi Cuda mi impallano il portatile (nel senso che non sembrano gestire il carico come fa la CPU). Boh, mi sembra un'infrastruttura ancora da sviluppare per essere mainstream.

Ora che c'è il supporto OpenCL, ma a dirla tutta non mi viene in mente che tipo di esperimento potrei farci.

A dirla tutta ultimamente non sento quasi mai la necessità di avere più potenza di calcolo nel piccì :mbe:

beato te,a me è proprio quello che mi sembra non basti mai.:rolleyes:

appleroof
21-01-2010, 21:55
Certamiente, alla fine ogni azienda c'ha il suo budget e lo alloca come meglio gli pare opportuno. :)

alleluja :asd: ;)

Mercuri0
21-01-2010, 21:56
beato te,a me è proprio quello che mi sembra non basti mai.:rolleyes:
In realtà penso che agli utenti mainstream ormai della potenza del piccì non importi proprio nulla. Di solito lo cambiano quando inzaccherano l'HD, e pensano che il computer non basti più.

Io ho superato il mio "fabbisogno di potenza" (a casa) quando l'elaborazione audio è diventata uno scherzo per le CPU. (tanto che ora nei driver mettono in software quello che una volta veniva fatto su un acceleratore audio dedicato...)

Invece sento la mancanza di potenza sulla GPU per i videogiochi per dirla tutta.
(ma non riesco a tornare al cassettone e sto studiando alternative)

Per gli appassionati ovviamente è diverso, il sistema si cambia in quanto fine a sè stesso. ;)

luX0r.reload
21-01-2010, 21:58
beato te,a me è proprio quello che mi sembra non basti mai.:rolleyes:
:D
Te credo porca paletta! Giochi con un quantitativo di pixels che sono la somma di tutti i pixels dei televisori da cucina di tutto il mio vicinato! :sofico:

aaasssdddfffggg
21-01-2010, 21:58
In realtà penso che agli utenti mainstream ormai della potenza del piccì non importi proprio nulla. Di solito lo cambiano quando inzaccherano l'HD, e pensano che il computer non basti più.

Io ho superato il mio "fabbisogno di potenza" (a casa) quando l'elaborazione audio è diventata uno scherzo per le CPU. (tanto che ora nei driver mettono in software quello che una volta veniva fatto su un acceleratore audio dedicato...)

Invece sento la mancanza di potenza sulla GPU per i videogiochi per dirla tutta.
(ma non riesco a tornare al cassettone e sto studiando alternative)

Per gli appassionati ovviamente è diverso, il sistema si cambia in quanto fine a sè stesso. ;)

vero.Sono d'accordo.;)

aaasssdddfffggg
21-01-2010, 21:59
:D
Te credo porca paletta! Giochi con un quantitativo di pixels che sono la somma di tutti i pixels dei televisori da cucina di tutto il mio vicinato! :sofico:

:asd: Esagerato.;)

luX0r.reload
21-01-2010, 22:00
Esattamente come previsto ;)
Già. Esattamente come previsto :rolleyes:

NOOB4EVER
21-01-2010, 22:06
w la R4E che avra 9 slot PCI-E a 24X :fagiano:

appleroof
21-01-2010, 22:07
Le scelte di un'azienda non prescindono mai dai costi. Fare quello che dici implicherebbe dei costi su un budget che dovrebbe essere distratto altrove. La scelta di AMD è stata quella di supportare gli standard terzi, supportandone lo sviluppo ma senza intervenire massivamente in quello degli applicativi che ne fanno uso.

no ormai mi sono perso...


Nel mio caso nulla, non so che farmene di una Firestream o una Tesla quando mi basta una ES1000 per macchina :)

se è per questo pure io, si parlava in via ipotetica :stordita:


Sono due estremi che non aderiscono alla globalità del mercato. Ogni segmento ha le proprie esigenze e tu hai applicato un'esigenza da desktop enthusiast ad un settore profondamente diverso.

io non ho applicato nulla, sei tu che applichi: io ho detto solo che una cpu Opteron odierna non è migliore di una cpu Xeon odierna :boh:


Esattamente, perché avevo bisogno di macchine 2P e non 4P come mi consigliava. Ho proprio oggi chiesto il budget per aggiornare quel cluster. Questa volta avrà CPU AMD. Prima che me lo chiedi, no, non sono ancora uscite.

non so manco di che parli :asd:


Non a caso in tutte le presentazioni AMD il 50% delle slide parla di quanto è figo usare la GPU per i task intrinsecamente paralleli e la CPU per quelli intrinsecamente seriali...

già...tranne poi eclissare il tutto (giusto il tempo di mandare frecciate all'antagonista di sempre nelle conferenze stampa :asd: e poi mamma Amd chiude il discorso)

NOOB4EVER
21-01-2010, 22:10
STop my Rolling ...... :blah:

gianni1879
21-01-2010, 22:12
Già. Esattamente come previsto :rolleyes:

ancora????


direi di finirla....

Mercuri0
21-01-2010, 22:14
già...tranne poi eclissare il tutto (giusto il tempo di mandare frecciate all'antagonista di sempre nelle conferenze stampa :asd: e poi mamma Amd chiude il discorso)

Vabbé, dai, non esagerare, in quest i ulmini anni AMD ha assunto gente (molti del team di brook) e avviato iniziative sul GPGPU.

Però per AMD sembra essere ancora tutta una "technical preview", da far girare nei settori interessati. Io penso che per nVidia pure, però la vende anche :D
(e fa marketing in ambito consumer, per cui ormai è fighissimo avere una GPGPU CUDA anche se non si capisce ancora bene per farci che...)

edit: c'è da dire che AMD è stata la prima ad accelerare F@H e fare conti seri in GPGPU. Insomma, non c'è dubbio che alla fine c'arriveranno entrambe. Possibilmente convergendo su uno standard di programmazione, anche per i videogiochi. Più che altro mancano le applicazioni... (e manca l'averci la revisione 2 del Fermi che consumi 15watt su un portatile... altrimenti le applicazioni non le fanno)

ghiltanas
21-01-2010, 22:27
Altrimenti perchè Nvidia avrebbe profuso tutta questa fatica nel fare architetture, compilatori, piattaforme di sviluppo, plugins per Visual Studio ... etc per un mercato senza seguito?

Coloro che richiedono queste tecnologie , come i centri di ricerca che necessitano di grosse potenze di elaborazione per lavori di simulazione, ci sono, sennò tutto questo orientarsi verso il GPU computing per nvidia non avrebbe senso.

Ciao

vero che queste tecnologie sono utili, però credo anche che nvidia abbia puntato molto su questo campo perchè "costretta" dalle sue scelte

Forse i numeri assoluti non sono elevati, ma i margini sono decisamente superiori.



...

Il risultato netto è che la Tesla, compreso il quantitativo maggiore di RAM, costerà un 20% in più del totale, ma verrà venduta dal 500% al 1000% del prezzo.

Fai tu i conti ;)

grazie, pensavo i margini di guadagno fossero inferiori.

AnonimoVeneziano
21-01-2010, 22:41
beato te,a me è proprio quello che mi sembra non basti mai.:rolleyes:

Per curiosità cosa ci fai?

calabar
21-01-2010, 23:30
Amd ha a cuore il GPGPU ma non lo pubblicizza...credo che solo tu non abbia visto questa contraddizione :D

le vga Ati farebbero faville in questo campo, ma proprio il fatto di produrre anche cpu la ferma a puntare tutto su quelle vga (si cannibalizza), con il risultato che imho se continua così non vende nè le Fire nè gli Opteron a chi è interessato a mega computer per GPGPU
Dimentichi un fattore non secondario... che la pubblicità costa, e ATI potrebbe non aver valutato necessario fare investimenti massicci in pubblicità per un settore ancora acerbo (e lo è sia per ati che per nvidia).
Questo però non significa che non si stia lavorando su questo, e difatti il progetto stream va avanti e ha subito già diverse evoluzioni.
Solo ora ATI comincia a pubblicizzare più seriamente Stream, ma a quanto vedo in giro per molti utenti c'è solo CUDA, quindi nvidia ha ancora un vantaggio da questo punto di vista (ossia della pubblicità).

Del resto sappiamo bene che laddove serve davvero potenza nel GpGpu non hanno certo bisogno di slogan e pubblicità ma di cose concrete, e per esempio vediamo uno dei più potenti supercomputer del mondo è basato su schede ati e stream.

Insomma, io la contraddizione continuo a non vederla, se per te era questo il punto non chiaro, spero di aver chiarito.

EDIT: Ooops, avete scritto altre tre pagine nel mentre... sono un po' in ritardo.

mapoetti
21-01-2010, 23:34
w la R4E che avra 9 slot PCI-E a 24X :fagiano:

loool

vado a letto...rofl

GIAMPI87
22-01-2010, 00:01
Piccolo OT:

E' uscita la nuova versione di evga precision "v1.91", che permette di occare anche con i driver 196.21... :D

Posto il link su mega... visto che per scaricarlo dal sito evga si deve essere registrati.. :muro:

http://www.megaupload.com/?d=SF270TB9

mapoetti
22-01-2010, 00:09
Piccolo OT:

E' uscita la nuova versione di evga precision "v1.91", che permette di occare anche con i driver 196.21... :D

Posto il link su mega... visto che per scaricarlo dal sito evga si deve essere registrati.. :muro:

http://www.megaupload.com/?d=SF270TB9

grande!

bjt2
22-01-2010, 08:27
Per la questione GPGPU AMD/ATI, io credo che i motivi della poca pubblicità e l'apparente poco sforzo nel GPGPU da parte sua sia dovuto ai seguenti motivi:
- CUDA più pubblicizzato/famoso/usato. Inoltre fare un framework da zero e promuoverlo costa tempo e risorse.
- Volontà di usare standard aperti (anche per il costo): OpenCL, standard in MAC OSX e DirectCompute, standard in Vista e Seven. Lo sviluppo a questo punto si riduce solo a fare dei driver decenti per utilizzarli.
- NVIDIA è comunque un marchio più forte di ATI anche come dimensione finanziaria: prima dell'inclusione in AMD, ATI era una cagatina di mosca a confronto.

aaasssdddfffggg
22-01-2010, 08:31
Per curiosità cosa ci fai?

grafica,editing video e ciliegina sulla torta games come cristo comanda.:asd:

aaasssdddfffggg
22-01-2010, 08:32
Piccolo OT:

E' uscita la nuova versione di evga precision "v1.91", che permette di occare anche con i driver 196.21... :D

Posto il link su mega... visto che per scaricarlo dal sito evga si deve essere registrati.. :muro:

http://www.megaupload.com/?d=SF270TB9

si,anche MSI AFTERBURNER 1.5.0BETA5 funziona benissimo con l'ultima release dei driver nvidia.;)

zorco
22-01-2010, 09:00
io uso XtremeTuner v2.3 molto bello per oc ..;)

chiuso ot

persa
22-01-2010, 09:27
http://www.fudzilla.com/content/view/17356/1/

http://www.fudzilla.com/content/view/17357/1/

aaasssdddfffggg
22-01-2010, 09:32
http://www.fudzilla.com/content/view/17356/1/

http://www.fudzilla.com/content/view/17357/1/

FERMI = lo voglio...anzi li voglio.:asd:

persa
22-01-2010, 09:36
FERMI = lo voglio...anzi li voglio.:asd:

a già x il 3 way sli :asd:

zorco
22-01-2010, 09:36
FERMI = lo voglio...anzi li voglio.:asd:
:D :asd:

ilcose
22-01-2010, 09:45
http://www.fudzilla.com/content/view/17356/1/

http://www.fudzilla.com/content/view/17357/1/

mmm... ma ci vuole un cavo dell'alta tensione per alimentarla?? :asd:

scherzi a parte ... va bene che sara la piu veloce single sul mercato ma se questo è il prezzo da pagare....:rolleyes:
poi ok che ad alcuni non interessa assolòutamente nulla del consumo eccetera ma qui si esagera...va be che sono ancora rumors... e spero vivamente nn siano veri...perche se arriva a toccare i 300 è un'assurdita. E gia l articolo di semiaccurate lo diceva anche se nessuno l ha preso in considerazione

persa
22-01-2010, 09:50
mmm... ma ci vuole un cavo dell'alta tensione per alimentarla?? :asd:

scherzi a parte ... va bene che sara la piu veloce single sul mercato ma se questo è il prezzo da pagare....:rolleyes:
poi ok che ad alcuni non interessa assolòutamente nulla del consumo eccetera ma qui si esagera...va be che sono ancora rumors... e spero vivamente nn siano veri...perche se arriva a toccare i 300 è un'assurdita. E gia l articolo di semiaccurate lo diceva anche se nessuno l ha preso in considerazione

be non pensavo ti interessassero così tanto i consumi, visto che mi sembravi interessato alla 5970 che consuma parecchio anche quella :fagiano:

x fermi come dici te, sono rumor per adesso, vedremo solo quando sarà uscità quanto consumerà di preciso :boh:

zorco
22-01-2010, 10:00
be non pensavo ti interessassero così tanto i consumi, visto che mi sembravi interessato alla 5970 che consuma parecchio anche quella :fagiano:

x fermi come dici te, sono rumor per adesso, vedremo solo quando sarà uscità quanto consumerà di preciso :boh:
la mia preoccupazione a limite sarebbe quella dell'eccessivo surriscaldamento della scheda e anche un cooler poco silenzioso,queste due cose si mi potrebbero dare fastidio...

zorco
22-01-2010, 10:02
insomma se io spendo,tra l'altro salato, voglio un prodotto che non mi dia noie di sorta..

persa
22-01-2010, 10:05
la mia preoccupazione a limite sarebbe quella dell'eccessivo surriscaldamento della scheda e anche un cooler poco silenzioso,queste due cose si mi potrebbero dare fastidio...

dai...., ci vorrà un case in titanio per reggere i bollenti spiriti della gtx380 ;) preparati ;)


hahaha :asd:

ilcose
22-01-2010, 10:06
be non pensavo ti interessassero così tanto i consumi, visto che mi sembravi interessato alla 5970 che consuma parecchio anche quella :fagiano:

x fermi come dici te, sono rumor per adesso, vedremo solo quando sarà uscità quanto consumerà di preciso :boh:

si ok ma quella è una dual... qui si parla di singola... poi ok che queste schede di certo non le compra chi ha a cuore i consumi ;)

cmq spero che le schede ora in produzione abbiano un tdp piu basso... anche perche solo il calore da dissipare non permetterebbe alcun overclock senza passare al liquido...
poi con tdp cosi elevati su singolo chip avrei un attimo di paura sull'affidabilita delle schede...

poi sono tutti rumors... quindi attendiamo notizie concrete

zorco
22-01-2010, 10:09
dai...., ci vorrà un case in titanio per reggere i bollenti spiriti della gtx380 ;) preparati ;)


hahaha :asd:
:asd:

persa
22-01-2010, 10:11
:asd:

immaginati con cosa si dovrà attrezzare il buon nemesis, se davvero ne vorrà utilizzare 3 di queste schede :sofico:
magari l'armorsuit si scioglie :ops:

scherzo Nem :D

Pike79
22-01-2010, 10:16
http://www.fudzilla.com/content/view/17356/1/

http://www.fudzilla.com/content/view/17357/1/

Persa, per favore, mi potresti fare un copia-incolla degli articoli? Sono a lavoro e non posso entrare su Fudzilla....
Grazie! :)

St. Jimmy
22-01-2010, 10:18
ma scusate la domanda forse banale ma di che alimentatore ci sarebbe bisogno per alimentare un pc completo dotato di i7 e magari una GTX380 (ammettendo che consumi più di 250W)?

persa
22-01-2010, 10:18
Persa, per favore, mi potresti fare un copia-incolla degli articoli? Sono a lavoro e non posso entrare su Fudzilla....
Grazie! :)
Fermi to be the hottest single chip ever

ATI's key argument against Fermi might be that this chip will be the hottest ever. We can now confirm that it will definitely end up hotter and with a higher TDP than that of ATI's RV870, Radeon HD 5870's Cypress XT chip, but at the same time it will end up faster.


Nvidia can't do much about it, as the Fermi GF100 40nm architecture is much more complex and the chip itself is bigger than ATI’s. We still don’t know the final TDP figures, but GF100, GT300 chip is definitely going to exceed 200W TDP. It's worth noting that ATI manages to stop at 188W with its Radeon HD 5870 cards.

Some sources even implied that the single card should end up close to 300W, but we believe that this would be a bit too much, even for such a big and powerful chip. Imagine the TDP of a dual card, definitely much more than Radeon HD 5970 dual cards' 294W.

All in all, we believe that end users won’t mind, as long as it stays faster than ATI’s RV870-powered HD 5870 card.





Partners to get Fermi cards in February

Retail board to launch in March

Our sources are whispering that Nvidia has promised Fermi chips and Fermi boards in February. The final specification should be closed one of these days if it wasn't closed already, and the partners can start planning the final cards.


The first batch is naturally controlled by Nvidia and partners will only get to buy cards, but at later date someone might even dare to make its own design. This is naturally very unlikely due to big cost and the fact that Nvidia gets too scared that something might go wrong.

The mainstream Femi will end up in partners’ hands and they will manufacture these chips on their own, but this is still at least one quarter after the original GF100 Geforce single chip high-end card.

Nvidia partners barely have anything interesting to sell, and marketing wise they have nothing to advertise due to obvious inferiority compared to ATI’s offer. Hopefully this might change with the introduction of Fermi, but again, we expect shortages of these cards as they should be very desirable.


:D

persa
22-01-2010, 10:19
ma scusate la domanda forse banale ma di che alimentatore ci sarebbe bisogno per alimentare un pc completo dotato di i7 e magari una GTX380 (ammettendo che consumi più di 250W)?

penso proprio che una alimentatore tipo il mio Corsair TX750 basterà alla grande

Pike79
22-01-2010, 10:20
Fermi to be the hottest ......cut..... shortages of these cards as they should be very desirable.


:D

Grazie mille! ;)

St. Jimmy
22-01-2010, 10:20
penso proprio che una alimentatore tipo il mio Corsair TX750 basterà alla grande

ecco allora sto tranquillo avendo comprato lo stesso tuo modello (la differenza è che è HX)...solo che mi stavano seriamente prendendo i dubbi con tutti sti discorsi che si stanno facendo sul consumo:D

persa
22-01-2010, 10:20
Grazie mille! ;)

;)

aaasssdddfffggg
22-01-2010, 10:29
immaginati con cosa si dovrà attrezzare il buon nemesis, se davvero ne vorrà utilizzare 3 di queste schede :sofico:
magari l'armorsuit si scioglie :ops:

scherzo Nem :D

non sottovalutare mai il lato oscuro della forza....NEMESIS sà sempre quello che deve fare.:asd:
I consumi sono l'ultima cosa che mi interessa.Da FERMI mi aspetto prestazioni elevate (e sono certo di non sbagliarmi) ed un ottimo supporto lato driver da nvidia (e anche qui mi sento tranquillissimo).

NOOB4EVER
22-01-2010, 10:30
cut LOL tnx Neme

NOOB4EVER
22-01-2010, 10:32
non sottovalutare mai il lato oscuro della forza....NEMESIS sà sempre quello che deve fare.:asd:
I consumi sono l'ultima cosa che mi interessa.Da FERMI mi aspetto prestazioni elevate (e sono certo di non sbagliarmi) ed un ottimo supporto da llato driver da nvidia (e anche qui mi sento tranquillissimo).

tu sei pronto e fremente per dare inizio alle danze del 2010 ehh??? bene bene si sente nell'aria che ci saranno grandi cambiamenti :asd:

aaasssdddfffggg
22-01-2010, 10:33
edit

aaasssdddfffggg
22-01-2010, 10:36
tu sei pronto e fremente per dare inizio alle danze del 2010 ehh??? bene bene si sente nell'aria che ci saranno grandi cambiamenti :asd:

sono quasi rovinato.Non farmi fare i conti da adesso di tutti isoldi che devo tirare fuori tra marzo e aprile tra Intel,ASUS,NVIDIA...:muro:

NOOB4EVER
22-01-2010, 10:42
sono quasi rovinato.Non farmi fare i conti da adesso di tutti isoldi che devo tirare fuori tra marzo e aprile tra Intel,ASUS,NVIDIA...:muro:

eheh ti si legge in firma che sei prossimo a tanti begli upgrades :asd: .... vabe' dai che ci vuoi fare,"la malattia" e' ad uno dei suoi stadi piu' avanzati :D

Giustaf
22-01-2010, 10:46
Non so se avete notato i trailers di bad company 2 che stanno uscendo...:sbav:

Se il framerate della beta non dovesse soddisfarmi (vorrei stare senza problemi a 1920x1200 con AAx2 o x4) penso che il cambio vga ci sarà eccome! :D
Cambiare cpu/ram/mb per passare ad un i7 920 mi pare un po' una boiata e guadagnerei veramente poco (praticamente nulla!), ormai aspetto la prossima generazione di cpu.

La tentazione di passare ad Ati c'è, ma se poi a marzo si scopre che fermi va forte come pronosticano i più ottimisti? :stordita:
Boh..qua siamo sempre ad aspettare..:(

persa
22-01-2010, 10:48
.... vabe' dai che ci vuoi fare,"la malattia" e' ad uno dei suoi stadi piu' avanzati :D

in effetti...guardando il suo avatar ...appare chiaro che la malattia lo ha trasformato da umano ad alieno hahahaha (anche io , nel mio piccolo :asd:) :sofico:

persa
22-01-2010, 10:49
non sottovalutare mai il lato oscuro della forza....[U+NEMESIS sà sempre quello che deve fare.:asd:[/U]
I consumi sono l'ultima cosa che mi interessa.Da FERMI mi aspetto prestazioni elevate (e sono certo di non sbagliarmi) ed un ottimo supporto lato driver da nvidia (e anche qui mi sento tranquillissimo).

lo so che da bravo enthusiast...sai dove mettere le mani ;)

NOOB4EVER
22-01-2010, 10:51
Non so se avete notato i trailers di bad company 2 che stanno uscendo...:sbav:

Se il framerate della beta non dovesse soddisfarmi (vorrei stare senza problemi a 1920x1200 con AAx2 o x4) penso che il cambio vga ci sarà eccome! :D
Cambiare cpu/ram/mb per passare ad un i7 920 mi pare un po' una boiata e guadagnerei veramente poco (praticamente nulla!), ormai aspetto la prossima generazione di cpu.

La tentazione di passare ad Ati c'è, ma se poi a marzo si scopre che fermi va forte come pronosticano i più ottimisti? :stordita:
Boh..qua siamo sempre ad aspettare..:(

lo attendo con ansia,visto che bello? poi come di routine la saga BF seguira' con lo stesso successo di sempre,cmq chiudendo l'ot,con il pc in firma te lo godrai di sicuro a quei settaggi ;)

aaasssdddfffggg
22-01-2010, 10:51
in effetti...guardando il suo avatar ...appare chiaro che la malattia lo ha trasformato da umano ad alieno hahahaha (anche io , nel mio piccolo :asd:) :sofico:

:D

Diobrando_21
22-01-2010, 10:52
sono quasi rovinato.Non farmi fare i conti da adesso di tutti isoldi che devo tirare fuori tra marzo e aprile tra Intel,ASUS,NVIDIA...:muro:

io aggiungerei anche samsung, no? ;)

NOOB4EVER
22-01-2010, 10:53
in effetti...guardando il suo avatar ...appare chiaro che la malattia lo ha trasformato da umano ad alieno hahahaha (anche io , nel mio piccolo :asd:) :sofico:

:D W the Passion

persa
22-01-2010, 10:53
:D W the Passion

quoto :D

io aggiungerei anche samsung, no? ;)

da 240hz