PDA

View Full Version : GeForce GTX 200 a 55 nanometri in arrivo per l'autunno


Redazione di Hardware Upg
10-10-2008, 11:02
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-200-a-55-nanometri-in-arrivo-per-l-autunno_26788.html

Il debutto delle nuove evoluzioni delle schede GeForce GTX 260 e GeForce GTX 280 è atteso per Novembre, assieme ad una soluzione dual GPU

Click sul link per visualizzare la notizia.

al135
10-10-2008, 11:05
si prevedono grosse botte questo natale :D

Pnd
10-10-2008, 11:13
.. eio rimmarrò ancora con la mia cara 8800gt (anche se adesso non so più come chiamarla visto che ne hanno cambiato 8800 volte il nome)

Foglia Morta
10-10-2008, 11:32
Un eventuale GX2 con 2 gpu da 460mm2 e 2 pcb a 12-14 layer mi pare una buona mossa di marketing ma nulla che possa essere commercializzato sperando in un ritorno economico... phantom edition per poter dire di avere la scheda più veloce :D

ninja750
10-10-2008, 11:37
e i possessori di gtx260 godono nel vedere deprezzata la loro scheda perchè sopravanzata prima dalla 260 216sp e ora da questa 270 :asd:

Wikkle
10-10-2008, 11:47
finalmente si sà il nome della scheda di punta nvidia che uscirà... La GTX290!

brandondarkness
10-10-2008, 11:53
spettacolo: mi piacerebbe però saperne di più sulla 350, sembra che si riprenderà lo scettro di scheda più potente e veloce... almeno su carta....
qualche altra info?

Aeon19
10-10-2008, 12:03
hauhauhauh bella li per i possessori della prima 260!

Fire Hurricane
10-10-2008, 12:08
ATI mo tornerà ad essere la vergogna che è sempre stata

Mparlav
10-10-2008, 12:12
Vista la fonte, The Inquirer, prenderei quelle specifiche, specie quelle della GX2 con le GDDR5, con molta cautela.
Diciamo che usciranno sicuramente schede a 55nm, ma per le specifiche, aspetterei novembre.

Sulla dissipazione: una HD4870 x2 consuma quanto 2x GTX 260 in SLI, quindi non vedo problemi con delle GT200b anche con 216SU, con consumi sicuramente inferiori

Siamo passati in soli 6 mesi dalle precedenti dual gpu uscite a marzo che consumavano 150-180W effettivi, alla HD4870 X2 che viaggia sui 260-280W, e sulla nuova GX2 che andrebbe su quei livelli.

Sono certo che con i 40nm entrambi i produttori troveranno il modo di bruciarsi il vantaggio del die shrink e fare dual gpu da 350-400W :-/

esilarato
10-10-2008, 12:32
x Fire Hurricane

ATI nn è mai stata 1 vergogna (inforamti su ciò che ha fatto in passato e fa ora) in compenso di vergognoso c'è solo il tuo commento da idiota ... ma forse hai 1 età compresa tra i 12 e 14 anni .....

costa@73
10-10-2008, 12:37
ATI mo tornerà ad essere la vergogna che è sempre stata

Uao,
tui si che te ne intendi!!!!
Tienitele strette ste minestre ri_ri_ri_riscaldate
Noi poverini ci prendiamo le 4X e con vergogna giochiamo a tutto quello che c'è con una spesa ridicola (4850)
Tu dona i tuoi soldi a Nvidia che ti promuovono allocco aficionados dell'anno.

-noxius-
10-10-2008, 12:42
e i possessori di gtx260 godono nel vedere deprezzata la loro scheda perchè sopravanzata prima dalla 260 216sp e ora da questa 270 :asd:

Un pelo più della 4870 ti posso assicurare che la 192sp li vale ;) .. Come dico sempre, la discriminante è il prezzo e purtroppo le 260 192sp all'uscita , con quei prezzi assurdi , sono state un palese furto :rolleyes: .. Adesso tutto sommato la situazione è ben diversa , anche se ritengo che debbano limare ancora qualcosetta ;)

hai dovuto scrivere 4398 messaggi prima di tirare fuori questa perla?

Ti consiglio di andarti a rileggere quelli che ha postato sino ad ora perchè è da 4500 post che dice le stesse cose (il ''te lo consiglio'' è relativo , se vuoi farti 4 risate .. ) :asd:
Varie letture spassose consigliate :

http://www.hwupgrade.it/forum/showthread.php?t=1835783
http://www.hwupgrade.it/forum/showthread.php?t=1776214 (questo addirittura chiuso dai moderatori.. )

AndreaG.
10-10-2008, 12:42
ATI mo tornerà ad essere la vergogna che è sempre stata

hai dovuto scrivere 4398 messaggi prima di tirare fuori questa perla?

Evangelion01
10-10-2008, 12:49
ATI mo tornerà ad essere la vergogna che è sempre stata

Eccolo qui il fanboy del Cm690, dell' Ifx-14 ed ora anche nvidia... ormai sei noto a tutti sul forum, per i tuoi commenti super-partes... :rotfl:
Un uomo un perchè.. :asd:

A parte questo un die-shrink è sempre benvenuto. Certo però che chi ha preso la 260 192sp non ha fatto l' affare del secolo...

Darkon
10-10-2008, 12:50
Io non ho parole....

sinceramente mi chiedo ma chi produce schede per la Nvidia che fa modifica le catene di montaggio ogni 15 giorni o cosa?

Fra modifiche sulle schede, cambi di nomi, nuovi modelli che escono come niente fosse ogni settimana.... boh!

Francamente se fossi un possessore di una Nvidia mi sentirei non dico truffato ma quasi.... ma come compro il top di gamma spendo millemila euro e dopo una settimana mi esce l'evoluzione e mi vale meno della metà!?!

ATI almeno sarà anche una vergogna come dice fire ma mi ha dato schede che mi durano e domani posso fare crossfire allungando ulteriormente la vita spendendo pochissimo e soprattutto so che scheda comprare che nel frattempo non ha cambiato 9999 nomi diversi.

-noxius-
10-10-2008, 12:54
La vera vergogna, se permetti, è constatare che c'è ancora gente che spala letame su determinati prodotti senza provarli nemmeno , o che ''ragiona'' senza nemmeno constatare il reale rapporto tra prezzo di un prodotto e relative prestazioni .

La vera fregatura è stata l'intera serie 9800 , e se vogliamo , l'assurdo prezzo iniziale delle GT200 (direi pure delle 8600GT/GTS a scalare con le 8800GTS 320 a 320 e passa euro !!! ) , di certo non ati con le sue 4850 che dopo 1 settimana dall'uscita costavano 130 euro (contro le 210 delle 9800 gtx che vanno poco meno .. )

h1n6
10-10-2008, 12:58
ATI mo tornerà ad essere la vergogna che è sempre stataogni giorno sempre in prima linea a dar prova della tua infinita INGNORANZA!!!

yossarian
10-10-2008, 13:00
Un eventuale GX2 con 2 gpu da 460mm2 e 2 pcb a 12-14 layer mi pare una buona mossa di marketing ma nulla che possa essere commercializzato sperando in un ritorno economico... phantom edition per poter dire di avere la scheda più veloce :D

a livello di commercializzazione, una dual pcb è decisamente più probabile.

yossarian
10-10-2008, 13:03
Siamo passati in soli 6 mesi dalle precedenti dual gpu uscite a marzo che consumavano 150-180W effettivi, alla HD4870 X2 che viaggia sui 260-280W, e sulla nuova GX2 che andrebbe su quei livelli.

Sono certo che con i 40nm entrambi i produttori troveranno il modo di bruciarsi il vantaggio del die shrink e fare dual gpu da 350-400W :-/

previsione fin troppo facile :D

nitro89
10-10-2008, 13:03
ATI mo tornerà ad essere la vergogna che è sempre stata

Sempre piu ridicolo

AndreaG.
10-10-2008, 13:06
Ti consiglio di andarti a rileggere quelli che ha postato sino ad ora perchè è da 4500 post che dice le stesse cose (il ''te lo consiglio'' è relativo , se vuoi farti 4 risate .. ) :asd:
Varie letture spassose consigliate :

http://www.hwupgrade.it/forum/showthread.php?t=1835783
http://www.hwupgrade.it/forum/showthread.php?t=1776214 (questo addirittura chiuso dai moderatori.. )


"te lo consiglio" lo prendo assolutamente in considerazione :asd:

fine ot

Wikkle
10-10-2008, 13:08
hai dovuto scrivere 4398 messaggi prima di tirare fuori questa perla?

:asd:

SwatMaster
10-10-2008, 13:10
Sarà interessante vedere i prezzi di lancio.

-noxius-
10-10-2008, 13:11
So what are the 270 and 290? That is easy, they are 55nm GT200s, aka GT200b, aka GT206. Nothing new, nothing spectacular at all. Why the new name then, other than desperation, if you get nothing different clock for clock? Well, that is easy, NVIDIA simply has to bump up margins, and the easiest way to do that is to snow customers.

If you remember what they did when changing the name on the 8800GT to the 9800GTX, it is the same thing. Partners cant make money, and a name change will make the stupid fanbois out there line up. Milking the stupid is a time-honored tradition in the GPU world, and since the 55nm shrink of the G92, the G92b sold less worse when they renamed it the 9800GTX+, it looks like they are trying it again. No, not the GT1xx, this time it is going to be less egregiously renamed to the 270 and 290.

http://en.hardspell.com/doc/showcont.asp?news_id=4205

Ora, dato che sicuramente la 260@206 AKA 270 sarà più potente della 4870 a causa delle frequenze belle spinte (ma pareggierà i conti sui giochi che fanno un utilizzo intensivo degli shader 3.0 tipo devil may cry,grid et simile ..) il prezzo inevitabilmente sarà più alto della 260 con 216sp , quindi sui 290 euro ; la 290 invece per forza di cose la dovranno posizionare sotto la X2 e quindi sui 370 euro , con la 280 che scenderà sui 300-330 per bilanciare il tutto . Ulteriori brutte notizie per chi ha speso un patrimonio sulle 260 e 280 , in quanto a prestazioni invece non sarà nulla di eccezionale .. A meno che non incrementeranno SUL SERIO il valore degli shared, sui 1800MHz .. In questo caso potrebbero essere molto interessanti , ovvero scegliere tra una dual gpu ed una X2 , tirando la moneta e scegliendo tra le due ..

Ad ogni modo potrebbero abbassare anche il prezzo delle 4870, ulteriormente, però sarà una cosa che necessiterà PRIMA di un calo dell'attuale prezzo delle 260, in quanto ATI/AMD DEVONO fare profitti , e detto tra noi se lo meritano pure ( era da tempo immemore che servivano prezzi bassi-ottime performance , come quando uscirono le 8800gt )

Defragg
10-10-2008, 13:13
hai dovuto scrivere 4398 messaggi prima di tirare fuori questa perla?
No, è dal primo che va avanti così. :rolleyes: :rotfl:
Eccolo qui il fanboy del Cm690, dell' Ifx-14 ed ora anche nvidia... ormai sei noto a tutti sul forum, per i tuoi commenti super-partes... :rotfl:
Un uomo un perchè.. :asd:

Fosse solo uno il perchè... :asd:

Foglia Morta
10-10-2008, 13:15
a livello di commercializzazione, una dual pcb è decisamente più probabile.

possono riprendere il design della 9800 GX2 , come consumi ci stanno. Ma realisticamente se le gpu necessitano di bus a 448 bit allora mi sa che i costi di questa scheda la rendano poco bella da produrre e vendere. Anche il die size rappresenta un miglioramento solo modesto... Poi se dalla presentazione di G92 alla 9800 GX2 sono passati 4-5 mesi mi pare poco credibile che presentato GT200b arrivi subito la GX2. Meglio che si concentrino sui 40nm :D

D4N!3L3
10-10-2008, 13:23
Ecco, nel caso andrò sulla GX2, di certo non cambio la mia attuale per i 55 nm.

yossarian
10-10-2008, 13:26
possono riprendere il design della 9800 GX2 , come consumi ci stanno. Ma realisticamente se le gpu necessitano di bus a 448 bit allora mi sa che i costi di questa scheda la rendano poco bella da produrre e vendere. Anche il die size rappresenta un miglioramento solo modesto... Poi se dalla presentazione di G92 alla 9800 GX2 sono passati 4-5 mesi mi pare poco credibile che presentato GT200b arrivi subito la GX2. Meglio che si concentrino sui 40nm :D

uno dei problemi del passaggio a 40 nm è che non hanno ancora iniziato a commercializzare gli "scarti" di g200 a 65 e presto si troveranno a dover smaltire anche quelli di g200 a 55 nm. In più ci sono i g9x a 55 nm. Il che significa anche rischio di sovrapposizione di prodotti sia come prezzi che come performance.
Ho l'impressione che nei prossimi mesi la confusione sui nomi sia destinata ad aumentare :D

gianni1879
10-10-2008, 13:33
ATI mo tornerà ad essere la vergogna che è sempre stata

vedo che continui la tua battaglia contro Ati

ghiltanas
10-10-2008, 13:36
uno dei problemi del passaggio a 40 nm è che non hanno ancora iniziato a commercializzare gli "scarti" di g200 a 65 e presto si troveranno a dover smaltire anche quelli di g200 a 55 nm. In più ci sono i g9x a 55 nm. Il che significa anche rischio di sovrapposizione di prodotti sia come prezzi che come performance.
Ho l'impressione che nei prossimi mesi la confusione sui nomi sia destinata ad aumentare :D

:muro: e tanto già ora ne hanno tirati fuori pochini di nomi :doh:

cmq bisognerà vedere il prezzo, il periodo effettivo di lancio e la risposta di amd.

apparte le freq e al limite le memorie usate, il resto dovrebbe restare invariato fra le versioi a 65 e 55 nm giusto?

-noxius-
10-10-2008, 13:40
uno dei problemi del passaggio a 40 nm è che non hanno ancora iniziato a commercializzare gli "scarti" di g200 a 65 e presto si troveranno a dover smaltire anche quelli di g200 a 55 nm. In più ci sono i g9x a 55 nm. Il che significa anche rischio di sovrapposizione di prodotti sia come prezzi che come performance.
Ho l'impressione che nei prossimi mesi la confusione sui nomi sia destinata ad aumentare :D


Verissimo :read: .. D'altra parte non si aspettavano tutto questo successo delle RV770 , il prezzo iniziale delle gt200 ne è stata una palese conferma .

appleroof
10-10-2008, 13:44
Io non ho parole....

sinceramente mi chiedo ma chi produce schede per la Nvidia che fa modifica le catene di montaggio ogni 15 giorni o cosa?

Fra modifiche sulle schede, cambi di nomi, nuovi modelli che escono come niente fosse ogni settimana.... boh!

Francamente se fossi un possessore di una Nvidia mi sentirei non dico truffato ma quasi.... ma come compro il top di gamma spendo millemila euro e dopo una settimana mi esce l'evoluzione e mi vale meno della metà!?!

ATI almeno sarà anche una vergogna come dice fire ma mi ha dato schede che mi durano e domani posso fare crossfire allungando ulteriormente la vita spendendo pochissimo e soprattutto so che scheda comprare che nel frattempo non ha cambiato 9999 nomi diversi.

e perchè chi ha una 8800gt lo sli non lo può fare? :what:

Foglia Morta
10-10-2008, 13:46
uno dei problemi del passaggio a 40 nm è che non hanno ancora iniziato a commercializzare gli "scarti" di g200 a 65 e presto si troveranno a dover smaltire anche quelli di g200 a 55 nm. In più ci sono i g9x a 55 nm. Il che significa anche rischio di sovrapposizione di prodotti sia come prezzi che come performance.
Ho l'impressione che nei prossimi mesi la confusione sui nomi sia destinata ad aumentare :D

Ma capisco la situazione odierna perchè sono stati presi alla sprovvista da RV770 ma ora che è chiaro che stanno vendendo meno del previsto e si ritrovano gli "scarti" della nuova gpu prima ancora di aver smaltito gli "scarti" della gpu precedente non farebbero prima a diminuire la produzione ?

Ginger79
10-10-2008, 13:48
Non comprendo tutta questa "paura" da parte di molti per l'introduzione da parte di Nvidia di un semplice Die Shrink di un architettura già consolidata come quella del chip GT200. Inutile spaventarsi per nulla... Nvidia andrà solo a rafforzare un primato nelle prestazioni e nei consumi che già detiene da oltre 2 anni e questo andrà a favore di noi acquirenti che potremmo sostituire le nostre 8800 con schede dal prezzo invitante, dalle prestazioni esaltanti e, non meno importante, dai consumi più contenuti (grazie ai 55nm).

Credo proprio che queste nuove soluzioni si assesteranno rispettivamente sui 200€ (GTX270) ... 300€ (GTX290) e 400€ (GX2) con prestazioni mediamente superiori alla concorrenza nelle relative fasce di prezzo.

-noxius-
10-10-2008, 13:52
Se dovessero mettere questi prezzi si ritroverebbero con l' intera serie gt200@65 invenduta e declassata dalle proprie soluzioni , a te converrebbe ? (che ricordo devono uscire per fare maggiori profitti soprattutto , se non erro, a causa delle basse rese produttive , inferiori al 60% ) ;)

appleroof
10-10-2008, 13:52
Non comprendo tutta questa "paura" da parte di molti per l'introduzione da parte di Nvidia di un semplice Die Shrink di un architettura già consolidata come quella del chip GT200. Inutile spaventarsi per nulla... Nvidia andrà solo a rafforzare un primato nelle prestazioni e nei consumi che già detiene da oltre 2 anni e questo andrà a favore di noi acquirenti che potremmo sostituire le nostre 8800 con schede dal prezzo invitante, dalle prestazioni esaltanti e, non meno importante, dai consumi più contenuti (grazie ai 55nm).

Credo proprio che queste nuove soluzioni si assesteranno rispettivamente sui 200€ (GTX270) ... 300€ (GTX290) e 400€ (GX2) con prestazioni mediamente superiori alla concorrenza nelle relative fasce di prezzo.

:sperem:

Ginger79
10-10-2008, 13:56
apparte le freq e al limite le memorie usate, il resto dovrebbe restare invariato fra le versioi a 65 e 55 nm giusto?

Esattamente. Il tutto si traduce in maggiori prestazioni (anche se l'incremento sarà marginale), minori costi di produzione, minori consumi e min prezzo finale di acquisto. Si dice che Nvidia voglia proporre queste nuove soluzioni a prezzi inferiori a quelli praticati per la versione a 65nm... il che, considerando che una GTX260 si trova a 230€, si traduce in un prezzo prossimo ai 200€ (per la GTX270) con prestazioni di sicuro superiori alla controparte AMD.

link84m
10-10-2008, 13:58
Beh io credo ke se fanno sta 290 x2 sarà una vera bomba!!Ma ovviamente si dovrà vedere il prezzo!
Ati fa ottime skede,nulla da ridire,ma io credo ke nonostante le minestre di nvidia,ogni tanto sforna belle bestie..

Ginger79
10-10-2008, 13:58
Se dovessero mettere questi prezzi si ritroverebbero con l' intera serie gt200@65 invenduta e declassata dalle proprie soluzioni , a te converrebbe ? (che ricordo devono uscire per fare maggiori profitti soprattutto , se non erro, a causa delle basse rese produttive , inferiori al 60% ) ;)

Il GT200 a 65nm non sarà più prodotto nel giro di poco tempo e sarà sostituito in toto dalla nuova serie così come è stato per le generazioni precedenti (9800 su 8800).

-noxius-
10-10-2008, 14:11
Il GT200 a 65nm non sarà più prodotto nel giro di poco tempo e sarà sostituito in toto dalla nuova serie così come è stato per le generazioni precedenti (9800 su 8800).

Certo, però ricordiamoci che devono vendere prima quelli vecchi ;)

Stefem
10-10-2008, 14:15
Il GT200 a 65nm non sarà più prodotto nel giro di poco tempo e sarà sostituito in toto dalla nuova serie così come è stato per le generazioni precedenti (9800 su 8800).

L'obiettivo sarebbe proprio quello, convertire tutta la linea di GPU a 55nm nel più breve tempo possibile.

appleroof
10-10-2008, 14:17
L'obiettivo sarebbe proprio quello, convertire tutta la linea di GPU a 55nm nel più breve tempo possibile.

quoto, credo anche io sia l'obiettivo, e credo sia plausibile che gli "scarti" di gt200@65nm rimarranno tali, proprio per evitare sovrapposizioni inutili a loro e agli utenti, poi questa è la mia impressione, vedremo

ReDeX
10-10-2008, 14:25
Una GTX270 a 200€ sarebbe interessante, anche se onestamente la mia 8800GT fa ancora bene il suo lavoro. :)

Stefem
10-10-2008, 14:33
quoto, credo anche io sia l'obiettivo, e credo sia plausibile che gli "scarti" di gt200@65nm rimarranno tali, proprio per evitare sovrapposizioni inutili a loro e agli utenti, poi questa è la mia impressione, vedremo

Se ne è parlato anche durante una conferenza in cui NVIDIA a dichiarato che produrre schede di fascia inferiore derivate da GT200 non sarebbe una buona soluzione sia dal lato prestazioni che dal lato costi.

amagriva
10-10-2008, 14:35
ferme restando le restanti ...
stante gli stantii astanti, l'istinto è di instantaneamente instillare stinti ed ostentati astii
tipo ati vergogna et similia...

The_SaN
10-10-2008, 14:37
ATI mo tornerà ad essere la vergogna che è sempre stata

http://www.tomshw.it/news.php?newsid=15689

Prossimo.

ghiltanas
10-10-2008, 14:52
Esattamente. Il tutto si traduce in maggiori prestazioni (anche se l'incremento sarà marginale), minori costi di produzione, minori consumi e min prezzo finale di acquisto. Si dice che Nvidia voglia proporre queste nuove soluzioni a prezzi inferiori a quelli praticati per la versione a 65nm... il che, considerando che una GTX260 si trova a 230€, si traduce in un prezzo prossimo ai 200€ (per la GTX270) con prestazioni di sicuro superiori alla controparte AMD.

infatti l'utilità del die shrink è proprio quella di ridurre consumi e costi produttivi. credo anch'io che vedremo le nuove soluzioni ad un prezzo interessante, bisogna vedere però quando esauriranno le scorte dei chip attuali: sarebbe controproducente per nvidia buttare subito fuori le nuove soluzioni a un prezzo molto aggressivo, senza essere in procinto di esaurire le scorte di g200...
Direi che prima di metà novembre sarà molto difficile vedere gtx270 o 290 in giro, imho ovviamente ;)

appleroof
10-10-2008, 14:58
Se ne è parlato anche durante una conferenza in cui NVIDIA a dichiarato che produrre schede di fascia inferiore derivate da GT200 non sarebbe una buona soluzione sia dal lato prestazioni che dal lato costi.

bene...;)

ghiltanas
10-10-2008, 15:01
Se ne è parlato anche durante una conferenza in cui NVIDIA a dichiarato che produrre schede di fascia inferiore derivate da GT200 non sarebbe una buona soluzione sia dal lato prestazioni che dal lato costi.

qui manca qualcosina....("h") :asd:

Stefem
10-10-2008, 15:15
qui manca qualcosina....("h") :asd:

Come sei pignolo, capita a tutti di sbagliare :cry:

ghiltanas
10-10-2008, 15:16
Come sei pignolo, capita a tutti di sbagliare :cry:

sicuro, io in primis :O , infatti l'ho detto in tono scherzoso :D

dasheroll
10-10-2008, 15:17
ATI mo tornerà ad essere la vergogna che è sempre stata

Sempre più vergognoso come del resto lo era il thread che è stato chiuso cioè GTX260 VS HD4870 dove praticamente consigliavi la GTX260 che costava 80€ di più ma almeno nn scrivere ci fai più bella figura...:rolleyes:


P.S=Appena ho visto la scritta nella notizia ho capito subito di chi si trattava e guarda caso avevo ragione :asd:

Fire Hurricane
10-10-2008, 15:20
dici la VGA con i condensatori ronzati e i dirver patacchi ? :D

Oltretutto adesso che escono anzi sono già usciti ( almeno uno ) Crysis warhead e far cry 2 vedrai se la 4870 rimarrà in testa, visto che sono tutti ottimizzati Nvidia, e sicuramente anche altri, anzi facciamo quasi tutti, visto che dubito assai che arriverà un game con il logo ATI.

Esiste anche la qualità non solo le prestazioni.

JüN1oR
10-10-2008, 15:28
Finalmente cambia nome alle schede video la nvidia era ora

-noxius-
10-10-2008, 15:35
dici la VGA con i condensatori ronzati e i dirver patacchi ? :D

Oltretutto adesso che escono anzi sono già usciti ( almeno uno ) Crysis warhead e far cry 2 vedrai se la 4870 rimarrà in testa, visto che sono tutti ottimizzati Nvidia, e sicuramente anche altri, anzi facciamo quasi tutti, visto che dubito assai che arriverà un game con il logo ATI.

Esiste anche la qualità non solo le prestazioni.

Gli stessi condensatori ronzanti presenti su ALCUNE 8800gt rev1/2-8800gts512-9800gtx , gli stessi driver che magari ti mandano al diavolo il sistema operativo e devi reinstallare lo stesso .

Prestazionalmente parlando sono due schede grossomodo molto simili, che si alternano lo scettro l'un l'altra ma da qui a definirla una vergogna ce ne passa . Sinceramente del logo me ne sbatto, evidentemente a te invece interessa solo quello .

Già, la qualità .. Peccato che l'aa delle rv770 sia decisamente migliore delle G92-200 :rolleyes: (8x ati circa il 24CFAA nvidia ,senza stare a scomodare l'edge detect ati ..) .

Ti parla un ex possessore della 4870 , avente una gtx 260 nel case adesso .

Tu invece ? Come al solito scommetto che parli per sentito dire , come la discussione che avevi creato per le cpu , dove hai fatto la solita becera figura :rolleyes: .

Ti consiglierei di cambiare nick , accettalo questo suggerimento ;) .

Fire Hurricane
10-10-2008, 15:37
perchè hai nvidia ?

-noxius-
10-10-2008, 15:38
Perchè mi interessava capire come andassero realmente le due schede in questione , mi sembra evidente .
E fra poco mi prenderò una 4670-9600gso perchè mi servono i soldi per pagare la prima rata dell'università :rolleyes:

Mi spiace dirtelo ma ti stai davvero arrampicando sugli specchi e sinceramente non ne capisco il motivo .. Suvvia, un minimo di ragionevolezza ed obbiettività, e volendo , UMILTà ..

Cortesemente ti pregherei di non intervenire più, anche perchè io non ti risponderò un'altra volta . Stai facendo andare la discussione OT e quindi perfavore evita di dire sempre le solite banalità ;) .

Fire Hurricane
10-10-2008, 15:40
se se
tutti così dicono

okorop
10-10-2008, 15:45
dici la VGA con i condensatori ronzati e i dirver patacchi ? :D

Oltretutto adesso che escono anzi sono già usciti ( almeno uno ) Crysis warhead e far cry 2 vedrai se la 4870 rimarrà in testa, visto che sono tutti ottimizzati Nvidia, e sicuramente anche altri, anzi facciamo quasi tutti, visto che dubito assai che arriverà un game con il logo ATI.

Esiste anche la qualità non solo le prestazioni.

questo è puro flame per tutti coloro che hanno ati.....poi hai mai avuto una ati nel tuo case scusa?

Fire Hurricane
10-10-2008, 15:45
si una 9700 e mi è piaciuta.

Mparlav
10-10-2008, 15:51
C'era da scommetterci che questa sarebbe diventata l'ennesima, ed al solito inconcludente, discussione Ati vs Nvidia...

Evangelion01
10-10-2008, 16:12
dici la VGA con i condensatori ronzati e i dirver patacchi ? :D

Oltretutto adesso che escono anzi sono già usciti ( almeno uno ) Crysis warhead e far cry 2 vedrai se la 4870 rimarrà in testa, visto che sono tutti ottimizzati Nvidia, e sicuramente anche altri, anzi facciamo quasi tutti, visto che dubito assai che arriverà un game con il logo ATI.

Esiste anche la qualità non solo le prestazioni.

Caro Fire, io ho avuto nell' ordine : 8800Gtx , TRE 8800gt e adesso ho una gtx 280.
Ebbene TUTTE hanno presentato ( e presentano ) condensatori ronzanti.
TUTTE ( a parte la mia 280 che ancora devo testare ) presentavano l' errore NVLDDMKM.SYS se provavo a fare un po' di OC ( ma a volte anche a default ), se parliamo di drivers... mai sentito nominare?

Certo, è facile vedere solo quello che fa comodo , ma se guardiamo i FATTI, non è che Nvidia brilli molto più di Ati sotto questi aspetti, nonostante sia universalmente noto che ha un supporto drivers un po' migliore.
Il bello è che ti ostini ad alimentare il flame non si sa per quale oscuro motivo, ma evidentemente i casi sono 2 : o ti diverti così... :rolleyes:
oppure certe cose le pensi davvero... :asd:
Opterei per la seconda, visto che sei abitudinario nel sostenere certe idee senza una minima esperienza alle spalle, come hai fatto con l ' ifx-14 sostenendone la netta superiorità sull' ultra extreme quando ciò è palesemente falso ( e posso dirlo avendoli entrambi )
oppure sostenendo la superiorità del Cm690 su altri case tipo in Nine , che non hai mai posseduto.
Continua a fare disinformazione, che tanto la tua battaglia è persa. ;)

-noxius-
10-10-2008, 16:18
ah, nota personale ..

VGA possedute dal sottoscritto in ordine temporale di rilascio :

nvidia 4600Ti
ati 1600XT
nvidia 6800gs
nvidia 8800gtx
nvidia 8800gt
nvidia 8800gts 512
nvidia 9800gtx
ati hd4870
nvidia GTX260

E stiamo qui ad etichettare la gente come funboy od altro :rolleyes: (poi io stesso lanciai invettive pesantissime contro nvidia e le sue 9800 , quindi .. :Perfido: ) . Qui si dovrebbe discutere della validità dei prodotti stessi e quindi si dovrebbe cercare di esser perlomeno obbiettivi , e magari rispettosi delle altrui opinioni .

Spero solo che nel prossimo refresh @55nm possano davvero creare un netto divario prestazionale con le attuali 260 e 280 erchè altrimenti la situazione purtroppo rimarrà la stessa . Ricordo a tutti che se non fosse stato per la ''concorrenza'' ci saremmo ritrovati a dover pagare queste 260 e 280 a prezzi minimo del 50-60% superiori . Lo ricordo e lo sottoscrivo .

Fire Hurricane
10-10-2008, 16:22
ok mi avete convinto.


OT = cmq c'è un motivo per cui l'IFX 14 è considerato il modello di punta della casa thermalright.

Evangelion01
10-10-2008, 16:42
ok mi avete convinto.


OT = cmq c'è un motivo per cui l'IFX 14 è considerato il modello di punta della casa thermalright.

Certo, infatti lo possiedo montato in firma.. ma la differenza tra i 2 è veramente risibile. ;)

gianni1879
10-10-2008, 17:01
questo è puro flame per tutti coloro che hanno ati.....poi hai mai avuto una ati nel tuo case scusa?

ma i driver Ati sono Virus....


altra perla che ricordo di tempo fa..


Ma i Moderatori dove sono??

capitan_crasy
10-10-2008, 17:10
questo è puro flame per tutti coloro che hanno ati.....poi hai mai avuto una ati nel tuo case scusa?

E' inutile parlare con lui...
Segnalatelo e ignoratelo, è la cosa migliore...

-noxius-
10-10-2008, 17:13
OT
scusatemi ma state portando avanti una discussione inutile, peraltro dopo che lo stesso utente ha fatto marcia indietro .. sarebbe corretto tornare in tema e non commentare ;)
/OT

rotfler
10-10-2008, 17:29
e i dirver patacchi ? :D

Ricordo male, o i primi tempi su Vista qualcosa tipo il 60% delle BSOD erano causati dai driver Forceware? :stordita:

Capozz
10-10-2008, 17:33
E' inutile parlare con lui...
Segnalatelo e ignoratelo, è la cosa migliore...

Bravo :D

ghiltanas
10-10-2008, 17:35
OT
scusatemi ma state portando avanti una discussione inutile, peraltro dopo che lo stesso utente ha fatto marcia indietro .. sarebbe corretto tornare in tema e non commentare ;)
/OT

vorrei quotare questo messaggio per metterlo bene in evidenza...

Fire Hurricane
10-10-2008, 17:39
mai visto un game con logo ATI ? a me nn sembra.
Bè we dal tronde .......pur di trovare la scusa e spender di meno si dice di tutto.
Ma questo non è il thread su Nvidia ?
Che cosa ci fanno quì quelli che hanno ATI.

pierpox
10-10-2008, 17:41
Salve ragazzi,io credo che si debba considerare in tutte le discussioni che contrappongono ati vs nvidia anche un altro valore aggiunto delle vga del green team e che manca alla controparte ati e cioè la possibilità tramite cuda di poter sfruttare la potenza elaborativa della vga.Certo il 90% e oltre userà la scheda video per giocare,ma io sono stato attratto più dal fatto che le vga di nvidia possono essere utilizzate anche per fare altro e nn solo per giocare.Gli applicativi che possono sfruttare cuda vanno da quelli scientifici tipo matlab a quelli per la codifica video,mai provato badaboom con una gtx 280?Un film in dvd di 2 ore codificato in meno di 45 min e stanno uscendo anche encoder divx e perfino la prossima verione di photoshop che sfrutteranno cuda.Io credo che gli acquirenti oltre alla battaglia all'ultimo frame incominicino pure a considerare altri aspetti prima di comprare la prossima scheda video.

microcip
10-10-2008, 17:43
ok mi avete convinto.


OT = cmq c'è un motivo per cui l'IFX 14 è considerato il modello di punta della casa thermalright.

veramente manco la thrm ha affermato che l'ifx-14 è il suo modello di punta.......

yossarian
10-10-2008, 17:44
:muro: e tanto già ora ne hanno tirati fuori pochini di nomi :doh:

cmq bisognerà vedere il prezzo, il periodo effettivo di lancio e la risposta di amd.

apparte le freq e al limite le memorie usate, il resto dovrebbe restare invariato fra le versioi a 65 e 55 nm giusto?

credo rimmarranno invariate anche le memorie (sempre gddr3)

Ma capisco la situazione odierna perchè sono stati presi alla sprovvista da RV770 ma ora che è chiaro che stanno vendendo meno del previsto e si ritrovano gli "scarti" della nuova gpu prima ancora di aver smaltito gli "scarti" della gpu precedente non farebbero prima a diminuire la produzione ?

no, perchè venderebbero anche meno 280 e 260 rispetto alle attuali. Tieni conto che da un wafer, a voler essere generosi, ricavano circa 90-92 chip, di cui solo il 50% circa viene commercializzato al momento

quoto, credo anche io sia l'obiettivo, e credo sia plausibile che gli "scarti" di gt200@65nm rimarranno tali, proprio per evitare sovrapposizioni inutili a loro e agli utenti, poi questa è la mia impressione, vedremo

a questo punto è molto probabile. E' una delle ipotesi che avevo fatto qualche giorno fa in un altro thread. Rinunciare ai profitti derivanti dalla commercializzazione degli scarti di gt200 a 65 nm è una perdita non da poco, ma permette un passaggio più rapido a 55 nm, in vista anche dell'ulteriore shrink a 40 nm

Se ne è parlato anche durante una conferenza in cui NVIDIA a dichiarato che produrre schede di fascia inferiore derivate da GT200 non sarebbe una buona soluzione sia dal lato prestazioni che dal lato costi.

dal lato costi, comunque la commercializzazione conviene; un minimo che ci puoi guadagnare è sempre meglio del nulla attuale (a fronte del fatto che a nVIDIA produrre un chip della serie gt200 castrato costa esattamente quanto uno di quelli che equipaggiano le 280GTX).

Fire Hurricane
10-10-2008, 17:45
veramente manco la thrm ha affermato che l'ifx-14 è il suo modello di punta.......

si va bene ok hai ragione tu.
ma che centra ????

-noxius-
10-10-2008, 17:45
Salve ragazzi,io credo che si debba considerare in tutte le discussioni che contrappongono ati vs nvidia anche un altro valore aggiunto delle vga del green team e che manca alla controparte ati e cioè la possibilità tramite cuda di poter sfruttare la potenza elaborativa della vga.Certo il 90% e oltre userà la scheda video per giocare,ma io sono stato attratto più dal fatto che le vga di nvidia possono essere utilizzate anche per fare altro e nn solo per giocare.Gli applicativi che possono sfruttare cuda vanno da quelli scientifici tipo matlab a quelli per la codifica video,mai provato badaboom con una gtx 280?Un film in dvd di 2 ore codificato in meno di 45 min e stanno uscendo anche encoder divx e perfino la prossima verione di photoshop che sfrutteranno cuda.Io credo che gli acquirenti oltre alla battaglia all'ultimo frame incominicino pure a considerare altri aspetti prima di comprare la prossima scheda video.

Indubbiamente è un aspetto davvero interessante, basti pensare al progetto folding@home . In ambito scientifico promette davvero bene e ritengo che debbano continuare a potenziare questo aspetto , di modo che la capacità di elaborazione delle odierne gpu possa servire a calcolo parallelo per ricerche in ambito molecolare e genomico .

ciocia
10-10-2008, 17:47
Spero escano il piu' tardi possibile! Attendevo queste schede, visto che non c'erano piu' notizie, ho ordinato la gtx280 proprio 3 giorni fa....

yossarian
10-10-2008, 17:48
Salve ragazzi,io credo che si debba considerare in tutte le discussioni che contrappongono ati vs nvidia anche un altro valore aggiunto delle vga del green team e che manca alla controparte ati e cioè la possibilità tramite cuda di poter sfruttare la potenza elaborativa della vga.Certo il 90% e oltre userà la scheda video per giocare,ma io sono stato attratto più dal fatto che le vga di nvidia possono essere utilizzate anche per fare altro e nn solo per giocare.Gli applicativi che possono sfruttare cuda vanno da quelli scientifici tipo matlab a quelli per la codifica video,mai provato badaboom con una gtx 280?Un film in dvd di 2 ore codificato in meno di 45 min e stanno uscendo anche encoder divx e perfino la prossima verione di photoshop che sfrutteranno cuda.Io credo che gli acquirenti oltre alla battaglia all'ultimo frame incominicino pure a considerare altri aspetti prima di comprare la prossima scheda video.

lo si può fare anche con gpu ATi e lo si potrà fare anche con larrabee di Intel

Evangelion01
10-10-2008, 17:49
si va bene ok hai ragione tu.
ma che centra ????

Centra, centra.... ;)
Grazie Micro, non ricordavo di questo particolare... :p

Evangelion01
10-10-2008, 17:51
lo si può fare anche con gpu ATi e lo si potrà fare anche con larrabee di Intel

Quoto. :cool:

Mr_Paulus
10-10-2008, 17:55
ATI mo tornerà ad essere la vergogna che è sempre stata
ciao, io sono interista invece :)
Credo proprio che queste nuove soluzioni si assesteranno rispettivamente sui 200€ (GTX270) ... 300€ (GTX290) e 400€ (GX2) con prestazioni mediamente superiori alla concorrenza nelle relative fasce di prezzo.
imho se andranno di più, costeranno di più.
nvidia a differenza di ati non deve guadagnare per forza quote di mercato.
Una GTX270 a 200€ sarebbe interessante, anche se onestamente la mia 8800GT fa ancora bene il suo lavoro. :)
beh, anche la mia 6800GT :D (ritenuta defunta e poi resuscitata dopo un bel cambio di pasta termica :O)
Finalmente cambia nome alle schede video la nvidia era ora:asd:

si una 9700 e mi è piaciuta.

lol sfido all'epoca c'era la fx5800 :asd:

pierpox
10-10-2008, 17:58
lo si può fare anche con gpu ATi e lo si potrà fare anche con larrabee di Intel

Si ma non c'è proprio paragone in termi di sviluppo e anche gli applicativi che supportano cuda sono di gran lunga più numerosi e poi dettaglio molto importante il supporto ati a sfruttare la vga come risorsa di calcolo va bene solo per le FireStream che costano un occhio della testa;) Io ho acquistato una gtx 280 proprio per questo motivo...;)

Stefem
10-10-2008, 18:01
Ricordo male, o i primi tempi su Vista qualcosa tipo il 60% delle BSOD erano causati dai driver Forceware? :stordita:

Ricordi male, era meno del 30%, e comunque devi considerare il market share molto maggiore rispetto ad AMD.
Se pochi le montano è normale che i crash siano meno, no?

appleroof
10-10-2008, 18:17
imho se andranno di più, costeranno di più.
nvidia a differenza di ati non deve guadagnare per forza quote di mercato.


è quello che temo

marco_djh
10-10-2008, 19:45
Yuppi! Se costerà 150 euro cambierò la mie 8800GT :sofico:

K Reloaded
10-10-2008, 21:28
iscrittissimo, e rotfleggiante ... :read:

gabi.2437
10-10-2008, 22:08
ATI mo tornerà ad essere la vergogna che è sempre stata

EPIC FAIL

yossarian
10-10-2008, 23:18
Si ma non c'è proprio paragone in termi di sviluppo e anche gli applicativi che supportano cuda sono di gran lunga più numerosi e poi dettaglio molto importante il supporto ati a sfruttare la vga come risorsa di calcolo va bene solo per le FireStream che costano un occhio della testa;) Io ho acquistato una gtx 280 proprio per questo motivo...;)

CUDA, al momento, è molto poco supportato; deriva da open64 che è un tool sviluppato per diverse piattaforme: IA64 (itanium, architettura vliw), IA32e (x86) e AMD opteron. CUDA è solo una versione adattata all'architettura di G8x e Gt2x0 ma può girare, opportunamente modificata, su RV770 (vliw) e su larrabee (x86).
Le firestream e le radeon hanno lo stesso identico chip con la stessa architettura (esattamente come le geforce e le quadro).
nVIDIA sta cercando di imporre i suoi standard (CUDA e physx) ma, per ora, la situazione è ancora in evoluzione e molto nebulosa e con l'entrata nella competizione anche di Intel molte cose sono destinate a cambiare ancora e non si sa in quale direzione. Larrabee si propone da subito come un concorrente molto agguerrito per il calcolo parallelo e Intel ha il suo standard proprietario per la fisica (havok); infine c'è da vedere quali soluzioni deciderà di implementare microsoft nelle prossime dx.

Faustinho DaSilva
11-10-2008, 00:22
il problema che se ati con un singolo buffer produce 200 gpu nv di produce la metà... sta lavorando in perdita... e tra l'altri sicuramente gt200 è un pacco paragonabile solo a ati 2900xt

ABCcletta
11-10-2008, 00:48
ATI mo tornerà ad essere la vergogna che è sempre stata

Grandioso, mi rendo conto di essermi perso oltre 4000 post di puro divertimento :D

Ginger79
11-10-2008, 00:49
e tra l'altri sicuramente gt200 è un pacco paragonabile solo a ati 2900xt

:sofico:

lokalizera
11-10-2008, 01:33
quanto mi faranno spaccare quelli che tifano x ati o nvidia o intel o amd.........a me nn ha mai regalato nessuno dei due nè le cpu nè le schede video ,ma me le hanno sempre fatte pagare una balla di soldi quando andavano salvo poi svenderle quando il concorrente tirava fuori il pezzo per dire ce l'ho più grosso ...................oh se a chi tifa per una o l'altra marca gli fanno gli sconti ditemelo che vengo a tifare anch'io :D :D
Quanto ai condensatori ronzanti che un utente ha fatto presente esservi sulle hvidia beh' ancche le ati ronzano quindi.......
esce la gt 200 a 55nm bene magari fanno una 280gx2 ............

pierpox
11-10-2008, 07:55
CUDA, al momento, è molto poco supportato; deriva da open64 che è un tool sviluppato per diverse piattaforme: IA64 (itanium, architettura vliw), IA32e (x86) e AMD opteron. CUDA è solo una versione adattata all'architettura di G8x e Gt2x0 ma può girare, opportunamente modificata, su RV770 (vliw) e su larrabee (x86).
Le firestream e le radeon hanno lo stesso identico chip con la stessa architettura (esattamente come le geforce e le quadro).
nVIDIA sta cercando di imporre i suoi standard (CUDA e physx) ma, per ora, la situazione è ancora in evoluzione e molto nebulosa e con l'entrata nella competizione anche di Intel molte cose sono destinate a cambiare ancora e non si sa in quale direzione. Larrabee si propone da subito come un concorrente molto agguerrito per il calcolo parallelo e Intel ha il suo standard proprietario per la fisica (havok); infine c'è da vedere quali soluzioni deciderà di implementare microsoft nelle prossime dx.

Ciao yossarian,gli applicativi che sfruttano al momento cuda potranno essere pure pochi,ma quelli che già ci sono ne traggono molto vantaggio matlab in primis,photoshop cs4 quando uscirà per nn parlare dei tools di converisone video;mai visto qualche prova di TMPGEnc 4.0 XPress cuda version ?Quindi la considerazione che ho fatto prima di acquistare la mia gtx280 è stata:tra una 4780X2 o una gtx280 chi delle due mi offre una scheda video eccellente,che nn consumi molto e che mi dia la possibilità oltre che giocare degnamente anche di sfruttarla su altri applicativi che nn siano soltanto giochi?E questo aspetto IMHO sarà ancora più esaltato col passaggio a 55 nanometri.Amd attualmente con le 4870 non offre questo,con cuda invece siamo già alla 2.0 e larrabe...sarà una soluzione dedicata solo al calcolo oppure sarà pure una scheda video discreta? E in caso affermativo siamo sicuri che intel riesca a produrre sin da subito una scheda video discreta alla pari delle architetture di nvidia?Con una gtx280 ho già in una sola soluzione un ottima scheda video + una risorsa di calcolo non indifferente!Io credo che gli acquirenti prima si spendere cifre significative per una vga questo aspetto lo valuteranno prima dell'acquisto... voi cosa ne pensate?;)

appleroof
11-10-2008, 08:08
Ciao yossarian,gli applicativi che sfruttano al momento cuda potranno essere pure pochi,ma quelli che già ci sono ne traggono molto vantaggio matlab in primis,photoshop cs4 quando uscirà per nn parlare dei tools di converisone video;mai visto qualche prova di TMPGEnc 4.0 XPress cuda version ?Quindi la considerazione che ho fatto prima di acquistare la mia gtx280 è stata:tra una 4780X2 o una gtx280 chi delle due mi offre una scheda video eccellente,che nn consumi molto e che mi dia la possibilità oltre che giocare degnamente anche di sfruttarla su altri applicativi che nn siano soltanto giochi?E questo aspetto IMHO sarà ancora più esaltato col passaggio a 55 nanometri.Amd attualmente con le 4870 non offre questo,con cuda invece siamo già alla 2.0 e larrabe...sarà una soluzione dedicata solo al calcolo oppure sarà pure una scheda video discreta? E in caso affermativo siamo sicuri che intel riesca a produrre sin da subito una scheda video discreta alla pari delle architetture di nvidia?Con una gtx280 ho già in una sola soluzione una schdea video + una risorsa di calcolo non indifferente!Io credo che gli acquirenti prima si spendere cifre significative per una vga questo aspetto lo valuteranno prima dell'acquisto... voi cosa ne pensate?;)

io penso che uno la vga (come il resto) la compra in base alle proprie esigenze, e ad oggi quello che hai indicato lo offriva, immediatamente e facilmente, Nvidia, ad oggi.

halduemilauno
11-10-2008, 08:18
Ciao yossarian,gli applicativi che sfruttano al momento cuda potranno essere pure pochi,ma quelli che già ci sono ne traggono molto vantaggio matlab in primis,photoshop cs4 quando uscirà per nn parlare dei tools di converisone video;mai visto qualche prova di TMPGEnc 4.0 XPress cuda version ?Quindi la considerazione che ho fatto prima di acquistare la mia gtx280 è stata:tra una 4780X2 o una gtx280 chi delle due mi offre una scheda video eccellente,che nn consumi molto e che mi dia la possibilità oltre che giocare degnamente anche di sfruttarla su altri applicativi che nn siano soltanto giochi?E questo aspetto IMHO sarà ancora più esaltato col passaggio a 55 nanometri.Amd attualmente con le 4870 non offre questo,con cuda invece siamo già alla 2.0 e larrabe...sarà una soluzione dedicata solo al calcolo oppure sarà pure una scheda video discreta? E in caso affermativo siamo sicuri che intel riesca a produrre sin da subito una scheda video discreta alla pari delle architetture di nvidia?Con una gtx280 ho già in una sola soluzione un ottima scheda video + una risorsa di calcolo non indifferente!Io credo che gli acquirenti prima si spendere cifre significative per una vga questo aspetto lo valuteranno prima dell'acquisto... voi cosa ne pensate?;)

che sono completamente d'accordo con te e che valuteremo attentamente larrabee quando fra un'annetto uscirà.
;)
io penso che uno la vga (come il resto) la compra in base alle proprie esigenze, e ad oggi quello che hai indicato lo offriva, immediatamente e facilmente, Nvidia, ad oggi.

e ovviamente d'accordo anche con te.
;)

Mercuri0
11-10-2008, 09:48
Ciao yossarian,gli applicativi che sfruttano al momento cuda potranno essere pure pochi,ma quelli che già ci sono ne traggono molto vantaggio matlab in primis,photoshop cs4 quando uscirà per nn parlare dei tools di converisone video;mai visto qualche prova di TMPGEnc 4.0 XPress cuda version ?

Veramente photoshop mi sa userà gli shader di DirectX/OpenGL. (Adobe fece una press release con AMD tempo fa, e una con nVidia recentemente)

Inoltre AMD ha già messo in giro le slide pubblicitarie del transcodificatore video (dovrebbe essere quello di cyberlink)
http://pc.watch.impress.co.jp/docs/2008/1002/ceatec09_04.jpg

CUDA è destinata ad avere vita breve - soppiantata dalle API standard in uscita nel 2009-, però è ovvio che se ti serve trarne un vantaggio immediato, hai fatto bene a prendere una nVidia.

e ovviamente d'accordo anche con te.
Eh, però la frase di appleroof era "a doppio taglio": nVidia era una conseguenza. Mentre mi sa che per il tuo essere d'accordo nVidia sia la premessa, no? :Prrr:

pierpox
11-10-2008, 10:49
Veramente photoshop mi sa userà gli shader di DirectX/OpenGL. (Adobe fece una press release con AMD tempo fa, e una con nVidia recentemente)

Inoltre AMD ha già messo in giro le slide pubblicitarie del transcodificatore video (dovrebbe essere quello di cyberlink)
http://pc.watch.impress.co.jp/docs/2008/1002/ceatec09_04.jpg

CUDA è destinata ad avere vita breve - soppiantata dalle API standard in uscita nel 2009-, però è ovvio che se ti serve trarne un vantaggio immediato, hai fatto bene a prendere una nVidia.


Eh, però la frase di appleroof era "a doppio taglio": nVidia era una conseguenza. Mentre mi sa che per il tuo essere d'accordo nVidia sia la premessa, no? :Prrr:

Si mercurio,il mio discorso è su quello che offre il panorama delle vga adesso in questo momento,e inoltre nn penso che cuda sia un fuoco di paglia vista la grossa spinta che nvida le stà dando in termini di sviluppo!Non penso faccia naufragare un "progetto" così promettente che dà un valore aggiunto ai suoi prodotti!Infatti amd è ancora alle slide mentre io con badaboom ho convertito in 45 min con una gtx280 un film di 2 ore.Se io acquirente devo scegliere ora una vga di un certo vedo una nvdia messa meglio su lato sfruttamento della scheda video come risorse di calcolo perchè già adessoo ho qualcosa di tangibile su cui valutare la mia scelta...inoltre un giudizio sulle api in uscita (forse) nel 2009 si potrà dare solo quando usciranno

MenageZero
11-10-2008, 11:45
Vista la fonte, The Inquirer, prenderei quelle specifiche, specie quelle della GX2 con le GDDR5, con molta cautela.
Diciamo che usciranno sicuramente schede a 55nm, ma per le specifiche, aspetterei novembre.

Sulla dissipazione: una HD4870 x2 consuma quanto 2x GTX 260 in SLI, quindi non vedo problemi con delle GT200b anche con 216SU, con consumi sicuramente inferiori

Siamo passati in soli 6 mesi dalle precedenti dual gpu uscite a marzo che consumavano 150-180W effettivi, alla HD4870 X2 che viaggia sui 260-280W, e sulla nuova GX2 che andrebbe su quei livelli.

...

infatti, da quel poco che ne so, se accogliamo la premessa che la scheda per cui in questa news si dà il nome di "gtx350" sia una dual gpu con gt200b,

- ipotizziamo che gt200b non sia solo un gt200 a 55nm ma abbia anche un nuovo/modificato mc

XOR ( :sofico: )

- ipotizziamo che i 2GB di vram saranno gddr3 e non gddr5, se l'unica differenza, a parte i clock di default, tra gt200 e gt200b sarà il processo produttivo

Sono certo che con i 40nm entrambi i produttori troveranno il modo di bruciarsi il vantaggio del die shrink e fare dual gpu da 350-400W :-/

previsione fin troppo facile :D

ma quindi non si sono ancora posti (mi riferisco in generale sia ad amd che nv) un limite, magari solo indicativo, per i consumi ? (sottointeso che la capacità di elaborazioni continui cmq a crescere o almeno non decrescere, anche se magrai la curva dovrà cambiare un po' forma)

avremo quindi entro il 2009, con le nuove architetture, top single-gpu vicino ai 200W e dual vicino ai 400W, nonostante eventualmente p.p. a 40nm ? :eek:

... entro altri pochi anni andiamo verso il kW, quantomeno per una dual ? :asd: ...

... :cry:

yossarian
11-10-2008, 11:46
Ciao yossarian,gli applicativi che sfruttano al momento cuda potranno essere pure pochi,ma quelli che già ci sono ne traggono molto vantaggio matlab in primis,photoshop cs4 quando uscirà per nn parlare dei tools di converisone video;mai visto qualche prova di TMPGEnc 4.0 XPress cuda version ?

a livello quantitativo ti sei già risposto. Per quanto riguarda quello qualitativo, come ti ha già detto Mercurio, photoshop si baserà sull'utilizzo di api standard (adobe non sarà l'unica e non può che essere così). La transcodifica video la si può fare anche con vga con chip ATi. Per le applicazioni di tipo gpgpu, RV770 ha a disposizione più potenza di calcolo di quanta ne abbia GT200 (basta vedere la capacità di calcolo a fp32 ma soprattutto a fp64 per rendersene conto). Physx è, al momento, relegato a pochissimi titoli e più ùche altro a livello di techdemo; tra l'altro, nei pochi test effettuati, la soluzione migliore a livello velocistico è quella che prevede l'uso di ppu dedicata mentre, al contrario, l'utilizzo della stessa vga che si occupa del rendering, è conveniente, rispetto a quello della cpu, solo in condizioni di basso carico di lavoro (3D) della vga; in caso contrario offre risultati allo stesso livello di quelli ottenibili con la cpu.
CUDA è uno standard proprietario, per quanto basato su uno di tipo open e come standard proprietario ha ben poche possibilità di essere adottato su vasta scala, per quanto nVIDIA si possa dare da fare.

Quindi la considerazione che ho fatto prima di acquistare la mia gtx280 è stata:tra una 4780X2 o una gtx280 chi delle due mi offre una scheda video eccellente,che nn consumi molto e che mi dia la possibilità oltre che giocare degnamente anche di sfruttarla su altri applicativi che nn siano soltanto giochi?E questo aspetto IMHO sarà ancora più esaltato col passaggio a 55 nanometri.Amd attualmente con le 4870 non offre questo,con cuda invece siamo già alla 2.0 e larrabe...sarà una soluzione dedicata solo al calcolo oppure sarà pure una scheda video discreta? E in caso affermativo siamo sicuri che intel riesca a produrre sin da subito una scheda video discreta alla pari delle architetture di nvidia?Con una gtx280 ho già in una sola soluzione un ottima scheda video + una risorsa di calcolo non indifferente!Io credo che gli acquirenti prima si spendere cifre significative per una vga questo aspetto lo valuteranno prima dell'acquisto... voi cosa ne pensate?;)

ripeto, la 4870 può far girare anche CUDA e ha una capacità di calcolo parallelo superiore a quella della 280GTX, capacità che se nei giochi non è ancora sfruttata per altri motivi inerenti in modo specifico l'elaborazione 3D, nel calcolo scientifico è pienamente sfruttata. Così come le operazioni di transcodifica effettuate tramiote shader core, RV770 le effettua senza bisogno di interfacce tipo CUDA ma utilizzando l'implementazione fatta via API standard (mentre GT200 ha il chip NVIO).
Larrabee sarà un chip dedicato al calcolo parallelo ma anche una soluzione video discreta, le cui prestazioni sono da valutare ma c'è da tener conto che Intel ha risorse, a livello economico, di esperienza nell'uso di processi produttivi avanzati e di capacità di influenzare le scelte del mercato, che non possono vantare né AMD né nVIDIA.
Quindi, quello che penso è che la GT200 è un'ottima vga ma che, se non può costituire una discrimenante d'acquisto il supporto alle dx10.1 (che a GT200 manca), in quanto non ancora implementate in nessun gioco (anche se sicuramente lo saranno), non può esserlo neppure CUDA, finora poco usato ma che non è affatto certo che abbia sviluppi futuri

MenageZero
11-10-2008, 11:53
ATI mo tornerà ad essere la vergogna che è sempre stata

dato il palese tentativo di scatenare flame, visto che il post continene solo una frase insensatamente provocatoria e zero contenuto razionale,

sono 3 giorni di sospensione

yossarian
11-10-2008, 12:05
infatti, da quel poco che ne so, se accogliamo la premessa che la scheda per cui in questa news si dà il nome di "gtx350" sia una dual gpu con gt200b,

- ipotizziamo che gt200b non sia solo un gt200 a 55nm ma abbia anche un nuovo/modificato mc

XOR ( :sofico: )

- ipotizziamo che i 2GB di vram saranno gddr3 e non gddr5, se l'unica differenza, a parte i clock di default, tra gt200 e gt200b sarà il processo produttivo



2 GB puzzano di stesso MC (512 bit) e gddr3. Inoltre, se fossero 2 GB si tratterebbe di una dual 280gtx (probabilmente dual pcb)



ma quindi non si sono ancora posti (mi riferisco in generale sia ad amd che nv) un limite, magari solo indicativo, per i consumi ? (sottointeso che la capacità di elaborazioni continui cmq a crescere o almeno non decrescere, anche se magrai la curva dovrà cambiare un po' forma)

avremo quindi entro il 2009, con le nuove architetture, top single-gpu vicino ai 200W e dual vicino ai 400W, nonostante eventualmente p.p. a 40nm ? :eek:

... entro altri pochi anni andiamo verso il kW, quantomeno per una dual ? :asd: ...

... :cry:

negli ultimi anni, la potenza di calcolo delle gpu è aumentata molto velocemente; questo significa tante unità di calcolo e frequenze sempre più alte (nel caso di nVIDIA anche chip sempre più grandi). In futuro si prevede che le gpu debbano integrare altre funzionalità oltre quelle attuali e questo significa altre unità di calcolo ancora, sia che si tratti di unità dedicate (ad esempio le fp64 di GT200 per i calcoli scientifici) che di unità che emulano determinate funzionalità.
Nelle cpu, invece, si è assistito a degli aggiustamenti architetturali che hanno portato ad una maggiore efficienza anche a frequenze ridotte (pensa solo al passaggio dall'architettura netburst a quella attuale per le cpu intel). Le gpu, al momento, hanno delle architetture molto efficienti per il tipo di compito che sono preposte ad assolvere. Una possibile evoluzione potrebbe prevedere l'abbandono di unità che fanno uso di fixed function e la loro sostituzione con unità programmabili che siano in grado di assolvere a più compiti. E' un tentativo che potrebbe servire a contenere i consumi, ma non è detto che non vada a scapito dell'efficienza. Se così fosse, si sarebbe coatretti a far ricorso ad un numero sempre più elevato di unità "generiche" e si tornerebbe al punto di partenza.
Altro tentativo è quello di "spegnere" i circuiti non interessati al momento all'elaborazione. Ma non è un compito semplice, poichè durante un'elaborazione 3D i cicli di idle di un determinato circuito non sono facilmente prevedibili e c'è il rischio di diminuire l'efficienza del chip.
Al momento si può lavorare solo sulla riduzione dei consumi in idle

pierpox
11-10-2008, 15:10
@yossarian

Io sarei un pò cauto nell'affermare la superiorità della capacità di calcolo di una 4870 rispetto ad una gtx280,perchè si tratta di un qualcosa che è sulla "carta" ma nn c'è un vero e proprio apllicativo scientifico magari che riesca ad evidenziare concretamente una differenza tangibile.Ad esempio,volendo fare un paragone con le cpu,dalle caratteristiche sempre sulla carta il phenom è un quad core nativo con un cache condivisa e una miriade di caratteristiche che a leggerle uno pensa che possa stracciare agevolmente un core 2 quad che è la "semplicistica" unione di due dual core e invece...Ritornando a cuda,si certo una 4870 sulla carta potrebbe sfruttarle però amd non spinge in quella direzione e se si và sul sito di nvidia (sezione cuda) troverete un sacco di persone in ambito universitario che scrivono codice sfruttando cuda per accelerare i calcoli scientifici e tutto questo senza l'uso di una scheda dedicata e costosissima tipo le firestream di amd.Per quanto riguarda la codifica di filmati,non ho visto software funzionanti che siano in grado di agevolare le converisioni sfruttando le 4870 così come fà badaboom ad esempio.Inoltre cercando così su internet riguardo photoshop cs4 io trovo solo notizie che indicano che :"Adobe Photoshop CS4 utilizza GPU NVIDIA Quadro e GeForce per creare canvas digitali interattivi. La GPU gestisce in real time la rotazione, lo zoom e lo spostamento dell'immagine, rendendo così le operazioni fluide e istantanee. Adobe Photoshop CS4 si appoggia alla GPU per applicare effetti di antialiasing di alta qualità, rendendo i contorni spigolosi delle lettere o delle immagini una cosa del passato. Le anteprime degli effetti del pennello, i movimenti 3D e le conversioni dei colori sono anche loro accelerate dalla GPU."Inoltre sul sito di nvidia vi è pure un plug-in per photoshop.Quindi dire che cuda si insignificante come le dx 10.1 a mio modesto parere mi sembra un pò riduttivo.;)Quindi sintetizzando e facendo un esempio concreto con una gtx280 ho una ottima scheda video che:mi permette di giocare,consuma poco e posso sfruttarla concretamente già oggi per fare anche altro,tutto questo allo stato attuale delle cose me lo può offrire una 4870?Ci sono concrete possibilità,visto il presente,che amd me lo possa offrire in un prossimo futuro?
Io da acquirente un interrogativo del genere me lo sono posto...

Mercuri0
11-10-2008, 15:50
Infatti amd è ancora alle slide mentre io con badaboom ho convertito in 45 min con una gtx280 un film di 2 ore.
Oki tutto: attenti però a non farsi fregare dalla pubblicità di entrambi i contendenti. I test sulla codifica video vanno fatti *a parità di qualità*, c'è il rischio che impostando un codec su CPU alla qualità che viene fuori da badaboom, la CPU vada più veloce della GPU!

Ti invito a leggere l'approfondimento su badaboom fatto su Anandtech ;)
http://www.anandtech.com/video/showdoc.aspx?i=3374

C'è di sicuro anche un thread su doom9 (il forum di riferimento per i codec video), che puoi leggere per approfondire.
Dove leggo leggo, il GPGPU ha ancora lati oscuri, ma penso siano fisiologici in questa fase.

Onore ai leadusers... io salirò sul treno solo dopo che i binari ci saranno tutti :D

yossarian
11-10-2008, 15:53
@yossarian

Io sarei un pò cauto nell'affermare la superiorità della capacità di calcolo di una 4870 rispetto ad una gtx280,perchè si tratta di un qualcosa che è sulla "carta" ma nn c'è un vero e proprio apllicativo scientifico magari che riesca ad evidenziare concretamente una differenza tangibile.Ad esempio,volendo fare un paragone con le cpu,dalle caratteristiche sempre sulla carta il phenom è un quad core nativo con un cache condivisa e una miriade di caratteristiche che a leggerle uno pensa che possa stracciare agevolmente un core 2 quad che è la "semplicistica" unione di due dual core e invece...

ammesso che sia come tu dici (e cioè che le differenze sono solo sulla carta), ciò significherebbe che la scelta di una vga (la 280) rispetto ad un'altra (la 4870) è stata effettuata su carta e non in base a reali caratteristiche superiori.
Invece di fare paragoni che non stanno in piedi con le cpu, restiamo in ambito gpu e dimmi per quali ragioni tecniche e in che modo GT200 riuscirebbee a fare cose che sono impossibili per RV770 o che lo saranno per larrabee. Le architetture di GT200 e di RV770 sono note, quindi limitiamoci a parlare di quelle e diciamo che RV770 ha più raw power (più Gflops) sia in fp32 che in fp64 (e per i calcoli scientifici quello che conta, ai fini delle prestazioni, sono quelli), maschera meglio le latenze e gestisce meglio gli scambi di dati con la ram video e con quella di sistema. Questo senza voler entrare nel dettaglio.

@yossarian

Ritornando a cuda,si certo una 4870 sulla carta potrebbe sfruttarle però amd non spinge in quella direzione

chi lo dice? Non spinge in direzione di cuda che è un'applicazione proprietaria di nVIDIA, ma lo fa in direzione di applicazioni open source che hanno prospettive ben maggiori di essere supportate.

@yossarian

e se si và sul sito di nvidia (sezione cuda) troverete un sacco di persone in ambito universitario che scrivono codice sfruttando cuda per accelerare i calcoli scientifici e tutto questo senza l'uso di una scheda dedicata e costosissima tipo le firestream di amd.

se vai sul sito di nVIDIA come su quello di qualsiasi altro produttore, trovi solo un mare di spot pubblicitari sulla bontà dei loro prodotti rispetto a quelli della concorrenza. I calcoli scientifici su gpu esistono da molto prima di cuda e il primo tool per foldinghome per gpu è stato messo a punto da ATi e non da nVIDIA. Inoltre le gpu delle firestream e quelle delle radeon sono esattamente lo stesso chip, quindi neppure amd ha bisogno di costose schede dedicate per accelerare calcoli scientifici.

@yossarian

Per quanto riguarda la codifica di filmati,non ho visto software funzionanti che siano in grado di agevolare le converisioni sfruttando le 4870 così come fà badaboom ad esempio.

toglici pure ad esempio, in quanto badaboom è l'unico SW che usa le gpu nVIDIA per effettuare transcoding video ed è stato sviluppato su richiesta e in collaborazione con nVIDIA, nel tentativo di spingere all'adozione di CUDA e, di conseguenza, di spingere le vendite dei propri prodotti. Non ce ne sono altri e neppure è detto che qualcun altro, non foraggiato da nVIDIA stessa, si prenda la briga di fare altrettanto. E' molto più probabile che si faccia, invece, uso di applicazioni che facciano riferimento alle DX standard.

@yossarian

Inoltre cercando così su internet riguardo photoshop cs4 io trovo solo notizie che indicano che :"Adobe Photoshop CS4 utilizza GPU NVIDIA Quadro e GeForce per creare canvas digitali interattivi. La GPU gestisce in real time la rotazione, lo zoom e lo spostamento dell'immagine, rendendo così le operazioni fluide e istantanee. Adobe Photoshop CS4 si appoggia alla GPU per applicare effetti di antialiasing di alta qualità, rendendo i contorni spigolosi delle lettere o delle immagini una cosa del passato. Le anteprime degli effetti del pennello, i movimenti 3D e le conversioni dei colori sono anche loro accelerate dalla GPU."Inoltre sul sito di nvidia vi è pure un plug-in per photoshop.

immagino avrai letto in giro che anche AMD sta mettendo a punto qualcosa del genere con la collaborazione di ADOBE. Quindi, nVIDIA ha avuto il solo merito di essere arrivata prima; questo non significa che GT200 o G9x riescono a fare cose che alle altre gpu sono precluse :D

@yossarian

Quindi dire che cuda si insignificante come le dx 10.1 a mio modesto parere mi sembra un pò riduttivo.;)

le feature delle dx10.1, comprese quelle a cui GT200 non ha accesso perchè manca dell'HW dedicato, saranno usate di sicuro, in maniera ampia e da tutti; CUDA è usato, al momento, in misura molto ridotta e da chi collabora in maniera molto stretta con nVIDIA.

@yossarian
Quindi sintetizzando e facendo un esempio concreto con una gtx280 ho una ottima scheda video che:mi permette di giocare,

siamo d'accordo

@yossarian
consuma poco

qui un po' meno

@yossarian
e posso sfruttarla concretamente già oggi per fare anche per altro,

anche qui siamo d'accordo

@yossarian
tutto questo allo stato attuale delle cose me lo può offrire una 4870?
non tramite CUDA :D

@yossarian
Ci sono concrete possibilità,visto il presente,che amd me lo possa offrire in un prossimo futuro?
di quale presente parli? Mi dai una sola motivazione per cui un qualunque chip non possa essere in grado di eseguire calcoli scientifici o fare transcoding video o giocherellare con photoshop? Parlo di un qualunque chip, anche delle vecchie serie (tipo G70 o R5x0 e precedenti)?
Sia il gpgpu che l'utilizzo di applicazioni multimediali nVIDIA li ha scoperti solo di recente: ATi all in wonder e matrox marvel ti dicono qualcosa? Sai che con SW di simulazione del moto particellare R520 era fino a 7 volte più veloce di G70? E tutto senza CUDA :D

Mercuri0
11-10-2008, 15:56
no ancora posti (mi riferisco in generale sia ad amd che nv) un limite, magari solo indicativo, per i consumi ? (sottointeso che la capacità di elaborazioni continui cmq a crescere o almeno non decrescere, anche se magrai la curva dovrà cambiare un po' forma)

Il limite sui consumi non se lo devono porre i produttori, ma gli utenti. Qualunque tecnologia utilizzino, si potrà sempre fare una scheda più prestazionale a maggior consumi (e maggior costo), dovesse anche essere raffreddata a liquido :D

Quindi rigiro la domanda: una scheda da oltre 600€ Uber Super raffreddata a liquido ha mercato tale da giustificarne la produzione?
La risposta sta agli utenti. :)


Nelle CPU ci si limita a 130Watt di TDP di progetto, e sbloccare il moltiplicatore per gli enthusiast ;)

Mercuri0
11-10-2008, 16:10
Ci sono concrete possibilità,visto il presente,che amd me lo possa offrire in un prossimo futuro?

Raga... vi state scannando sulla fuffa. Per ora, sul GPGPU, c'è più che altro fuffa: uno annuncia un codec, l'altro pure, quello fa folding@home accelerato, l'altro passa qualche euro ad Adobe per un comunicato congiunto, concorsi per codec audio senza vincoli di qualità, slide di quì, slide di là, etc etc.

Ancora il GPGPU è molto immaturo lato consumer, per ora dove la GPU vince, di solito è perché bara: codec a diversa qualità, Physix ultracastrato sulla CPU (è stato dimostrato da un tipo di 3dmark su beyond3d) ...

Quando il GPGPU diventerà veramente utile a livello consumer, avremo passato almeno 2 generazioni di schede, che mi auguro saranno progressivamente progettate per rendere il GPGPU veramente vantaggioso.

Perciò, c'è poco da scannarsi ora con discorsi più o meno tecnici su questo o su quello... :flower:

Semplicemente, se trovate una applicazione che vi serve, ora e in questo momento, che sfrutta una tal scheda, acquistate tale scheda, sperando che l'applicazione non sia sostanzialmente una sòla di demo per tirar fuori un grafico.

p.s. Spero che una sterzata al GPGPU verrà dal lancio del nuovo MacOSX, in cui Apple spingerà su OpenCL come piattaforma di sistema...

yossarian
11-10-2008, 16:19
Raga... vi state scannando sulla fuffa. Per ora, sul GPGPU, c'è più che altro fuffa: uno annuncia un codec, l'altro pure, quello fa folding@home accelerato, l'altro passa qualche euro ad Adobe per un comunicato congiunto, concorsi per codec audio senza vincoli di qualità, slide di quì, slide di là, etc etc.

Ancora il GPGPU è molto immaturo lato consumer: se trovate una applicazione che vi serve, ora e in questo momento, che sfrutta una tal scheda, acquistate tale scheda.
(sperando che l'applicazione non sia sostanzialmente una sòla di demo per tirar fuori un grafico)

Quando il GPGPU diventerà veramente utile a livello consumer, avremo passato almeno 2 generazioni di schede, che mi auguro saranno progressivamente progettate per rendere il GPGPU veramente vantaggioso.

Perciò, c'è poco da scannarsi ora con discorsi più o meno tecnici su questo o su quello. :flower:

p.s. Spero che una sterzata al GPGPU verrà dal lancio del nuovo MacOSX, in cui Apple spingerà su OpenCL come piattaforma di sistema...

il fatto è che i proclami pubblicitari mietono sempre molte vittime :D

Certo che se il gpgpu o le operazioni di transcoding audio e video devono passare attraverso tool proprietari e SW a pagamento (tipo badaboom per nVIDIA o powerdvd per AMD), difficilmente si assisterà al decollo di applicazioni differenti da quelle videoludiche.
Se, invece, si deciderà di puntare su piattaforme opensource, allora ci saranno molte più possibilità di sviluppo in direzioni diverse dai soliti ambiti di utilizzo di una vga.
Il timore è che, con l'avvento di Intel, anche questa spinga in direzione dell'adozione di soluzioni proprietarie, forte degli accordi con importanti SWHouse che si occupano di applicazioni di tipo GP

Mercuri0
11-10-2008, 16:26
Se, invece, si deciderà di puntare su piattaforme opensource, allora ci saranno molte più possibilità di sviluppo in direzioni diverse dai soliti ambiti di utilizzo di una vga.

Per quanto riguarda le API, nel 2009 ci saranno i primi standard (OpenCL e Directx11), opensource o no che siano.

Per quanto riguarda i programmi opensource... in realtà c'è qualcuno che sta provando a sperimentare. In particolare ho seguito una discussione a proposito tra gli sviluppatori di ffmpeg (i codec audiovideo di VLC) e tra quelli del codec mp3 LAME.

Il fatto è che troppo spesso arrivano alla conclusione che "tutto sommato è meglio la CPU", perché basta una sola, minuscola parte dell'algoritmo che si parallelizza male, e le prestazioni precipitano! E chiaramente loro non li paga nessuno per "toglierla", perdendo in qualità, giusto per fare un bel grafico comparativo. Inoltre le parti per cui la GPU eccellerebbe, sono già super ottimizzate sulla CPU usando estensioni come le SSE.

Insomma, ci vorrà un pò: API standard, piattaforma matura, hardware più flessibile, nuovi algoritmi.

il fatto è che i proclami pubblicitari mietono sempre molte vittime

Non mi lamento troppo, le nuove tecnologie hanno sempre bisogno di leadusers (cioè gente disposta a pagare tanto per fare da betatester :D )

pierpox
11-10-2008, 16:34
[QUOTE=Mercuri0;24521463]Raga... vi state scannando sulla fuffa. Per ora, sul GPGPU, c'è più che altro fuffa: uno annuncia un codec, l'altro pure, quello fa folding@home accelerato, l'altro passa qualche euro ad Adobe per un comunicato congiunto, concorsi per codec audio senza vincoli di qualità, slide di quì, slide di là, etc etc.

Chiedo scusa a yossarian se ho dato l'impressione di fare della polemica,non era assolutamente mia intenzione giuro!:D,anzi lo scambio di battute mi ha dato altri punti interessanti su cui riflettere e di questo ti ringrazio ;)

[QUOTE=Mercuri0;24521463]Ancora il GPGPU è molto immaturo lato consumer: se trovate una applicazione che vi serve, ora e in questo momento, che sfrutta una tal scheda, acquistate tale scheda.
(sperando che l'applicazione non sia sostanzialmente una sòla di demo per tirar fuori un grafico)

Hai perfettamente ragione,infatti io da utilizzatore di matlab ho installato jacket dell'accellereyes che sfrutta cuda ed effettivamente il salto a livello di velocità di calcolo è enorme rispetto perfino ad un q9550,attendo pure con ansia la tmpenc 4 cuda version così accellero pure la codifica divx.Alla fine dei conti uno deve considerare il software che dovrà utilizzare per effettuare una scelta ponderata tra una 4870 e una gtx 280!

MenageZero
11-10-2008, 18:55
Il limite sui consumi non se lo devono porre i produttori, ma gli utenti. Qualunque tecnologia utilizzino, si potrà sempre fare una scheda più prestazionale a maggior consumi (e maggior costo), dovesse anche essere raffreddata a liquido :D

Quindi rigiro la domanda: una scheda da oltre 600€ Uber Super raffreddata a liquido ha mercato tale da giustificarne la produzione?
La risposta sta agli utenti. :)


Nelle CPU ci si limita a 130Watt di TDP di progetto, e sbloccare il moltiplicatore per gli enthusiast ;)

lo so che quale che sia il punto di partenza, se accetti di incrementare i consumi puoi sicuramente fare qualcosa per incrementare le prestazioni ;) ...

... parlando di utenti, se fossero tutti come me sarebbero sempre più tempi di vacche magre, dato che per es. ora il forum di hwu sul mio schermo è "powered by" una 9600 ... radeon 9600 :asd:

cavolate a parte, non so ... non credo che le super top molto costose abbiano avuto mai molto mercato, ma le han sempre fatte, per motivi di immagine quantomeno credo ... :boh:
e tuttavia, tanto per rimanere sul banale, ovvero ambito vg, forse ora non è così, ma non sempre è stato possibile "giocare al meglio" senza una scheda di fascia alta, alta anche come prezzo voglio dire

e poi se entro, tanto per dire, 5 anni (meno ?) mi tiri fuori il modello top da 1kw, magari la situazione vedrà un consumo per la fascia media nettamente superiore che se fosse stato possibile darsi una sorta di tetto, come stanno facendo negli ultimi anni in ambito cpu

yossarian
11-10-2008, 19:50
Chiedo scusa a yossarian se ho dato l'impressione di fare della polemica,non era assolutamente mia intenzione giuro!:D,anzi lo scambio di battute mi ha dato altri punti interessanti su cui riflettere e di questo ti ringrazio ;)



figurati, nessuna polemica e tu non hai motivo per cui debba scusarti di qualcosa. Hai esperesswo il tuo parere in maniera estremamente civile ed educata. L'unica cosa che sia Mercurio che io abbiamo voluto farti notare è che l'utilizzo delle gpu per scopi differenti da quelli consueti è ancora immaturo e in fase embrionale. Inoltre, nell'immediato futuro si potrebbero verificare eventi in grado di sconvolgere l'intero panorama. Di certo c'è che si va verso una convergenza tra cpu e gpu con queste ultime sempre meno relegate al ruolo di coprocessore. Ma come e quando si realizzerà è ancora un'incognita.
In ogni caso, qualunque sia il motivo che ti ha scpinto all'acquisto di una 280, non posso che ribadire che hai fatto un'ottima scelta, anche se la motivazione fosse legata al solo ambito gaming

Per quanto riguarda le API, nel 2009 ci saranno i primi standard (OpenCL e Directx11), opensource o no che siano.

Per quanto riguarda i programmi opensource... in realtà c'è qualcuno che sta provando a sperimentare. In particolare ho seguito una discussione a proposito tra gli sviluppatori di ffmpeg (i codec audiovideo di VLC) e tra quelli del codec mp3 LAME.

Il fatto è che troppo spesso arrivano alla conclusione che "tutto sommato è meglio la CPU", perché basta una sola, minuscola parte dell'algoritmo che si parallelizza male, e le prestazioni precipitano! E chiaramente loro non li paga nessuno per "toglierla", perdendo in qualità, giusto per fare un bel grafico comparativo. Inoltre le parti per cui la GPU eccellerebbe, sono già super ottimizzate sulla CPU usando estensioni come le SSE.

Insomma, ci vorrà un pò: API standard, piattaforma matura, hardware più flessibile, nuovi algoritmi.


Non mi lamento troppo, le nuove tecnologie hanno sempre bisogno di leadusers (cioè gente disposta a pagare tanto per fare da betatester :D )

è proprio il motivo in neretto che fa temere l'ingresso di Intel nella competizione. Sta ad AMD e nVIDIA il cercare di convincere i programmatori di SW open che si può sviluppare anche su piattaforme diverse dalla x86, magari sostenendone il lavoro in maniera concreta (anche economica, intendo dire)


lo so che quale che sia il punto di partenza, se accetti di incrementare i consumi puoi sicuramente fare qualcosa per incrementare le prestazioni ;) ...

... parlando di utenti, se fossero tutti come me sarebbero sempre più tempi di vacche magre, dato che per es. ora il forum di hwu sul mio schermo è "powered by" una 9600 ... radeon 9600 :asd:

cavolate a parte, non so ... non credo che le super top molto costose abbiano avuto mai molto mercato, ma le han sempre fatte, per motivi di immagine quantomeno credo ... :boh:
e tuttavia, tanto per rimanere sul banale, ovvero ambito vg, forse ora non è così, ma non sempre è stato possibile "giocare al meglio" senza una scheda di fascia alta, alta anche come prezzo voglio dire

e poi se entro, tanto per dire, 5 anni (meno ?) mi tiri fuori il modello top da 1kw, magari la situazione vedrà un consumo per la fascia media nettamente superiore che se fosse stato possibile darsi una sorta di tetto, come stanno facendo negli ultimi anni in ambito cpu

le supertop da 600 €, in effetti, non hanno un gran mercato, ma con la sempre crescente richiesta di potenza elaborativa, si finisce, epr forza di cose, con l'infilare dentro un chip il maggior numero di unità di calcolo possibile. Il risultato è che hai architetture sempre più complesse e "affamate"
di watt e tanti scarti, molto variegati tra loro, da utilizzare per coprire il sempre maggior numero di fasce di mercato che si vengono ad originare.
Insomma, alla fine, non nè solo una questione d'immagine, ma anche una questione pratica: da un'architettura complessa ricavo una top (che mi serve per l'immagine, anche perchè più è grande e complesso il chip più sono basse le rese) e tanti altri chip "castrati" con cui realizzo i guadagni :D

MenageZero
11-10-2008, 20:51
...

è proprio il motivo in neretto che fa temere l'ingresso di Intel nella competizione. Sta ad AMD e nVIDIA il cercare di convincere i programmatori di SW open che si può sviluppare anche su piattaforme diverse dalla x86, magari sostenendone il lavoro in maniera concreta (anche economica, intendo dire)

...

sì ma per dare seri grattacapi(anche con significativi riflessi economici intendo) ad amd ed nv il larrabee non dovrebbe anche eccellere in ambito 3d tradizionale ? non è improbabile che questo avvenga a breve/medio termine ?

quand'anche il sw free/open scegliesse come sua piattaforma di elezione per il gp-gpu quella intel, come potrebbero i prodotti derivanti dal progetto larrabee intaccare il core business di nv e della sezione grafica di amd, finché le gpu non x86 rimangono significativamente superiori nel 3d ?(quantomeno finché cpu e gpu non diventeranno davvero una cosa sola anche nei comuni pc, ma da come dicevi questa possibile realtà sembra distante ancora molti anni)

oppure voi del settore prevedete addirittura un larrabee competitivo ai massimi livelli nel 3d in tempi relativamente brevi ?

(o semplicemente ti riferivi esclusivamente all'ambito gp-gpu, anche nel senso della nicchia di mercato, voglio dire :sofico: )

pierpox
12-10-2008, 08:14
sì ma per dare seri grattacapi(anche con significativi riflessi economici intendo) ad amd ed nv il larrabee non dovrebbe anche eccellere in ambito 3d tradizionale ? non è improbabile che questo avvenga a breve/medio termine ?

quand'anche il sw free/open scegliesse come sua piattaforma di elezione per il gp-gpu quella intel, come potrebbero i prodotti derivanti dal progetto larrabee intaccare il core business di nv e della sezione grafica di amd, finché le gpu non x86 rimangono significativamente superiori nel 3d ?(quantomeno finché cpu e gpu non diventeranno davvero una cosa sola anche nei comuni pc, ma da come dicevi questa possibile realtà sembra distante ancora molti anni)

oppure voi del settore prevedete addirittura un larrabee competitivo ai massimi livelli nel 3d in tempi relativamente brevi ?

(o semplicemente ti riferivi esclusivamente all'ambito gp-gpu, anche nel senso della nicchia di mercato, voglio dire :sofico: )


Be credo che riuscire sin da subito a realizzare una architettura valida sia sul piano del 3D che su quello di risorsa di calcolo,per intel anche con tutte le risorse di cui è capace, sarà davvero dura perchè si scontra con competitors del calibro di nvidia e ati che hanno dalla loro un sacco di esperienza accumulata in tutti questi anni.Un idea di quello che oggi deve colmare intel,rispetto alle sue soluzioni di grafica integrata, in termini di prestazioni 3D lo si può trovare nei numerosi benchs effettuati in internet sia sul gtx 280 che sul 4780.Per darti invece un pò la percezione di come stanno oggi le cose sul lato "gpu come risorsa di calcolo" ti posto alcuni test effettuati con matlab (versione a 64 bit) in cui ho fatto il confronto tra il mio q9550 e il gtx 280 entrambi montati sul mio pc con 8 GB di ram...
Questo è un banale calcolo di pi greca:
** Jacket Pi Example **
** by AccelerEyes **
GPU Computed Value of Pi = 3.143204
Mean CPU time (seconds) = 0.0517235
Mean GPU time (seconds) = 0.00107248
Speedup (CPU time / GPU time) = 48.2279

Il secondo grafico rappresenta dei calcoli effettuati su matrici di dimensione crescente,anche in questo caso il divario col q9550 è notevole.Nel primo in ordinate vi è il tempo in ms impiegato mentre sul secondo è la performance dellla gpu sulla cpu.Tieni anche conto che un software come matlab è ottimizzato per il multicore cioè più unità di calcolo vede e più le sfrutta,inoltre da qui a quando uscirà larrabee sicuramente ne nvidia ne amd-ati staranno con le mani in mano ad aspettare intel,evolveranno anche loro con le rispettive architetture.

appleroof
12-10-2008, 09:04
cut
chi lo dice? Non spinge in direzione di cuda che è un'applicazione proprietaria di nVIDIA, ma lo fa in direzione di applicazioni open source che hanno prospettive ben maggiori di essere supportate.
cut

Com'è buona Amd :nonio: , tanto buona che deve aver convertito anche Nvidia...:asd: :

Kirk fa notare anche che, in direzione dell'Open Source e della standardizzazione, Nvidia ha realizzato un insieme di strumenti con Open 64, The Open Research Compiler, e sta rendendo lo stesso linguaggio CUDA open source.

http://www.programmazione.it/index.php?entity=eitem&idItem=39249

il fatto è che i proclami pubblicitari mietono sempre molte vittime :D

cut

però qualche istituto che non è esattamente il liceo scientifico sotto casa qualche applicazione di Cuda la sfruttano, e certamente non per scopi di divertimento :D

questo è uno fra le tante vittime

http://www.beckman.illinois.edu/index.aspx

pierpox
12-10-2008, 09:22
Com'è buona Amd :nonio: , tanto buona che deve aver convertito anche Nvidia...:asd: :

Kirk fa notare anche che, in direzione dell'Open Source e della standardizzazione, Nvidia ha realizzato un insieme di strumenti con Open 64, The Open Research Compiler, e sta rendendo lo stesso linguaggio CUDA open source.

http://www.programmazione.it/index.php?entity=eitem&idItem=39249



però qualche istituto che non è esattamente il liceo scientifico sotto casa qualche applicazione di Cuda la sfruttano, e certamente non per scopi di divertimento :D

questo è uno fra le tante vittime

http://www.beckman.illinois.edu/index.aspx

...aggiungo pure che in molte università prestigiose americane tipo la Duke o Harvard vi sono persino dei corsi tenuti su cuda,qui in Italia per nostra sfortuna solo in una università ...ehhh beneddetta innovazione:rolleyes:

appleroof
12-10-2008, 09:31
...aggiungo pure che in molte università prestigiose americane tipo la Duke o Harvard vi sono persino dei corsi tenuti su cuda,qui in Italia per nostra sfortuna solo in una università ...ehhh beneddetta innovazione:rolleyes:

che ti devo dire....potere della pubblicità :D

pierpox
12-10-2008, 09:44
che ti devo dire....potere della pubblicità :D

...;)

yossarian
12-10-2008, 12:25
sì ma per dare seri grattacapi(anche con significativi riflessi economici intendo) ad amd ed nv il larrabee non dovrebbe anche eccellere in ambito 3d tradizionale ? non è improbabile che questo avvenga a breve/medio termine ?

quand'anche il sw free/open scegliesse come sua piattaforma di elezione per il gp-gpu quella intel, come potrebbero i prodotti derivanti dal progetto larrabee intaccare il core business di nv e della sezione grafica di amd, finché le gpu non x86 rimangono significativamente superiori nel 3d ?(quantomeno finché cpu e gpu non diventeranno davvero una cosa sola anche nei comuni pc, ma da come dicevi questa possibile realtà sembra distante ancora molti anni)

oppure voi del settore prevedete addirittura un larrabee competitivo ai massimi livelli nel 3d in tempi relativamente brevi ?

(o semplicemente ti riferivi esclusivamente all'ambito gp-gpu, anche nel senso della nicchia di mercato, voglio dire :sofico: )

è molto probabile che larrabee sia da subito competitivo come gpgpu e questo potrebbe creare seri problemi agli sviluppi futuri di soluzioni proprietarie da parte di AMD e di nVIDIA, visti anche gli "agganci" e l'influenza che ha intel in quel segmento specifico.
Che possa essere da subito anche competitivo come gpu high end è molto meno probabile, ma potrebbe inserirsi nel mercato molto più redditizio delle gpu mainstream e entry level. Inoltre presenta caratteristiche architetturali interessanti che potrebbero indurre a rivedere alcuni criteri progettuali dele attuali gpu; questo perchè è un progetto nuovo che non eredita le "ingessature" delle gpu attuali, retaggio dei tempi in cui le schede grafiche erano semplici adattatori grafici. In particolare, dovrebbe rpesentarsi come un chip completamente programmabile, a differenza delle attuali gpu che lo sono solo in parte.

Com'è buona Amd :nonio: , tanto buona che deve aver convertito anche Nvidia...:asd: :

Kirk fa notare anche che, in direzione dell'Open Source e della standardizzazione, Nvidia ha realizzato un insieme di strumenti con Open 64, The Open Research Compiler, e sta rendendo lo stesso linguaggio CUDA open source.

http://www.programmazione.it/index.php?entity=eitem&idItem=39249


ci aggiungerei un: "ma che strano" :D . Se cuda resta una soluzione proprietaria non ha alcuna possibilità di sopravvivere :D. Per la cronaca, cuda deriva da open64 e open64, opportunamnete rielaborato, può girare su tanet architetture differenti (comprese quelle delle cpu) :p



però qualche istituto che non è esattamente il liceo scientifico sotto casa qualche applicazione di Cuda la sfruttano, e certamente non per scopi di divertimento :D

questo è uno fra le tante vittime

http://www.beckman.illinois.edu/index.aspx

...aggiungo pure che in molte università prestigiose americane tipo la Duke o Harvard vi sono persino dei corsi tenuti su cuda,qui in Italia per nostra sfortuna solo in una università ...ehhh beneddetta innovazione:rolleyes:

che ti devo dire....potere della pubblicità :D

che vi devo dire; se volete giocare a chi ce l'ha più lungo, allora si potrebbe dire che cal/brook+ è stato sviluppato in collaborazione con Stanford e che ricercatori del MIT e della University of North Carolina ne fanno uso, per non parlare dei client per folding@home
Pensate sia indicativo di qualcosa? :sofico:

appleroof
12-10-2008, 12:43
cut
che vi devo dire; se volete giocare a chi ce l'ha più lungo, allora si potrebbe dire che cal/brook+ è stato sviluppato in collaborazione con Stanford e che ricercatori del MIT e della University of North Carolina ne fanno uso, per non parlare dei client per folding@home
Pensate sia indicativo di qualcosa? :sofico:

mi spiace che una persona che reputo intelligente la metta (quasi sempre) su questo piano "da stadio". Il punto è che qualsivoglia cosa riguardi Nvidia sembra che per te sia fuffa tecnologica, laddove la controparte sia il bench assoluto di riferimento, sempre e comunque.

Non si voleva dire che Ati= sempre schifo e quindi che nessuno la adotta per il GP, ma al contrario, che Nvidia non è=sempre schifo e ti è stato dimostrato, in questo caso per quanto riguarda l'utilizzo di Cuda per usare le vga Nvidia in campo scientifico (dunque non ridurre tutto a "proclami pubblicitari" e quelli che usano cuda a "vittime della cattivona e furbacchiona Nvidia"). Non occorre sempre mettere le cose in prospettiva "noi contro loro".

Credo sia chiara la differenza di impostazione delle cose.

ReDeX
12-10-2008, 13:13
beh, anche la mia 6800GT :D (ritenuta defunta e poi resuscitata dopo un bel cambio di pasta termica :O)
:asd:

Ehm non è proprio la stessa cosa, magari per quanto giochi tu la 6800GT può andare, ma la 8800GT non mi fa mancare nulla... ;)

yossarian
12-10-2008, 13:53
mi spiace che una persona che reputo intelligente la metta (quasi sempre) su questo piano "da stadio". Il punto è che qualsivoglia cosa riguardi Nvidia sembra che per te sia fuffa tecnologica, laddove la controparte sia il bench assoluto di riferimento, sempre e comunque.

Non si voleva dire che Ati= sempre schifo e quindi che nessuno la adotta per il GP, ma al contrario, che Nvidia non è=sempre schifo e ti è stato dimostrato, in questo caso per quanto riguarda l'utilizzo di Cuda per usare le vga Nvidia in campo scientifico (dunque non ridurre tutto a "proclami pubblicitari" e quelli che usano cuda a "vittime della cattivona e furbacchiona Nvidia"). Non occorre sempre mettere le cose in prospettiva "noi contro loro".

Credo sia chiara la differenza di impostazione delle cose.

fno a prova contraria, non sono io quello che ha tentato di far passare più volte le dx10.1 come trovata pubblicitaria; e parliamo di qualcosa di cui non è proprietaria AMD ma MS e, di conseguenza, l'adozione di quelle feature è sicura come la morte e le tasse :D
E se rileggi questo thread, non sono neppure stato io ad aver incanalato la discusisone su binari del tipo: "con le gpu nVIDIA si possono fare cose che voi umani non potete neppure immaginare", parafrasando un noto film di Ridley Scott. :D
Mi sono semplicemente limitato a rendere completa l'informazione, aggiungendo che CUDA può girare tranquillamente anche su gpu ATi, che AMD ha i suoi tool di sviluppo per il gpgpu, assolutamente equivalenti a quelli di nVIDIA anche se, forse, non altrettanto pubblicizzati, e che, al momento, il gpgpu è ancora allo stato embrionale e, nonostante tutti gli sforzi che si stanno facendo (dovresti sapere che i corsi che vengono attivati su tol specifici, a livello universitario, sono attivati su richiesta e in seguito ai finanziamenti delle aziende che intendono promuovere l'utilizzo di quei tool e non per l'intrinseca bontà degli stessi), al momento non si sa quali direzioni prenderà il gpgpu e l'implementazione della fisica nei giochi. Se questo può dar fastidio a qualcuno non è un mio problema: si tratta semplicemente di prendere atto di uno stato di cose.

Per tutta risposta, trovo 4 esempi in croce di utlizzo di physx (su motori grafici, tipo quello di infernal, talmente leggeri da girare su una 9600 ATi con framerate decente, o implemetati a livello di techdemo su UT3, in situazioni in cui il carico di lavoro relativo alla grafico è piuttosto basso) e altrettanti esempi di utilizzo di CUDA a cui ho semplicemente opposto altri 4 esempi in croce di utlizzo di brook+; col risultato che nessuno degli 8 esempi (sempre in croce) sono indicativi di una scelta definitiva di uno o dell'altro tool di sviluppo da parte di chicchessia, ma solo degli sforzi che si stanno facendo per far decollare qualcosa che stenta, per svariati motivi, a prendere piede, nonostante ci siano le potenzialità.

Se per te affermare che cuda e physx non sono alcunchè di miracoloso e non implementabile su altre piattaforme equivale ad essere faziosi, allora ammetto di esserlo.
In caso cotrario, caro apple, i faziosi sono altri :p

appleroof
12-10-2008, 14:11
fno a prova contraria, non sono io quello che ha tentato di far passare più volte le dx10.1 come trovata pubblicitaria; e parliamo di qualcosa di cui non è proprietaria AMD ma MS e, di conseguenza, l'adozione di quelle feature è sicura come la morte e le tasse :D
E se rileggi questo thread, non sono neppure stato io ad aver incanalato la discusisone su binari del tipo: "con le gpu nVIDIA si possono fare cose che voi umani non potete neppure immaginare", parafrasando un noto film di Ridley Scott. :D
Mi sono semplicemente limitato a rendere completa l'informazione, aggiungendo che CUDA può girare tranquillamente anche su gpu ATi, che AMD ha i suoi tool di sviluppo per il gpgpu, assolutamente equivalenti a quelli di nVIDIA anche se, forse, non altrettanto pubblicizzati, e che, al momento, il gpgpu è ancora allo stato embrionale e, nonostante tutti gli sforzi che si stanno facendo (dovresti sapere che i corsi che vengono attivati su tol specifici, a livello universitario, sono attivati su richiesta e in seguito ai finanziamenti delle aziende che intendono promuovere l'utilizzo di quei tool e non per l'intrinseca bontà degli stessi), al momento non si sa quali direzioni prenderà il gpgpu e l'implementazione della fisica tramite nei giochi. Se questo può dar fastidio a qualcuno non è un mio problema: si tratta semplicemente di prendere atto di uno stato di cose.

Per tutta risposta, trovo 4 esempi in croce di utlizzo di physx (su motori grafici, tipo quello di infernal, talmente leggeri da girare su una 9600 ATi con framerate decente, o implemetati a livello di techdemo su UT3, in situazioni in cui il carico di lavoro relativo alla grafico è piuttosto basso) e altrettanti esempi di utilizzo di CUDA a cui ho semplicemente opposto altri 4 esempi in croce di utlizzo di brook+; col risultato che nessuno degli 8 esempi (sempre in croce) sono indicativi di una scelta definitiva di uno o dell'altro tool di sviluppo da parte di chicchessia, ma solo degli sforzi che si stanno facendo epr far decollare qualcosa che stenta, per svariati motivi, a prendere piede, nonostante ci siano le potenzialità.

Se per te affermare che cuda e physx non sono alcunchè di miracoloso e non implementabile su altre piattaforme equivale ad essere faziosi, allora ammetto di esserlo.
In caso cotrario, i faziosi sono altri :p

ti viene detto che ci sono applicazioni pratiche ed immediate di cuda e le bolli come 4 esempi in croce;

all'affermazione che il futuro è nelle applicazioni open source, ti è stato ribattutto che cuda sta diventando di fatto (se non lo è già) open source e svicoli;

ti viene detto che cuda è usato già in moltissimi esperimenti e applicazioni scientifiche e bolli la cosa come roba da polli che si sottomettono ai proclami pubblicitari (magari potresti dire ai tuoi colleghi della sezione marketing di spingere di più per fare altrettanto in casa Ati);



allora ti viene fatto notare, dimostrandolo, che non è tutto esattamente fuffa, che ci sono fior di istituti che usano cuda --- parlavi di folding@home? informati: L'iniziativa Folding@Home creata dalla Stanford University ha raggiunto una nuova schiera di record, grazie all'utilizzo di GPU realizzate da NVIDIA che hanno permesso di elaborare ben 1.25 petaflops, ovvero il 42% del totale potere di lavorazione dell'applicazione che ha come obiettivo quella di capire le modifiche delle proteine che colpisco l'organismo umano. http://www.gamestar.it/showPage.php?template=News&id=15624--- e in questo post aggiusti il tiro, ma gli altri dietro sono ancora consultabili (non li modiicare :D );

a me un atteggiaento come il tuo pare evidentemente fazioso, senza nulla togliere alla riconosciuta (da me mille volte) competenza tecnica davvero preziosa in molti momenti.

yossarian
12-10-2008, 14:18
ti viene detto che ci sono applicazioni pratiche ed immediate di cuda e le bolli come 4 esempi in croce;



doppio

yossarian
12-10-2008, 14:27
ti viene detto che ci sono applicazioni pratiche ed immediate di cuda e le bolli come 4 esempi in croce;



ci sono anche applicazioni pratiche e fior di università che fanno uso di CAL; e allora cosa significa? Resta la domanda: dovrei scegliere nVIDIA perchè mi permette di fare cose che non posso fare con altre gpu? Risposta: no, perchè quelle cose posso farle anche con altre gpu (ovviamente con tool di sviluppo diversi). Domanda: dovrei scegliere nVIDIA o AMD perchè i loro tool di sviluppo rappresentano sicuramente il futuro del gpgpu? Risposta: no, perchè è molto probabile che il futuro sarà riservato ad applicazioni open (e guarda un po', sia nVIDIA che AMD si stanno applicando per rendere open le proprie applicazioni e/o per implementare tool open source).



ti viene detto che cuda è usato già in moltissimi esperimenti e applicazioni scientifiche e bolli la cosa come roba da polli che si sottomettono ai proclami pubblicitari (magari potresti dire ai tuoi colleghi della sezione marketing di spingere di più per fare altrettanto in casa Ati);

allora ti viene fatto notare, dimostrandolo, che non è tutto esattamente fuffa, che ci sono fior di istituti che usano cuda --- parlavi di folding@home? informati: L'iniziativa Folding@Home creata dalla Stanford University ha raggiunto una nuova schiera di record, grazie all'utilizzo di GPU realizzate da NVIDIA che hanno permesso di elaborare ben 1.25 petaflops, ovvero il 42% del totale potere di lavorazione dell'applicazione che ha come obiettivo quella di capire le modifiche delle proteine che colpisco l'organismo umano. http://www.gamestar.it/showPage.php?template=News&id=15624--- e in questo post aggiusti il tiro, ma gli altri dietro sono ancora consultabili (non li modiicare :D );


ci sono anche moltissimi esperimenti e applicazioni che fanno uso di brook+ e allora? CUDA è basato su open64 e può girare su ATi quanto su architettura x86 e brook+ su brook che è un tool della stanford che può girare ugualmente su differenti architetture. Cosa hai dimostrato? semplicemente che ciascuno ha scelto una sua implementazione dettata da motivi per lo più di convenienza (ad esempio ATi ha scelto brook per via dei rapporti di collaborazione con la stanford) e non è detto che in futuro non siano entrambi accantonati.
Consulta pure i miei post precedenti e consulta anche i tuoi post di questo e altri thread. Quello che bollo come fuffa pubblicitaria non è la possibilità che cuda offre di fare gpgpu ma il messaggio che nVIDIA permetta di fare gpgpu e ATi no.E lo bollo come fuffa pubblicitaria perchè è un messaggio fuorviante e non vero: il gpgpu non è nato con cuda e non è detto che si evolverà con cuda (per la cronaca, CTM che è il tool a basso livello su cui si basa brook+ è nato ben prima di cuda, questo per rendere l'idea che non è solo nVIDIA che sta promuovendo il gpgpu).
Ripeto, non sono io che sto dimostrando di essere fazioso (perchè non quoti il messaggio in cui parlo di danni del marketing e quello a cui il mio intervento fa riferimento) e non sono io che devo aggiustare il tiro

appleroof
12-10-2008, 14:34
ci sono anche applicazioni pratiche e fior di università che fanno uso di CAL; e allora cosa significa? Resta la domanda: dovrei scegliere nVIDIA perchè mi permette di fare cose che non posso fare con altre gpu? Risposta: no, perchè quelle cose posso farle anche con altre gpu (ovviamente con tool di sviluppo diversi). Domanda: dovrei scegliere nVIDIA o AMD perchè i loro tool di sviluppo rappresentano sicuramente il futuro del gpgpu? Risposta: no, perchè è molto probabile che il futuro sarà riservato ad applicazioni open (e guarda un po', sia nVIDIA che AMD si stanno applicando per rendere open le proprie applicazioni e/o per implementare tool open source).

già....peccato che nei tuoi interventi di prima dicevi in sostanza cuda è destinato a morire punto. Il futuro è open source come Ati l'illuminata ha già capito. Perchè non dire subito quello che affermi in questo post?


cut Cosa hai dimostrato? semplicemente che ciascuno ha scelto una sua implementazione dettata da motivi per lo più di convenienza cut

esatto, che quindi non è esattamente lettera morta, cuda, e che promette tanto quanto le applicazioni di altri.


Consulta pure i miei post precedenti e consulta anche i tuoi post di questo e altri thread. Quello che bollo come fuffa pubblicitaria non è la possibilità che cuda offre di fare gpgpu ma il messaggio che nVIDIA permetta di fare gpgpu e ATi no.E lo bollo come fuffa pubblicitaria perchè è un messaggio fuorviante e non vero

ma cosa vuoi che faccia un'azienda??? Compra il mio, ma compra se vuoi anche quello del concorrente, tanto è uguale....:doh:

l'utente prima poneva questioni ben precise: le applicazioni da lui citate girano OGGI sulla sua vga Nvidia, ed in base a questo ha fatto bene a prenderla. Domani vediamo cosa caccia Ati (scommetto tu lo sappia già :D, per ora incacchiati col reparto marketing Ati) dopodomani poi Larrabee...ma chi vuol essere lieto sia, del doman non v'è certezza :D

pierpox
12-10-2008, 14:42
Salve raga,intervengo solo per chairire il senso della mia esclamazione sulle università italiane,io nn mi sono rammaricato del fatto che i corsi in cui si parla di cuda sono pochissimi,ma della scarsa propensione in generale delle stesse all'innovazione, certo i motivi sono tantissimi tra cui la mancanza di risorse,però solo di questo mi lamentavo.Aggiungo anche che lo spirito di tutti i miei interventi qui nn era quello di scatenare una guerra a "chi ce l'ha più lungo" tra nvidia e ati,ma semplicemente di condividre con voi i motivi che da acqurente mi hanno portato a scegliere un prodotto nvidia al posto di uno ati.Sicuramente la maggiorparte di coloro che acquistano una scheda video la usa per gaming,però ho pensato che vi poteva essere anche qualcuno che leggendo questo forum poteva essersi fatto la mia stessa domanda e cioè se acqustare un prodotto dell'uno e dell'altro brand per sfruttare già ora in maniera proficua la potenza di calcolo della sua scheda video (ovviamente con alcuni software in combinata con una scheda video "normale" cioè che la posso usare per tutto e nn dedicata) e in base a questo orientare la propria scelta.Io utilizzo moltissimo Matlab e se avessi voluto velocizzare le mie computazioni con una Radeon 4870 non lo avrei potuto fare,per me questo è stato un quid in pù che aveva nvidia e che poteva tornarmi utile.Magari ci saranno persone che di dilettano di conversione video,io ho provato dirattamente badboom con la mia gtx 280 e ne sono rimasto impressionato che un filmato DVD di due ore me lo ha convertito in 45 min in alta definizione,cosi la stessa cosa con altri applicativi...saranno pochissimi per carità, ma forse a qualcuno potrebbe tornare utile sapere che con una nvidia già ora si possono velocizzare.In questo però nn dovete leggervi del fanboysmo,è semplicemente la mia esperienza diretta e l'ho voluta condividere con voi semplicemente per offire uno spunto di riflessione e non alimentare una sterile diatriba "verdi" contro "rossi".;).

appleroof
12-10-2008, 14:44
in topic, raffronto g200@55nm/g80@90nm:

http://www.hwupgrade.it/forum/showpost.php?p=24516951&postcount=340

yossarian
12-10-2008, 14:52
già....peccato che nei tuoi interventi di prima dicevi in sostanza cuda è destinato a morire punto. Il futuro è open source come Ati l'illuminata ha già capito. Perchè non dire subito quello che affermi in questo post?



perchè cuda è destinato amorire se nVIDIA non lo rende open non solo a proclami ma nei fatti e perchè AMD ha deciso, nonostante CAL, di supportare da subito anche OpenCL e non sta forzando la mano verso l'utilizzo del suo tool proprietario. Sicuramente le dx11 prevederanno l'implementazione della fisica anche tramite gpu (e sarà da vedere se è conveniente usare questa o la cpu, visto che le dx11 prevedono anche molti meno carichi di lavoro per le cpu e molti di più per le gpu nel settore grafico) e del gpgpu e si tenderanno a privilegiare le applicazioni open.



esatto, che quindi non è esattamente lettera morta, cuda, e che promette tanto quanto le applicazioni di altri.


veramente mi pare che in questo e altri thread si sia sostenuto l'opposto; ovvero nVIDIA ha cuda e ATi niente del genere. Ti rendi conto che si tratta di un'affermazione falsa e tendenziosa?
Spulciati vecchi thread per verificare se quanto dico corrisponde a verità o meno :D



ma cosa vuoi che faccia un'azienda??? Compra il mio, ma compra se vuoi anche quello del concorrente, tanto è uguale....:doh:



che un'azienda dica compra il mio ci può stare; che un utente di un forum dica: l'azienda x ha il tool A e l'azienda y non ha niente, e cerchi di influenzare gli acquisti di altri utenti in base alle sue affermazioni, molto meno. Delle tre l'una: o l'utente in questione è disinformato, oppure lavora per l'azienda x, oppure è un fanboy.



l'utente prima poneva questioni ben precise: le applicazioni da lui citate girano OGGI sulla sua vga Nvidia, ed in base a questo ha fatto bene a prenderla. Domani vediamo cosa caccia Ati (scommetto tu lo sappia già :D, per ora incacchiati col reparto marketing Ati) dopodomani poi Larrabee...ma chi vuol essere lieto sia, del doman non v'è certezza :D

su questo non discuto: l'utente in questione ha scelto in base alle sue esigenze e a ciò che gli era dato di conoscere. Quindi ha fatto la scelta giusta. Probabilmente avrebbe scelto la 280 anche se avesse saputo che anche i tool AMD possono accelerare MATLAB e che cyberlink sta lavorando con AMD per il powerdvd di prossima uscita (pessima cosa, comunque, un encoding video basato su tecnologie proprietarie). E comunque avrebbe fatto un'ottima scelta ugualmente, in quanto la 280 è un'ottima vga (più per gli utenti che per le casse di nVIDIA, ma questo è un aspetto secondario per chi frequenta questo forum :D ).

Mister Tarpone
12-10-2008, 14:57
cut

E comunque avrebbe fatto un'ottima scelta ugualmente, in quanto la 280 è un'ottima vga (più per gli utenti che per le casse di nVIDIA, ma questo è un aspetto secondario per chi frequenta questo forum :D ).

:eek:

apprezzo questo grande sforzo da parte tua :asd:

(chissà quando ricapiterà... :eek: )

ciao !!

yossarian
12-10-2008, 15:03
:eek:

apprezzo questo grande sforzo da parte tua :asd:

(chissà quando ricapiterà... :eek: )

ciao !!

è capitato più spesso di quanto immagini: basta prendere qualche mio vecchio post su G80, NV40 e GT200. Al contrario, c'è più di qualcuno che so che non lavora per nVIDIA, che ho visto fare spesso :mc: per giustificare le sue affermazioni, cercando di ammantarle di imparzialità (apple non mi riferisco a te) :D

appleroof
12-10-2008, 15:03
cut
veramente mi pare che in questo e altri thread si sia sostenuto l'opposto; ovvero nVIDIA ha cuda e ATi niente del genere. Ti rendi conto che si tratta di un'affermazione falsa e tendenziosa?
Spulciati vecchi thread per verificare se quanto dico corrisponde a verità o meno :D

ma è una cosa che non esiste, non credo ci sia bisogno di stare lì a smentirla: chi ha un minimo di passione, non dico di competenza, sa che non è vero

che un'azienda dica compra il mio ci può stare; che un utente di un forum dica: l'azienda x ha il tool A e l'azienda y non ha niente, e cerchi di influenzare gli acquisti di altri utenti in base alle sue affermazioni, molto meno. Delle tre l'una: o l'utente in questione è disinformato, oppure lavora per l'azienda x, oppure è un fanboy. cut

allora prenditela con lui e non stare a colpire sempre l'azienda che come tutte vende il proprio prodotto, è evidente :boh:

yossarian
12-10-2008, 15:04
in topic, raffronto g200@55nm/g80@90nm:

http://www.hwupgrade.it/forum/showpost.php?p=24516951&postcount=340


gt200 a 55 nm dovrebbe essere delle stesse dimensioni di g80 a 90 nm o leggermente più piccolo

appleroof
12-10-2008, 15:09
gt200 a 55 nm dovrebbe essere delle stesse dimensioni di g80 a 90 nm o leggermente più piccolo

il ritorno dei profitti, dopo solo 3 mesi :cool: (anche se i tempi delle vacche grasse di g80 son finiti)

la cosa non mi fà più di tanto piacere per il semplice fatto che non sono figlio del signor Nvidia :D

mi fà piacere vedere la vitalità di un'azienda protagonista del mercato, che (nelle condizioni fuori cartello :D) a noi utenti finali dovrebbe portare solo vantaggi :)

gianni1879
12-10-2008, 15:28
:eek:

apprezzo questo grande sforzo da parte tua :asd:

(chissà quando ricapiterà... :eek: )

ciao !!
dovremmo apprezzare i suoi interventi e di quelli come lui che hanno ottime competenze in materia, in quanto ultimamente ce ne sono sempre meno

Foglia Morta
12-10-2008, 15:45
gt200 a 55 nm dovrebbe essere delle stesse dimensioni di g80 a 90 nm o leggermente più piccolo

Con o senza NVIO ?

appleroof
12-10-2008, 16:11
dovremmo apprezzare i suoi interventi e di quelli come lui che hanno ottime competenze in materia, in quanto ultimamente ce ne sono sempre meno

apprezzare non significa :ave: :ave: o no? :D

io stesso spesso sono rimasto sbalordito dalla competenza che possiede e ho letto con piacere i suoi post e li ho appunto apprezzati pubblicamente, ma non è che non si possa discutere di/con lui come di chiunque altro...o non credi? ;)

Mister Tarpone
12-10-2008, 16:23
dovremmo apprezzare i suoi interventi e di quelli come lui che hanno ottime competenze in materia, in quanto ultimamente ce ne sono sempre meno

certo!! commenti tecnici come quelli di yoss sono sempre ben accetti!!

ma perchè fortunatamente i suoi non sono commenti di parte che tendono a valorizzare solo un architettura ed a mettere in ombra l'altra evidenziandone solo i punti deboli!!!


capito? :sbonk: :sbonk: (yoss perdonami sti "sbonk" finali :D )

gianni1879
12-10-2008, 17:41
apprezzare non significa :ave: :ave: o no? :D

io stesso spesso sono rimasto sbalordito dalla competenza che possiede e ho letto con piacere i suoi post e li ho appunto apprezzati pubblicamente, ma non è che non si possa discutere di/con lui come di chiunque altro...o non credi? ;)

certo ma infatti mica uno deve subire passivamente e dir sempre di si ;)

però a volte la polemica non serve, parlo cmq in generale e non mi riferisco direttamente a te (evitiamo equivoci) :)

gianni1879
12-10-2008, 17:44
certo!! commenti tecnici come quelli di yoss sono sempre ben accetti!!

ma perchè fortunatamente i suoi non sono commenti di parte che tendono a valorizzare solo un architettura ed a mettere in ombra l'altra evidenziandone solo i punti deboli!!!


capito? :sbonk: :sbonk: (yoss perdonami sti "sbonk" finali :D )

certo ;)

ce ne vorrebbero altri di persone come lui in questo forum, che invece ultimamente è stracolmo di BoyzFan (alcuni che attaccano proprio per il gusto di farlo, e non sono certo pagati da una o l'altra fazione) a destra e a manca, che francamente secca la lettura di questo bel forum

appleroof
12-10-2008, 17:45
certo ma infatti mica uno deve subire passivamente e dir sempre di si ;)

però a volte la polemica non serve, parlo cmq in generale e non mi riferisco direttamente a te (evitiamo equivoci) :)

non c'era bisogno di specificarlo, dico davvero ;)

gianni1879
12-10-2008, 21:14
non c'era bisogno di specificarlo, dico davvero ;)

:mano:

yossarian
12-10-2008, 23:10
ma è una cosa che non esiste, non credo ci sia bisogno di stare lì a smentirla: chi ha un minimo di passione, non dico di competenza, sa che non è vero


apple, non nascondiamoci dietro ad un dito: su questo forum ci sono persone con livelli di competenza e conoscenza diversi; c'è chi sa che certe sparate fanboystiche sono da ignorare e c'è, invece, chi le prende sul serio. A volte è opportuno, quindi, ridimensionare certi "malcelati entusiasmi" che a volte vengono manifestati più nei confronti di un marchio che di un prodotto :D



allora prenditela con lui e non stare a colpire sempre l'azienda che come tutte vende il proprio prodotto, è evidente :boh:

quando mai ho colpito l'azienda; quello che mi limito a fare è commentare i prodotti ed, eventualmente, confutare affermazioni trionfalistiche prive di fondamento da parte di qualche utente. Quelli che gettano fango, senza sapere neppure di cosa stanno parlando, sono altri

Con o senza NVIO ?

a occhio, uno shrink di GT200 dovrebbe stare tra i 450 e i 470 mm^2, quindi con NVIO fuori dal core

apprezzare non significa :ave: :ave: o no? :D

io stesso spesso sono rimasto sbalordito dalla competenza che possiede e ho letto con piacere i suoi post e li ho appunto apprezzati pubblicamente, ma non è che non si possa discutere di/con lui come di chiunque altro...o non credi? ;)

per carità, questo è un forum di discussione ed è fatto per discutere con chiunque e su un piano paritario. Se poi, sui forum tecnici, si riesce a parlare di tecnocnologia, invece di fare proclami di stampo propagandistico/elettorale, è ancora meglio :D

Scrambler77
13-10-2008, 00:37
mi spiace che una persona che reputo intelligente la metta (quasi sempre) su questo piano "da stadio". Il punto è che qualsivoglia cosa riguardi Nvidia sembra che per te sia fuffa tecnologica, laddove la controparte sia il bench assoluto di riferimento, sempre e comunque.

Non si voleva dire che Ati= sempre schifo e quindi che nessuno la adotta per il GP, ma al contrario, che Nvidia non è=sempre schifo e ti è stato dimostrato, in questo caso per quanto riguarda l'utilizzo di Cuda per usare le vga Nvidia in campo scientifico (dunque non ridurre tutto a "proclami pubblicitari" e quelli che usano cuda a "vittime della cattivona e furbacchiona Nvidia"). Non occorre sempre mettere le cose in prospettiva "noi contro loro".

Credo sia chiara la differenza di impostazione delle cose.

Per me è bibbia. :)

ti viene detto che ci sono applicazioni pratiche ed immediate di cuda e le bolli come 4 esempi in croce;

all'affermazione che il futuro è nelle applicazioni open source, ti è stato ribattutto che cuda sta diventando di fatto (se non lo è già) open source e svicoli;

ti viene detto che cuda è usato già in moltissimi esperimenti e applicazioni scientifiche e bolli la cosa come roba da polli che si sottomettono ai proclami pubblicitari (magari potresti dire ai tuoi colleghi della sezione marketing di spingere di più per fare altrettanto in casa Ati);

allora ti viene fatto notare, dimostrandolo, che non è tutto esattamente fuffa, che ci sono fior di istituti che usano cuda --- parlavi di folding@home? informati: L'iniziativa Folding@Home creata dalla Stanford University ha raggiunto una nuova schiera di record, grazie all'utilizzo di GPU realizzate da NVIDIA che hanno permesso di elaborare ben 1.25 petaflops, ovvero il 42% del totale potere di lavorazione dell'applicazione che ha come obiettivo quella di capire le modifiche delle proteine che colpisco l'organismo umano. http://www.gamestar.it/showPage.php?template=News&id=15624--- e in questo post aggiusti il tiro, ma gli altri dietro sono ancora consultabili (non li modiicare :D );

a me un atteggiaento come il tuo pare evidentemente fazioso, senza nulla togliere alla riconosciuta (da me mille volte) competenza tecnica davvero preziosa in molti momenti.

In effetti, yossarian, è indiscutibile la tua preparazione tecnica, ma che a volte trapeli (come accade per la maggior parte di noi utenti) una certa simpatia "tra le righe" per la signora in rosso... è evidente (oltre che legittimo e del tutto naturale). ;)

certo!! commenti tecnici come quelli di yoss sono sempre ben accetti!!

ma perchè fortunatamente i suoi non sono commenti di parte che tendono a valorizzare solo un architettura ed a mettere in ombra l'altra evidenziandone solo i punti deboli!!!

capito? :sbonk: :sbonk: (yoss perdonami sti "sbonk" finali :D )

Sto ragazzo è troppo forte! Un paracul0 da competizione! :asd:

P.S: in senso simpatico ovviamente! ;)

wlog
13-10-2008, 01:43
...aggiungo pure che in molte università prestigiose americane tipo la Duke o Harvard vi sono persino dei corsi tenuti su cuda,qui in Italia per nostra sfortuna solo in una università ...ehhh beneddetta innovazione:rolleyes:

Il DSI di Milano è in procinto di acquistare alcune tesla, mentre io (studente) sto per fare la tesi sul CUDA all'interno di un ambiente europeo.


Certo sempre che la riforma Gelmini non ci tagli i fondi...

wlog
13-10-2008, 01:48
Mi sono semplicemente limitato a rendere completa l'informazione, aggiungendo che CUDA può girare tranquillamente anche su gpu ATi, che AMD ha i suoi tool di sviluppo per il gpgpu, assolutamente equivalenti a quelli di nVIDIA anche se, forse, non altrettanto pubblicizzati,


Mi permetto di correggerti solo su questo: CUDA adesso come adesso non può girare su GPU Ati, ma è tecnicamente possibile.

Ati ha deciso che la GPGPU non è una priorità al momento ed infatti i suoi tool di sviluppo sono oggettivamente inferiori.

wlog
13-10-2008, 01:50
all'affermazione che il futuro è nelle applicazioni open source, ti è stato ribattutto che cuda sta diventando di fatto (se non lo è già) open source e svicoli;


Ciao,

checchè ne dicano, ho parlato personalmente con il team di sviluppo CUDA e mi hanno categoricamente negato ogni possibilità di futuri risvolti open source. Cosi come per il team Ati. Non scambiate le press relase dell'ufficio marketing con fatti reali :(

Io personalemente sono pronto in ogni momento a passare al primo linguaggio che diverrà open source.

E' anche vero però che con un certosino lavoro di reverse engineering si può costruire un backend per compilare, magari come estensione di GCC.

michelgaetano
13-10-2008, 01:54
Esiste il tasto edit, per scrivere tutto in uno stesso post: usalo :)

wlog
13-10-2008, 01:55
perchè cuda è destinato amorire se nVIDIA non lo rende open non solo a proclami ma nei fatti e perchè AMD ha deciso, nonostante CAL, di supportare da subito anche OpenCL e non sta forzando la mano verso l'utilizzo del suo tool proprietario. Sicuramente le dx11 prevederanno l'implementazione della fisica anche tramite gpu (e sarà da vedere se è conveniente usare questa o la cpu, visto che le dx11 prevedono anche molti meno carichi di lavoro per le cpu e molti di più per le gpu nel settore grafico) e del gpgpu e si tenderanno a privilegiare le applicazioni open.

[...]

veramente mi pare che in questo e altri thread si sia sostenuto l'opposto; ovvero nVIDIA ha cuda e ATi niente del genere. Ti rendi conto che si tratta di un'affermazione falsa e tendenziosa?
Spulciati vecchi thread per verificare se quanto dico corrisponde a verità o meno :D

.

Tendenzialmente è vero, i tool di ATI al momento non sono utilizzabili se non da ESPERTI programmatori.

wlog
13-10-2008, 02:07
un paio di cose che non sono riuscito ad infilare negli altri post:

a) http://fastra.ua.ac.be/en/index.html

Un'applicazione pratica, con fortissimi speedup (4000 euro battono 3.500.000 euro di super PC) che potrebbe essere messa domani in ogni ospedale.


b) Per ora tutte le implementazioni di GPGPU sfruttano l'applicazione del paradigma SIMD al C e per questo sono tutte teoricamente interoperabili....

Il fatto è che con le GPGPU, almeno per ora, è molto importante avere l'architettura in mente quando si programma, e le architetture sono molto diverse tra loro, quindi anche se è possibile una compatibilità tecnica, la si dovrà pagare in perdite di risorse computazionali....

c) per ora larrabee ha poche possibilità nel campo GPGPU, in quanto si è già capito che non sarà molto performante secondo il paradigma SIMD. Magari all'inizio farà furore solo perchè la cache coherency permette di riciclare un casino di codice seriale facilmente.

Esiste il tasto edit, per scrivere tutto in uno stesso post: usalo :)

Si hai ragione scusa, è che sono abituato alle mailing list.

The_SaN
13-10-2008, 02:15
Multiquote please :D
É che si fa un po' fatica a seguire.

(é il tasto accanto al quote...oppure si puó fare manualmente ma é una rottura :D)

yossarian
13-10-2008, 03:14
Mi permetto di correggerti solo su questo: CUDA adesso come adesso non può girare su GPU Ati, ma è tecnicamente possibile.


infatti non ho detto "gira tranquillamente" ma può girare" in quanto c'è la possibilità, qualora AMD fosse interessata a farlo (e non pare che lo sia), di implementare l'utilizzo di cuda su gpu ATi.


Ati ha deciso che la GPGPU non è una priorità al momento ed infatti i suoi tool di sviluppo sono oggettivamente inferiori.

Tendenzialmente è vero, i tool di ATI al momento non sono utilizzabili se non da ESPERTI programmatori.

ATi, al momento, sostiene più tool di sviluppo e non è possibile generawlizzare: CAL è molto potente (più di CUDA) ma per nulla user friendly; brooks+ è l'equivalente di CUDA ma è ancora immaturo; c'è poi il sostegno a brooks che è un cross platform e quello a OpenCL. CUDA, al momento, ha il vantaggio di essere abbastanza maturo e di facile utilizzo. Il problema è che non è open.


c) per ora larrabee ha poche possibilità nel campo GPGPU, in quanto si è già capito che non sarà molto performante secondo il paradigma SIMD. Magari all'inizio farà furore solo perchè la cache coherency permette di riciclare un casino di codice seriale facilmente.


sono curiodo di sentire le tue motivazioni, anche perchè ritengo, al contrario, che larrabee abbia, inizialmente, più possibilità di affermarsi nel gpgpu che non nel rendering 3D

yossarian
13-10-2008, 03:15
doppio

yossarian
13-10-2008, 03:19
ops :doh:

pierpox
13-10-2008, 06:42
Il DSI di Milano è in procinto di acquistare alcune tesla, mentre io (studente) sto per fare la tesi sul CUDA all'interno di un ambiente europeo.


Certo sempre che la riforma Gelmini non ci tagli i fondi...

Mi riferivo al POLI di milano,quando ho citato l'unica univ. italiana in cui dovrebbe esserci un corso su cuda;)
Cmq ragazzi,in tutte le discussioni che riguardano i tools per sfruttare la capacità di calcolo della gpu,non si sottolinea un punto importante secondo me e cioè che cuda attualmente lo si può utilizzare con vga "normali"(dalla serie 8000 fino alla gtx280 per intenderci),mentre i tools della controparte ati se li volessi utilizzare(o cosa più importante imparare ad utilizzarli) non lo potrei fare con una "normale" 4870 o con una della serie precedente,ma avrei bisogno di una FireStream,cioè di una scheda dedicata,tra l'altro con la stessa architettura di una 4870,da affiancare ad una vga già presente;inoltre una Firestream se non sbaglio costa parecchio!
Chiedo numi a yoss o wlog se la situzione è diversa da quella che ho descritto io...non vorrei fare della cattiva informazione ;)

pierpox
13-10-2008, 09:34
Ragazzi questa è davvero divertente anche gli hacker incominciano a utilizzare CUDA:D leggetevi stà notizia presa da tom's hardware:http://www.tomshw.it/news.php?newsid=15704,appena letta ho pensato subito a questo forum e nn ho resistito :D
...ops la news è stata riportata anche da hardwareupgrade ;)

ghiltanas
13-10-2008, 10:35
guardando la differenza di dimensione dei 2 die (65 e 55) si potrebbe ipotizzare un discreto abbassamento di prezzo..su questo fronte si sa qualcosa?

wlog
13-10-2008, 10:56
ATi, al momento, sostiene più tool di sviluppo e non è possibile generawlizzare: CAL è molto potente (più di CUDA) ma per nulla user friendly; brooks+ è l'equivalente di CUDA ma è ancora immaturo; c'è poi il sostegno a brooks che è un cross platform e quello a OpenCL. CUDA, al momento, ha il vantaggio di essere abbastanza maturo e di facile utilizzo. Il problema è che non è open.


A quanto ne so CAL è semplice syntactic sugar rispetto alle DirectX. Comunque io non capisco come faccia ad esistere una cosa piu potente di CUDA: cazzo è C, cosa vuoi di piu??? anzi io vorrei alzare un po il livello.... Vi consiglio di dare un occhio a pycuda!!!



Comunque non ti preoccupare: appena una soluzione open sarà matura, sarò felicissimo di passare a quella!


sono curiodo di sentire le tue motivazioni, anche perchè ritengo, al contrario, che larrabee abbia, inizialmente, più possibilità di affermarsi nel gpgpu che non nel rendering 3D

Semplice: Se vuoi avere la cache coerente devi avere pochi core, a quanto pare la versione intel avrà poche decine di core, mentre il paradigma SIMD funziona bene con MOLTI core: 216 delle nvidia sono ancora na bazzecola! Figurati 16 come pare dicano loro.

Oh poi magari esce con qualcosa di rivoluzionario eh!


Chiedo numi a yoss o wlog se la situzione è diversa da quella che ho descritto io...non vorrei fare della cattiva informazione ;)

Giustissimo. Secondo me ATI Non crede nel GPGPU perchè sa che tra poco rivoluzionerà l'architettura implementandola col processore, e quindi non le conviene spendere troppo subito.

wlog
13-10-2008, 11:06
Mi riferivo al POLI di milano,quando ho citato l'unica univ. italiana in cui dovrebbe esserci un corso su cuda;)
Cmq ragazzi,in tutte le discussioni che riguardano i tools per sfruttare la capacità di calcolo della gpu,non si sottolinea un punto importante secondo me e cioè che cuda attualmente lo si può utilizzare con vga "normali"(dalla serie 8000 fino alla gtx280 per intenderci),mentre i tools della controparte ati se li volessi utilizzare(o cosa più importante imparare ad utilizzarli) non lo potrei fare con una "normale" 4870 o con una della serie precedente,ma avrei bisogno di una FireStream,cioè di una scheda dedicata,tra l'altro con la stessa architettura di una 4870,da affiancare ad una vga già presente;inoltre una Firestream se non sbaglio costa parecchio!
Chiedo numi a yoss o wlog se la situzione è diversa da quella che ho descritto io...non vorrei fare della cattiva informazione ;)

Ragazzi questa è davvero divertente anche gli hacker incominciano a utilizzare CUDA:D leggetevi stà notizia presa da tom's hardware:http://www.tomshw.it/news.php?newsid=15704,appena letta ho pensato subito a questo forum e nn ho resistito :D
...ops la news è stata riportata anche da hardwareupgrade ;)

Imprecisione:

http://code.google.com/p/pyrit/

Il progetto è tedesco (oh almeno lui parla tedesco ed ha una email tedesca) e non è un hacker, la crittografia è un problema computazionalmente molto interessante.

yossarian
13-10-2008, 11:20
A quanto ne so CAL è semplice syntactic sugar rispetto alle DirectX. Comunque io non capisco come faccia ad esistere una cosa piu potente di CUDA: cazzo è C, cosa vuoi di piu??? anzi io vorrei alzare un po il livello.... Vi consiglio di dare un occhio a pycuda!!!



per utilizzare CAL puoi ricorrere a brooks o brooks+ che sono tool ad alto livello (C), oppure operare direttamente a livello di assembly like language. Il vantaggio di CAL rispetto a CUDA è che fornisce la possibilità di gestire in maniera più "fine" ed accurata alcuni parametri, come ad esempio l'utilizzo delle cache interne alla gpu e gli accessi in memoria. Di fatto CAL è un layer intermedio tra un tool di alto livello e la gpu.



Comunque non ti preoccupare: appena una soluzione open sarà matura, sarò felicissimo di passare a quella!



perchè una soluzione open sia matura bisogna che tutti si mettano in mente di puntare a quella, mentre, al momento, nVIDIA promuove una soluzione proprietaria, ATi ne supporta alcune open ma, nello stesso tempo, ne sta sviluppando di proprietarie, Intel farà altrettanto. Il risultato è che si rischia di ritrovarsi con scarso supporto per il SW open e tre o più soluzioni proprietarie differenti



Semplice: Se vuoi avere la cache coerente devi avere pochi core, a quanto pare la versione intel avrà poche decine di core, mentre il paradigma SIMD funziona bene con MOLTI core: 216 delle nvidia sono ancora na bazzecola! Figurati 16 come pare dicano loro.

Oh poi magari esce con qualcosa di rivoluzionario eh!

c'è un po' di confusione nei termini, creata dai reparti di marketing di AMD e di nVIDIA: GT200 non ha 240 (o 216 o 192 nelle versioni castrate) core o stream processor: ha 240 alu con relativi registri. Al contrario, larrabee avrà 16 (o più) stream processor, in quanto i core di larrabee sono veri e propri processori, ognuno con 16 alu di tipo fp32 (oltre che con alu di tipo integer), come quelle che nVIDIA chiama impropriamente sp. Ciascuno di questi cluster di 16 alu è in grado di operare su un massimo di 4 thread per ciclo. Quindi, di fatto, larrabee fa uso di cache coherency tra i 16 core, ma ha l'equivalente di 256 alu scalari di tipo fp così come GT200 ha 240 alu scalari di tipo fp32 e RV770 ha 160 alu di tipo vliw (per un totale di 800 alu scalari vincolate a lavorare, a gruppi di 5, su uno stesso thread)

yossarian
13-10-2008, 11:26
guardando la differenza di dimensione dei 2 die (65 e 55) si potrebbe ipotizzare un discreto abbassamento di prezzo..su questo fronte si sa qualcosa?


il passaggio da 65 a 55 nm comporta un aumento del costo del wafer ma anche un aumento del numero di die ricavabili da un singolo wafer. Ci sarà da valutare le rese produttive del chip, comunque, se prima da un singolo wafer si ricavano circa 90-92 die, adesso si dovrebbe stare tra i 110 e i 112 (forse anche qualcuno in più considerando i bordi esterni)

yossarian
13-10-2008, 11:32
doppio

ghiltanas
13-10-2008, 11:55
yossarian è l'utente con + doppi post in assoluto :sofico: ..quanti ne avrà editati? :asd:

MenageZero
13-10-2008, 11:58
:eek:

apprezzo questo grande sforzo da parte tua :asd:

(chissà quando ricapiterà... :eek: )

ciao !!

su questo posso testimoniare che non è così, ricordo perfettamente che per es nel thread dell'articolo all'uscita di gt200 yossarian oltre ad aver in più post gentilmente spiegato molto delle caratteristiche e del funzionamento del chip nv facendo opportuni paragoni di sia con i precedenti nv che con quelli ati ha anche man mano sottolineato gli aspetti positivi dell'arch. nv; idem nel thread all'uscita di rv770 (parlando per es anche del gt200 come termine di paragone)

;)

ghiltanas
13-10-2008, 12:00
il passaggio da 65 a 55 nm comporta un aumento del costo del wafer ma anche un aumento del numero di die ricavabili da un singolo wafer. Ci sarà da valutare le rese produttive del chip, comunque, se prima da un singolo wafer si ricavano circa 90-92 die, adesso si dovrebbe stare tra i 110 e i 112 (forse anche qualcuno in più considerando i bordi esterni)

l'inserimento di altri sp può incidere sensibilmente sul prezzo finale? voglio dire se tira fuori versioni con pp ridotto, però con + sp, si può ipotizzare anceh un abbassamento di prezzo oppure a quel punto rimarebbe sui livelli attuali?

yossarian
13-10-2008, 12:09
l'inserimento di altri sp può incidere sensibilmente sul prezzo finale? voglio dire se tira fuori versioni con pp ridotto, però con + sp, si può ipotizzare anceh un abbassamento di prezzo oppure a quel punto rimarebbe sui livelli attuali?

non ci sono ulteriori sp: si tratta di un semplice die shrink. In caso di aggiunta di altre unità di calcolo le dimensioni del chip aumenterebbero di nuovo, con l'aggravante del maggior costo del pp a 55 nm. Non si tratterebbe di una scelta fatta nell'ottica di ridurre i costi

wlog
13-10-2008, 14:37
per utilizzare CAL puoi ricorrere a brooks o brooks+ che sono tool ad alto livello (C), oppure operare direttamente a livello di assembly like language. Il vantaggio di CAL rispetto a CUDA è che fornisce la possibilità di gestire in maniera più "fine" ed accurata alcuni parametri, come ad esempio l'utilizzo delle cache interne alla gpu e gli accessi in memoria. Di fatto CAL è un layer intermedio tra un tool di alto livello e la gpu.



perchè una soluzione open sia matura bisogna che tutti si mettano in mente di puntare a quella, mentre, al momento, nVIDIA promuove una soluzione proprietaria, ATi ne supporta alcune open ma, nello stesso tempo, ne sta sviluppando di proprietarie, Intel farà altrettanto. Il risultato è che si rischia di ritrovarsi con scarso supporto per il SW open e tre o più soluzioni proprietarie differenti


per maturo intendo che il compilatore compili e faccia quello che io gli dico, senza troppe complicazioni. Cosa che la piattaforma ATI ancora non e' in grado di fare (anche nvidia comunque ha qualche problemino...)


c'è un po' di confusione nei termini, creata dai reparti di marketing di AMD e di nVIDIA: GT200 non ha 240 (o 216 o 192 nelle versioni castrate) core o stream processor: ha 240 alu con relativi registri. Al contrario, larrabee avrà 16 (o più) stream processor, in quanto i core di larrabee sono veri e propri processori, ognuno con 16 alu di tipo fp32 (oltre che con alu di tipo integer), come quelle che nVIDIA chiama impropriamente sp. Ciascuno di questi cluster di 16 alu è in grado di operare su un massimo di 4 thread per ciclo. Quindi, di fatto, larrabee fa uso di cache coherency tra i 16 core, ma ha l'equivalente di 256 alu scalari di tipo fp così come GT200 ha 240 alu scalari di tipo fp32 e RV770 ha 160 alu di tipo vliw (per un totale di 800 alu scalari vincolate a lavorare, a gruppi di 5, su uno stesso thread)
[/quote]

Ciao, personalmente per me l'importante e' la cache. Se ha cache L1 allora e' un microprocessore (o core). Quindi Nvidia ha 194-216 core mentre intel solo 16.

So che il numero di thread e' utile, ma per motivi teorici IO conto i core per cache, siccome e' quello che ho notato che incrementa meglio le performance...

Comunque ti ripeto che questa e' un opinione, prima di dire altre cose preferisco vederlo all'opera e programmarci sopra.

yossarian
13-10-2008, 14:50
Ciao, personalmente per me l'importante e' la cache. Se ha cache L1 allora e' un microprocessore (o core). Quindi Nvidia ha 194-216 core mentre intel solo 16.

So che il numero di thread e' utile, ma per motivi teorici IO conto i core per cache, siccome e' quello che ho notato che incrementa meglio le performance...

Comunque ti ripeto che questa e' un opinione, prima di dire altre cose preferisco vederlo all'opera e programmarci sopra.

GT200 ha 10 cache L1, ognuna delle quali condivisa da un gruppo di 24 alu. Quindi, comunque la giri, i core sono, al più, 10 e non 240; larrabee ha 16 (o più core), ciascuno con la propria cache L1 (nel caso di larrabee ogni core ha anche una cache L2 che in GT200 è condivisa). Quindi se il paradigma è la presenza di cache L1, allora GT200 ha, in versione 280, 10 core contro i 16 di larrabee e i 10 di RV770. Se parliamo di 260, allora i core diventano 8 (per la 192 ALU) e 9 (per la 216 ALU).
Vero che siamo nel campo delle ipotesi, ma non facciamo ipotesi che partano da presupposti sbagliati, altrimenti risulta falsato qualunque tentativo di analisi.

wlog
13-10-2008, 16:19
GT200 ha 10 cache L1, ognuna delle quali condivisa da un gruppo di 24 alu. Quindi, comunque la giri, i core sono, al più, 10 e non 240; larrabee ha 16 (o più core), ciascuno con la propria cache L1 (nel caso di larrabee ogni core ha anche una cache L2 che in GT200 è condivisa). Quindi se il paradigma è la presenza di cache L1, allora GT200 ha, in versione 280, 10 core contro i 16 di larrabee e i 10 di RV770. Se parliamo di 260, allora i core diventano 8 (per la 192 ALU) e 9 (per la 216 ALU).
Vero che siamo nel campo delle ipotesi, ma non facciamo ipotesi che partano da presupposti sbagliati, altrimenti risulta falsato qualunque tentativo di analisi.


sai che hai ragione... Come detto prima allora preferisco non pronunciarmi sulla piattaforma intel prima di vedere qualche bench

appleroof
13-10-2008, 17:23
Ciao,

checchè ne dicano, ho parlato personalmente con il team di sviluppo CUDA e mi hanno categoricamente negato ogni possibilità di futuri risvolti open source. Cosi come per il team Ati. Non scambiate le press relase dell'ufficio marketing con fatti reali :(

cut

azz...

cmq ti riporto quello che mi sembra essere l'intervento di un addetto Nvidia, rilasciato qualche tempo fà http://forums.nvidia.com/index.php?showtopic=28458&view=findpost&p=231900

wlog
13-10-2008, 17:44
azz...

cmq ti riporto quello che mi sembra essere l'intervento di un addetto Nvidia, rilasciato qualche tempo fà http://forums.nvidia.com/index.php?showtopic=28458&view=findpost&p=231900


ciao,

lui la dice che solo alcune librerie (non di CUDA, ma API, ancora piu basso) verranno rese pubbliche.


Intanto però non è stato fatto (quelle davvero efficenti di volkov sono un mistero).

appleroof
13-10-2008, 17:52
ciao,

lui la dice che solo alcune librerie (non di CUDA, ma API, ancora piu basso) verranno rese pubbliche.


Intanto però non è stato fatto (quelle davvero efficenti di volkov sono un mistero).

ok, ne prendo atto anche perchè di programmazione (e anche di hw non arrivo oltre la semplice passione :D) non ne capisco nulla (manco a livello di passione :stordita: )

manga81
13-10-2008, 23:55
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-200-a-55-nanometri-in-arrivo-per-l-autunno_26788.html

Il debutto delle nuove evoluzioni delle schede GeForce GTX 260 e GeForce GTX 280 è atteso per Novembre, assieme ad una soluzione dual GPU

Click sul link per visualizzare la notizia.

L'evoluzione a 55 nanometri della scheda GeForce GTX 280 dovrebbe prendere il nome di GeForce GTX 290, mentre per il modello GeForce GTX 260 il nome scelto sarà quello di GeForce GTX 270. Le due nuove schede differiranno dai modelli che andranno a sostituire per le inferiori dimensioni della GPU, ferme restando le restanti specifiche tecniche. E' ipotizzabile che NVIDIA possa portare queste nuove GPU a frequenze di clock più elevate, sfruttando il minor consumo delle soluzioni a 55 nanometri rispetto a quelle a 65 nanometri,

molto interessante...al prezzo di???

ghiltanas
14-11-2008, 10:36
si sa nulla delle nuove soluzioni nvidia? siamo già a metà novembre e nn ho + sentito nulla...questo dovrebbe essere il periodo giusto per il lancio o alemno per la presentazione

ReDeX
14-11-2008, 10:49
si sa nulla delle nuove soluzioni nvidia? siamo già a metà novembre e nn ho + sentito nulla...questo dovrebbe essere il periodo giusto per il lancio o alemno per la presentazione

Non vorrei dire una cavolata ma credo che ormai il lancio sia stato riniviato all'anno prossimo.

ghiltanas
14-11-2008, 11:31
Non vorrei dire una cavolata ma credo che ormai il lancio sia stato riniviato all'anno prossimo.

nn è da escludere...a questo punto avremmo già dovuto sentire qualcosa sul lancio, e invece nulla