PDA

View Full Version : Case study CUDA: cervello e origine dell'universo nel mirino


Redazione di Hardware Upg
02-10-2009, 11:24
Link alla notizia: http://www.hwupgrade.it/news/skvideo/case-study-cuda-cervello-e-origine-dell-universo-nel-mirino_30303.html

Hanspeter Pfister, docente alla Harvard University , ha spiegato nel corso di una conferenza alcune delle necessità della ricerca in fatto di analisi dei dati


Click sul link per visualizzare la notizia.

frankie
02-10-2009, 11:32
tudi analoghi sulla struttura del cervello

Come la neuropsicologia insegna, non puoi inferire la funzione solo dalla struttura.

A meno che si riesca a mappare nel singolo istante miliardi di connessioni sinaptiche e i relativi neuroni.

Secondo me lo studio del cervello al calcolatore è quasi inutile. Le simulazioni con le reti neurali ok, ma hanno i loro limiti, e non sono computazionali.

Stefano Villa
02-10-2009, 11:32
No ma scusate...20 TFLOPS = 20 KW ????
Cioè 4 TESTA = 20 KW ???

C'è qualcosa che mi sfugge ?

Pozzame
02-10-2009, 11:39
20KW per tutto il distaccamento. Mica solo per le schede. :-)

Mparlav
02-10-2009, 11:44
"mantenendo al contempo le esigenze TOTALI del distaccamento intorno ai 20kW".
Il generatore diesel immagino che sia accessorio ad un eolico/fotovoltaico, sempre che non non interferisca col genere di ricerca che intendono compiere.

Se ci mettevano un "classico" armadio con rack di dual e quad socket di cpu, per raggiungere quella potenza di calcolo, evidentemente sforavano sui consumi.

mau.c
02-10-2009, 11:47
No ma scusate...20 TFLOPS = 20 KW ????
Cioè 4 TESTA = 20 KW ???

C'è qualcosa che mi sfugge ?

le 30 antenne che diventeranno 500 forse

G0p1uM
02-10-2009, 11:50
Mah, veramente il Marketing se lo crea da sola nVidia, se ATI si svegliasse fuori ed allargasse le proprie competenze, avrebbe le stesse news.

ATI non sta spingendo sul calcolo parallelo su GPU, e non si è mai interessata ad una tecnologia alternativa come Physx, mentre nVidia al GTC punta a far numerose dimostrazioni per mostrare le proprie potenzialità.

Non è colpa di HWUPGRADE se ATI figura meno.

v1nline
02-10-2009, 11:57
rotfl @foto #1

Avatar0
02-10-2009, 12:02
...in effetti :asd:

AceGranger
02-10-2009, 12:16
Mi viene sempre più da ridere, questo sito sta diventando una press room nVidia.

Marketing a pioggia e di prodotti nemmeno l'ombra...

bè almeno fa marketing professinale, visto che nVidia investe moltissimo nel campo professionale; persino physx viene utile in campo grafico con plugin di simulazione di distruzioni di oggetti; Ati al momento attuale potrebbe fare solo joint venture con Nutella per distribuire meglio le sue schede video, visto che in campo profesionale offre 1/100 di quello che da nVidia

loL?
02-10-2009, 12:17
Mah, veramente il Marketing se lo crea da sola nVidia, se ATI si svegliasse fuori ed allargasse le proprie competenze, avrebbe le stesse news.

ATI non sta spingendo sul calcolo parallelo su GPU, e non si è mai interessata ad una tecnologia alternativa come Physx, mentre nVidia al GTC punta a far numerose dimostrazioni per mostrare le proprie potenzialità.

Non è colpa di HWUPGRADE se ATI figura meno.


Si ma a me da videogiocatore non interessano tutte ste cose onestamente, avrei preferito qualcosa di concreto invece di tante dimostrazioni propagandistiche per mostrare le proprie potenzialità.
Chiaro, non esiste solo il settore videoludico, ma non vedo perchè Nvida non possa rispondere con cose concrete alla nuova serie di GPU di ATi.. tipo un taglio di prezzi?

lucusta
02-10-2009, 12:20
..."32 antenne, che diverranno 512"...
mi piacerebbe vedere la forma di queste antenne servite da 20KW (!!!) di amplificazione, perche' se dicono che servono solo per ricevere remoti segnali fossili, ho il sospetto che ne dicano di grosse, molto grosse....

ghiltanas
02-10-2009, 12:23
Mi viene sempre più da ridere, questo sito sta diventando una press room nVidia.

Marketing a pioggia e di prodotti nemmeno l'ombra...

io spero tu ti sbagli, mi dispiacerebbe molto la cosa...

Certo ci sono certi fatti che nn capisco, per quale motivo tutti gli altri siti internazionali hanno aggiornato le loro recensioni sulle hd5000 con la 5850, mentre qui su hwu neanche l'ombra di una rece su questa scheda? :mbe:

okorop
02-10-2009, 12:27
sinceramente di sto cuda, utilizzi professionali non mi interessano, nvida non venderci solo fumo, facci dei bench con Fermi oppure non dare ste news che non interessano a nessuno......

Mi viene sempre più da ridere, questo sito sta diventando una press room nVidia.

Marketing a pioggia e di prodotti nemmeno l'ombra...
nessuno ti obbliga a leggere le news e recensioni di questo sito

Danziga88
02-10-2009, 12:31
io spero tu ti sbagli, mi dispiacerebbe molto la cosa...

Certo ci sono certi fatti che nn capisco, per quale motivo tutti gli altri siti internazionali hanno aggiornato le loro recensioni sulle hd5000 con la 5850, mentre qui su hwu neanche l'ombra di una rece su questa scheda? :mbe:

Guarda io ho sentito dalla redazione di HWUpgrade che la 5850 gliel avrebbero mandata venerdi(cioe oggi) quindi se è arrivata sono sicuro che si siano gia messi a testarla.

volevo anche aggiungere che non mi risulta ci siano siti italiani che l abbiano recensita(le recensioni americane tradotte non valgono)


ciao:)

G0p1uM
02-10-2009, 12:41
Si ma a me da videogiocatore non interessano tutte ste cose onestamente, avrei preferito qualcosa di concreto invece di tante dimostrazioni propagandistiche per mostrare le proprie potenzialità.
Chiaro, non esiste solo il settore videoludico, ma non vedo perchè Nvida non possa rispondere con cose concrete alla nuova serie di GPU di ATi.. tipo un taglio di prezzi?

Come hai scritto te, HWUPGRADE non si occupa principalmenti di videogiochi, ma di tecnologia, nVidia uscirà a Novembre/Dicembre con la GT300, solo allora si potrà fare un paragone, la serie 5800 di ATI non ha queste gran recensioni in giro è ancora presto, non vedo perchè tutta sta fretta.

Non c'è alcun motivo poi per nVidia di abbassare il prezzo se riesce comunque a vendere, ATI è stata costretta a rivedere molto i suoi prezzi da quando è uscita la 8800 GT che le aveva tagliato le gambe.

Per quanto riguarda ai vari utilizzi che potrebbe avere CUDA, beh, prova a chiederlo a qualche università o al CERN.

AceGranger
02-10-2009, 12:59
Un esempio?


RayFire a pagamento

http://www.mirvadim.com/


http://www.youtube.com/watch?v=cX6o7OCOuf8
http://www.youtube.com/watch?v=1FTP3BlWtaU
http://www.youtube.com/watch?v=i6970CTYIz8

Questa plugin gratuita data dalla stessa nVidia

http://developer.nvidia.com/object/physx_dcc_plugins.html

c'è Nima Physix per Maya

http://video.google.com/videoplay?docid=5997461150778157575#


poi ce ne sono un paio per la dinamica dei liquidi

okorop
02-10-2009, 13:03
Come hai scritto te, HWUPGRADE non si occupa principalmenti di videogiochi, ma di tecnologia, nVidia uscirà a Novembre/Dicembre con la GT300, solo allora si potrà fare un paragone, la serie 5800 di ATI non ha queste gran recensioni in giro è ancora presto, non vedo perchè tutta sta fretta.

Non c'è alcun motivo poi per nVidia di abbassare il prezzo se riesce comunque a vendere, ATI è stata costretta a rivedere molto i suoi prezzi da quando è uscita la 8800 GT che le aveva tagliato le gambe.

Per quanto riguarda ai vari utilizzi che potrebbe avere CUDA, beh, prova a chiederlo a qualche università o al CERN.

maddai non farmi ridere, 3 mesi per sviluppare una nuova tecnologia e lanciare delle vga sul mercato sono enormi, figuriamoci 6....il confronto con fermi mi sa che lo faranno le 6870 e 6850 se continua cosi :asd:

G0p1uM
02-10-2009, 13:04
E' una battuta? :asd:

Assolutamente no

entanglement
02-10-2009, 13:07
maddai non farmi ridere, 3 mesi per sviluppare una nuova tecnologia e lanciare delle vga sul mercato sono enormi, figuriamoci 6....il confronto con fermi mi sa che lo faranno le 6870 e 6850 se continua cosi :asd:

bè ma sono ambiti di mercato diversi

a chi studia le interconnessioni neurali, fa conti meteorologici, risolve matrici immense dai tracciati del cern, risolve delle accessibilità ai solventi, non frega nulla che la sua scheda faccia girare crysis

e viceversa.

e a me sta benissimo così: sul mio PC di casa crysis gira più che bene anche su una 4850/512 reference, che me ne faccio di CUDA ?

Nero81
02-10-2009, 13:12
Nessuno pensa come me che ATI non spinga quanto nVidia sul gpu computing perchè ha già un mercato professionale in cui è presente (server) e che magari ha più convenienza a vendere cpu piuttosto che gpu per il super-computing?
nVidia non facendo cpu (piattaforme mobili a parte) ha tutto da guadagnarci invece...

AceGranger
02-10-2009, 13:12
Ops:

Ritenta, sarai più fortunato.

si e quindi ??

nVidia ha sviluppato quella tecnologia ed è stata una buona ricaduta per l'utenza professionale.


Ati fino ad ora ha pensato solo al mondo under 16 e nutella party; meno male che è arrivata a darci questi 40 fps in piu a 2560 x 1600

G0p1uM
02-10-2009, 13:13
maddai non farmi ridere, 3 mesi per sviluppare una nuova tecnologia e lanciare delle vga sul mercato sono enormi, figuriamoci 6....il confronto con fermi mi sa che lo faranno le 6870 e 6850 se continua cosi :asd:

Sai un'affermazione del genere mi fa ancora più ridere, vuoi dirmi che ogni giocatore deve cambiare scheda grafica/CPU/scheda madre/RAM ogni 3 mesi per giocare???

Secondo il tuo ragionamento dovrebbero buttare fuori una raffica di schede grafiche nuove all'anno, a che pro???? Costi di produzione incredibili? magazzini pieni di merce invenduta perchè vecchia dopo 2 mesi?

Saresti il re del fallimento per un'azienda.

AceGranger
02-10-2009, 13:18
No. L'ha sviluppata Ageia.

Ritenta, sarai più fortunato.

no nVidia ha portato avanti il progetto e lo ha adattato alle schede video, offrendo anche un supporto ovviamente milgiore, visto le dimensioni di Ageia

Poteva benissimo farlo Ati, ma se ne è sbattuta. d'altra parte le offerte professionali di ati parlano da sole... :asd:

::NSM::
02-10-2009, 13:22
e AVANTI COSÌ!!

nonikname
02-10-2009, 13:25
No. L'ha sviluppata Ageia.

Ritenta, sarai più fortunato.

Ci sono molte cose x cui criticare nvidia ultimamente , ma non il testo di questa notizia.. e poi sei un filo OT

Se ti può far sentire meglio , su semiaccurate (http://www.semiaccurate.com/forums/showpost.php?p=7367&postcount=11) saranno entusiasti di accoglierti.. ;)

tripanzuto
02-10-2009, 13:28
Come la neuropsicologia insegna, non puoi inferire la funzione solo dalla struttura.

A meno che si riesca a mappare nel singolo istante miliardi di connessioni sinaptiche e i relativi neuroni.

Secondo me lo studio del cervello al calcolatore è quasi inutile. Le simulazioni con le reti neurali ok, ma hanno i loro limiti, e non sono computazionali.

Lo studio dei sistemi biologici di controllo, inclusi ovviamente i tessuti neurali, è sempre più fondamentale nella pratica della ricerca. Dozzine se non centinaia di articoli sono pubblicati sull'argomento e reperibili da internet. Non perdo nemmeno tempo a metterne i link. Io stesso mi occupo dell'argomento alla sissa (www.sissa.it).
Inoltre, in tutti i dottorati di biologia molecolare e neuroscienze si insegna che STRUTTURA = FUNZIONE. Guai se così non fosse, non ci sarebbe spazio per nessuna ricerca.
Evitiamo di dire balordaggini superficiali e senza capo ne coda, grazie.

luX0r.reload
02-10-2009, 13:31
No. L'ha sviluppata Ageia.

Ritenta, sarai più fortunato.
Su di te vedrei meglio un bel tatuaggio ATI:D

Su questi argomenti sei preparato, ma la tua obiettività lascia alquanto a desiderare. Definirti fanboy è poco... io propongo un thread apposito per voi fanboy ATI e nVidia, così potete azzuffarvi e buttarvi cacca addosso come volete :D

~efrem~
02-10-2009, 13:47
Scusate se intervengo intermezzando un osservazione IN MERITO alla news...
L'incremento di prestazioni per Watt è un elemento da non sottovalutare.
Pongo dunque l'accento sulla questione nodale.
Ci sono applicazioni, per cui, all'aumentare delle potenzialità di un determinato motore software, ci troviamo nella necessità di aumentare la potenzialità di calcolo, senza però poter intaccare, ne il volume complessivo occupato dall'unità di elaborazione, ne incidere eccessivamente sui consumi.
L'implementazione del CUDA, o quel che diamine è, su schede video di fascia medio bassa (ridotti ingombri con versioni lp, bassi consumi e approcci dissipativi passivi), consente a me aumentare enormemente le capacità di calcolo del sistema, implementare soluzioni nuove e di non salassare il cliente con una metamorfosi completa del progetto.
Il tutto ovviamente con un ottimizzazione del software e del linguaggio, ma, se tanto devo innovare il prodotto e mi posso appoggiare su questa possibilità...
Non avete idea di quali, e quanti, problemi vado a risolvere...

luX0r.reload
02-10-2009, 13:47
Sono sufficientemente preparato da non farmi infinocchiare dai tentativi dei fanboy di vendermi il fumo che nVidia vende loro.

Io compro prodotti, non fumo.

Tant'è che da fanboy AMD ho una VGA AMD in un PC con processore Intel e negli ultimi due anni ho fatto acquistare hardware su base Intel per quasi 200.000€ alla sezione in cui lavoro...

Non sono un fanboy, ho delle simpatie senza alcun dubbio e non faccio niente per nasconderlo, ma pretendo che mi si contesti sulle argomentazioni che porto, non sulle mie simpatie. Se le mie argomentazioni non sono obiettive è sufficiente contestarle con argomentazioni migliori. "Sei un fanboy" non è un argomentazione, ma la voce di chi non ha alcuna tesi da opporre alle mie.
Non si partecipa ad un forum solo per apporre tesi, ma anche semplicemente per imparare cose su argomenti sui quali magari non si ha tanta conoscenza.
I tuoi interventi sono molto interessanti e, come ho detto, sei preparato tecnicamente su molti argomenti, ma la tua non obiettività a volte fa passare in secondo piano le cose che dici... questo volevo dire e per me finisce l'off topic.

ghiltanas
02-10-2009, 13:49
Guarda io ho sentito dalla redazione di HWUpgrade che la 5850 gliel avrebbero mandata venerdi(cioe oggi) quindi se è arrivata sono sicuro che si siano gia messi a testarla.

volevo anche aggiungere che non mi risulta ci siano siti italiani che l abbiano recensita(le recensioni americane tradotte non valgono)


ciao:)

ottimo, aspetto anche la rece di hwu allora :)

Come hai scritto te, HWUPGRADE non si occupa principalmenti di videogiochi, ma di tecnologia, nVidia uscirà a Novembre/Dicembre con la GT300, solo allora si potrà fare un paragone, la serie 5800 di ATI non ha queste gran recensioni in giro è ancora presto, non vedo perchè tutta sta fretta.

Non c'è alcun motivo poi per nVidia di abbassare il prezzo se riesce comunque a vendere, ATI è stata costretta a rivedere molto i suoi prezzi da quando è uscita la 8800 GT che le aveva tagliato le gambe.

Per quanto riguarda ai vari utilizzi che potrebbe avere CUDA, beh, prova a chiederlo a qualche università o al CERN.

scusa ma questo ragionamento nn ha senso. Quando uscì g80 si confrontò giustamente con il top della controparte, quindi x1950 e simili. Gt300 quando uscirà si vedrà, ora nn c'è e quindi il confronto si fa tra gt200b e rv870.

Mparlav
02-10-2009, 14:04
..."32 antenne, che diverranno 512"...
mi piacerebbe vedere la forma di queste antenne servite da 20KW (!!!) di amplificazione, perche' se dicono che servono solo per ricevere remoti segnali fossili, ho il sospetto che ne dicano di grosse, molto grosse....

Il progetto parte con 32 antenne e 20KW con un generatore ed un server.
Se ne vale la pena, rifinanziano e lo ampliano a 512, con generatore e server ulteriori.
Altrimenti lo lasciano ai canguri.

Mparlav
02-10-2009, 14:08
Questo sito pubblica news dell'IDF d'Intel e GTC d'Nvidia,

Se invece volete news della "sig.ra Patrizia", basta fare una petizione a P.Corsini :D

G0p1uM
02-10-2009, 14:09
scusa ma questo ragionamento nn ha senso. Quando uscì g80 si confrontò giustamente con il top della controparte, quindi x1950 e simili. Gt300 quando uscirà si vedrà, ora nn c'è e quindi il confronto si fa tra gt200b e rv870.

Su questo devo darti ragione, infatti non capisco tutta questa smania di voler vedere i prodotti di nVidia e di ATI uscire contemporaneamente.

Non ho nulla contro ATI e nemmeno contro nVidia, nel momento in cui devo comprare un pezzo di hardware valuto la migliore soluzione per il mio budget senza limitare la mia scelta per una qualsiasi simpatia, andrebbe a scapito mio. ;)

Mi scuso e chiudo con l'OT

G0p1uM
02-10-2009, 14:28
La potenza elaborativa sui calcoli matematici puri di una GPU è spaventosa rispetto a quella di una CPU.

Ricordo una simpatica slide su RV670 ed il TFlops in cui si raffrontava una scheda single slot con un gigantesco datacenter IBM degli anni '80.

OpenCL darà una risposta unificata al problema di utilizzare le GPU nel modo migliore su datacenters di tipo tradizionale.

Ovviamente, come dici, i software dovranno essere scritti pensando a queste nuove opportunità. L'unica incognita è se ciò potrà in qualche modo avere ricadute anche nel mondo consumer, dove la potenza di un processore di fascia bassa è già anche troppa (tant'è che Atom, che è un vero schifo quanto a prestazioni, vende tantissimo).

Credo che il GPU computing sia una grande opportunità, ma che sia strutturalmente vincolata a pochi ambienti di utilizzo in cui affermarsi, rimanendo comunque una vera opportunità solo per ambienti di calcolo ad alte performance (magari la render farm di qualche colosso del cinema?).

Il rapporto FLOPS/W è spaventoso :)

Credo anch'io che nel mondo consumer non si vedrà un utilizzo in tempi brevi o forse mai, infatti tali soluzioni vanno viste per quello che al momento sono state pensate, hai fatto un esempio con la render farm giustamente, e se ne possono aggiungere molti altri, anche nel campo della ricerca avrebbe sicuramente un impiego ottimale.

appleroof
02-10-2009, 14:31
Mi viene sempre più da ridere, questo sito sta diventando una press room nVidia.

Marketing a pioggia e di prodotti nemmeno l'ombra...

Nvidia è una grossa protagonista del mondo dell'elettronica in senso lato. Questo sito tratta proprio di quel mondo. Mi sembra naturale dare eco a queste notizia, così come vedo viene data eco a notizia provenienti da Amd, quando ci sono.

Più in dettaglio, la strada intrapresa da Nvidia è quella di spingere sempre più sul GPGPU, e queste news ne sono conseguenza, vuoi che un sito come questo le ignori?

Ratatosk mi spiace dirlo perchè ti rispetto come utente, ma certe uscite dettate da "tifo" onestamente fanno fare una magra figura...

appleroof
02-10-2009, 14:41
Dopo la recensione di HD5870 ho dei bei sospetti, che nessuno mi ha ancora chiarito:

cut

Quando qualcuno riuscirà a spiegarmi il senso di questo benchmark sarò pronto a non fare certe uscite.

bè io parlavo del post che commentava la notizia, per quello che dici non posso risponderti io ovviamente...:boh:

ndrmcchtt491
02-10-2009, 14:45
E basta... ci avete scassato.
se dovete scrivere commenti negativi o perchè non avete niente da fare contate le matite che avete sul banco...

chiedo ai moderatori di vigilare più frequentemente...

Nvidia è più avanti di AMD nel gpgpu.
I fatti sono questi.

goldorak
02-10-2009, 15:16
Nvidia è più avanti di AMD nel gpgpu.
I fatti sono questi.

Certo, ma bisogna anche guardare la realta. Tesla e CUDA non se li e' filati nessuno. Certo qualche ricercatore qua e la ha convinto il suo dipartimento a comprare qualche TESLA, ma Nvidia e' anni luce dal fare di CUDA e GPGPU computing il suo core business. Tanto e' vero che nell'ultimo quadrimestre hanno avuto ricavi/profitti per 10 milioni di $ nel ambito GPGPU.
Una inezia per una azienda come Nvidia.

Le schede consumer sono la linfa vitale di Nvidia, non avranno un grande profitto per unita' venduta, ma ne vendono molte ma molte dippiu' delle schede professionali, ed in questo ci metto anche TESLA/GPGPU. Vederli rincorrere questo "potenziale mercato" tralasciando il suo core business beh e' una scelta decisamente idiota. Magari finiranno come Matrox, uscita definitivamente dal mercato consumer per inseguire quello dei professionisti. E noi ci troveremo a scegliere tra AMD con fusion ed Intel con Larrabee. Bel futuro che si prospetta. ^_^

G0p1uM
02-10-2009, 15:32
Certo, ma bisogna anche guardare la realta. Tesla e CUDA non se li e' filati nessuno. Certo qualche ricercatore qua e la ha convinto il suo dipartimento a comprare qualche TESLA, ma Nvidia e' anni luce dal fare di CUDA e GPGPU computing il suo core business. Tanto e' vero che nell'ultimo quadrimestre hanno avuto ricavi/profitti per 10 milioni di $ nel ambito GPGPU.
Una inezia per una azienda come Nvidia.

Le schede consumer sono la linfa vitale di Nvidia, non avranno un grande profitto per unita' venduta, ma ne vendono molte ma molte dippiu' delle schede professionali, ed in questo ci metto anche TESLA/GPGPU. Vederli rincorrere questo "potenziale mercato" tralasciando il suo core business beh e' una scelta decisamente idiota. Magari finiranno come Matrox, uscita definitivamente dal mercato consumer per inseguire quello dei professionisti. E noi ci troveremo a scegliere tra AMD con fusion ed Intel con Larrabee. Bel futuro che si prospetta. ^_^


Hai la sfera di cristallo per prevedere questo roseo futuro? :D

Apparte gli scherzi, nVidia avrà fatto i suoi conti per investire in questo mercato, non vedo perchè gettare tutto questo negativismo. :confused:

goldorak
02-10-2009, 15:38
Hai la sfera di cristallo per prevedere questo roseo futuro? :D

Apparte gli scherzi, nVidia avrà fatto i suoi conti per investire in questo mercato, non vedo perchè gettare tutto questo negativismo. :confused:


Neanche loro hanno la sfera di cristallo se e' per questo, progettare Fermi e' stata una SCOMMESSA. E come tutte le scommesse si puo' vincere o perdere.

appleroof
02-10-2009, 16:03
Neanche loro hanno la sfera di cristallo se e' per questo, progettare Fermi e' stata una SCOMMESSA. E come tutte le scommesse si puo' vincere o perdere.

questo sottintende che dai per scontato che in ambito gaming Fermi sarà cmq un flop...mah, vuoi vedere che invece la sfera di cristallo ce l'hai davvero? :eek: :asd: :asd:

goldorak
02-10-2009, 16:11
questo sottintende che dai per scontato che in ambito gaming Fermi sarà cmq un flop...mah, vuoi vedere che invece la sfera di cristallo ce l'hai davvero? :eek: :asd: :asd:


Dove ho scritto che Fermi per il gaming sara' un flop ? :mbe:
Ho solo detto che concentrarsi esclusivamente sulle necessita' del popolo GPGPU tralasciando quello dei gamers (che rappresenta il core business di Nvidia almeno nel medio perido) e' una scelta IDIOTA.

appleroof
02-10-2009, 16:12
Dove ho scritto che Fermi per il gaming sara' un flop ? :mbe:
Ho solo detto che concentrarsi esclusivamente sulle necessita' del popolo GPGPU tralasciando quello dei gamers (che rappresenta il core business di Nvidia almeno nel medio perido) e' una scelta IDIOTA.

e perchè lo tralascerebbe? Se Fermi avrà ottime performance con i giochi (cosa che appunto non possiamo ancora sapere)??? A volte mi chiedo se ci sei o ci fai :boh:

goldorak
02-10-2009, 16:21
e perchè lo tralascerebbe? Se Fermi avrà ottime performance con i giochi (cosa che appunto non possiamo ancora sapere)??? A volte mi chiedo se ci sei o ci fai :boh:

Vediamo :



niente hardware tessellator (ora mi aspetto la valanga di fan nvidia a dirmi che una implementazione software e' piu' rapida di una hardware :asd: )
Possibilita' di gestire piu' monitor (come ATI con Eyefinity) ?
Possbilita' di trasmettere flusso audio HD in bitstream ? Le schede Nvidia fino ad oggi non fanno bitstream e gestiscono soltanto il 5.1
.
.
.



A me non sembra che ascoltino le necessita' dei gamers.
Non e' soltanto questione di prezzo, prestazioni ma anche di features. E per il momento ATI li sta massacrando.

ghiltanas
02-10-2009, 16:23
Vediamo :



niente hardware tessellator (ora mi aspetto la valanga di fan nvidia a dirmi che una implementazione software e' piu' rapida di una hardware :asd: )
Possibilita' di gestire piu' monitor (come ATI con Eyefinity) ?
Possbilita' di trasmettere flusso audio HD in bitstream ? Le schede Nvidia fino ad oggi non fanno bitstream e gestiscono soltanto il 5.1
.
.
.



A me non sembra che ascoltino le necessita' dei gamers.
Non e' soltanto questione di prezzo, prestazioni ma anche di features. E per il momento ATI li sta massacrando.

per me questa è una features utilissima :O

appleroof
02-10-2009, 16:29
per me questa è una features utilissima :O

per me le ultime 2 proprio nisba, la prima sarà da verificare

se le cose elencate significano tralasciare il mondo gamers...onestamente mi faccio una risata :D

riva.dani
02-10-2009, 17:49
Ma qui son tutti videogiocatori e basta? Io a casa ho una GTX260 e ogni tanto mi diletto a giocare e sinceramente non ne ho ancora trovato il limite, con nessuno dei giochi (tutti nuovi) che ho provato. Non capisco davvero i discorsi "tutto fumo e niente prodotti": i prodotti nVidia ci sono! Ati al momento è in vantaggio perchè ha aggiornato la sua lineup con prodotti più performanti e tecnologicamente più avanzati, per le nuove schede nVidia ci sarà da aspettare un po', dov'è il problema? E' accaduto spesso anche il contrario, no?
nVidia al momento sta investendo moltissimo sulle tecnologie, per dimostrare al mondo che non è solo un'azienda che produce costosi e sofisticati gocattoli. Vi dà davvero così fastidio? l'unica cosa che conta per voi è vedere nVidia presentare una scheda che faccia 2500FPS con Crysis? bah... :rolleyes:

DukeIT
02-10-2009, 18:03
Ma qui son tutti videogiocatori e basta? E a cosa deve servire una VGA di questo tipo? :confused:
l'unica cosa che conta per voi è vedere nVidia presentare una scheda che faccia 2500FPS con Crysis? bah... :rolleyes: In effetti, è la cosa principale che deve fare una VGA...

Balthasar85
02-10-2009, 18:27
Notizia interessante ma.. non mi par di aver capito quando cominceranno ad installare questa roba tra i canguri. :confused:

Mi viene sempre più da ridere, questo sito sta diventando una press room nVidia.
Marketing a pioggia e di prodotti nemmeno l'ombra...
Oh, ma allora anche qui (HWup) è la stessa storia!! Allora è vero, tutto il mondo è paese.
E' bello trovare anche qui fanboy indispettiti del fatto che nVidia faccia notizia anche se non ha ancora mostrato le sue nuove VGA. Continuate così ragà. :asd:


CIAWA

AceGranger
02-10-2009, 18:48
E a cosa deve servire una VGA di questo tipo? :confused:
In effetti, è la cosa principale che deve fare una VGA...

ah forse ti è sfuggita la news.... e il fatto che il GF 100 puntera molto sul calcolo via GPU non certo per giocare...

DukeIT
02-10-2009, 19:06
edit - sbagliato articolo.

(con tutti questi articoli e news su nVidia, pensavo fosse quello sulla GTX285 :( )

nikname
02-10-2009, 20:19
coe al solito se non si sente parlare solo di crysis qualcuno comincia a non capire piu nulla...pieno di commenti inutili...

nikname
02-10-2009, 20:24
la cosa certa è che l'informatica...pc..gpu e tutto quello che le gira attorno hanno un potenziale enorme per lo sviluppo delle tecnologie future....è il furuto dell'umanita'

lucusta
03-10-2009, 06:22
Il progetto parte con 32 antenne e 20KW con un generatore ed un server.
Se ne vale la pena, rifinanziano e lo ampliano a 512, con generatore e server ulteriori.
Altrimenti lo lasciano ai canguri.

no, il punto focale del mio intervento era nello specificare i 20KW... 20KW sono una potenza decisamente rilevante per un'antenna che deve solo ricevere, anche se sono segnali fossili... ecco perche' ne volevo vedere la forma (progetto haarp). in effetti se, se avessero usato anche il pallottoliere per la computazione, non mi avrebbe spostato di nulla l'interesse...

in quanto a CUDA, a me non dispiace che un produttore di apparecchi nati principalmente per l'entrateinement estenda le specifiche per features in campi del tutto differenti, ed anzi lo fa' anche con un linguaggio che sulla carta sembrerebbe "abbordabile" anche dai profani e con una struttura della sintassi piu' o meno gia' nota.
questo approccio portera' sicuri benefici anche agli utenti normali....
sto' pensando che ora sta' diventando "abbordabile" il discorso della costruzione del compressore dati loss less ad alto rendimento che avevo in mente una 15ina di anni fa'.. al tempo per avere una compressione anche solo di 50:1 sarebbe occorso un tempo computazionale simile al crack in bruteforce di un aes a 256bit oggi; diventava poco sfruttabile da usare come zipper :)