View Full Version : Fermi, la nuova architettura Nvidia per gaming e calcolo parallelo
Redazione di Hardware Upg
01-10-2009, 01:58
Link alla notizia: http://www.hwupgrade.it/news/skvideo/fermi-la-nuova-architettura-nvidia-per-gaming-e-calcolo-parallelo_30288.html
Nvidia scopre le carte alla nuova architettura Fermi, pensata sia per il gaming che per il calcolo parallelo, che darà vita alle future schede GeForce di fascia alta, ma non solo
Click sul link per visualizzare la notizia.
Angelonero87
01-10-2009, 03:10
Devo dedurre che il nostro caro Alessandro è in California a spassarsela :D
InteRhino
01-10-2009, 03:33
pensavo non fosse orario di lavoro questo ;)
speriamo che il nostro Fermi porti bene a Nvidia, con un altro nome italiano non è andata molto bene...VISTA
Due domande:
* la L2 e minore della L1 ??
* per una scheda grafica, la cache a cosa si riferisce? Che dati mantiene? Viene gestita completamente hardware come nella CPU, o e' visibile al software?
Alessandro Bordin
01-10-2009, 04:08
Per Angelonero87: sì :P
Per Pleg: hanno rilasciato pochissime informazioni ma un sacco di documentazione. La redazione ci lavorerà proprio in giornata. Le risposte arriveranno.
Kurtferro
01-10-2009, 04:12
"Le novità non si fermano qui: il numero di shader, ora battezzati Cuda Core, salgono a ben 512"
Dovrebbe essere più potente di due 285, bella bestia...
wolverine
01-10-2009, 05:58
Mah, povero il grande Enrico Fermi. :fagiano:
ok hanno fatto vedere una scatola con il logo nvidia ... e la prova sul banco a quando? e la produzione?
Dalle dimensioni sembra essere piuttosto "cicciotto"
Xeon3540
01-10-2009, 07:01
secondo meil futuro sarà ancora Nvidia ho dubbi su un acquisti di un ATI di nuovo ora vado con i piedi di piombo
mah... impressionante siamo arrivati a 3 miliardi di transistor incredibile. Ricordo ancora lo stupore generale quando NV40 svelò i suoi 222 mln di transistor !
superbau
01-10-2009, 07:37
ufff costerà un botto di sicuro :(
ottimo per il folding@home.... flop per i giochi????
si vedrà cmq nel Q1 2010... prima di febbraio saluti e baci!
beh ecco la documentazione :D
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf
sembra un scopiazzatura dell'archittetura di rv870..... con qualche passo in più verso la CPU...
Tuvok-LuR-
01-10-2009, 08:03
ancora non è arrivato il guru a dire "GT300 è una GPU dual-core"?
leoneazzurro
01-10-2009, 08:04
beh ecco la documentazione :D
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf
sembra un scopiazzatura dell'archittetura di rv870..... con qualche passo in più verso la CPU...
Ma assolutamente no, questo chip e RV870 sono agli antipodi per filosofia costruttiva.
Severnaya
01-10-2009, 08:06
ufff costerà un botto di sicuro :(
se costasse (ipoteticamente) 499€ potrebbe convenire di più prendere una 5870x2
stima della superficie di una gpu con più 3 miliardi di transistor???
beh .... si vede che i passi da fare in avanti allora sono quelli... e vanni entrambi nella stessa direzione. Parallizzare e nn far stare a dormi i "core" della gpu.
leoneazzurro
01-10-2009, 08:14
Due domande:
* la L2 e minore della L1 ??
* per una scheda grafica, la cache a cosa si riferisce? Che dati mantiene? Viene gestita completamente hardware come nella CPU, o e' visibile al software?
La cache L1 è "posizionata" internamente sui cluster (o SM, come li chiama adesso Nvidia), per un totale di 1 Mbyte, ma ogni cluster ne ha 64 Kbyte. La cache L2 invece è unificata per tutti i cluster. I dati sono ovviamente operandi e istruzioni :p (é un chip con elevata programmabilità, per cui oltre ai dati grafici come posizioni dei vertici, colori, ecc. può processare praticamente di tutto). La cache è gestita in via hardware.
Dal PDf intanto si capisce come mai la L2 è più piccola della L1.
La cache L2 è condivisa tra tutti e i 16 blocchi SM, mentre la cache L2 è condivisa tra i 16 blocchi ed ulteriormente suddivisa a blocchi di 4; praticamente ogni blocco di cache L1 è collegato a 8 Cuda Core.
Praticamente si hanno 64 blocchi ddi cache L1 da 16KB ciascuno se ho fatto bene i conti
P.s.:ha ragione leoneazzurro... avevo visto male :)
Se propio vogliamo trovare una somiglianza le GPU Nvidia assomigliano sempre di più al Cell :D
ottimo per il folding@home.... flop per i giochi????
si vedrà cmq nel Q1 2010... prima di febbraio saluti e baci!
Bhe...credo che li convengano far uscire almeno un GT310 (che tenga testa come minimo alla 5850) entro natale se no qua ATI si papa una bella fetta del mercato...
...anche se la cosa non mi dispiacerebbe, in quanto a quel punto nvidia sarà quasi costretta a fare dei prezzi molto più competitivi rispetto alla controparte...almeno imho.
La documentazione è totalmente incentrata sul gpu-computing mentre riguardo all'ambito videoludico non c'è nemmeno una parola...
ipotesi prezzo top di gamma single gpu 600€
leoneazzurro
01-10-2009, 08:24
beh .... si vede che i passi da fare in avanti allora sono quelli... e vanni entrambi nella stessa direzione. Parallizzare e nn far stare a dormi i "core" della gpu.
ma nvidia parallelizza in maniera diversa :p
ATI è più focalizzata sulle applicazioni gaming, per ora ha mantenuto molte funzioni in hardware e la struttura delle unità di esecuzione è molto diversa (5-vie).
Nvidia sta percorrendo la strada della programmabilità totale, tanto è vero che potrebbe non esserci neppure il tessellatore implementato in via hardware, e forse non ci sono nemmeno più le TMU in senso stretto...
E Intel sta seguendo una strada ancora differente.
Sicuramente ad un certo punto si arriverà ad una convergenza, al momento bisogna vedere se la scommessa di Nvidia pagherà o meno.
Sulla disponibilità (Anandtech):"Then timing is just as valid, because while Fermi currently exists on paper, it's not a product yet. Fermi is late. Clock speeds, configurations and price points have yet to be finalized. NVIDIA just recently got working chips back and it's going to be at least two months before I see the first samples. Widespread availability won't be until at least Q1 2010.
I asked two people at NVIDIA why Fermi is late; NVIDIA's VP of Product Marketing, Ujesh Desai and NVIDIA's VP of GPU Engineering, Jonah Alben. Ujesh responded: because designing GPUs this big is "fuc***g hard" :D
eh appunto per quello ho seri dubbi se questa soluzione avrà lo stesso riscontro nell'ambito gaming.
senzaombra di dubbio sarà ottima nel calcolo scientifico.
ma anche alle parole al GTC quelli di nvidia hanno detto: "nn riveliamo ora nessuna prestazioni perchè sennò ora che esce ci mangiamo una fetta di mercato".
Le considerazioni sono 2: o va "meno" (o costra troppo di più andando poco di più) nei giochi rispetto al concorrente e se la fanno sotto..... o va talmente tanto di più che il mercato dei compratori nvidia si fermerebbe fino a febbraio....
leoneazzurro
01-10-2009, 08:32
Per piacere, evitiamo l'uso di termini tipo "nvidiosi" o simili, in modo da non fornire spunti per far degenerare il thread? Grazie.
Altre foto di "Fermi":
http://www.pcpop.com/doc/0/448/448052.shtml
puccio1984
01-10-2009, 08:45
Ma quindi utilizzando la suite adobe cs4 quale scheda conviene usare? Nvidia o Ati?
Goofy Goober
01-10-2009, 08:49
ipotesi prezzo top di gamma single gpu 600€
eh si sicuramente... cosa deve essere 4 volte più veloce delle 5870 se vogliono venderla a quel prezzo
Morlack`X
01-10-2009, 08:51
Ma lol! ahahahah Non ce la raccontano giusta :D
Sarà mica che il nome gli è venuto in mente dopo il fallimento della produzione dei nuovi core (se non ricordo male hanno attualmente problemi sulla nuova scala...una cosa come 3 o 4 core funzionanti non troppo bene su un wafer di silicio)?
Ovviamente sto scherzando :Prrr: :Prrr:
ma si chiama fermi perche scalda come un reaatore nucleare
Ma quindi utilizzando la suite adobe cs4 quale scheda conviene usare? Nvidia o Ati?
se non mi ricordo male
se usi premiere sicuramente ati 4xxx visto che le schede video nvidia accelerate sono solo le quadro in questo programma
riguardo a photoshop ecc viene accelerato da entrambe le vga, mi pare che con nvidia si hanno un paio di plugin specifici scritti in cuda
prima di dicembre credo nn vedremo bench... perchè come detto alla conferenza è solo su carta e hanno appena ricevuto "qualche" chip funzionante.
fruttando chip di tipo DDR5 su frame buffer da 384bit di ampiezza.
Adesso il frame buffer è diventato il bus??? :rolleyes:
cacchio che bestia ragazzi!!!!!
Sicuramente ad un certo punto si arriverà ad una convergenza, al momento bisogna vedere se la scommessa di Nvidia pagherà o meno.
Se AMD non capisce -rapidamente- che avere un supporto software adeguato (pagando quindi) è una scelta vincente...
Credo che la scommessa di Nvidia paghi e bene.
Non capisco perchè AMD non si sbrighi a salire sul carro in un modo o nell'altro.
Gaming_Minded
01-10-2009, 09:32
Sono sicuro che metteranno sul mercato già qualcosa entro fine mese, la scheda è pronta e il sample che ha in mano è il prodotto finito, devono solo produrre in massa. Vuoi mettere che lascino che esca Win7 senza vendere le loro schede grafiche DX11 assieme ? Nel Q1 2010 semmai vedremo le soluzioni dual GPU e quelle piu' spinte.
Severnaya
01-10-2009, 09:36
sulla carta nn dev'essere male
ma nn si parla di:
freq
quando potrebbe essere commercializzata (ovv 2010 ma è presa un pò troppo alla larga :D)
resa produttiva di TSMC (influisce nn poco sul prezzo finale credo)
con quei 3 milioni di trans si suppone abbia una resa in termini di semplici fps superiore ma il tempo impiegato alla commercializzazione porterà ati a far uscire nuove soluzioni top di gamma (magari nello stesos periodo di usicta di GT300 :asd:) e, si spera, un abbassamento di prezzo... come sempre chi vivrà vedrà :O
dado1979
01-10-2009, 09:39
Sulla carta sembra un mostro ma ho l'impressione che costerà un botto e quando uscirà, AMD abbasserà di parecchio i prezzi cosicchè R870 rimanga concorrenziale.
Severnaya
01-10-2009, 09:41
Sono sicuro che metteranno sul mercato già qualcosa entro fine mese, la scheda è pronta e il sample che ha in mano è il prodotto finito, devono solo produrre in massa. Vuoi mettere che lascino che esca Win7 senza vendere le loro schede grafiche DX11 assieme ? Nel Q1 2010 semmai vedremo le soluzioni dual GPU e quelle piu' spinte.
ti vorrei ricordare che per nvidia nn servono a una ceppa e nn sono un criterio essenziale per la scelta di una scheda video :asd:
e adesso via col toto frequenze e col toto fps :asd:
da qui in poi ci saranno tanti bei commenti da leggere http://www.diesirae-guild.eu/smf/Smileys/dies/sisi.gif
halduemilauno
01-10-2009, 09:44
sulla carta nn dev'essere male
ma nn si parla di:
freq
quando potrebbe essere commercializzata (ovv 2010 ma è presa un pò troppo alla larga :D)
resa produttiva di TSMC (influisce nn poco sul prezzo finale credo)
con quei 3 milioni di trans si suppone abbia una resa in termini di semplici fps superiore ma il tempo impiegato alla commercializzazione porterà ati a far uscire nuove soluzioni top di gamma (magari nello stesos periodo di usicta di GT300 :asd:) e, si spera, un abbassamento di prezzo... come sempre chi vivrà vedrà :O
Sulla carta sembra un mostro ma ho l'impressione che costerà un botto e quando uscirà, AMD abbasserà di parecchio i prezzi cosicchè R870 rimanga concorrenziale.
per le prime due versioni che saranno presentate(si parla di novembre)si parla di 399 e 499$. le frequenze della nr1 dovrebbero essere 720/1620/4600. amd dovrebbe far uscire verso novembre la 5870x2.
Severnaya
01-10-2009, 09:46
500€ è un pò tanto pensando che 5870 adesso costa quasi 200€ in meno... vabè si vedrà
Nvidia su quella nuova architettura sta' spingendo molto sulla flessibilità e facilità di programmazione, più importanti dell'aumento della potenza di calcolo.
Ma non è una gpu votata al 3D: farà ANCHE questo, quanto bene dipende, giusto per dirne una, anche dai driver (nuova architettura, nuovo incubo :)
Viste le dimensioni e la complessità della gpu, è inevitabile un lineup di prodotti, che vanno dai 512 "Cuda Core", a 480, 448 etc, sulla falsariga delle G80 e GT200, quindi sul fronte prezzi, mi aspetto dai 500-550 $ per il top e 350-450$ per la medio-alta.
Su Anandtech dicono che non ripeteranno l'errore del prezzo scelto per la GT200: staremo a vedere.
Scrambler77
01-10-2009, 09:47
E ora arrivano le mazzate...
martinez1983
01-10-2009, 09:49
Cosa non darei per avere quel sample di scheda!!!!:D (con una versione di driver anche alpha)
Avete visto che i connettori di alimentazione posizionati un po strani???
Cmq mi sale l' acquolina in bocca!!!
Io credo che nvidia non si sia dimenticata del campo dei videogiochi!!! E avrà fatto un ottimo lavoro in tal senso!!!
halduemilauno
01-10-2009, 09:52
Nvidia su quella nuova architettura sta' spingendo molto sulla flessibilità e facilità di programmazione, più importanti dell'aumento della potenza di calcolo.
Ma non è una gpu votata al 3D: farà ANCHE questo, quanto bene dipende, giusto per dirne una, anche dai driver (nuova architettura, nuovo incubo :)
Viste le dimensioni e la complessità della gpu, è inevitabile un lineup di prodotti, che vanno dai 512 "Cuda Core", a 480, 448 etc, sulla falsariga delle G80 e GT200, quindi sul fronte prezzi, mi aspetto dai 500-550 $ per il top e 350-450$ per la medio-alta.
Su Anandtech dicono che non ripeteranno l'errore del prezzo scelto per la GT200: staremo a vedere.
credo che sia + esatto dire che è una scheda gaming ma sarà ANCHE votata al calcolo ben + di quanto sia l'attuale. diciamo che con un chip nvidia farà tutta la nuova gamma GeForce, Tesla, Quadro.
sui prezzi si + o - saranno quelli con le quadro/tesla ben + costose + o - come le attuali.
Severnaya
01-10-2009, 09:55
E ora arrivano le mazzate...
va che è una scheda video, nn va data in testa alla gente :asd:
halduemilauno
01-10-2009, 09:59
va che è una scheda video, nn va data in testa alla gente :asd:
in tesla.
;)
MiKeLezZ
01-10-2009, 10:05
Giusto 6 giorni si discuteva amabilmente con un simpatico utente, e questo diffidava della esistenza di tale scheda, e della sua presentazione in tempi brevi... brevissimi.
Vorrei fargli un saluto speciale.
Non manca poco neppure per i primi benchmark... e dalle specifiche sembra proprio tecnologia aliena. Si parla addirittura di macinare codice C+ direttamente. Ho molta curiosità a riguardo.
Anche lo slogan è già pronto, "NVIDIA Fermi, va come un reattore nucleare... e consuma pure uguale".
teolinux
01-10-2009, 10:06
va che è una scheda video, nn va data in testa alla gente :asd:
:D :D :D Con quelle dimensioni, serve un porto d'armi! :read:
I fanboy di nVidia e ATI ora hanno due armi all'altezza dello scontro, altro che spade laser!!!
Severnaya
01-10-2009, 10:09
ora c'è da decidere quale delle due è il lato oscuro :asd:
Giusto 6 giorni si discuteva amabilmente con un simpatico utente, e questo diffidava della esistenza di tale scheda, e della sua presentazione in tempi brevi... brevissimi.
Vorrei fargli un saluto speciale.
Non manca poco neppure per i primi benchmark... e dalle specifiche sembra proprio tecnologia aliena. Si parla addirittura di macinare codice C+ direttamente. Ho molta curiosità a riguardo.
Anche lo slogan è già pronto, "NVIDIA Fermi, va come un reattore nucleare... e consuma pure uguale".
Si anche io sono curiosissimo, speriamo però che non abbiano penalizzato troppo l'ambito gaming, vedremo.
martinez1983
01-10-2009, 10:10
Non manca poco neppure per i primi benchmark... e dalle specifiche sembra proprio tecnologia aliena. Si parla addirittura di macinare codice C+ direttamente. Ho molta curiosità a riguardo.
Anche lo slogan è già pronto, "NVIDIA Fermi, va come un reattore nucleare... e consuma pure uguale".
Ma cosa vogliamo di più!!!:asd: Ci terrà al caldo durante le freddi giorante d' inverno!!!:asd:
Cmq concordo...interessantissimo il fatto che possa macinare codice C+!!!
Una svolta notevole sull' architettura!!! Come lo fù nel 2006 con il G80!!!
Giusto 6 giorni si discuteva amabilmente con un simpatico utente, e questo diffidava della esistenza di tale scheda, e della sua presentazione in tempi brevi... brevissimi.
Vorrei fargli un saluto speciale.
Permettimi solo un appunto. La scheda esiste fisicamente, non è dato sapere se funzioni. La presentazione è uno dei più lunghi paper launch che io ricordi.
Su Anandtech fanno gli stessi appunti, presentazione, la scheda non si sa se esista, non si sanno frequenze/prezzi/prestazioni.
Quella presentata è la parte dedicata al GPGPU/Cuda, sul Gaming nulla si sa (dubito che mettano la stessa ram ECC di cui si parla nella documentazione).
Insomma, sembra tecnologia aliena ma deve ancora sbarcare...
C'era gente che si era indignata per il lancio in basso numero della 5870, quindi faccio solo questo appunto per dovere di cronaca.
Poi queste notizie fanno bene, c'è gente che ritorna dopo mesi di assenza con commenti coloriti e scarni di contenuto tecnico, ma sono sempre stati dei piromani e non cambiano :) Posso unirmi ai tuoi saluti e salutare queste persone? :)
wow non vedo l 'ora di averla...ne compro 3 !
non so cosa me ne faccio di 3 ma va di moda :D:D
Severnaya
01-10-2009, 10:15
io saluto la mia famiglia e tutti quelli che mi conoscono! ! !
Una cosa è certa, anzi due...
Il dissipatore è proprio bello e la scheda sembra avere una lunghezza "umana"! :asd:
Scrambler77
01-10-2009, 10:22
Dehihohoho.... :asd:
io saluto la mia famiglia e tutti quelli che mi conoscono! ! !
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
io faccio messaggi inutili perchè voglio arrivare a 3000 :asd:
halduemilauno
01-10-2009, 10:24
Giusto 6 giorni si discuteva amabilmente con un simpatico utente, e questo diffidava della esistenza di tale scheda, e della sua presentazione in tempi brevi... brevissimi.
Vorrei fargli un saluto speciale.
Non manca poco neppure per i primi benchmark... e dalle specifiche sembra proprio tecnologia aliena. Si parla addirittura di macinare codice C+ direttamente. Ho molta curiosità a riguardo.
Anche lo slogan è già pronto, "NVIDIA Fermi, va come un reattore nucleare... e consuma pure uguale".
quella presentata ieri è la Tesla ovvero la variante professionale(sostituirà la quadro?) per la versione GeForce che rispetto all'altra è semplificata magari la presenteranno nel proseguio della manifestazione. per i bench me li aspetto il 22 ottobre le schede come ha detto il CEO nel corso di novembre. ovviamente per la commercializzazione credo che daranno la precedenza alla gaming.
;)
fatichi a leggere? GT300 è una scheda che nasce come prodotto della linea TESLA. Anche nei white paper nn si fa accenno all'amboto gaming, e nella conferenza nn osano neanche fare un confronto con le gpu attuali.
DI gaming sta scheda avrà poco niente, manco il tesselator in hardware.....
Diobrando_21
01-10-2009, 11:20
fatichi a leggere? GT300 è una scheda che nasce come prodotto della linea TESLA. Anche nei white paper nn si fa accenno all'amboto gaming, e nella conferenza nn osano neanche fare un confronto con le gpu attuali.
DI gaming sta scheda avrà poco niente, manco il tesselator in hardware.....
aspetta aspetta, questa me la segno così appena si avranno tutte le info dettagliate saranno grasse risate...ti ricordo che secondo qualcuno (poveracci!) non sarebbe uscita nemmeno x l'inizio 2010, e già lì di risate me ne sono fatte eh! Cercate di nn farmi crepare però ;)
fatichi a leggere? GT300 è una scheda che nasce come prodotto della linea TESLA. Anche nei white paper nn si fa accenno all'amboto gaming, e nella conferenza nn osano neanche fare un confronto con le gpu attuali.
DI gaming sta scheda avrà poco niente, manco il tesselator in hardware.....
Ti sogni le cose?
L'architettura Fermi darà vita a schede che copriranno tutte le fasce, Quadro Geforce, tesla, e non nasce come come prodotto della linea Tesla.
Nei whitepaper si accenna al gaming, nello specifico alla parte non strettamente grafica.
I confronti con le prestazioni delle GPU attuali ci sono stati, e parlo al plurale...
Per ora non si è parlato di un tassellator hardware, del resto non si è parlato nommeno di ROP o TMU e questo non esclude certo la loro presenza.
Permettimi solo un appunto. La scheda esiste fisicamente, non è dato sapere se funzioni. La presentazione è uno dei più lunghi paper launch che io ricordi.
Su Anandtech fanno gli stessi appunti, presentazione, la scheda non si sa se esista, non si sanno frequenze/prezzi/prestazioni.
Quella presentata è la parte dedicata al GPGPU/Cuda, sul Gaming nulla si sa (dubito che mettano la stessa ram ECC di cui si parla nella documentazione).
Insomma, sembra tecnologia aliena ma deve ancora sbarcare...
C'era gente che si era indignata per il lancio in basso numero della 5870, quindi faccio solo questo appunto per dovere di cronaca.
Poi queste notizie fanno bene, c'è gente che ritorna dopo mesi di assenza con commenti coloriti e scarni di contenuto tecnico, ma sono sempre stati dei piromani e non cambiano :) Posso unirmi ai tuoi saluti e salutare queste persone? :)
Però dovresti fare un altro appunto, attualmente non è stata presentata alcuna scheda, come hai detto tu, ad essere presentata è stata l'architettura su cui saranno basate le future schede, qindi lamentarsi della scarsa disponibilità non avrebbe senso, questo non è un paper lunch dato che non è stato lanciato nessun prodotto, ma una presentazione della nuova architettura.
Però dovresti fare un altro appunto, attualmente non è stata presentata alcuna scheda, come hai detto tu, ad essere presentata è stata l'architettura su cui saranno basate le future schede, qindi lamentarsi della scarsa disponibilità non avrebbe senso, questo non è un paper lunch dato che non è stato lanciato nessun prodotto, ma una presentazione della nuova architettura.
Si chiama Paper Launch per quello. E' la presentazione su carta (paper) di qualcosa. Cosa ci sarebbe di strano in quanto ho detto?
Si parla di Tesla, Quadro eccetera e di questi prodotti neanche l'ombra. Quando usciranno se ne riparla, ma diamo a Cesare quel che è di Cesare e non quello che è di Caio :)
aspetta aspetta, questa me la segno così appena si avranno tutte le info dettagliate saranno grasse risate...ti ricordo che secondo qualcuno (poveracci!) non sarebbe uscita nemmeno x l'inizio 2010, e già lì di risate me ne sono fatte eh! Cercate di nn farmi crepare però ;)
Qualcuno aveva anche detto che avrebbe avuto un bus per la memoria a 512bit. Ti ha fatto ridere anche quell'affermazione? ;)
Immagino a breve uscirà un articolo più dettagliato con i particolari, su cui ci si potrà confrontare meglio.
Comunque io non escluderei del tutto che queste schede abbiano qualche feature in meno di quelle da gioco, proprio a causa delle rese produttive scarse hanno utilizzato per il gpgpu schede con elementi non funzionanti come il tessellator, che magari in quest'ambito non serve.
@Stefem
Più che coprire tutte le fasce di prodotti, direi coprire tutte le tipologie, ossia game, rendering professionale e gpgpu.
Per il coprire tute le fasce occorrerà vedere quanto questa architettura sia scalabile verso il basso, con quanto sforzo e in quali tempi.
Io ho paura che prima di vedere una scheda di fascia media basata su gt300 dovremo aspettare parecchio tempo (durante il qualche vedremo solo incarnazioni di gt200), a meno che naturalmente queste schede non vadano meno del previsto e quindi già una eventuale "gtx360" possa essere una scheda di quella fascia, naturalmente se i costi lo permetteranno.
halduemilauno
01-10-2009, 12:03
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/Fermi_Graka_2.jpeg
;)
Scrambler77
01-10-2009, 12:05
[IMG]
;)
Finalmente hanno azzeccato un design degno di nota...
leoneazzurro
01-10-2009, 12:05
http://www.anandtech.com/video/showdoc.aspx?i=3651
"Then timing is just as valid, because while Fermi currently exists on paper, it's not a product yet. Fermi is late. Clock speeds, configurations and price points have yet to be finalized. NVIDIA just recently got working chips back and it's going to be at least two months before I see the first samples. Widespread availability won't be until at least Q1 2010.
I asked two people at NVIDIA why Fermi is late; NVIDIA's VP of Product Marketing, Ujesh Desai and NVIDIA's VP of GPU Engineering, Jonah Alben. Ujesh responded: because designing GPUs this big is "fucking hard"."
Queste sono le dichiarazioni di Nvidia a proposito della disponibilità di GF100, che vengono da persone ufficiali.
Che poi si possa fare un "paper launch" con riferimenti prestazionali due o tre mesi prima dell'effettiva commercializzazione, è un'altra storia. Probabilmente questo chip sarà più veloce di Cypress. Le incognite sono "quanto", "quando" e "a che prezzo".
michelgaetano
01-10-2009, 12:06
Finalmente hanno azzeccato un design degno di nota...
Considerato quanto serva, e che un connettore è a lato e uno in fondo (perdendo spazio da entrambi i lati) -_-
Diobrando_21
01-10-2009, 12:12
Qualcuno aveva anche detto che avrebbe avuto un bus per la memoria a 512bit. Ti ha fatto ridere anche quell'affermazione? ;)
bisogna vedere da chi viene tale affermazione e in che contesto...chiunque parli senza cognizione di causa ha perso un'occasione x starsi zitto (vedi sopra)...si hanno notizie certe? Poche. Allora perché dare giudizi affermando tra l'altro cose nn vere e in totale contraddizione con le poche news ufficiali (fermi nasce come prodotto tesla, ma dai)...
ps: bus 512, 384, 128 bit...x me sono solo numeri, quello che conta sono i bench, perciò fino a quel momento ogni discorso in tal senso è solo aria...;)
Goofy Goober
01-10-2009, 12:17
siam sicuri che quello non sarà solo il design della roba TESLA??
per i babbioni consumers gamerz c'è la versione plasticone forever :muro: :muro:
chiunque parli senza cognizione di causa ha perso un'occasione x starsi zitto (vedi sopra)
Quindi di fatto qui dentro non dovrebbe esserci neanche un commento. Come mai invece c'è gente che scrive/esulta/da del poveraccio a destra e a manca? ;)
Scrambler77
01-10-2009, 12:22
siam sicuri che quello non sarà solo il design della roba TESLA??
E' probabile. In ogni caso non sembra un autotreno da 28cm...
leoneazzurro
01-10-2009, 12:22
Se magari stiamo tutti calmini il forum ringrazia ;)
Goofy Goober
01-10-2009, 12:23
E' probabile. In ogni caso non sembra un autotreno da 28cm...
sono l'unico a cui piacciono le VGA ENORMI? :sofico: :sofico: :sofico:
Scrambler77
01-10-2009, 12:26
sono l'unico a cui piacciono le VGA ENORMI? :sofico: :sofico: :sofico:
:asd:
Cmq per chi volesse qlc info in più con tanto di disegnini esplicativi ed animazini multicolori:
http://www.nvidia.com/object/fermi_architecture.html
Diobrando_21
01-10-2009, 12:34
Quindi di fatto qui dentro non dovrebbe esserci neanche un commento. Come mai invece c'è gente che scrive/esulta/da del poveraccio a destra e a manca? ;)
un conto è commentare, un conto è dire boiate (così va meglio?)...eppure mi sembrava di essermi spiegato bene mah...poi non capisco xke ti senti chiamato in causa, appartieni forse a quella schiera?
Se magari stiamo tutti calmini il forum ringrazia ;)
mai stato più calmo, è solo uno scambio di opinioni ;)
un conto è commentare, un conto è dire boiate (così va meglio?)...eppure mi sembrava di essermi spiegato bene mah...poi non capisco xke ti senti chiamato in causa, appartieni forse a quella schiera?
Chiamato in causa? Boh, a me quello con la coda di paglia in fiamme sembri tu... Non mi sembra di averti quotato? Oppure l'ho fatto senza accorgemene ;)
Scrambler77
01-10-2009, 12:45
Chiamato in causa? Boh, a me quello con la coda di paglia in fiamme sembri tu... Non mi sembra di averti quotato? Oppure l'ho fatto senza accorgemene ;)
Magari però se vi spostate in pvt vi potete raccontare anche ciò che avete mangiato a pranzo. ;)
Tom's ha postato qlc foto della scheda in più... http://www.tomshw.it/news.php?newsid=19571
Considerato quanto serva, e che un connettore è a lato e uno in fondo (perdendo spazio da entrambi i lati) -_-
Ricorda che la scheda in foto è una Tesla, e che le necessità a livello di design del layout sono sostanzialmente diverse rispetto al settore consumer.
Le ultime Quadro di fascia alta e le Tesla adottano la stessa posizione dei connettori di alimentazione, funzionando anche con un solo connettore, mentre le ultime schede Geforce (anche se è così dalle 8800) hanno i connettori posizionati lateralmente, design che finalmente ha adottato anche AMD
Magari però se vi spostate in pvt vi potete raccontare anche ciò che avete mangiato a pranzo. ;)
Se ti da fastidio puoi comunque saltare i commenti. Non vedo come possano essere più IT dei tuoi
Dehihohoho.... :asd:
E ora arrivano le mazzate...
A volte prima di fare delle critiche bisognerebbe essere sicuri di essere esenti dalle tali :D
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/Fermi_Graka_2.jpeg
;)
Più che altro mi sto interrogando sulla presenza di una connessione DVI, su una Tesla non sembra molto utile, almeno che...
Diobrando_21
01-10-2009, 12:57
Chiamato in causa? Boh, a me quello con la coda di paglia in fiamme sembri tu... Non mi sembra di averti quotato? Oppure l'ho fatto senza accorgemene ;)
sicuramente non te ne sei accorto...confido nella tua buona fede e nella peculiarità nel comprendere l'italiano ;) ciao
FINE OT
Scrambler77
01-10-2009, 12:58
Se ti da fastidio puoi comunque saltare i commenti. Non vedo come possano essere più IT dei tuoi
A volte prima di fare delle critiche bisognerebbe essere sicuri di essere esenti dalle tali :D
Vogliamo contare i tuoi?
Dai sempre dimostrazione che ignorarti è la scelta migliore. Bye. :)
Più che altro mi sto interrogando sulla presenza di una connessione DVI, su una Tesla non sembra molto utile, almeno che...
Se va a sostituire le attuali quadro, mi interrogo più sul fatto che ne abbia una sola. :mbe:
leoneazzurro
01-10-2009, 13:01
le polemiche finiscono qui. Primo e ultimo avvertimento.
EDIT: visto post di Leone
marchigiano
01-10-2009, 13:28
http://img340.imageshack.us/img340/3395/gt300.th.jpg (http://img340.imageshack.us/i/gt300.jpg/)
a me sembra che nei giochi andrà circa il doppio della 285 mentre nel calcolo circa il quadruplo...
hohenstaufen
01-10-2009, 13:33
Vogliamo contare i tuoi?
Dai sempre dimostrazione che ignorarti è la scelta migliore. Bye. :)
Se va a sostituire le attuali quadro, mi interrogo più sul fatto che ne abbia una sola. :mbe:
Per quello che ne so io le Quadro sono schede per grafica professionale, mentre le Tesla sono schede dedicate unicamente al gpgpu (infatti fino a gt200 sulle workstation per gpgpu oltre alle schede Tesla era affiancata una Quadro per potere avere una o più uscite video).
Quadro (http://www.nvidia.it/docs/IO/62327/fx5800.jpg)
Tesla (http://www.nvidia.it/docs/IO/56259/tesla_c1060_boardshot.jpg)
michelgaetano
01-10-2009, 13:35
http://img340.imageshack.us/img340/3395/gt300.th.jpg (http://img340.imageshack.us/i/gt300.jpg/)
a me sembra che nei giochi andrà circa il doppio della 285 mentre nel calcolo circa il quadruplo...
Se bastasse guardare alle specifico, Cypress/RV870 andrebbe anche lei il doppio della precedente serie, ma non è così :D
ndrmcchtt491
01-10-2009, 13:39
Mamma mia che mostro, non hanno radoppiato le specifiche, sono andati oltre:ave: :ave: :ave:
se i numeri sono veramente quelli ci sarà una bella sfida con AMD, non ho capito se è "solo" una scheda grafica o altro...(il numero di shader, ora battezzati Cuda Core, salgono a ben 512, raccolti in 16 Shader Cluster da 32 Cuda Core ciascuno. Oltre ad una memoria cache L1 da 1MB, fa la sua comparsa una memoria L2 unificata da 768KB. Per quanto riguarda il quantitativo di memoria video "classica", a seconda dei modelli già citati in precedenza, si parla di valori che andranno da 1,5GB a ben 6GB per il modello Tesla, sfruttando chip di tipo DDR5 su frame buffer da 384bit di ampiezza.)
elgabro.
01-10-2009, 13:49
e vai la mia prossima scheda video. :D :D
SwatMaster
01-10-2009, 13:50
secondo meil futuro sarà ancora Nvidia ho dubbi su un acquisti di un ATI di nuovo ora vado con i piedi di piombo
A chippone grande e complesso corrisponde un prezzo altrettanto elevato. Nvidia potrà anche tirare fuori la scheda più veloce del mercato, ma se costerà uno sproposito, non se la filerà nessuno. E, per quel che posso immaginare, appena il verde arriverà sugli scaffali, il prezzo del rosso calerà di bestia.
La battaglia, imho, ora è sui prezzi, non sulla potenza.
a dire il vero i reattori nucleari l'energia la producono, non la consumano :D
essendo un paper-launch, e neanche del tutto chiaro perchè mi sembra esserci molta confusione e non ho ancora capito se sarà sostitutivo di geforce, quadro, tesla o di tesla+quadro, o se sarà il nome di tutta la generazione, mi sembra esserci poco da discutere. non sembra eccessivamente lunga la scheda. spero bene nel basso consumo energetico
ps. ah scusate non ci avevo neanche fatto caso. è scritto nel titolo, gaming e gpgpu. tra l'altro, quella che ha li jen è una Tesla
a quanto pare andrà il doppio della 285, perchè mi sembra abbiano detto anche che metteranno ddr5 mantenendo il bus che usavano con le ddr3 per avere la stessa bandwidth che usavano per tener testa ad ati con le gddr5, quindi non solo shader doppi (come per hd5) ma anche bandwidth
a dire il vero i reattori nucleari l'energia la producono, non la consumano :D
/ot
beh, dipende dai punti di vista ;)
tra costi di costruzione, acqua consumata e inquinata, costi di gestione, "smaltimento" scorie, costi medici collaterali...
Per quello che ne so io le Quadro sono schede per grafica professionale, mentre le Tesla sono schede dedicate unicamente al gpgpu (infatti fino a gt200 sulle workstation per gpgpu oltre alle schede Tesla era affiancata una Quadro per potere avere una o più uscite video).
Quadro (http://www.nvidia.it/docs/IO/62327/fx5800.jpg)
Tesla (http://www.nvidia.it/docs/IO/56259/tesla_c1060_boardshot.jpg)
Esatto, solitamente viene affiancata una Quadro NVS a meno che non si abbiano particolari esigenze a livello grafico.
Si chiama Paper Launch per quello. E' la presentazione su carta (paper) di qualcosa. Cosa ci sarebbe di strano in quanto ho detto?
Si parla di Tesla, Quadro eccetera e di questi prodotti neanche l'ombra. Quando usciranno se ne riparla, ma diamo a Cesare quel che è di Cesare e non quello che è di Caio :)
Paper launch non si riferisce ad una presentazione ma al lancio di prodotti che però avviene solo su carta.
Invece qui non è stato lanciato nessun prodotto, addirittura non se ne sa nemmeno il nome.
Le presentazioni non sono paper launch.
Paper launch non si riferisce ad una presentazione ma al lancio di prodotti che però avviene solo su carta.
Invece qui non è stato lanciato nessun prodotto, addirittura non se ne sa nemmeno il nome.
Le presentazioni non sono paper launch.
Perdonami ma illustrare qualcosa che non esiste non è un paper launch? E' un'architettura presentata senza nessuna implementazione. E' un lancio su carta di un qualcosa che non esiste.
Poi dagli il nome che vuoi, ma per quanto mi riguarda hanno detto "stiamo lavorando su questo, siamo in ritardo, è GROSSO, aspettateci". Preferisci "tamponamento alla mancanze nell'offerta dei prodotti"? ;)
entanglement
01-10-2009, 18:53
notevole !
chissà se gira crysis :sbonk:
marchigiano
01-10-2009, 20:05
Se bastasse guardare alle specifico, Cypress/RV870 andrebbe anche lei il doppio della precedente serie, ma non è così :D
poi dipende dai driver e dai bus che non sono il doppio e pure la cpu fa un po da tappo su alcuni giochi. a proposito ma non dicevano che con DX11 la CPU non contava più quasi niente?
notevole !
chissà se gira crysis :sbonk:
be questo giro penso proprio di si, almeno a 1920
MiKeLezZ
02-10-2009, 01:14
a dire il vero i reattori nucleari l'energia la producono, non la consumano :D Bhe in realtà l'energia né si crea né si distrugge, viene solo convertita.
Fra l'altro l'atto della conversione determina l'immissione di calore nel sistema, e quindi perdita di energia.
Poichè tale processo è a senso unico esiste una teoria catastrofistica che vede la fine del nostro Universo una volta che tutta l'energia in circolo sarà stata ridotta, attraverso varie trasformazioni, in calore.
Quindi in realtà i reattori nucleari l'energia la riducono e ci stanno prosciugando poco a poco, altro che produzione!!! :o
p.s. di "launch" c'è ancora poco. questa è una tecnology preview.
Bhe in realtà l'energia né si crea né si distrugge, viene solo convertita.
Fra l'altro l'atto della conversione determina l'immissione di calore nel sistema, e quindi perdita di energia.
Poichè tale processo è a senso unico esiste una teoria catastrofistica che vede la fine del nostro Universo una volta che tutta l'energia in circolo sarà stata ridotta, attraverso varie trasformazioni, in calore.
Quindi in realtà i reattori nucleari l'energia la riducono e ci stanno prosciugando poco a poco, altro che produzione!!! :o
ti sei contraddetto. hai appena detto che non si può creare o distruggere energia, e poi dici che viene ridotta.
quando si trasforma in calore non è che si riduce, si trasforma appunto in calore che può essere trasformato in energia tramite generatori (turbine)
la teoria mi sembra avere mica tanto senso. probabilmente è qualcosa di più complesso ;)
e comunque non credo che quando è stata scritta questa affermazione che consuma come un reattore nucleare si stesse pensando alle teorie catastrofistiche etc...
Ma quindi utilizzando la suite adobe cs4 quale scheda conviene usare? Nvidia o Ati?
Bhe in realtà l'energia né si crea né si distrugge, viene solo convertita.
Fra l'altro l'atto della conversione determina l'immissione di calore nel sistema, e quindi perdita di energia.
Poichè tale processo è a senso unico esiste una teoria catastrofistica che vede la fine del nostro Universo una volta che tutta l'energia in circolo sarà stata ridotta, attraverso varie trasformazioni, in calore.
Quindi in realtà i reattori nucleari l'energia la riducono e ci stanno prosciugando poco a poco, altro che produzione!!! :o
p.s. di "launch" c'è ancora poco. questa è una tecnology preview.
il tuo discorso vale solamente per una reazione chimica (Lavoisier) in una reazione nucleare queste leggi non valgono
e cmq tornate a parlare di schede video che siete abbondantemente OT
il numero di shader, ora battezzati Cuda Core, salgono a ben 512, raccolti in 16 Shader Cluster da 32 Cuda Core ciascuno. Oltre ad una memoria cache L1 da 1MB, fa la sua comparsa una memoria L2 unificata da 768KB. Per quanto riguarda il quantitativo di memoria video "classica", a seconda dei modelli già citati in precedenza, si parla di valori che andranno da 1,5GB a ben 6GB per il modello Tesla, sfruttando chip di tipo DDR5 su frame buffer da 384bit di ampiezza.
HOLY SH*T! Ma siamo sicuri di non aver bevuto troppo? Una cosa del genere cambierebbe il mondo!
Ma chi l'ha sviluppata questa tecnologia? Non ho capito bene, ATI? :D
HOLY SH*T! Ma siamo sicuri di non aver bevuto troppo? Una cosa del genere cambierebbe il mondo!
Ma chi l'ha sviluppata questa tecnologia? Non ho capito bene, ATI? :D
a quale ti riferisci? gddr5, shader unificati o cosa?? :confused:
a quale ti riferisci? gddr5, shader unificati o cosa??
L'hai letto o no l'articolo? Di che cosa ha parlato per tutto il tempo? CUDA, questa è e sarà la parola del futuro! Grazie a 512 core CUDA, gli shader salgono a 512. Fantastica strategia quella di mettere non 8 core per ogni SM, ma ben 32. Come hanno fatto? Facile, la tecnica è stata quella di ridurre il numero degli SM, ovvero nelle GT80 era di 16 SM e nelle GT200 di 32 e questi valori venivano moltiplicati per 8 cores. Adesso hanno pensato di tornare a 16 SM aumentando però i core per ogni SM, ovvero 32. Secondo me è una miglioria da non sottovalutare. Secondo dettaglio che mi fa venire la pelle di cappone è che la memoria variera da 1,5 GB ad addirittura 6 GB grazie a Nvidia Tesla, sfruttando quelli che ATI chiamava chip DDR5 (certo..) su un buffer da 384 bit. Le schede ATI avevano un buffer maggiore, una di esse (credo la 4890) ha 512 bit. Credo che le GT300 saranno il futuro, almeno per chi ha i soldi, altrimenti c'é ATI che offre opportunità quasi alla pari a prezzo minore... io vado per la prima opzione, come perdersi una GT300 da 3 Gb su Tesla a 500-600 euro? Se devo prendermi la HD 5800 a 300-400 euro, a questo punto conviene aumentare il budget!
Grazie a 512 core CUDA...
Ops, errore mio xD
Secondo dettaglio che mi fa venire la pelle di cappone è che la memoria variera da 1,5 GB ad addirittura 6 GB grazie a Nvidia Tesla
Mi sa che fai un pò di casino. Nvidia Tesla è un nome di un prodotto e avrà da 1,5 a 6 Gb di ram. Ma serve per il calcolo non per la grafica.
sfruttando quelli che ATI chiamava chip DDR5 (certo..)
Che Nvidia invece chiama? :)
Le schede ATI avevano un buffer maggiore, una di esse (credo la 4890) ha 512 bit.
HD2900. Le 4890 sono a 256Bit
Credo che le GT300 saranno il futuro
Sì, si parla di 2010.
almeno per chi ha i soldi, altrimenti c'é ATI che offre opportunità quasi alla pari a prezzo minore...
Perchè dovrei spendere di più per avere le stesse cose? Nion è questione di avere i soldi, ma di averli da sbattere via allora.
Per inciso, non offrono circa le stesse opportunità.
io vado per la prima opzione, come perdersi una GT300 da 3 Gb su Tesla a 500-600 euro? Se devo prendermi la HD 5800 a 300-400 euro, a questo punto conviene aumentare il budget!
Fai calcolo parallelo o GPGPU?
Tra l'altro devi un attimino aumentare il budget, le attuali schede Tesla partono da circa 1200€...
@DjLode
Hai ragione che il buffer è a 256Bit, pensavo però al fatto che in un ATI HD 4870X2 in effetti è 2x256?
Per il resto non si è capito una mazza di quello che hai detto:
"Che Nvidia invece chiama?" no, no, non hai capito: "sfruttando quelli che ATI chiamava chip DDR5 (certo..) " è come dire "ATI usa chip DDR5 e io mi chiamo Abramo Lincoln"
"Sì, si parla di 2010" Eh? 2010 non è forse il futuro? Ci stiamo facendo delle prospettive troppo larghe, stando a quanto dicono gli scienziati tra pochissimi anni ci sarà una nuova era glaciale, per l'inversione dei poli, quindi diciamo che il futuro durerà qualche anno...
"Perché dovrei spendere di più per avere le stesse cose?" Perchè ci sono molte persone come te che pensano che sono le stesse cose. Non è affatto così, la pizza margherita è uguale ovunque, ma ci sono delle differenze da pizzeria in pizzeria...
"Nion è questione di avere soldi, ma di averli da sbattere via allora" No è questione di acquistare qualcosa che duri e abbia una garanzia effettiva. Prendere una scheda che consuma e scalda, è uno spreco di denaro.
"Tra l'altro devi un attimino aumentare il budget, le attuali schede Tesla partono da circa 1200€... " l'hai detto, in effetti pensavo al modello da 1.160 euro... in offerta naturalmente!
leoneazzurro
03-10-2009, 14:58
simonk, puoi per piacere evitare flame? Non per altro, ma a parte le numerose inesattezze tecniche, ti stai avvicinando parecchio al "limite di accensione".
Intanto sono stati sputtanati: la scheda che Jen-Hsun Huang ha mostrato nella conferenza nVidia, era FALSA, cioè non conteneva alcun chip Fermi. :doh: :doh: :doh:
"Tuttavia a far funzionare la demo mostrata al pubblico era un chip Fermi", ha spiegato Luciano Alibrandi di Nvidia. :mc: :mc: :mc:
Vi rendete conto? Fanno una mega conferenza per presentare il nuovo chip e... udite udite (oppure guardate), il nuovo chip non c'era :D :D :D :sofico:
Concludo con l'emoticon usata dal più incredibile fanboy nVidia, ossia halduemilauno:
;)
adesso cerco di fare chiarezza perchè qui non capisco quando sei ironico e quando sei serio. poi chiudiamo questo quasiflame
Per il resto non si è capito una mazza di quello che hai detto:
a dire il vero io ho capito cosa diceva lui ma non quello che dici tu. prima avevi detto che Cuda è stata sviluppata da ATI?
"Che Nvidia invece chiama?" no, no, non hai capito: "sfruttando quelli che ATI chiamava chip DDR5 (certo..) " è come dire "ATI usa chip DDR5 e io mi chiamo Abramo Lincoln"
scusa, ati usava-e usa ancora- chip ddr5. ciao, abramo lincoln :D
"Sì, si parla di 2010" Eh? 2010 non è forse il futuro? Ci stiamo facendo delle prospettive troppo larghe, stando a quanto dicono gli scienziati tra pochissimi anni ci sarà una nuova era glaciale, per l'inversione dei poli, quindi diciamo che il futuro durerà qualche anno...
lui intendeva che ati ha risposte concrete mentre nvidia no, suppongo.
"Perché dovrei spendere di più per avere le stesse cose?" Perchè ci sono molte persone come te che pensano che sono le stesse cose. Non è affatto così, la pizza margherita è uguale ovunque, ma ci sono delle differenze da pizzeria in pizzeria...
certo, concordo che nvidia genericamente offre più tecnologie ed è pioniera del gpgpu etc... però per la maggior parte dell'utenza, quello che importa è il prezzo/prestazioni crude
"Nion è questione di avere soldi, ma di averli da sbattere via allora" No è questione di acquistare qualcosa che duri e abbia una garanzia effettiva. Prendere una scheda che consuma e scalda, è uno spreco di denaro.
la dimostrazione è corretta, ma si fonda su un'ipotesi sbagliata ;)
se dovessi cercare una cosa che scalda e consuma, non andrei certo a scegliere una ati serie 5000, questo è un pregiudizio che si è formato con le serie 1000 e 2000. e tra l'altro la generazione precendente vedeva ATi con schede molto più parsimoniose delle controparti 6800 che avevano consumi e temperature altissimi.
ps. ah, e poi non è che la quantità di ram varia a seconda del bus.. quella è la bandwidth
Xeon3540
07-10-2009, 07:21
Raga avete sentito che il prototipo delle gtx 300 è falsa :-)
MiKeLezZ
07-10-2009, 11:57
il tuo discorso vale solamente per una reazione chimica (Lavoisier) in una reazione nucleare queste leggi non valgonoAssolutamente no, la legge di conservazione dell'energia è uno dei traguardi più importanti degli ultimi secoli.
Quello di Lavoisier è l'enunciato della chimica, in ingegneria si trova sotto il nome del primo e secondo principio termodinamico, ma vale per qualsiasi cosa data la famosa formula E=mc^2 di Einstein.
Tanto più proprio nella reazione nucleare, dove dalla fissione di atomi, ovvero da una perdita di massa (1 atomo pesante si scinde in 2 atomi la cui somma è inferiore al primo), si sprigiona energia.
ti sei contraddetto. hai appena detto che non si può creare o distruggere energia, e poi dici che viene ridotta.
quando si trasforma in calore non è che si riduce, si trasforma appunto in calore che può essere trasformato in energia tramite generatori (turbine)
la teoria mi sembra avere mica tanto senso. probabilmente è qualcosa di più complesso ;)
e comunque non credo che quando è stata scritta questa affermazione che consuma come un reattore nucleare si stesse pensando alle teorie catastrofistiche etc...Il calore è una forma di energia equivalente alle altre, in campi teorici.
In ingegneria è una forma di energia inferiore definita "non nobile".
Questo perchè per il primo principio della termodinamica passa dal corpo più caldo a quello più freddo, in modo da raggiungere un equilibrio termico, e quindi ci ritroviamo sì con una grande disponibilità di calore a basse temperature (25°c, la nostra atmosfera), ma non utilizzabile direttamente/facilmente.
Inoltre, per il secondo principio della termodinamica non esistono macchine capaci di una efficienza di traformazione energia-lavoro del 100%, quindi per ogni processo di trasformazione REALE avremo sempre una parte di energia trasformata in calore che se ne va.
Le centrali nucleari usano cicli chiusi con turbine, quindi come vedi stanno già sfruttando il calore per trasformarlo in energia (ma a temperature ben superiori a quelle dell'atmosfera), per il loro corretto funzionamento sono inoltre costrette a buttare fuori vapore acqueo dalle torri di raffreddamento, se non a prelevare acqua fredda e a buttarla fuori calda, ovvero immettono una quantità immane di calore nell'atmosfera (circa il doppio di quanto la centrale trasforma effettivamente in energia - e la centrale elettrica traforma da MW a GW di energia elettrica).
Il calore di sopravanzo passa quindi dal corpo più caldo (vapore) a quello più freddo (atmosfera), determinando un innalzamento infinitesimale di temperatura di quest'ultima.
Fra l'altro questo non è positivo perchè l'aumento di temperatura dell'atmosfera causa un abbassamento dell'efficienza della centrale, e quindi una sua maggiore dispersione di calore, e così via...
Inoltre l'energia elettrica fornita dalle centrali nucleari andrà a transitare verso l'utenza in linee elettriche di rame e stazioni/sottostazioni di innalzamento/abbassamento, e quindi vedrà una parziale perdita per effetto Joule delle linee di trasmissione (cioè, i fili dell'alta tensione trasmettono anch'essi un po' di calore nell'atmosfera).
Una volta a destinazione, sarà comunque utilizzata nelle case/fabbriche in processi che a loro volta avranno perdite per effetto Joule (il PC che stiamo usando in pratica consuma energia per funzionare, e per fare questo, la trasforma in calore), se non trasformazione diretta in calore (stufetta elettrica).
Allo stesso modo parte del calore dell'atmosfera viene continuamente dissipato dalla Terra verso lo spazio, sempre per il primo principio della termodinamica.
In pratica, guardando in senso globale, le centrali nucleari e le utenze non fanno altro che trasformare materia e energia in calore.
Il calore, come fine ultimo, dovrà passare dalla Terra (corpo caldo) allo Spazio (corpo freddo) fino a che entrambi non avranno la stessa temperatura, e si arriverà a quella che non è una visionaria ipotesi catastrofistica... ma un reale possibile scenario (ovviamente non verificabile poichè lontano miliardi di miliardi di anni).
Raga avete sentito che il prototipo delle gtx 300 è falsa :-)E' un prototipo non funzionante, comprensibile dato che l'uscita è ancora lontana e i tempi erano troppo ristretti per poter fare di meglio per la presentazione.
Questo è diverso dall'essere falsa, cioè dal fare credere che funzioni e invece c'è un artefizio dietro che muove la baracca, oppure sia di cartone...
E' un prototipo non funzionante, comprensibile dato che l'uscita è ancora lontana e i tempi erano troppo ristretti per poter fare di meglio per la presentazione.
Questo è diverso dall'essere falsa, cioè dal fare credere che funzioni e invece c'è un artefizio dietro che muove la baracca, oppure sia di cartone...
Non è un prototipo non funzionante...è un pcb con un dissi montato sopra, visto che il chip Fermi sotto non c'era.
Insomma, non era di cartone, ma di plastica e latta si.
"Il chip Fermi non era presente sul prototipo che è stato mostrato alla conferenza" ha spiegato Luciano Alibrandi di Nvidia
http://www.tomshw.it/news.php?newsid=19598
Raga avete sentito che il prototipo delle gtx 300 è falsa :-)
certo...però non ho visto nessduna news sparata in prima pagina qui su HWupgrade....chissà come mai???
date una letta a TOMìs per sapere cosa ha presentato quella mafiosa di nVidia (sto sclerando con batman in modo assurdo...bug assurdi nelle cutscene con crash improvvisi...ancora non si capisce se sono del gioco o dovuti al caxxo di physix introdotto dalla aptch nvidia)...praticamente hanno presentato un mattone napoletano stile vendita da autogril autostradale....chissà cosa ne dici halduemilauno....
http://www.tomshw.it/news.php?newsid=19598
X indio68
hal avrà qualche strizza, ma non di tipo oculare :D :p :Prrr:
X indio68
hal avrà qualche strizza, ma non di tipo oculare :D :p :Prrr:
sicuro...mai sopportato in fanboy sfegatati....io non amo nVidia per questa sua mania di sponsorizzare i videogiochi rendendo al vita difficle ai possessori di ATI, per ste schifezze di physix e per le mazzette per aggiungere effettini e rpestazioni solo per i possessori delle schede verdi...per ilr esto ne ho avute e sono ottime schede..ma sto modo di fare all'italiana non mi garba!:mad:
Che poi, ammettendo che non conosco i profitti derivanti dal mercato consolle, ma ho quasi l'impressione che Nvidia (ed ATI) potrebbero più proficuamente utilizzare le loro capacità di "marketing", compreso il "sovvenzionare" le software-house, facendo rifiorire un mercato "nativo" di videogiochi per PC (e non porting da consolle) che si distinguesse per qualità in modo tale da giustificare l'acquisto di VGA che da sole costano quanto una consolle.
Se invece di cercare di strapparsi in ogni modo fette di mercato in modo più o meno lecito, per poi propinarci giochi per forza di cose limitati, cercassero di riprendersi spazi persi per colpa delle consolle (puntando finalmente sulla qualità dei software), ne potremmo guadagnare tutti... questo è un campo dove dovrebbero impegnarsi.
Stupenda nuova e freschissima notizia da parte di nVidia:
Voglion sfruttare Cuda per accelerare... udite udite, LA SCANSIONE ANTIVIRUS! :sofico: :sofico: :sofico:
Dicono che attraverso Cuda, quindi col gpgpu, la scansione è molto più veloce di quella fatta via CPU! :doh: :doh: :doh:
Aò, ma lo sapete che dipende dalla velocità del disco rigido???
Ridicoli!
Stupenda nuova e freschissima notizia da parte di nVidia:
Voglion sfruttare Cuda per accelerare... udite udite, LA SCANSIONE ANTIVIRUS! :sofico: :sofico: :sofico:
Dicono che attraverso Cuda, quindi col gpgpu, la scansione è molto più veloce di quella fatta via CPU! :doh: :doh: :doh:
Aò, ma lo sapete che dipende dalla velocità del disco rigido???
Ridicoli!
al limite rendere meno pesante sulla cpu...ma velocizzare...come sempre quando non sanno cosa inventarsi le sparano sempre + grosse....come "tanto le dx11 non servono"....ridicoli.
entanglement
07-10-2009, 16:09
uhm però non ho ancora visto un bench :mbe: :mbe:
uhm però non ho ancora visto un bench :mbe: :mbe:
e non ne vedrai per un bel pò , visto che nVidia è stata colta con le mani nella marmellata...la scheda presentata è UN FALSO...ERA VUOTA...NIENTE G300....certo hwupgrade ha pensato "bene" di omettere la news....riportata invece epr esempio da Tom's hardware....ahhh la pubblicità.....:rolleyes:
entanglement
08-10-2009, 14:57
ma bene :D :D :D :D
e io mi tengo la ATI :p :p :p
potrei considerare, ma non prima di settembre 2010, un generale upgrade magari con una 5850 x2. certo è che sta mossa di Invidia mi lascia interdetto
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.