View Full Version : 448 stream processors per le GPU Fermi per schede Tesla
Redazione di Hardware Upg
23-12-2009, 12:15
Link alla notizia: http://www.hwupgrade.it/news/skvideo/448-stream-processors-per-le-gpu-fermi-per-schede-tesla_31145.html
Grazie ad un documento pubblicato sul sito NVIDIA trapelano alcuni nuovi dettagli architetturali delle prime schede Tesla basate su GPU della famiglia Fermi
Click sul link per visualizzare la notizia.
lol
mi spiegate anche a me che non ho capito cosa c'è di ridicolo? dico sul serio non l'ho capito...
ho notato solo che invece di essere 512 core sono 448 e conseguenze) ma non mi sembra una tragedia...
lol
mi spiegate anche a me che non ho capito cosa c'è di ridicolo? dico sul serio non l'ho capito...
ho notato solo che invece di essere 512 core sono 448 e conseguenze) ma non mi sembra una tragedia...
Leggi con attenzione quanto riportato nel post di Ratatosk
Che nella news si dice che quando l'annunciarono non dissero quanti core avevano, mentre se vai all'articolo che coprì quel non-evento c'è scritto che i core sono 512.
Non è una tragedia, è solo ridicolo che una redazione si genufletta così profondamente per non far sfigurare nVidia.
ma prenditi NVidia anche tu dai...... ;)
spero che si capisca la cosa, lo si sa da tempo......
Waporware su waporvare...
Si vabbè adesso quale sarebbe il problema?
I dati riportati ci sono e c'erano per cui fine della storia.
Mai capito come si possa diventare "ultrà" di una marca che produce hardware.
Al limite si poteva dire "Guardate che li avevate gia pubblicati".
Vampire666
23-12-2009, 13:01
Ma non capisco cosa centri la redazione di HWUpgrade.
Nvidia ha detto che ci sarebbero stati x stream processors e poi ha cambiato il loro numero. Cosa centra HWUpgrade?
Svelate le specifiche tecniche delle schede video Nvidia Tesla basate su architettura Fermi. La serie Tesla identifica la proposta di Nvidia per il settore HPC.
Il primo dato che balza all'occhio è che le schede Tesla C2050 e C2070 - attese nel secondo trimestre 2010 - non avranno tutte le unità stream processor (512) attive ma solo 448. Le due schede integrano una singola GPU e, rispettivamente, 3 e 6 GB di memoria GDDR5. Il quantitativo di memoria passa a 2,625 GB e 5,25 GB con ECC attivo (controllo errori).
Non è ancora chiaro il motivo per cui Nvidia ha "tagliato" parte degli stream processor, che dovevano essere 512, stando alle informazioni precedentemente rilasciate. Probabilmente un'ipotesi valida potrebbe essere quella di un eccessivo consumo, che in questa ultima configurazione è di 225 watt (TDP massimo, connettori di alimentazione ausiliaria uno a 8 e uno a 6 pin). Oppure una scarsa resa produttiva, forse più probabile dati i grossi problemi della fonderia TSMC con il processo produttivo a 40 nm.
Rimane, al momento, un punto interrogativo sulle specifiche tecniche "castrate" rispetto alle previsioni. Per quanto ne sappiamo, però, Nvidia potrebbe aver parlato genericamente del chip, riservando il core "pienamente funzionante" a un altro modello della serie. Il mistero, insomma, è fitto. Voi che pensate?
Si vabbè adesso quale sarebbe il problema?
I dati riportati ci sono e c'erano per cui fine della storia.
Mai capito come si possa diventare "ultrà" di una marca che produce hardware.
Al limite si poteva dire "Guardate che li avevate gia pubblicati".
...la news non è il dato di stream processor...ma il fatto che nividia ha rivisto in negativo di piu' del 10% il dato inizialmente rilasciato...aspettiamo che dice Corsini...
...ciao Andrea...
avvelenato
23-12-2009, 13:04
Si vabbè adesso quale sarebbe il problema?
I dati riportati ci sono e c'erano per cui fine della storia.
Mai capito come si possa diventare "ultrà" di una marca che produce hardware.
Al limite si poteva dire "Guardate che li avevate gia pubblicati".
Il fatto di stravolgere il passato e la realtà, giornalisticamente, è molto grave, e porta alla mente gli infausti presagi di 1984.
Una cosa simile me la posso attendere da Libero o da Il Giornale, ma qua è piuttosto preoccupante.
SPERO FORTEMENTE in un errore del Corsini, dal quale mi auguro ci sarà una replica.
Ma per me dire "Tizio non aveva detto questa cosa" quando invece l'aveva detta, è più che grave, è deontologicamente scorretto per la professione di giornalista. Ma ve lo immaginate un politico qualsiasi che dice "Se mi votate, aumenterò le pensioni di X!", e dopo qualche tempo, aumenta le pensioni di Y<X, e i giornalisti tutti si mettono a scrivere "All'epoca della campagna elettorale aveva promesso un'aumento delle pensioni, senza tuttavia indicarne l'effettivo incremento...". Scoppiano casini per moooooooolto meno! (giustamente)
g.luca86x
23-12-2009, 13:06
mi sa che vi sfugge un qualcosa di importante: l'unica cosa su cui nvidia ce l'aveva menata era il numero degli stream processors in ragione di 512. Se passato un pò di tempo il numero è calato a 448 significa che c'è davvero qualcosa che non va. Ma se avesse avuto tutti i 512 sp con quelle frequenze quanto avrebbe avuto di tdp questa scheda, 260W?
Sicneramente ma chi se ne frega del passato il punto è:
Queste schede partono già male, depotenziate alla nascita rispetto alle aspettative e a quanto pare non così performanti come ci si aspettava. senza contare un ritardo mostruoso sul natale che farà si che il ritardo di ati dovuto alla produzione limitata sia diventato cosa trascurabile.
Tutt'ora nVidia non ha un bench serio da dare in pasto al pubblico il che fa anche pensare che prima che escano queste schede ufficialmente ancora ci sia da aspettare mesi...
A questo punto chi se ne frega del passato.... il punto è il futuro che vede nVidia in una posizione pessima che più tempo passa e peggio diventa.
Di questo passo esce prima la serie 6xxx di queste schede.
Altra presa per il c....
Preannuncio di un flop come fu l'ATi HD 2900XT ?
Probabile...:rolleyes:
Da parte di un'azienda che godeva di introiti nettamente piu alti rispetto ad AMD e che ha avuto tutto il tempo per progettare un chip coi contro..........:eek:.....come possono essere caduti così ? Mah....
Sicneramente ma chi se ne frega del passato il punto è:
Queste schede partono già male, depotenziate alla nascita rispetto alle aspettative e a quanto pare non così performanti come ci si aspettava. senza contare un ritardo mostruoso sul natale che farà si che il ritardo di ati dovuto alla produzione limitata sia diventato cosa trascurabile.
Tutt'ora nVidia non ha un bench serio da dare in pasto al pubblico il che fa anche pensare che prima che escano queste schede ufficialmente ancora ci sia da aspettare mesi...
A questo punto chi se ne frega del passato.... il punto è il futuro che vede nVidia in una posizione pessima che più tempo passa e peggio diventa.
Di questo passo esce prima la serie 6xxx di queste schede.
sarebbe una batosta per nvidia incredibile, ma penso che usciranno prima, almeno lo spero
Altra presa per il c....
Preannuncio di un flop come fu l'ATi HD 2900XT ?
Probabile...:rolleyes:
Da parte di un'azienda che godeva di introiti nettamente piu alti rispetto ad AMD e che ha avuto tutto il tempo per progettare un chip coi contro..........:eek:.....come possono essere caduti così ? Mah....
maddai flop spero di no......
Non è una tragedia, è solo ridicolo che una redazione si genufletta così profondamente per non far sfigurare nVidia.
Quindi una redazione non dovrebbe pubblicare i dati man mano che questi diventano disponibili. Interessante.
Forse e' meglio se torni a commentare su youtube.
CoolBits
23-12-2009, 13:16
Altra presa per il c....
Preannuncio di un flop come fu l'ATi HD 2900XT ?
Probabile...:rolleyes:
Da parte di un'azienda che godeva di introiti nettamente piu alti rispetto ad AMD e che ha avuto tutto il tempo per progettare un chip coi contro..........:eek:.....come possono essere caduti così ? Mah....
prima di tirare conclusioni bisogna attendere le recensioni delle future geforce...in ogni caso la scelta di progettare mega chipponi aveva già evidenziato problemi con g200....
g.luca86x
23-12-2009, 13:18
[cut]
Ma per me dire "Tizio non aveva detto questa cosa" quando invece l'aveva detta, è più che grave, è deontologicamente scorretto per la professione di giornalista. Ma ve lo immaginate un politico qualsiasi che dice "Se mi votate, aumenterò le pensioni di X!", e dopo qualche tempo, aumenta le pensioni di Y<X, e i giornalisti tutti si mettono a scrivere "All'epoca della campagna elettorale aveva promesso un'aumento delle pensioni, senza tuttavia indicarne l'effettivo incremento...". Scoppiano casini per moooooooolto meno! (giustamente)
Se mi votate ci sarà Cchiu pilu pe tutti!!!!!! Pilu, sempremente e comunquemente, finchè la sanatoria ce lo consentirà!
Ma soprattutto ci girerà Cryostasis?
devil_mcry
23-12-2009, 13:24
ma ste schede, quando escono per sapere? no xke io sn curioso ma ormai se non sbaglio sono in ritardo di mesi già, cambiano le specifiche tecniche quindi vuol dire che nemmeno loro hanno un prototipo pronto e funzionate al 100% la cosa mi lascia perplesso
io prenderò in ogni caso ATI credo, ma volevo vedere un confronto prima, quanto si deve aspettare :muro: :muro: :muro:
ma ste schede, quando escono per sapere? no xke io sn curioso ma ormai se non sbaglio sono in ritardo di mesi già, cambiano le specifiche tecniche quindi vuol dire che nemmeno loro hanno un prototipo pronto e funzionate al 100% la cosa mi lascia perplesso
io prenderò in ogni caso ATI credo, ma volevo vedere un confronto prima, quanto si deve aspettare :muro: :muro: :muro:
spero che ad aprile ci siano ste schede :)
Il fatto di stravolgere il passato e la realtà, giornalisticamente, è molto grave, e porta alla mente gli infausti presagi di 1984.
Una cosa simile me la posso attendere da Libero o da Il Giornale, ma qua è piuttosto preoccupante.
SPERO FORTEMENTE in un errore del Corsini, dal quale mi auguro ci sarà una replica.Eh, addirittura "stravolgere il passato e la realtà"... A me pare che stia montando un castello per aria. La conclusione più ovvia è che ci sia stato un refuso della redazione, altrimenti vuol dire che si pensa male preventivamente.
Se non ti piace la redazione perché non vai a commentare su altri lidi? Così eviti anche di offendere l'altrui professionalità.
Motenai78
23-12-2009, 13:31
spero che ad aprile ci siano ste schede :)
Di che anno? Sai com'è il 2012 finisce tutto xD
Scherzi a parte, c'è mai stata una "gestazione" così lunga per le nascita di una serie di sk video? (non è ironico, son curioso, perché in passato cercavo info sulle sk video, solo una volta che le vedevo nei negozi)
michelgaetano
23-12-2009, 13:32
Più che il fatto che gli stream processor furono effettivamente annunciati (512) e la svista della redazione, quello che è importante in questo contesto sono le implicazioni che questa riduzione può avere, o meglio cosa effettivamente c'è (può esserci) dietro: problemi di rese su tutti, mi sembra si ipotizzasse.
nvidia si giocherà il suo asso nel 2010 allora...se non rispetterà le aspettative di una generazione di schede video bomba come sbandiera da mesi perderà una grossa fetta di mercato =(.
Però non è detto ancora niente,non essendoci bechmark precisi queste schede video potrebbero aver davvero una potenza enorme.
Altra presa per il c....
Preannuncio di un flop come fu l'ATi HD 2900XT ?
Probabile...:rolleyes:
Da parte di un'azienda che godeva di introiti nettamente piu alti rispetto ad AMD e che ha avuto tutto il tempo per progettare un chip coi contro..........:eek:.....come possono essere caduti così ? Mah....
2900XT è la base del successo attuale di ATI, non direi che l'architettura è stata un flop, ovviamente nuove architetture sono sempre ricche di problemi.
avvelenato
23-12-2009, 13:44
Eh, addirittura "stravolgere il passato e la realtà"... E' quello che già fanno altroveA me pare che stia montando un castello per aria. La conclusione più ovvia è che ci sia stato un refuso della redazione, altrimenti vuol dire che si pensa male preventivamente.Non è la conclusione più ovvia ma una possibilità che ho tenuto in considerazione.
Se non ti piace la redazione perché non vai a commentare su altri lidi? Così eviti anche di offendere l'altrui professionalità.
Esercito il mio diritto costituzionale alla libertà di espressione, e dal momento che sto rispettando la policy di questo sito, la esercito qui dentro. Non capisco perché se a uno non gli piace com'è stata datta una notizia da parte di un sito dovrebbe subito scapparsene, sono le critiche costruttive che fanno migliorare il sito, non gli utenti accondiscendenti a tutto.
Io sono l'ultimo a volere difendere nVidia eh, però la redazione qui non mi pare che abbia sbagliato nulla.
Nell'articolo linkato da Ratatosk si parla di architettura Fermi, che prevederebbe 512 cuda.
Non si parla di Tegra né di specifici modelli.
Per quello che ne sappiamo, può essere che questa sia solo una delle declinazioni dell'architettura. nVidia non ha mai specificato che tutte le schede basate su Fermi avrebbero avuto 512 cores attivi.
Indi per cui a mio avviso la redazione non ha fatto nulla di sbagliato.
Commentando invece la scheda stessa, mi pare che sia l'ennesima dimostrazione delle difficoltà di produzione di nVidia, con quei cores così grossi, uniti alle difficoltà di TSMC, si sono visti probabilmente obbligati a presentare dei modelli con una parte dei CudaCores disabilitati. Immagino che quando avranno risolto, magari con qualche nuovo stepping, vedremo le versioni con 512 cuda.
Temo per loro che possa rivelarsi un flop.
lucabeavis69
23-12-2009, 13:51
2900XT è la base del successo attuale di ATI, non direi che l'architettura è stata un flop, ovviamente nuove architetture sono sempre ricche di problemi.
Quoto e aggiungo che è grazie all'insuccesso di R600 che poi i prezzi delle schede video si sono abbassati molto, spinti in giù dagli ottimi prezzi delle 3800. Per quanto tempo la X1900XTX è rimasta sopra i 500€? E le prime 8800 ancor peggio.
visto ke non c'è scritto di ke gpu si tratta potrebbe essere una gtx360 ke dispone di 448sp
michelgaetano
23-12-2009, 13:59
visto ke non c'è scritto di ke gpu si tratta potrebbe essere una gtx360 ke dispone di 448sp
La news è su Tesla, non Geforce.
Se nVidia prima afferma 512 poi successivamente afferma 448, dove sta la colpa della redazione di hwu?
Di questo passo ci saranno altri 100 annunci ufficiali prima della scheda (basta che non sia un cambio di nome :D:D:D )
Ma appunto sono Tesla non GeForce, quindi ci sta che per contenere consumi e temperature abbiano ridotto le sp (non credo che una geforce normale sia progettata x un funzionamento 24/7 al 100% del carico).
Quando la produzione sarà affinata, secondo me, ci saranno nuove schede tesla a 512sp....
La figuraccia ci sarebbe stata se la scheda non facesse i tflops promessi, ma swembra che aumentando il clock ci riescano ugualmente...
halduemilauno
23-12-2009, 14:11
lol
mi spiegate anche a me che non ho capito cosa c'è di ridicolo? dico sul serio non l'ho capito...
ho notato solo che invece di essere 512 core sono 448 e conseguenze) ma non mi sembra una tragedia...
512 core è l'architettura fermi prevista in diverse varianti. infatti per la variante tesla sono 448 ma per la variante geforce saranno(almeno per la top)512 mentre saran 448 e anche 384 le altre geforce sempre di fascia alta.
;)
Io sono l'ultimo a volere difendere nVidia eh, però la redazione qui non mi pare che abbia sbagliato nulla.
Nell'articolo linkato da Ratatosk si parla di architettura Fermi, che prevederebbe 512 cuda.
Non si parla di Tegra né di specifici modelli.
Per quello che ne sappiamo, può essere che questa sia solo una delle declinazioni dell'architettura. nVidia non ha mai specificato che tutte le schede basate su Fermi avrebbero avuto 512 cores attivi.
Indi per cui a mio avviso la redazione non ha fatto nulla di sbagliato.
Commentando invece la scheda stessa, mi pare che sia l'ennesima dimostrazione delle difficoltà di produzione di nVidia, con quei cores così grossi, uniti alle difficoltà di TSMC, si sono visti probabilmente obbligati a presentare dei modelli con una parte dei CudaCores disabilitati. Immagino che quando avranno risolto, magari con qualche nuovo stepping, vedremo le versioni con 512 cuda.
Temo per loro che possa rivelarsi un flop.
...e meno male che i transistor sono di 15 nm più piccoli rispetto a quelli delle gt200...povera nvidia :doh:
Severnaya
23-12-2009, 14:15
512 core è l'architettura fermi prevista in diverse varianti. infatti per la variante tesla sono 448 ma per la variante geforce saranno(almeno per la top)512 mentre saran 448 e anche 384 le altre geforce sempre di fascia alta.
;)
è una speculazione, nn si hanno dati riguardanti le GeForce
Queste mezze notizie lascano intendere che nvidia ha probabilmente dei problemi nella realizzazione dei chip in grossa quantità. Mi sa che il 2010 sarà un buon anno per Ati.
mister-x
23-12-2009, 14:24
I miei complimenti a Kharonte85 che è diventato famoso a livello internazionale!! ;)
512 core è l'architettura fermi prevista in diverse varianti. infatti per la variante tesla sono 448 ma per la variante geforce saranno(almeno per la top)512 mentre saran 448 e anche 384 le altre geforce sempre di fascia alta.
;)
è una speculazione, nn si hanno dati riguardanti le GeForce
Hal è un vero maestro nel creare aspettative.....ovviamente pro-Nvidia!!
Concordo con Ratatosk...quando si parla del camaleonte verde la redazione usa sempre e solo guanti di velluto...
IlNiubbo
23-12-2009, 14:30
Mi rivolgo a in generale a chi dice:"la redezione di hwu vuole farci comprare nvidia e per questo scrivono tante news"
1) Comunicare che le prime schede Tesla saranno castrate rispetto alle prime anticipazioni non mi pare sia una buona pubblicità
2)Grazie alla scoperta fatta da un utente del nostro forum, è emersa l'esistenza sul sito NVIDIA di un documento pdf informativo che riporta alcune delle caratteristiche tecniche base delle soluzioni Fermi della famiglia Tesla.
3)Ci sono 2 marche di processori video (lasciamo stare intel che fa più che altro schede integrate), se ATI è già fuori con le schede video nuove e si possono fare i test, con Nvidia si può parlare solo della generazione che verrà. Mi sembra normale.
ghiltanas
23-12-2009, 14:30
ma la freq della ram è quella effettiva? nn sono gddr5 e quindi quad pumped? :confused: (8 ghz effettivi :mbe: )
ndrmcchtt491
23-12-2009, 14:38
Si vabbè adesso quale sarebbe il problema?
I dati riportati ci sono e c'erano per cui fine della storia.
Mai capito come si possa diventare "ultrà" di una marca che produce hardware.
Al limite si poteva dire "Guardate che li avevate gia pubblicati".
Come si può notare sono sempre i soliti utenti di parte che vogliono fare l' avvocato altrui...
Per cosa poi:confused: :confused: :confused: :confused:
Altra presa per il c....
Preannuncio di un flop come fu l'ATi HD 2900XT ?
Probabile...:rolleyes:
Non è stato un flop, almeno come progetto a lungo termine
512 core è l'architettura fermi prevista in diverse varianti. infatti per la variante tesla sono 448 ma per la variante geforce saranno(almeno per la top)512 mentre saran 448 e anche 384 le altre geforce sempre di fascia alta.
;)
Si, come no...
Tanto ste schede con le varianti usciranno nel 2050
Kharonte85
23-12-2009, 14:40
I miei complimenti a Kharonte85 che è diventato famoso a livello internazionale!! ;)
Che emozione! :sofico:
A me basta che non arrivi nessuna minaccia... :D
Comunque è la riprova che siamo una comunità prolifica :cool: , ovviamente se non ci fosse stato un dibattito non sarei mai incappato in quelle informazioni ;)
Kharonte for president :winner:
Che emozione! :sofico:
A me basta che non arrivi nessuna minaccia... :D
Comunque è la riprova che siamo una comunità prolifica :cool: , ovviamente se non ci fosse stato un dibattito non sarei mai incappato in quelle informazioni ;)
Secondo me a breve conoscerai di persona costui
http://www.tomshw.it/files/2009/11/immagini/22631/nvidia-fermi_t.jpg
E non sarà di certo per farti i complimenti :sofico: :sofico:
ghiltanas
23-12-2009, 14:48
Secondo me a breve conoscerai di persona costui
http://www.tomshw.it/files/2009/11/immagini/22631/nvidia-fermi_t.jpg
E non sarà di certo per farti i complimenti :sofico: :sofico:
infatti a lui gli si presenterà col suo vero aspetto:
http://www.pctunerup.com/up/results/_200912/20091223144725_img20070627101356.jpg
e nn sarà piacevole :O :asd:
Gli regalerà una Tesla (rigorosamente fake) riempita di esplosivo :D
costa@73
23-12-2009, 14:53
Come è stata addolcita la pillola.
poi sono gli utenti che sono troppo maliziosi...
Dalle rece delle Ati , che per un motivo o l'altro sono sempre per cosi dire " Strane ", nel senso che da un paio di generazioni, i risultati sono sempre inferiori alle altre testate, una volta perché i giochi scelti sono ottimizzati per Nvidia, l'altra perché le mobo e i componenti sono diversi ecc ecc,
La sola cosa sicura sono i test, che puntualmente su HU, sono sempre inferiori a quello che si legge altrove..
Per non parlare delle news ( rumor) su Nvidia, vabbe..
Imho, tanti indizi cominciano a definire una verità al quanto chiara sulla linea intrapresa dal $ito.
Comunque, sarò io troppo malizioso ( come al solito..)
mah..
Saluti e tanti auguri a tutti , a HU, e a tutti gli utenti
Ciao
avvelenato, te stai fuori.
Sir.Jerry
23-12-2009, 15:11
Quando usciranno le geforce basate su fermi metteranno questo avviso fuori la scatola:
I proprietari quando giocheranno, dovranno spegnere qualsiasi tipo di elettrodomestico oppure salterà il contatore! :sofico:
ndrmcchtt491
23-12-2009, 15:31
Kharonte85 RULEZ!!!!
Jimmy3Dita
23-12-2009, 15:42
...mah io continuo a leggere e rileggere la notizia, ma francamente ci vedo ben poco di ridicolo... da una parte ci sono le caratteristiche del progetto, dall'altra le schede tecniche dei prodotti con dati ancora non rese pubbliche.
Capisco la volontà di commentare e protestare, ma il livore e il pressappochismo di alcuni capovolgono la prospettiva di chi è il ridicolo..
Pier2204
23-12-2009, 16:03
Premetto che non sono fan di nessuno, ho tuttora una 8800 GTX e in arrivo una 5870.. MA...
Mi sembra che Nvidia certi commenti acidi se li stia cercando, mesi di Rumors creati da loro stessi non sono indice di professionalità per un'azienda come la loro, tra Fake sgamati, specifiche campate più o meno in aria, la credibilità è in paurosa picchiata...
Se vogliono creare Hype per Fermi stanno ottenendo l'effetto contrario.
A volte il silenzio è d'oro, oppure molto meglio: " L'architettura Fermi prevista per fine anno subirà un ritardo di qualche mese, vogliamo rilasciare il prodotto quando sarà perfettamente funzionante e avrà prestazioni superiori a tutti"
Consiglio a Nvidia di starsene zitti finchè non avranno una scheda VERA, stabile, che gira sul banco con bench REALI...altrimenti alla prossima anche i fan Nvidia mollano la presa e ordinano una ATI :D
Premetto che non sono fan di nessuno, ho tuttora una 8800 GTX e in arrivo una 5870.. MA...
Mi sembra che Nvidia certi commenti acidi se li stia cercando, mesi di Rumors creati da loro stessi non sono indice di professionalità per un'azienda come la loro, tra Fake sgamati, specifiche campate più o meno in aria, la credibilità è in paurosa picchiata...
Se vogliono creare Hype per Fermi stanno ottenendo l'effetto contrario.
A volte il silenzio è d'oro, oppure molto meglio: " L'architettura Fermi prevista per fine anno subirà un ritardo di qualche mese, vogliamo rilasciare il prodotto quando sarà perfettamente funzionante e avrà prestazioni superiori a tutti"
Consiglio a Nvidia di starsene zitti finchè non avranno una scheda VERA, stabile, che gira sul banco con bench REALI...altrimenti alla prossima anche i fan Nvidia mollano la presa e ordinano una ATI :D
Quoto, dal silenzio nacque G80, dai rumors NV30, con le relative fortune o sfortune.
Il fanboyismo ATI su queste pagine è imbarazzante, e la dice lunga su quanto siano frustrati gli utenti rossi...
Nvidia ha rivisto al ribasso un dettaglio sulle schede Tesla, e allora? Quante persone qui usano le Tesla?
Almeno aspettate che si parli di Geforce, fate più bella figura
Il fanboyismo ATI su queste pagine è imbarazzante, e la dice lunga su quanto siano frustrati gli utenti rossi...
Nvidia ha rivisto al ribasso un dettaglio sulle schede Tesla, e allora? Quante persone qui usano le Tesla?
Almeno aspettate che si parli di Geforce, fate più bella figura
Frustrati di che ? Di avere la leadership prestazionale e tecnologica per mesi ?
Bella frustrazione :asd:
Ma più bella figura di che?
Io ho avuto nVidia e ho avuto ATI e trovo questa situazione imbarazzante punto e basta.
Non so come saranno le prestazioni e comunque non è questo il punto secondo me. Che sia ATI (che anni fa per altre cose criticai ugualmente) o nVidia non si fa hype sulla pelle del cliente cercando di illudere su un prodotto che non è nemmeno nella fase di prototipo definitivo.
Non si dice uscirà secondo la road map circa qua per poi slittare non di un mese ma di mesi e mesi.
Un conto è il fanboysmi un conto è voler spacciare la tristissima situazione di nVidia per normale. Tanto più giustificare con un se escono ad Aprile saranno più potenti.... vorrei vedere che non fossero nemmeno più potenti dopo qualcosa come 6 mesi... sarebbe come dire che il processore AMD che uscirà fra un anno sarà più potente di un attuale processore INTEL...!
Via gente qua non è fanboyismo (salvo alcuni casi) è che nVidia sta attraversando un periodo pessimo e non se ne vede l'uscita ma invece di ammettere il problema e ristrutturarsi stan cercando di tirare avanti basandosi sul marchio e basta ma se non c'è il prodotto il marchio non tira per sempre.
ndrmcchtt491
23-12-2009, 17:54
Quante sege mentali...
amd-novello
23-12-2009, 18:14
bhe ma siete proprio forti! far guerra su delle schede video è fantastico ...
psychok9
23-12-2009, 18:29
Quoto "Darkon".
nVidia sembra ne stia uscendo con le ossa rotte e mi spiego (tutto IMHO ovviamente).
Mentre ATi, forse prevedendo i problemi nel fare gpu sempre più complesse a fattori inferiori, ha cominciato a progettare gpu più piccole ed eventualmente affiancabili e quindi più flessibili, nVidia ha continuato con i suoi belissimi e fantastici chipponi (sto ancora utilizzando quello che ritengo una delle migliori sue schede video, l'8800 GT AMP a 700MHz con 112sp).
Ora... creare chip così grandi, da wafer standard e puliti senza difetti, a quanto pare è ancora enormente complesso, ed la riduzione dei stream processor nel progetto servirà ad aumentare le gpu "funzionanti" che usciranno dalla fabbrica...
Per chi poi non ha capito la polemica di alcuni utenti VS HU: è tutta fondata sul fatto che nella news dicono che non si era parlato di 512SP, invece sì... come ad "omettere", per non fare cattiva pubblicità, il fatto tecnico che adesso si parla di 448sp anziché 512sp, quindi di una riduzione.
Poi che fra 1 o 2 anni migliorerà la qualità dei wafer non c'è dubbio, e magari potranno sfornare gpu con gli originali 512sp per le schede di fascia altissima, ma son discorsi campati per aria perché a quel punto si parlerà di nuove gpu con un altro die shrink... salvo imprevisti.
Io da consumatore che ha sempre acquistato la scheda più "forte" del momento intesa come rapporto prezzo/prestazioni e quindi passando da nVidia ad ATi a nVidia etc.etc., non posso che notare al momento mi sembrano in serie difficoltà e prima o poi, se la "botta" sarà dura, non potranno fare altro che rivoluzionare 1 po' la loro progettazione magari seguendo i passi fatti da ATi o chissà cosa :)
A noi consumatori penso debba sempre fregare poco se il marchio è blu, fucsia o grigio... approfondiamo, analizziamo con la testa e senza cuore, e acquistiamo solo se serve e senza fidarci del consiglio altrui.
killer978
23-12-2009, 18:52
Quindi una redazione non dovrebbe pubblicare i dati man mano che questi diventano disponibili. Interessante.
Forse e' meglio se torni a commentare su youtube.
e invece ha ragione, la redazione ha difeso a spada tratta tempo fa Nvidia dicendo + volte di aver visto i sample funzionanti (mentre erano accozzaglia), oltretutto ha scritto che le Tesla testate aveva 512 CUDA CORES parola di Nvidia, adesso se ne escono che all'epoca Nvidia non avesse precisato i cores effettivi !...
dovevano scrivere Nvidia continua nell'inganno prima mostra al mondo una scheda farlocca con tanto di 512 core funzionanti, mentre adesso si scopre che le tesla effettivamente ne avranno 448, forse x noi non cambia nulla ma x altri le cose potrebbero essere diverse ;)
Non è la conclusione più ovvia ma una possibilità che ho tenuto in considerazione.E quale sarebbe, secondo te, la conclusione più ovvia? Che Corsini prenda tangenti da Nvidia?
Esercito il mio diritto costituzionale alla libertà di espressione, e dal momento che sto rispettando la policy di questo sito, la esercito qui dentro. Non capisco perché se a uno non gli piace com'è stata datta una notizia da parte di un sito dovrebbe subito scapparsene, sono le critiche costruttive che fanno migliorare il sito, non gli utenti accondiscendenti a tutto.Uhh, ma che parole grosse :asd:
Tutto per mascherare il fatto che la tua non è stata affatto una critica costruttiva: hai sparato a zero lasciando intendere che la notizia fosse volutamente manipolata, per volontà di chissà quale potere occulto.
Occhio che, se questi sono i tuoi parametri di "critica costruttiva", prima o poi potresti beccarti una querela. E non parlo di questo forum, ma nella vita in generale.
Frustrati di che ? Di avere la leadership prestazionale e tecnologica per mesi ?
Bella frustrazione :asd:
ci mancherebbe che ATI fosse indietro stando una generazione avanti...
sono i 3 anni di dominio Nvidia (tutta la generazione Dx10) che vi rodono, e il fatto che il mercato non risponda prontamente (ad ottobre e novembre le 5800 erano in giro -si fa per dire-, eppure il mercato non si è mosso, vedremo se a dicembre ATI avrà rosicchiato qualche % di mercato).
Chi ha una scheda delle ultime 2/3 generazioni aspetta Fermi senza troppa fretta, conscio del fatto che di Dx11 non s'è ancora visto nulla e che la potenza di 1/2/3 anni fa è ancora sufficiente al giorno d'oggi. E quello che vi rode è che lo sapete.
Da qui il fatto che ogni volta che viene nominata Nvidia, sia pure per informazioni che non dovrebbero manco interessare chi pensa strettamente al gaming (come quella in questione, sulle Tesla), si scatenino deliri e illazioni su come il marchio verde sia prossimo al fallimento. Serve ricordarvi che chi ha le pezze al culo è AMD, e quindi ATI?
Ma più bella figura di che?
Un conto è il fanboysmi un conto è voler spacciare la tristissima situazione di nVidia per normale. Tanto più giustificare con un se escono ad Aprile saranno più potenti.... vorrei vedere che non fossero nemmeno più potenti dopo qualcosa come 6 mesi... sarebbe come dire che il processore AMD che uscirà fra un anno sarà più potente di un attuale processore INTEL...!
Pensa un po' che invece i fanboy ATI erano al settimo cielo quando hanno scoperto che -omg omg- le 5800 erano meglio delle 285gtx!
Incredibile come quando ATI rilasci schede superiori a quelle Nvidia della generazione precedente di un anno fa, tutti qui ci vedano un exploit, mentre quando Nvidia rilascia schede della generazione attuale superiori a quelle ATI "è perchè ha avuto pochi mesi in più a disposizione".
Ma poi, tornando IT, ai fanboy ATI cosa frega delle Tesla?
zerothehero
23-12-2009, 19:32
Come è stata addolcita la pillola.
poi sono gli utenti che sono troppo maliziosi...
Dalle rece delle Ati , che per un motivo o l'altro sono sempre per cosi dire " Strane ", nel senso che da un paio di generazioni, i risultati sono sempre inferiori alle altre testate, una volta perché i giochi scelti sono ottimizzati per Nvidia, l'altra perché le mobo e i componenti sono diversi ecc ecc,
La sola cosa sicura sono i test, che puntualmente su HU, sono sempre inferiori a quello che si legge altrove..
Per non parlare delle news ( rumor) su Nvidia, vabbe..
Imho, tanti indizi cominciano a definire una verità al quanto chiara sulla linea intrapresa dal $ito.
Comunque, sarò io troppo malizioso ( come al solito..)
mah..
Saluti e tanti auguri a tutti , a HU, e a tutti gli utenti
Ciao
Siamo oltre la paranoia,oramai. :confused:
Come è stata addolcita la pillola.
poi sono gli utenti che sono troppo maliziosi...
Dalle rece delle Ati , che per un motivo o l'altro sono sempre per cosi dire " Strane ", nel senso che da un paio di generazioni, i risultati sono sempre inferiori alle altre testate, una volta perché i giochi scelti sono ottimizzati per Nvidia, l'altra perché le mobo e i componenti sono diversi ecc ecc,
La sola cosa sicura sono i test, che puntualmente su HU, sono sempre inferiori a quello che si legge altrove..
Per non parlare delle news ( rumor) su Nvidia, vabbe..
Imho, tanti indizi cominciano a definire una verità al quanto chiara sulla linea intrapresa dal $ito.
Comunque, sarò io troppo malizioso ( come al solito..)
mah..
Saluti e tanti auguri a tutti , a HU, e a tutti gli utenti
Ciao
Ma prenditi Nvidia dai...... :doh:
quoto tutto......
La cosa piu' logica sarebbe mettere sponsor amd ati nelle news recensioni dei prodotti ati e nvidia in quelle nvidia, non solo Nvidia uno legge e poi sotto il commento ma prenditi nvidia e questo lascia agli utenti molte supposizioni......
Dai ragazzi, non è una partita di calcio.Cioè una scheda si dovrebbe acquistare considerando cosa è meglio per se stessi e cosa offre, e non schierarsi contro una marca solo perchè ormai si possiede quella concorrente o perchè si è scelto di rimanere fedeli al marchio.Poi capisco che uno si possa diciamo "affezionare" ad un marchio, ma arrivare a tifarci(e odiare l'altro) è un po triste secondo me.
Se avete acquistato una Nvidia, siate felici del vostro acquisto e non accanitevi contro Ati, e viceversa.
thecatman
23-12-2009, 20:02
Dai ragazzi, non è una partita di calcio.Cioè una scheda si dovrebbe acquistare considerando cosa è meglio per se stessi e cosa offre, e non schierarsi contro una marca solo perchè ormai si possiede quella concorrente o perchè si è scelto di rimanere fedeli al marchio.Poi capisco che uno si possa diciamo "affezionare" ad un marchio, ma arrivare a tifarci(e odiare l'altro) è un po triste secondo me.
Se avete acquistato una Nvidia, siate felici del vostro acquisto e non accanitevi contro Ati, e viceversa.
Esatto! e voialtri dovete comprare tutti ati così nvidia abbasserà i prezzi per recuperare fornendo ottime schedozze! :sofico:
mi sembra, che tempo fa la redazione avesse pubblicato una news sulle 310m che in realtà sono sempre le 210m rimarchiate quindi, se prendesse tanti soldi da nvidia, non darebbe certe news.
cervus92
23-12-2009, 20:11
Pensa un po' che invece i fanboy ATI erano al settimo cielo quando hanno scoperto che -omg omg- le 5800 erano meglio delle 285gtx!
Incredibile come quando ATI rilasci schede superiori a quelle Nvidia della generazione precedente di un anno fa, tutti qui ci vedano un exploit, mentre quando Nvidia rilascia schede della generazione attuale superiori a quelle ATI "è perchè ha avuto pochi mesi in più a disposizione".
Ma poi, tornando IT, ai fanboy ATI cosa frega delle Tesla?
A me il fanboy, sinceramente, sembri tu. E poi cosa c'entra generazione attuale, passata o futura? Quando qualcuno deve comprare una scheda video, guarda cosa offre il mercato adesso e decide; se quella che chiami generazione attuale esce quando ati fa uscire la serie 6xxx Fermi sarà da paragonare alle 5xxx? Sì dai, i phenom2 sono i processori più veloci, perchè battono i c2q e gli i7 non li contiamo...
Kharonte85
23-12-2009, 20:20
Kharonte for president :winner:
Secondo me a breve conoscerai di persona costui
cut
E non sarà di certo per farti i complimenti :sofico: :sofico:
infatti a lui gli si presenterà col suo vero aspetto:
cut[/img]
e nn sarà piacevole :O :asd:
Kharonte85 RULEZ!!!!
il successo vi sta dando alla testa? :sofico:
Siamo oltre la paranoia,oramai. :confused:
Mah in effetti non capisco nemmeno io...l'articolo mi pare riportare esattamente quella che è la situazione.
Questo non vuol dire che non sia lecito porsi degli interrogativi, anzi sono il primo che se li è posti...pero' mi pare azzardato giungere a conclusioni affrettate e assurdo insultare i redattori.
E' vero che nvidia parlando di Fermi ha SEMPRE parlato di 512SP ma non ha MAI specificato (che io sappia) che le versioni Tesla le avrebbero avute (anche se era più che logico pensarlo).
Abbiamo scoperto che molto probabilmente non sarà così (come dice la notizia: forse a causa dei problemi di rese), ma siccome "fermi" è il nome di un architettura che da vita a 3 linee di prodotti: Geforce, Quadro e Tesla al momento non possiamo sapere se le versioni Geforce avranno 512SP; forse ci saranno, forse ci saranno ma in disponibilità limitata, forse anche loro avranno 448SP :boh:
Si potrebbe pensare di essere delusi, ma anche se fosse presentata la versione Geforce con queste caratteristiche (448sp) quello che conterà alla fine saranno comunque le prestazioni sul campo.
ravescat
23-12-2009, 20:25
Non resisto più..
Ma con la riduzione da 512SP a 448SP... CRYSIS ci gira ancora :D ??
AceGranger
23-12-2009, 20:29
Per favore, un minimo, almeno un minimo di serietà:
http://img46.imageshack.us/img46/5182/orlyg.jpg (http://img46.imageshack.us/i/orlyg.jpg/)
http://www.hwupgrade.it/articoli/skvideo/2293/nvidia-fermi-la-nuova-architettura-scopre-le-carte_3.html
Evidentemente rasentare il ridicolo non era più sufficiente, che pena...
Che nella news si dice che quando l'annunciarono non dissero quanti core avevano, mentre se vai all'articolo che coprì quel non-evento c'è scritto che i core sono 512.
Non è una tragedia, è solo ridicolo che una redazione si genufletta così profondamente per non far sfigurare nVidia.
Forse è meglio se impari a leggere prima di comentare. Qui come su youtube ;)
ma :rotfl: senti chi parla...
nella parte da te linkata dice che L'ARCHITETTURA Fermi dispone di 512 stream processor MASSIMI
non che TUTTE LE SCHEDE FERMI avranno tale numero di stream processor; e la differenza mi sembra lampante....
poco fanboy è... POCO
GiovanniGTS
23-12-2009, 21:06
Poco più di un mese fa, in concomitanza con il SuperComputing Conference di Portland, NVIDIA ha annunciato le prime soluzioni appartenenti alla famiglia Fermi, basate quindi sulla prossima generazione di GPU attesa al debutto nel corso del primo trimestre 2010.
Durante la conferenza NVIDIA ha divulgato alcune informazioni sulle caratteristiche tecniche delle soluzioni Fermi per sistemi Tesla, senza tuttavia specificare elementi tipici quali frequenze di clock della GPU e degli stream processors, oltre al numero preciso di questi ultimi.
si sottolinea che trattasi di informazioni sulle caratteristiche tecniche delle soluzioni Fermi per sistemi Tesla e non per sistemi Geforce
i 512 SP emersi in precedenti news fanno riferimento ai sistemi geforce,
quindi, a mio modo di vedere, la news è corretta
infatti nelle precedenti news si HWUP non ho trovato da nessuna parte che Fermi per Tesla avra' 512 SP, solo un generico 512 SP associato a Fermi e alle soluzioni Geforce, il fatto che sia stato detto che Tesla in futuro si baserà su Fermi, beh, mi sembra una ovvietà, ma cio' non significa aver affermato che i chip Tesla avranno 512 SP ........
vedendo quanto si è scritto credo che siamo al delirio completo...
...qui si parla di NIENTE!!!
di schede che forse ci saranno tra qualche mese!!!
di cui non si conosce assolutamente nulla perche' non esistono ancora!!!
pertanto meglio tacere....
NON E' UNA LOTTA ATI-NVIDIA e' semplicemente il nulla sul nulla che riguarda ormai il marketing delle aziende informatiche....
ma :rotfl: senti chi parla...
nella parte da te linkata dice che L'ARCHITETTURA Fermi dispone di 512 stream processor MASSIMI
non che TUTTE LE SCHEDE FERMI avranno tale numero di stream processor; e la differenza mi sembra lampante....
poco fanboy è... POCO
nella news da lui linkata dove trovi la parola " massimi " ?
Cò,a,òz,òa
AceGranger
23-12-2009, 22:03
nella news da lui linkata dove trovi la parola " massimi " ?
Cò,a,òz,òa
perchè serve la parola "massimi" ? non ti basta un'immagine grossa come una casa ?
http://www.nvidia.co.uk/object/fermi_architecture_uk.html
ma :rotfl: .... "up to 512 CUDA cores"
non vedo scritto TUTTE le TESLA avranno 512 cuda cores
http://img188.imageshack.us/img188/5618/azdn.jpg (http://img188.imageshack.us/i/azdn.jpg/)
http://www.nvidia.co.uk/object/fermi_architecture_uk.html
questo è un documento nvidia, quindi nel caso la redazione ha riportato quanto rilasciato da nvidia stessa, non mi pare abbia fatto marketing o no ?
perchè serve la parola "massimi" ? non ti basta un'immagine grossa come una casa ?
ma :rotfl: .... "up to 512 CUDA cores"
non vedo scritto TUTTE le TESLA avranno 512 cuda cores
E dove sarebbe l'immagine grossa come una casa nell'articolo di hwup linkato ?
tanto per sapere...
Cà.ò,a.àòz.àòa
Kharonte85
23-12-2009, 23:03
questo è un documento nvidia, quindi nel caso la redazione ha riportato quanto rilasciato da nvidia stessa, non mi pare abbia fatto marketing o no ?
Se escludiamo i due gufi...:asd:
ma :rotfl: .... "up to 512 CUDA cores"
:stordita:
non vedo scritto TUTTE le TESLA avranno 512 cuda cores
Infatti nvidia non lo ha mai detto...siamo noi che lo davamo erroneamente per scontato.
Se escludiamo i due gufi...:asd:
stai a guardare il capello :asd:
cmq intendevo dire che i 512cc erano un valore rilasciato da nividia e quindi le redazioni non penso avessero altra scelta che riportarlo non potendo verificare con mano.
Kharonte85
23-12-2009, 23:09
questo è un documento nvidia, quindi nel caso la redazione ha riportato quanto rilasciato da nvidia stessa, non mi pare abbia fatto marketing o no ?
Il passo "incriminato" sarebbe questo:
Durante la conferenza NVIDIA ha divulgato alcune informazioni sulle caratteristiche tecniche delle soluzioni Fermi per sistemi Tesla, senza tuttavia specificare elementi tipici quali frequenze di clock della GPU e degli stream processors, oltre al numero preciso di questi ultimi.
...
Le GPU Fermi sono state sviluppate da NVIDIA pensando alla disponibilità di un massimo di 512 stream processors. Il documento prevede per le prime soluzioni Tesla un quantitativo di 448 stream processors: questo lascia intendere che NVIDIA abbia disabilitato due dei 16 streaming multiprocessors da 32 stream processors ciascuno integrati nella GPU, presumibilmente per poter ottenere sufficienti rese produttive. E' significativo evidenziare, alla luce delle informazioni presenti nel documento, come al momento attuale NVIDIA non abbia in previsione una scheda Tesla dotata di GPU Fermi con 512 stream processors.
Secondo me invece descrive perfettamente la situazione.
Ovviamente quello che ci interesserebbe sapere è se anche le GF100 saranno "castrate" oppure no.
Il passo "incriminato" sarebbe questo:
Secondo me invece descrive perfettamente la situazione.
Ovviamente quello che ci interesserebbe sapere è se anche le GF100 saranno "castrate" oppure no.
ho capito che c'è stata una riduzione di sp forse non prevista, non ho capito però, non avendo seguito in modo preciso le varie news, di cosa si sta accusando la redazione di hw.
Se in un precedente articolo si legge che la tecnologia fermi ( senza distinguo di linee ) avrà 512 sp ( senza specificare " al massimo ) , e poi in un articolo seguente si dice che non si era detto quanti sp aveva la linea tesla , a me pare proprio sospetta la cosa...
Càò.,a.òz.òàa
AceGranger
23-12-2009, 23:15
E dove sarebbe l'immagine grossa come una casa nell'articolo di hwup linkato ?
tanto per sapere...
Cà.ò,a.àòz.àòa
:mbe: :confused:
ma stai guardando il link giusto ?
no perchè la prima immagine con sotto la dicitura "schema a blocchi di una GPU Fermi" secondo te cosa vuol dire ?.... i quadratini verdi sono i cuda cores... e sono stranamente 512... non so tu, ma in tutte le presentazioni di nuove architetture che ho visto si è sempre mostrata la sua massima implementazione; che poi facciano anche modelli meno spinti in base alle esigenze mi sembra una cosa piu che normale.
:mbe: :confused:
ma stai guardando il link giusto ?
no perchè la prima immagine con sotto la dicitura "schema a blocchi di una GPU Fermi" secondo te cosa vuol dire ?.... i quadratini verdi sono i cuda cores... e sono stranamente 512... non so tu, ma in tutte le presentazioni di nuove architetture che ho visto si è sempre mostrata la sua massima implementazione; che poi facciano anche modelli meno spinti in base alle esigenze mi sembra una cosa piu che normale.
quindi nell'immagine ci sono 512 blocchi e nell'articolo c'è scritto che avranno 512sp ( senza specificare " al massimo " ) , quindi ?
che ne consegue ?
Cl,mal,òz,lòa
ho capito che c'è stata una riduzione di sp forse non prevista, non ho capito però, non avendo seguito in modo preciso le varie news, di cosa si sta accusando la redazione di hw.
ho riletto la news ed i primi post di Ratatosk ed ho capito, meglio tardi che mai :D
Kharonte85
23-12-2009, 23:28
E questo conferma quello che sostengo da un bel po', e anche preso per il culo per questo (come me ne fregasse qualcosa :asd: ) e cioè che quando nVidia parla è necessaria un'accuratissima analisi semantica e sintattica per capire se ha effettivamente detto qualcosa.
A partire da quello potrebbero presentare le GeForce Fermi con 32 Cuda Cores per la GTX380 e ci sarebbe comunque qualcuno pronto a difendere a spada tratta il fatto che non hanno mai detto che le GeForce avrebbero avuto più di un cluster attivo :asd:
Sono un po' para:ciapet:
Comunque finche' esiste la possibilità che nvidia abbia deciso per il taglio per rientrare nei consumi per poi presentare una scheda Gf100 con 512sp come ci aspettiamo e speriamo non c'è necessità di difendere nulla.
Questo sostiene XbitLabs:
Nvidia Reveals Specifications of Next-Gen Tesla Computing Processors.
Nvidia Cuts Down Specs of GF100 Chips to 448 Stream Processors for Tesla Cards
[12/22/2009 07:35 PM]
by Anton Shilov
Nvidia Corp. has quietly revealed specifications of its next-generation Tesla cards designed for high-performance computing. Rather surprisingly, the flagship computing processor boards will not feature the GF100/Tesla T20 graphics processing unit (GPU) with all stream processors enabled: both Tesla C2050 and C2070 will only feature 448 stream processors.
As reported previously, Nvidia Tesla C2050 and C2070 computing processor boards are single-chip cards with 3GB and 6GB (respectively) of on-board GDDR5 memory (with ECC enabled, user available memory will be 2.625GB for a C2050 and to 5.25GB for a C2070) with 384-bit interface operating in the range between 1.80GHz and 2.0GHz. The cards are mostly designed for desktop-based high-performance computing and other compute-intensive applications and are not meant to do perform graphics tasks. Nvidia stated that its new Tesla solutions will deliver double precision performance in the range of 520GFlops – 630GFlops.
Previously it was widely believed that the new Nvidia Tesla C2000 boards based on the Tesla T20 GPUs will feature 512 stream processors at 1.25GHz – 1.40GHz clock-speeds, the fully-fledged configuration of the company’s GF100 chip (also known as NV60, G300, GT300, etc) based on Fermi architecture at slightly reduced clock-speeds. However, Nvidia decided to cut down the Tesla C20 GPU for some undisclosed reasons.
Perhaps, Nvidia had to lower performance of its flagship single-chip computing solution for desktops in order to keep thermal design power in certain envelope. Nvidia declares 225W TDP for Tesla C2000 boards, meanwhile, the company’s current cards – GeForce GTX 285, dual-chip GeForce GTX 295 and Tecla C1050 – based on 55nm G200b (GT200b, NV55b) have maximum heat dissipation at 204W, 289W and 187.8W, respectively. Both Tesla C2000 boards will have one 8-pin PCI Express power connector and one 6-pin PCI Express power connector.
The Tesla C2050 and C2070 computing processor cards will retail for $2499 and $3999. Products will be available in Q2 2010.
The flagship Nvidia Fermi “GF100” graphics processor will feature 512 stream processing engines (which are organized as 16 streaming multi-processors with 32 cores in each) that support a type of multi-threading technology to maximize utilization of cores and deliver extreme computing power. Each stream processor has a fully pipelined integer arithmetic logic unit (ALU) and floating point unit (FPU). The top-of-the-range chip contains 3 billion of transistors, features 384-bit memory GDDR5 memory controller with ECC and features rather unprecedented (for GPUs) 768KB unified level-two cache as well as rather complex cache hierarchy in general. Naturally, the Fermi family is compatible with DirectX 11, OpenGL 3.x and OpenCL 1.x application programming interfaces (APIs). The new chips will be made using 40nm process technology at TSMC.
http://www.xbitlabs.com/news/video/display/20091222193502_Nvidia_Reveals_Specifications_of_Next_Gen_Tesla_Computing_Processors.html
A parte che sostituirei "Nvidia Reveals" con "Kharonte85 Reveals" dato che nvidia non ha rivelato un bel nulla :O non di sua spontanea volontà perlomeno :Perfido: :D
AceGranger
23-12-2009, 23:41
quindi nell'immagine ci sono 512 blocchi e nell'articolo c'è scritto che avranno 512sp ( senza specificare " al massimo " ) , quindi ?
che ne consegue ?
Cl,mal,òz,lòa
che ad alcuni piace farsi "giochi" mentali
Kharonte85
23-12-2009, 23:48
:asd:
A me suona molto strano che per questioni termiche/di consumi si taglino dei cluster invece di ridurre la frequenza. Molto più probabile che una scelta del genere sia fatta invece per aumentare gli yelds.
Non so dire se questo sia più o meno preoccupante, ma da che mondo e mondo tagliare via due cluster non riduce i consumi come se non ci fossero, mentre ridurre le frequenze abbassa molto le pretese di potenza (e non riduce il parallelismo, cosa che riduce anche l'efficienza).
Vero, ma potrebbero averlo deciso per fare entrambe le cose.
Del resto in GPU computing non hanno una concorrenza vera e propria (vero che le HD5000 teoricamente non sarebbero messe male ma non sono orientate al GPU comp non hanno tutte le altre menate come cuda, la mem ECC e Kick-Ass vari come diresti tu :asd:) quindi possono pure "fregarsene" di non usare tutti i 512SP dato che alla fine ottengono le stesse prestazioni, mentre del consumo e contemporaneamente delle rese non se ne possono fregare di certo, senza contare che così facendo i chip full-512 buoni sarebbero di più e andrebbero nelle Geffo e nelle Quadro.
Gente, ma a nessuno è venuto in mente che semplicemente questo è il rilascio non ufficiale (non al pubblico) di un preliminary ??
E normale che con un progetto nuovo e complesso vengano creati documenti del tipo preliminari o altresì indicati come "Initial Release" per permettere agli OEM di iniziare il progetto delle loro board.
Poi non è detto che con una semplice revisione e affinamento del processo di produzione, vengano rilasciate GPU con 512 core come preventivato in origine.
Mi sbaglio o anche AMD si diverte a fare quadcore con un core disabilitato per difetti di silicio? E' così tragico?
Io sfogliando il datasheet indicato, "leggo" solo la notizia che nVidia ha dato le specifiche di base, adesso ci sono, usatele per progettare le schede ed il reltivo contorno (dissi, power-line, connettori video, ecc).
La linea base è questa, ma di certo solo qualche deviato può pensare che si fermeranno quì ...
Io sono integratore OEM di "chippotti" in altro settore, ad ogni nuova generazione o nuovo prodotto, ricevo preliminary o "Initial Release". Poi sta a me partire con il nuovo progetto o aspettare le "Final Release". La tabellina a pagina 2 verrà col tempo popolata da uteriori release correggendo bachi ed introducendo nuove specifiche. Non cè niente di anomalo. E' così in tutto il mondo dell'elettronica.
Quindi .... tranquilli ...
Saluti. :)
masty_<3
24-12-2009, 07:55
ci mancherebbe che ATI fosse indietro stando una generazione avanti...
sono i 3 anni di dominio Nvidia (tutta la generazione Dx10) che vi rodono, e il fatto che il mercato non risponda prontamente (ad ottobre e novembre le 5800 erano in giro -si fa per dire-, eppure il mercato non si è mosso, vedremo se a dicembre ATI avrà rosicchiato qualche % di mercato).
Chi ha una scheda delle ultime 2/3 generazioni aspetta Fermi senza troppa fretta, conscio del fatto che di Dx11 non s'è ancora visto nulla e che la potenza di 1/2/3 anni fa è ancora sufficiente al giorno d'oggi. E quello che vi rode è che lo sapete.
Innanzitutto, 3 anni non sono visto che appena sono uscite le HD4000 hanno avuto un avversario molto duro, 3 anni precisi non direi, così come non metterei in gioco le dx10 visto che sappiamo tutti che ATI aveva implementato la dx10.1 ma nvidia è riuscita a far fare giochi solo sulle dx10
niente dx11? Mi sa che hai le mortadelle davanti agli occhi, le HD5000 cosa sono?
Rodere? Casomai rode a te
Da qui il fatto che ogni volta che viene nominata Nvidia, sia pure per informazioni che non dovrebbero manco interessare chi pensa strettamente al gaming (come quella in questione, sulle Tesla), si scatenino deliri e illazioni su come il marchio verde sia prossimo al fallimento. Serve ricordarvi che chi ha le pezze al culo è AMD, e quindi ATI?
AMD ha le pezze al :ciapet: per colpa di intel e lo dicono i giudici, inoltre ATI cosa c'entra?
Pensa un po' che invece i fanboy ATI erano al settimo cielo quando hanno scoperto che -omg omg- le 5800 erano meglio delle 285gtx!
Incredibile come quando ATI rilasci schede superiori a quelle Nvidia della generazione precedente di un anno fa, tutti qui ci vedano un exploit, mentre quando Nvidia rilascia schede della generazione attuale superiori a quelle ATI "è perchè ha avuto pochi mesi in più a disposizione".
Ma poi, tornando IT, ai fanboy ATI cosa frega delle Tesla?
le 5800 possono battere anche la gtx295 se non prendi giochi come batman (gli stessi test eseguiti su hwup le davano vincenti in molti giochi), per il resto non c'è manco bisogno di risponderti che fai ridere
Purtroppo era previsto che Crysis girasse sull'SP numero 449. Mi spiace.
:asd:
Crysis non girerà mai su NULLA :O
ps: Seguo con interesse, voglio capirci qualcosa in più, quando c'è nvidia in mezzo non ci capisco mai nulla .-.
Sono passato direttamente da Matrox + 3DFX ad nVidia, quando la 3DFx e' stata assorbita, ma adesso l'impressione che questi mi danno, è di un CDA che ha completamente perso la strada, si sono diramati tra chipset, gpu per mobile, e addirittura si è parlato di una CPU, intanto il progetto Fermi vacilla mentre ATI ha già sfornato una DX11 funzionante, e come se non bastasse nVidia ha perso Apple.
Penso che il 2010 sarà, per me, l'anno del passaggio in via definitiva ad ATI
Se escludiamo i due gufi...:asd:
:stordita:
Infatti nvidia non lo ha mai detto...siamo noi che lo davamo erroneamente per scontato.
Il problema è che non lo ha spiegato chiaramente... Questo ha portato tutte le testate online e non che hanno riportato l'evento a sovrastimare la potenza delle Tesla. Anche gente superesperta come Rys ha fatto calcoli a partire da quei dati.
Ovviamente ha molta più risonanza un articolo con foto e paragoni di potenza matematica teorica tra RV870 e GF100 che una notiziola di poche righe in cui si dice "no, NVidia stava scherzando, gli SP sono 448 e non 512". ;)
AceGranger
24-12-2009, 11:50
Il problema è che non lo ha spiegato chiaramente... Questo ha portato tutte le testate online e non che hanno riportato l'evento a sovrastimare la potenza delle Tesla. Anche gente superesperta come Rys ha fatto calcoli a partire da quei dati.
Ovviamente ha molta più risonanza un articolo con foto e paragoni di potenza matematica teorica tra RV870 e GF100 che una notiziola di poche righe in cui si dice "no, NVidia stava scherzando, gli SP sono 448 e non 512". ;)
e chi te lo ha detto che ci saranno solo quei 2 modelli di Tesla ?
Dany_M82
24-12-2009, 11:58
Dunque dunque dunque:
448 SP o Cuda Core sui 512 massimi, frequenze delle tesla inferiori alle GeForce, la cosa interessante di questo articolo direi che è la seguente:
Board
* Board power dissipation: < = 225 W
Internal Connectors and Headers
* One 6-pin PCI Express power connector
* One 8-pin PCI Express power connector
<= 225 la tesla castrata. Le Geforce ciuccerennao di più di sicuro.
Di conseguenza non basteranno nemmeno 2 connettori a 8 pin per fare una dual GPU. Quindi o il loro modello di punta andrà più della 5970 oppure come prestazioni a scheda singola(scheda non chip) saranno dietro. Come prezzi però non li batterà nessuno.
Clap clap clap
AceGranger
24-12-2009, 12:34
nVidia :>
http://www.nvidia.com/object/personal_supercomputing.html
http://www.nvidia.com/docs/IO/43395/NV_DS_Tesla_C2050_C2070_Final_lowres.pdf
si ma lol... quelle annunciate ora....
AceGranger
24-12-2009, 12:47
E di cosa parliamo? Li dicono "available" e non sono disponibili realmente nemmeno quelle, quindi quella che vedi è una lineup, di quanti modelli e di quante integrazioni di lineup successive pensi ci sia bisogno in un mercato ristretto come il supercomputing e con esigenze di stabilità delle piattaforme come quello server in generale?
bho, tu stai parlando di tue pugnette mentali e di piani di nVidia che non conosci;
bho, tu stai parlando di tue pugnette mentali e di piani di nVidia che non conosci;
si i piani di conquistare il mondo, maddai si parla di cose reali non di metafisica eh :asd:
AceGranger
24-12-2009, 13:12
si i piani di conquistare il mondo, maddai si parla di cose reali non di metafisica eh :asd:
si ma come fai a parlare di cose reali se ha annunciato solo i dati generali dell'architettura ? una volta che sara in vendita tutta la linea si potranno trarre conclusioni, ma ora è solo il momento dei fanboy
si ma come fai a parlare di cose reali se ha annunciato solo i dati generali dell'architettura ? una volta che sara in vendita tutta la linea si potranno trarre conclusioni, ma ora è solo il momento dei fanboy
si quindi il tuo momento, anche perchè nvidia ha già dichiarato quali schede video tesla commercializzerà ;)
AceGranger
24-12-2009, 13:28
si quindi il tuo momento, anche perchè nvidia ha già dichiarato quali schede video tesla commercializzerà ;)
a me di nvidia frega nulla, anche perchè con il pc non ci gioco :cool: io aspetto solo di vedere quanto andranno le nuove QUADRO
fa parecchio ridere vedere gente che si fa pippe mentali su un'architettura di una GPU come se fosse una religione, senza poi nemmeno aspettare a vedere quanto effettivamente va, ma guardando gli stream processor :rotfl:
a me di nvidia frega nulla, anche perchè con il pc non ci gioco :cool: io aspetto solo di vedere quanto andranno le nuove QUADRO
fa parecchio ridere vedere gente che si fa pippe mentali su un'architettura di una GPU come se fosse una religione, senza poi nemmeno aspettare a vedere quanto effettivamente va, ma guardando gli stream processor :rotfl:
gli stream processors sono una parte dell'architettura fondamentale, per le tesla ci saranno due modelli per le quadro chi lo sa, aspetta e vedremo che cosa tireranno fuori per adesso si conoscono solo due modelli tesla e basta
AceGranger
24-12-2009, 13:37
gli stream processors sono una parte dell'architettura fondamentale, per le tesla ci saranno due modelli per le quadro chi lo sa, aspetta e vedremo che cosa tireranno fuori per adesso si conoscono solo due modelli tesla e basta
hai detto bene PER ADESSO; ma è gia iniziata la caccia alle streghe e gli insulti alla redazione :rotfl:
hai detto bene PER ADESSO; ma è gia iniziata la caccia alle streghe e gli insulti alla redazione :rotfl:
arg cacchio le tesla molto probabilemnte saranno due, le quadro 4-5 e le geforce non si sa ancora presumo 2-3 al massimo al lancio ;)
Dany_M82
24-12-2009, 13:47
Slot PCIe: 75W
6-pin: 75W
8-pin: 150W
Quella configurazione è sufficiente ad erogare 300W, che poi è il limite massimo per non uscire dallo standard ATX, quindi basta anche per una GeForce che consumi di più di queste Tesla
Non ho detto che non bastano per una GF, ho detto che possiamo scardarci una dual GPU.
E' come per la GTX 280 che aveva un 6 + 8 pin. Infatti finchè non hanno fatto il GT200b non son riusciti a tirar fuori una dual GPU. il problema è che il GT200 è passato da 65 a 55 nm, Fermi invece sarà a 40nm che è un processo produttivo che hanno appena adottato, quindi è sicuro che il dual GPU non ci sarà.
Gente, ma a nessuno è venuto in mente che semplicemente questo è il rilascio non ufficiale (non al pubblico) di un preliminary ??
E normale che con un progetto nuovo e complesso vengano creati documenti del tipo preliminari o altresì indicati come "Initial Release" per permettere agli OEM di iniziare il progetto delle loro board.
Poi non è detto che con una semplice revisione e affinamento del processo di produzione, vengano rilasciate GPU con 512 core come preventivato in origine.
Mi sbaglio o anche AMD si diverte a fare quadcore con un core disabilitato per difetti di silicio? E' così tragico?
INCREDIBILE!!
Un commento intelligente in questa valanga di c*****e! :)
La montagna di fuffa che e' stata scritta su una notizia cosi' semplice e lineare e' imbarazzante...
La cosa e' semplicissima. NVidia ha presentato la nuova architettura, con 512 SP. Quello e' il valore "di design", cioe' il numero di SP presente nel layout. Questo non vuol automaticamente dire che sara' il numero di SP presente nei chip commercializzati (come i Cell con meno di 8 SPE, i Phenom con 3 core, eccetera).
Questo puo' succedere per diversi motivi, tra cui:
* errori di progettazione (parliamone :)
* problemi di produzione (resa inferiore a quanto atteso)
* problemi termici (consumi superiori a quanto atteso)
* decisioni di marketing
I primi 3 possono spesso essere messi a posto, se necesssario, con bug fix del silicio (nuove release), del microcodice (quando si puo'), miglioramenti del processo produttivo, eccetera.
La news va interpretata in questo senso: 512 e' il valore di progetto, e ora si sa che per quei chip il valore effettivo sara' 448. Tutto qui.
ndrmcchtt491
24-12-2009, 15:06
INCREDIBILE!!
Un commento intelligente in questa valanga di c*****e! :)
La montagna di fuffa che e' stata scritta su una notizia cosi' semplice e lineare e' imbarazzante...
La cosa e' semplicissima. NVidia ha presentato la nuova architettura, con 512 SP. Quello e' il valore "di design", cioe' il numero di SP presente nel layout. Questo non vuol automaticamente dire che sara' il numero di SP presente nei chip commercializzati (come i Cell con meno di 8 SPE, i Phenom con 3 core, eccetera).
Questo puo' succedere per diversi motivi, tra cui:
* errori di progettazione (parliamone :)
* problemi di produzione (resa inferiore a quanto atteso)
* problemi termici (consumi superiori a quanto atteso)
* decisioni di marketing
I primi 3 possono spesso essere messi a posto, se necesssario, con bug fix del silicio (nuove release), del microcodice (quando si puo'), miglioramenti del processo produttivo, eccetera.
La news va interpretata in questo senso: 512 e' il valore di progetto, e ora si sa che per quei chip il valore effettivo sara' 448. Tutto qui.
MIRACOLO, c'è ancora qualche uomo sano di mente su sta terra
Foorse qualcuno non ha ancora capito che il progetto FERMI è ancora in fase SPERIMENTALE!!!
1) ci sono schede gt300 sul mercato: NO, perchè si giudica una cosa che non esiste:confused: :confused:
2) abbiamo bisogno attualmente delle dx11: ATTUALMENTE NO:Prrr: :Prrr:
3) chi si è preso una AMD 5xxx per ora non la sfrutta (Il sottoscritto sarebbe stato un futuro cliente di AMD, ma DIRT2 in dx11 è tutto fumo negli occhi):mc: :mc:
4) qui c'è gente che considera la redazione "venduta", questa gente è ora che spenga per un po' il pc ed esca nel mondo reale
5) ci sono utenti che ne sanno più dell' azienda stessa, che sia AMD, NVIDIA, Caxxoincxxo s.p.a. compresa:sofico: :sofico:
Commentare notizie su nuove VGA è diventata una rottura
Concludo augurandovi Buone Feste SENZA AMD o NVIDIA:ciapet: :ciapet:
masty_<3
24-12-2009, 15:43
MIRACOLO, c'è ancora qualche uomo sano di mente su sta terra
Foorse qualcuno non ha ancora capito che il progetto FERMI è ancora in fase SPERIMENTALE!!!
Si a questo punto è FERMO?
1) ci sono schede gt300 sul mercato: NO, perchè si giudica una cosa che non esiste:confused: :confused:
Perchè elogiare qualcosa che non esiste?
2) abbiamo bisogno attualmente delle dx11: ATTUALMENTE NO:Prrr: :Prrr:
Se qualcuno non le tirava fuori chi cacchio doveva farlo? Saremmo rimasti alle dx9?
3) chi si è preso una AMD 5xxx per ora non la sfrutta (Il sottoscritto sarebbe stato un futuro cliente di AMD, ma DIRT2 in dx11 è tutto fumo negli occhi):mc: :mc:
Fanno millemila fps in più... la 5870 in molti casi eguaglia una gtx295, quindi pensa cosa può fare una 5970
e il Corsini non commenta....
e il Corsini non commenta....
è la vigilia di Natale, magari avrà anche qualcosa da fare con/per la famiglia.
ironman72
24-12-2009, 19:12
Assurdo!!
Berlusca e 2 legislature che dice una cosa e ne fa un'altra.. e voi vi inalberate per un'articolo!?!?!
Se non saranno 512 pazienza.. chi se ne frega.. nessuno vi obbliga a comprarla.
Dirt2 si gioca benissimo e visivamente splendido con una gtx275...
Quando Ati fara' dei driver stile nvidia..(cioe' senza tante caga...) e se rimarra' solo ati,. allora si cambia... altrimenti si aspetta...
Buon Natale a tutti....(ok dai pure agli interisti...ma solo perche' e' natale...):D
Innanzitutto, 3 anni non sono visto che appena sono uscite le HD4000 hanno avuto un avversario molto duro, 3 anni precisi non direi, così come non metterei in gioco le dx10 visto che sappiamo tutti che ATI aveva implementato la dx10.1 ma nvidia è riuscita a far fare giochi solo sulle dx10
niente dx11? Mi sa che hai le mortadelle davanti agli occhi, le HD5000 cosa sono?
Rodere? Casomai rode a te
3 anni, dall'uscita delle geffo 8800 finisce la festa per ATI. E non solo in termini di prestazioni ma proprio di mercato. Punto.
Le Dx11 si è visto in Dirt2 quanto sono utili per adesso, ma da come ne parli si capisce che hai l'occhio per i dettagli :asd:
e le Dx10.1 hanno se possibile, battuto l'epic fail delle Dx10 in termini di successo.
AMD ha le pezze al :ciapet: per colpa di intel e lo dicono i giudici, inoltre ATI cosa c'entra?
Se cola a picco AMD, sono cazzi anche per ATI.
le 5800 possono battere anche la gtx295 se non prendi giochi come batman (gli stessi test eseguiti su hwup le davano vincenti in molti giochi), per il resto non c'è manco bisogno di risponderti che fai ridere
dev'essere terribile essere utente ATI, tutti i giochi "in" sono sono ottimizzati Nvidia... Batman non va bene, Crysis non va bene, Need For Speed Shift non va bene, dura fare un benchmark per voi... ah e la gtx295 sulla maggior parte dei benchmark lascia dietro anche la 5870, certo è una dual gpu, ma conferma che anche una gtx275 non viene doppiata.
crysis non va bene con le ati... azz la mia non deve essersene accorta..forse crede di essere una nvidia :asd: :asd: :asd:
C'.a'.z'.a'.za
Jimmy3Dita
24-12-2009, 20:24
e il Corsini non commenta....
...chissà come mai, il primo commento sono offese, quelli seguenti danno del "marchettaro" a tutto Hardware Upgrade... il tutto condito dall'obiettività dei soliti fanboy :asd:
Chi legge Hardware Upgrade da qualche annetto ricorderà come -con il passare degli anni- è stata "pro tutto e contrario di tutto". Prima 3dfx, poi Ati, poi nVidia, poi Intel, poi AMD... che replica ascolterebbe chi passa le giornate a "cercare del marcio" tra le notizie che dicono il contrario di quello che pensa lui (e questo non vale solo per l'hardware)?
Buon Natale a tutti :)
1) nell'articolo si parla di Tesla overo fascia professionale che non ha nulla a che vedere con le consumer...per cui sicuramente per il 2010 la vedo dura che il Fermi "da gioco" possa avere i 448 o più SP.
2) Chi si è trovato nell'esigenza di acquistare una scheda video da settembre in poi in tutte le fasce fino a 500 euri e non ha scelto ATI è solo un asino o uno sprovveduto...
3) Fermi non nasce per giocare ma per obiettivi che vanno al di là del semplice piacere ludico...non potrà pertanto competere sufficientemente con ATI nel rapporto prestazioni/prezzo sotto questo profilo per parecchio tempo.
4) Nvidia è antagonista del mercato con il suddetto progetto...vuoi per la leadership assoluta nel mercato professionale...vuoi perchè è stata obbligata per non rischiare di far la fine di Matrox e compagnia bella: nel 2006 con la creazione del polo AMD-ATI, Nvidia si trovò nel panico più completo: da un lato INTEL con il suo strapotere X86, chipset e video integrati...dall'altro il vero pericolo, AMD con tutto il suo potenziale inespresso (sappiamo tutti il perchè e verso chi :D ) forte in ogni ambito...quindi in Nvidia...Terrore! cosa facciamo? acquistiamo VIA??? Join Venture con quei disgraziati di Intel??? oppure ci rafforziamo con un progetto come Fermi, ci lanciamo davvero nel Gpcomputing...rischiando tutto, ovviamente rastrellando ogni centesimo dai progetti attuali (siamo nel 2006 eh)...e così è stato...solo rebranding dal 2007 in poi...e gran cassa!
5) Fermi nel 2010 costerà davvero tanto agli acquirenti...e offrirà poco rispetto a quanto potrà esprimere nelle successive implementazioni. Per un utente normale che adopera il pc in ambiente SOHO e multimediale generico non avrà scelta...a parità di prezzo non ci sarà concorrenza.
6) rosso o verde che ognuno sia...sarebbe bene che buona parte di voi si svegliasse un po'...e si facesse crescere un po' di materia grigia invece di sparar sempre stupidaggini:D
Concordo con Dany....
Tante fuffe...
Se dx10 è fallito non è colpa di ATI o nVidia ma sappiamo tutti di cosa, inoltre non capisco cosa si ostina la gente di difendere dicendo che quando usciranno, se usciranno, quali usciranno....
Sti cavoli allora io prometto a tutti che produrrò una scheda con 5000 SP, si 5000, ma son massimi eh.... poi potrebbero essere anche 1...
Un po' come telecom che ti vende una linea a 8mbit ma son massimi eh.... poi garantiti quanti sono? se non erro meno di 56k.
Inoltre parliamoci chiaro come alcuni fanboy nvidia stessi (quindi non parole mie) Fermi è pressapoco un progetto ancora... ma non doveva uscire entro 3 mesi!?
La verità è che praticamente salvo notizie parzialmente contraddittorie e molto vaghe non ci sono dati sicuri. La redazione si prende offese per colpe di nVidia che annuncia cose poi le cambia poi chissà come le ricambierà. Insomma commentiamo cosa? Siam diventati il CdA di nVidia che gli vengon presentati i progetti e votiamo il migliore!?
Infine una volta per tutte basta con sta storia dei driver.... che p@lle... mi perdoni la redazione per il linguaggio ma certe boiate da utonti proprio non si reggono su un forum che dovrebbe essere di esperti. Ho installato decine se non centinaia di driver sia ati che nvidia sulle più disparate configurazioni ed entrambi talvolta danno problemi come qualsiasi altro software. Non c'è nessunissima differenza così marcata sulla qualità dei driver e statisticamente i problemi si manifestano in maniera uguale su entrambi.
Quindi per favore chiudiamo qua la leggenda che anni fa poteva anche esser vera ma ora è veramente solo leggenda su questi cavolo di driver. grazie.
Un po' come telecom che ti vende una linea a 8mbit ma son massimi eh.... poi garantiti quanti sono? se non erro meno di 56k.
E' OT lo so, ma a cosa ti riferisci scusa? All'ADSL?
Perché guarda se intendi quella, sei completamente fuori strada. Quella banda è garantita eccome.
Garantita!?! MA DOVEEEEE?!
SU 100 linee che vanno realmente a 8mbit ce ne saranno 10! Se non sei in città specialmente la banda ha fluttuazioni abominevoli.
Comunque era solo un esempio per rendere l'idea non è che mi voglio mettere a disquisire qua di ADSL.
ghiltanas
26-12-2009, 12:49
io capirei frasi come queste soltanto se gli interlocutori venissero pagati per pronunciarle... :asd:
no comunque non è terribile, fidati. :asd:
nn diamo spago ai troll perfavore ;)
masty_<3
26-12-2009, 13:16
3 anni, dall'uscita delle geffo 8800 finisce la festa per ATI. E non solo in termini di prestazioni ma proprio di mercato. Punto.
Le Dx11 si è visto in Dirt2 quanto sono utili per adesso, ma da come ne parli si capisce che hai l'occhio per i dettagli :asd:
e le Dx10.1 hanno se possibile, battuto l'epic fail delle Dx10 in termini di successo.
Certo, peccato che nvidia DA POCHISSIMO ha iniziato a offrire supporto alle dx10.1 e solo ora i giochi GUARDACASO iniziano a supportarle
certo, avrò occhio per i dettagli, ma se non guardassimo i dettagli staremmo ancora a quake: http://upload.wikimedia.org/wikipedia/it/thumb/1/1f/Quake-Screenshot.jpg/800px-Quake-Screenshot.jpg
Se cola a picco AMD, sono cazzi anche per ATI.
Amd non cola, non preoccuparti ;)
dev'essere terribile essere utente ATI, tutti i giochi "in" sono sono ottimizzati Nvidia... Batman non va bene, Crysis non va bene, Need For Speed Shift non va bene, dura fare un benchmark per voi... ah e la gtx295 sulla maggior parte dei benchmark lascia dietro anche la 5870, certo è una dual gpu, ma conferma che anche una gtx275 non viene doppiata.
Questa è terribile da leggere :rolleyes: la 5870 è avanti in tantissimi test ed è 1 gpu vs 2 gpu, la 5970 la doppia almeno :fagiano:
E' OT lo so, ma a cosa ti riferisci scusa? All'ADSL?
Perché guarda se intendi quella, sei completamente fuori strada. Quella banda è garantita eccome.
Vorrei ricordarvi che la banda garantita dell'adsl è MOLTO inferiore a quella nominale, siamo nell'ordine dei kb
a certo, la banda garantita di una adsl 8mbit è 8mbit.. come no... :asd:
Garantita!?! MA DOVEEEEE?!
SU 100 linee che vanno realmente a 8mbit ce ne saranno 10! Se non sei in città specialmente la banda ha fluttuazioni abominevoli.
Comunque era solo un esempio per rendere l'idea non è che mi voglio mettere a disquisire qua di ADSL.
Vorrei ricordarvi che la banda garantita dell'adsl è MOLTO inferiore a quella nominale, siamo nell'ordine dei kb
Ragazzi, forse non vi è chiaro come funziona Internet, non vi è chiaro come funzionano le reti in generale, non vi è chiaro come funzionano i protocolli di rete, non vi sono chiare tantissime cose, e non ve ne do colpa; ma se siete a digiuno di Networking per cortesia evitiamo di spararle grosse.
Telecom quella banda ve la garantisce istante per istante.
Ma una compagnia telefonica non ha più responsabilità dei problemi legati alla rete virtuale, ci capiamo? Il problema è Internet e i suoi protocolli costruiti per rendere affidabili le transazioni a costo di sacrificare le prestazioni.
Sapete come avviene il trasferimento dei contenuti di una pagina web sotto il protocollo HTTP 1.1???.... Non lo sapete di per certo, perché altrimenti avreste evitato di dire quelle cose. Scommettiamo che vi passano tutte le vostre convinzioni dopo qualche lezione sui protocolli, vogliamo scommettere? :)
Ci siamo dimenticati persino di nominare la banda di upload. Come se in termini di velocità effettiva non c'entrasse con la bandwidth in download.
Comunque capisco che non posso pretendere che chiunque io fermi per strada abbia le conoscenze adeguate per capire che aumentare la portata dei canali di trasmissione non sono sufficienti a risolvere tutti i problemi di velocità di Internet e di altre reti.
Il problema non è tanto nel mezzo ma negli strumenti.
Se avete problemi di impianto interno, se il server che contattate per un trasferimento di un file da 1 GB non è in grado di assecondarvi e farvi scaricare al massimo, se per caricare una pagina ci vuole mezz'ora, questi sono tutti problemi che nessuna compagnia telefonica vi puo' risolvere.
Non mi fate proseguire nell'offtopic.
Penso che più che lo studio dei protocolli, sia illuminante leggersi preventivamente le informazioni sullo stesso sito del provider, in particolare quello Alice dice:
"velocità di navigazione (download) fino a 7 Mega"
leggendo più in dettaglio:
"Obiettivo 2009 di velocità minima di trasmissione in download: Download: 2,1 Megabit/s"
Poi andandosi a cercare in qualsiasi sito online di approfondimento, si trova che:
"Banda del Provider – I provider Internet acquistano un certo quantitativo di banda e la ripartiscono tra tutti i suoi utenti (non sempre in maniera uguale). Dal momento che questa banda è particolarmente costosa, alcuni provider per mantenere prezzi bassi sui loro abbonamenti ADSL ne acquistano poca e la dividono per un numero elevato di utenti. Questo porta inevitabilmente a rallentamenti, specialmente nelle ore di punta (solitamente 16-20)."
ma non dire sciocchezze per cortesia, recupera un contratto telecom per l'adsl e leggiti qual è il valore di banda minima garantita per carità... è arrivato l'esperto di networking... :doh:...esperto di rete, dimmi un pò se il minimum cell rate di una 7mbit telecom è... 7mbit.. :asd:
Ma io sono un esperto di Networking. :)
Altrimenti mica ti avrei risposto in quella maniera.
Telecom, Infostrada e bla bla non possono entrare nel merito degli elementi che costituiscono l'infrastruttura virtuale di una rete. Se si ignorano queste cose, ci credo che è facile sparare a 0 e puntare il dito su chiunque.
Tu sei davvero convinto che quando navighi e non scarichi le pagine a razzo il problema sia nel tuo canale di download?? Se tu sapessi come vengono trasferiti i dati.... se solo lo sapessi!!!
Jimmy3Dita
26-12-2009, 15:30
OT: ma che vi ci hanno messo nel panettone, il fiele?! :asd:
jappilas
26-12-2009, 16:10
questo thread è nato male, proseguito peggio, deragliato completamente nell' ultima pagina, e adesso ulteriormente abbruttito da toni fuori luogo - tra l' altro, il fatto che io o altro collega di sezione non abbia potuto passare prima non è una scusante, visto che mi era parso di essere tra persone adulte e obiettive su un forum tecnico, e non alle elementari...
Penso che più che lo studio dei protocolli, sia illuminante leggersi preventivamente le informazioni sullo stesso sito del provider, in particolare quello Alice dice:
[snip]
dal momento che una connessione su rete geografica tra autonomous systems separati deve attraversare svariati livelli (gerarchici) di interconnessione, dal momento che nella gerarchia di interconnessione gli ISP occupano il livello pù basso, con gli utenti a loro connessi (su linee last mile) a costituire nodi terminali (leaf nodes), dal momento che gli ISP stessi non hanno accesso all' infrastruttura gestita dagli agenti di livello superiore da cui essi stessi acquistano banda, e dal momento che il volume di dati effettivamente ricevibili da un nodo terminale è funzione della congestione ai nodi e livelli intermedi oltre che (banalmente!) della banda garantita in upstream dai server ospitanti i contenuti effettivamente fruiti, ne deriva che gli ISP non possano materialmente garantire che la banda in downstream sia costantemente pari a quella nominale...
ma non dire sciocchezze per cortesia, recupera un contratto telecom per l'adsl e leggiti qual è il valore di banda minima garantita per carità... è arrivato l'esperto di networking... :doh:...esperto di rete, dimmi un pò se il minimum cell rate di una 7mbit telecom è... 7mbit.. :asd:
e che l' MBR di una linea da 7 Mb non sia 7 Mb, deriva dall' essere appunto un valore di tasso minimo, e soprattutto un parametro distinto da quello effettivo( allowed cell rate, ACR) per una connessione a tasso variabile e negoziato in base al tipo di servizio
già qui mostri purtroppo di ignorare la struttura di massima di una connessione ATM, e l' esistenza e significato di tutta una serie di altri parametri...
mi dici qual è il minimum cell rate della tua connessione adsl? (che è quella che in italiano che viene chiamata banda minima garantita)?
l' MCR della sua connessione non inficia il throughput effettivo di una connessione end to end (non già tra l' utente e telecom, ma tra l' utente e i server di google o di microsoft), meno ancora inficia il numero di unità di calcolo dell' architettura nVidia Fermi, per cui l' off topic termina qui
non vorrei dover tornare sull' argomento, o constatare altri post dai toni non consoni, perchè vorrebbe dire comminare sanzioni più pesanti di quelle che dovrei comminare ora - ma che non faccio, ritenendo che a persone intelligenti un avviso basti e avanzi...
crysis non va bene con le ati... azz la mia non deve essersene accorta..forse crede di essere una nvidia :asd: :asd: :asd:
C'.a'.z'.a'.za
è dal 2007 che gli utenti ATI non fanno che brontolare quando vedono i benchmark di Crysis dicendo che è un motore che avvantaggia Nvidia. Hanno cambiato idea con l'uscita delle 5800 :asd: ma se aspettiamo l'uscita di Fermi potrebbero cambiare di nuovo idea :asd
discorso 295gtx, su questo stesso sito si leggono risultati superiori alla 5870, sempre che abbia senso con 170 frame al secondo andare a vedere se il vicino ne fa 165 o 173.
L'unica cosa sensata che si è letta è che sì, Fermi costerà. Tuttavia difficilmente Nvidia lascerà scoperte le fascie medie tra i 250 e i 300 euro, per cui i gamers non hanno motivo di preoccuparsi. Chi va di fascia bassa si aspetti un bel rebrand del gt200 o (meglio in senso epico) di un g92 :asd:
ghiltanas
27-12-2009, 14:23
è dal 2007 che gli utenti ATI non fanno che brontolare quando vedono i benchmark di Crysis dicendo che è un motore che avvantaggia Nvidia. Hanno cambiato idea con l'uscita delle 5800 :asd: ma se aspettiamo l'uscita di Fermi potrebbero cambiare di nuovo idea :asd
discorso 295gtx, su questo stesso sito si leggono risultati superiori alla 5870, sempre che abbia senso con 170 frame al secondo andare a vedere se il vicino ne fa 165 o 173.
L'unica cosa sensata che si è letta è che sì, Fermi costerà. Tuttavia difficilmente Nvidia lascerà scoperte le fascie medie tra i 250 e i 300 euro, per cui i gamers non hanno motivo di preoccuparsi. Chi va di fascia bassa si aspetti un bel rebrand del gt200 o (meglio in senso epico) di un g92 :asd:
250 e 300 euro io nn la reputo (giustamente) fascia media, ma ben di +
Vedremo come nvidia coprirà la vera fascia media (sotto i 200 euro), riuscirà a far scalare Fermi verso il basso?
A parte che non credevo che una semplice metafora che non voleva entrare nel tecnico avrebbe scatenato tutto questo putiferio ma poi vorrei spiegare che forse non è stato capito le mie parole che non c'entravano niente col dato tecnico del networking ma solo col marketing.
Cerco di spiegarmi meglio:
Non tutti siamo esperti di rete ok?! Su questo penso che non ci siano dubbi ora il punto sta nell'ingannare il cliente promettendo X e dando X meno qualcosa.
Telecom per me è un classico esempio perchè ho visto vendere linee a 8mbit quando IL ROUTER quindi niente di remoto o spaziale non riesce a tenere stabile la connessione a più di 1 o 2 mbit. Contrattualmente non puoi nemmeno dire chissà che dato che sei comunque sopra al minimo garantito ma se permettere da utente finale per me è una presa in giro. Poi niente vieta che ci siano X ragioni per cui questo avviene (ragioni spesso che sono nel "last mile" e non nella gerarchia superiore vedi doppini in campagna che son esposti da 30 anni alle intemperie) ma allora tu ISP vendimi una 2mbit perchè di più non puoi fare attualmente.
Stessa cosa nVidia... non discuto che ci siano X ragioni validissime per cui 500+ SP attualmente non siano possibili ma allora non fare annunci spaziali per poi venirmi a dire che non si può più fare. Se nel mio lavoro uno mi presenta un progetto che poi dev'essere ridimensionato di oltre il 10% viene licenziato in tronco perchè significa che il progetto iniziale era campato in aria e ingannevole.
Spero vivamente che nVidia tiri fuori non un buon prodotto ma un ottimo prodotto ma ciò non toglie che tra rebranding e notizie fasulle si sta comportando malissimo adeguandosi a delle logiche di mercato e marketing volte al solo vendere fregandosene di tirare il pacco a chi non capisce approfonditamente l'argomento... l'importante è vendere anche fregando.
Ecco questo è ciò che volevo dire.
A parte che non credevo che una semplice metafora che non voleva entrare nel tecnico avrebbe scatenato tutto questo putiferio ma poi vorrei spiegare che forse non è stato capito le mie parole che non c'entravano niente col dato tecnico del networking ma solo col marketing.
Cerco di spiegarmi meglio:
Non tutti siamo esperti di rete ok?! Su questo penso che non ci siano dubbi ora il punto sta nell'ingannare il cliente promettendo X e dando X meno qualcosa.
Telecom per me è un classico esempio perchè ho visto vendere linee a 8mbit quando IL ROUTER quindi niente di remoto o spaziale non riesce a tenere stabile la connessione a più di 1 o 2 mbit. Contrattualmente non puoi nemmeno dire chissà che dato che sei comunque sopra al minimo garantito ma se permettere da utente finale per me è una presa in giro. Poi niente vieta che ci siano X ragioni per cui questo avviene (ragioni spesso che sono nel "last mile" e non nella gerarchia superiore vedi doppini in campagna che son esposti da 30 anni alle intemperie) ma allora tu ISP vendimi una 2mbit perchè di più non puoi fare attualmente.
Stessa cosa nVidia... non discuto che ci siano X ragioni validissime per cui 500+ SP attualmente non siano possibili ma allora non fare annunci spaziali per poi venirmi a dire che non si può più fare. Se nel mio lavoro uno mi presenta un progetto che poi dev'essere ridimensionato di oltre il 10% viene licenziato in tronco perchè significa che il progetto iniziale era campato in aria e ingannevole.
Spero vivamente che nVidia tiri fuori non un buon prodotto ma un ottimo prodotto ma ciò non toglie che tra rebranding e notizie fasulle si sta comportando malissimo adeguandosi a delle logiche di mercato e marketing volte al solo vendere fregandosene di tirare il pacco a chi non capisce approfonditamente l'argomento... l'importante è vendere anche fregando.
Ecco questo è ciò che volevo dire.
No, no e ancora no.
Se i CUDA Core(s) risultano essere 448, sono e saranno 448 in tutti i casi punto e basta (e sempre che sia un dato confermato da Nvidia)
448 rappresenterà la soglia massima e non la si potrà sforare MAI nè in teoria nè in pratica per limiti fisici di progettazione.
Se il tuo router invece si collega a oltre 7 mbit, è perché al momento dell'aggancio della portante, e attraverso una serie di test, l'apparecchio ha stabilito che è possibile arrivare a quella velocità massima e a parametri di rete massimi (condizione ideale).
Telecom ti puo' dare SOLO garanzie elettriche sul dimensionamento dell'impianto che gli compete, non puo' darti garanzie informatiche e sugli strumenti/apparecchiature collegate all'infrastruttura virtuale della rete.
Una volta e per tutte: è il servizio a cui ti colleghi che decide a quanto cavolo devi scaricare e non Telecom.
Se questo risulta essere congestionato per sovraccarico di utenza o per limiti di calcolo del cluster, tu potrai avere anche garanzie elettriche di 1 Gbit da parte del tuo gestore, ma tu scaricherai alla velocità che ti concederà il servizio a casua di latenze ineliminabili e non ci sono ferri che tengano.
Le garanzie ce le possiamo infilare in quel posto.
Senza contare poi i rallentamenti dovuti alla gestione dei protocolli preesistenti basati sui principi di affidabilità che ne limitano le prestazioni.
Quando si dice che una vecchia ADSL da 640 Kbit in downstream basterebbe alla sola fruizione dei contenuti delle pagine web (sono esclusi elementi di streaming) non è una frase del tutto sbagliata. Questo perché il primo ostacolo alle prestazioni deriva proprio dalla progettazione dell'infrastruttura virtuale.
In quanto alla velocità stabile che vai sbandierando, è conseguenza del fatto che ignori il funzionamento delle reti e delle tecniche di trasmissione sincrone/asincrone. La stabilità è un vocabolo che non risiede nel dizionario delle reti ATM.
Se il tuo router si aggancia a 2 Mbit/sec invece ci sono problemi elettrici dovuti a: copertura della zona del territorio (problematica del digital-divide per svariate cause), oppure difetti agli apparecchi e/o all'impianto telefonico.
In ogni caso, quella metafora è totalmente sbagliata perché:
Se fai un'architettura a 448 streams processor. 448 risulta essere il limite massimo dell'hardware, poiché quei 64 core che mancano all'appello per arrivare a 512 NON CI SONO.
Con l'ADSL ci sono possibilità di raggiungere velocità prossime ai limiti contrattuali se becchi il servizio e il tempismo giusti, poiché la disponibilità elettrica ce l'hai.
Ma come.... scusa eh ma sarò duro io ma qualcosa non mi torna.... da svariati link precedenti originariamente i CUDA MASSIMI erano 512.
Quindi inizialmente han sparato un numerone e poi si son resi conto che non era possibile che è una cosa umana intendiamoci ma poco seria. Se io quando elaboro prodotti finanziari dal progetto iniziale che presento al CdA ridimensiono per X ragioni validissime ma che inizialmente non ho considerato verrei spedito a casa in 2 nanosecondi. Sui progetti c'è sempre un margine di errore ma mica del 10% da quanto inizialmente annunciato e soprattutto se avviene una differenza così grande ci dev'essere una ragione pubblica e macroscopica (crisi mondiale, catastrofe naturale ecc...) non un semplice errore di progettazione.
Tornando alla metafora ancora non riesco a spiegarmi proviamo con un nuovo tentativo. Dimentichiamo i protocolli non c'entrano niente.... io non sto parlando di velocità di download dal server X, nè di alcun tipo di connettività che va oltre il percorso da me all'ISP.
Appurato che stiamo parlando del SOLO percorso da me all'ISP trovo ingannevole il fatto comune che su alcune linee dove è PALESE che non è possibile tenere i parametri manco di una 4mbit venga venduta una 8mbit. Ci sono zone in campagna dove il cavo è così deteriorato che capita che devi sollevare la cornetta del telefono per far aumentare la potenza del segnale e sincronizzare l'ADSL e questo se vuoi ti linko l'articolo del giornale, in certe zone di campagna vengono vendute 8mbit quando è del tutto IMPOSSIBILE arrivare ai parametri elettrici anche solo per 2mbit. E ti ripeto non parlo di infrastrutture al di là dell'ISP ma spesso degli ultimi Km di cavo FISICO!
Ora se gli stessi tecnici in certe zone se li chiami ti dicono che in tale zona a qualsiasi ora del giorno e della notte non arriverai mai manco a 2mbit, il fatto che l'ISP ti vende una 8mbit non è forse quantomeno al limite della truffa?
Comunque 448 o 512 secondo me non cambierà moltissimo.
La natura degli streams Nvidia è differente da quelle del concorrente ATI.
ATI privilegia la forte parallelizzazone dei processi e ha bisogno di raddoppiare i core quando realizza un upgrade dell'architettura precedente altrimenti perde il passo, Nvidia lavora di più sulla modalità di interconnessione interna e la memoria cache e di conseguenza il dialogo diventa più sofisticato già con un numero di core, in certe configurazioni, addirittura meno della metà del concorrente.
Certo 512 sono SEMPRE meglio di 448 non c'è dubbio. Ma se quella architettura lì nelle brochure è confermata da Nvidia saranno avanti uguale in termini di tecnologia GPGPU.
E' più preoccupante, invece, il prezzo di questo prodotto e se ci sarà veramente un'edizione destinata al desktop-gaming, sì a prezzi più elevati ma non troppo o perlomeno non così tanto da permettere il lusso ad ATI di NON abbassare i prezzi della propria linea di prodotti.
Poi magari mi sbaglio ed esce a prezzi più o meno livellati a quelli del concorrente e a sto punto Bottaaaaaaaaa :sofico: ATI potrebbe fare un ritocchino per la gioa di tutti. :fagiano:
E la sfida, sioooriiii e siooreeee , a chi vende a prezzi migliori è aperta..... :boxe:
Staremo a vedere.
ghiltanas
27-12-2009, 18:01
ati può permettersi un ritocco di prezzo, e lo farà (imho) sia a inizio anno, sia in concomitanza dell'uscita di fermi.
Ma come.... scusa eh ma sarò duro io ma qualcosa non mi torna.... da svariati link precedenti originariamente i CUDA MASSIMI erano 512.
Originariamente!!!! Anch'io precedentemente ero rimasto a 512....
E' vero che sono solo notizie. Ma se dobbiamo trattarle per quelle che sono allora prendiamo quelle più recenti. Non ti pare?
Gli ultimi aggiornamenti dicono che per le Tesla ci sono stati dei tagli nei cuda core da 512 a 448. Ti risulta?
Sia dalla notizia, sia dal pdf emerge che 448, non so se in tutte le varianti di Fermi, sarà il tetto massimo. 512 non viene più neanche menzionato.
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf
Se l'architettura Fermi è basata, come credo ovvio che sia, per ospitare varie edizioni di GPU è facile pensare che ci saranno varianti con numero di core maggiore o minore.
Tuttavia, questo documento riporta che per le Tesla C2050 e C2070 è prevista una GPU con un massimo di 448 core. Oppure pensi che doveva esserci scritto per forza la parola MASSIMI per fartelo capire?
Ti risulta che in un documento tecnico vengono messi parametri nominali o stime pratiche? Puo' essere la prima?
Si curano di specificare la velocità massima del clock della GPU e non si curano poi di specificare che i cores teoricamente sono 512?
I documenti bisogna leggerli non interpretarli.
Stando a quel documento gli streams totali e teorici sono 448, stop.
Io non leggo altro. :D
Quindi inizialmente han sparato un numerone e poi si son resi conto che non era possibile che è una cosa umana intendiamoci ma poco seria. Se io quando elaboro prodotti finanziari dal progetto iniziale che presento al CdA ridimensiono per X ragioni validissime ma che inizialmente non ho considerato verrei spedito a casa in 2 nanosecondi. Sui progetti c'è sempre un margine di errore ma mica del 10% da quanto inizialmente annunciato e soprattutto se avviene una differenza così grande ci dev'essere una ragione pubblica e macroscopica (crisi mondiale, catastrofe naturale ecc...) non un semplice errore di progettazione.
Non ho mai messo in dubbio che un progetto possa essere rivisto. Ma se sono 448 non saranno e nè potranno diventare per magia 512. Tutto qui.
Tornando alla metafora ancora non riesco a spiegarmi proviamo con un nuovo tentativo. Dimentichiamo i protocolli non c'entrano niente.... io non sto parlando di velocità di download dal server X, nè di alcun tipo di connettività che va oltre il percorso da me all'ISP.
Appurato che stiamo parlando del SOLO percorso da me all'ISP trovo ingannevole il fatto comune che su alcune linee dove è PALESE che non è possibile tenere i parametri manco di una 4mbit venga venduta una 8mbit. Ci sono zone in campagna dove il cavo è così deteriorato che capita che devi sollevare la cornetta del telefono per far aumentare la potenza del segnale e sincronizzare l'ADSL e questo se vuoi ti linko l'articolo del giornale, in certe zone di campagna vengono vendute 8mbit quando è del tutto IMPOSSIBILE arrivare ai parametri elettrici anche solo per 2mbit. E ti ripeto non parlo di infrastrutture al di là dell'ISP ma spesso degli ultimi Km di cavo FISICO!
Ora se gli stessi tecnici in certe zone se li chiami ti dicono che in tale zona a qualsiasi ora del giorno e della notte non arriverai mai manco a 2mbit, il fatto che l'ISP ti vende una 8mbit non è forse quantomeno al limite della truffa?
Quelle che evidenzi tu, sono problematiche che rientrano nell'ultima parte del mio post precedente riguardanti il digital-divide o al limite guasti, mancata manutenzione e bla bla tutte cose a carico del gestore telefonico (e non solo).
Se il problema legato all'aggancio della portante, con parametri inferiori a quelli previsti dai termini contrattuali, riguarda la copertura del territorio vuol dire che la 7 Mbit non c'è.
Se poi paghi quanto un contratto per 7 mbit è un altro discorso. E posso essere certamente solidale con queste persone.
Ma non possiamo parlare più di 7 Mbit non sfruttati in quando tu non li avresti quei 7 Mbit nemmeno in teoria e la linea non è dimensionata elettricamente per ospitare queste velocità.
Ma anche in questo caso il paragone non c'entra.
Un modello Nvidia con 448 cores sarà tale per tutti gli acquirenti che l'acquistano tranne imprevisti di schede difettose. Mica ci saranno casi discriminatori!!! E a 512 quella scheda non ci arriverà mai... e non perché la scheda è uscita male ma perché è stata progettata così e oltre non si è potuti andare per ragioni tecniche/elettriche.
Telecom invece se porta avanti l'anti-digital-divide (http://www.alice.it/assistenza/anti_digital_divide.html#7M) e copre le zone e ripara i guasti il problema lo abbatte.
Sono due cose che non c'entrano nulla.
Quindi inizialmente han sparato un numerone e poi si son resi conto che non era possibile che è una cosa umana intendiamoci ma poco seria. Se io quando elaboro prodotti finanziari dal progetto iniziale che presento al CdA ridimensiono per X ragioni validissime ma che inizialmente non ho considerato verrei spedito a casa in 2 nanosecondi. Sui progetti c'è sempre un margine di errore ma mica del 10% da quanto inizialmente annunciato e soprattutto se avviene una differenza così grande ci dev'essere una ragione pubblica e macroscopica (crisi mondiale, catastrofe naturale ecc...) non un semplice errore di progettazione.
Non so che lavoro fai, ma sicuramente non il progettista microelettronico :)
Se rispetto alle stime iniziali io perdo solo il 10%, c'e' da stappare lo spumante :)
Seriamente: ho scritto gia' in un post precedente come funzionano le cose.
512 e' verosimilmente il valore di progetto, cioe' quello che c'e' nel layout, cioe' in ogni chip ci _sono_ 512 SP. Non tutti vengono fatti funzionare, pero'. Evidentemente speravano di averli tutti funzionanti, e invece no. Questo puo' succedere per parecchi motivi, e non deve sorprendere in un'architettura complessa come quella (anzi, uno dei vantaggi del "copy&paste", cioe' del fare un blocco funzionale e ripeterlo tante volte, e' proprio quella, che se te ne perdi uno non e' la fine del mondo, e' solo un parametro in piu' su cui giocare).
Certo, non e' bello. Certo, stanno avendo parecchi problemi, molti piu' di quanti avrebbero voluto. Avranno dovuto fare compromessi e limare su diversi parametri per ottenere dei prodotti vendibili. Brutto, ma non c'e' niente da fare. Un chip del genere richiede 3--4 anni di lavoro di alcune migliaia di persone, non puoi dire "beh e' venuto male, ricominciamo", usi quello che hai, tagli dove puoi, e mandi fuori il prodotto lo stesso. Chissa', magari sara' sufficiente (oppure no, come ha dimostrato recentemente il Larrabee: anche i piu' grandi possono toppare, semplicemente questi oggetti sono mostruosamente difficili da progettare).
Per paragone: i Phenom a 3 core ne hanno in silicio 4... quindi una "perdita" del 25%. Niente di strano.
Seriamente: ho scritto gia' in un post precedente come funzionano le cose.512 e' verosimilmente il valore di progetto, cioe' quello che c'e' nel layout, cioe' in ogni chip ci _sono_ 512 SP. Non tutti vengono fatti funzionare, pero'. Evidentemente speravano di averli tutti funzionanti, e invece no. Questo puo' succedere per parecchi motivi, e non deve sorprendere in un'architettura complessa come quella (anzi, uno dei vantaggi del "copy&paste", cioe' del fare un blocco funzionale e ripeterlo tante volte, e' proprio quella, che se te ne perdi uno non e' la fine del mondo, e' solo un parametro in piu' su cui giocare).
Certo, non e' bello. Certo, stanno avendo parecchi problemi, molti piu' di quanti avrebbero voluto. Avranno dovuto fare compromessi e limare su diversi parametri per ottenere dei prodotti vendibili. Brutto, ma non c'e' niente da fare. Un chip del genere richiede 3--4 anni di lavoro di alcune migliaia di persone, non puoi dire "beh e' venuto male, ricominciamo", usi quello che hai, tagli dove puoi, e mandi fuori il prodotto lo stesso. Chissa', magari sara' sufficiente (oppure no, come ha dimostrato recentemente il Larrabee: anche i piu' grandi possono toppare, semplicemente questi oggetti sono mostruosamente difficili da progettare).
Per paragone: i Phenom a 3 core ne hanno in silicio 4... quindi una "perdita" del 25%. Niente di strano.
Concordo pienamente...
Un progetto ambizioso come Fermi...ha dato e continuerà a dare grattacapi per un bel po':...drivers, problemi di progettazione dell'ultimo minuto, calore, COSTO...per citarne qualcuno. Ma è normale! Chi è quell'alluvionato...che può sperare di ritrovarsi al lancio di Fermi una scheda perfetta???
Con il tempo maturerà e crescerà...i drivers saranno stabili...i "CUDA" aumenteranno...il calore e i consumi diminuiranno con i 32 nm e così via.
Al lancio (prima è meglio è) ipotizzando anche 448SP...con 1,5 GB di memoria...e la relativa banda...4cm quadrati di silicio roventi ad oltre 1,2 Ghz....
...gente...costerà il triplo e andrà inizialmente (forse) il 20% in più di una 5870...sempre che le directx 11 siano in hardware nè...se poi si passa all'overclock...il vantaggio si lima ancora di più...Non credo si possa incrementare un bell'accidenti di niente in Fermi con i 40nm.
E credo pure...IMHO...che R900 non potrà competere con un Fermi II...come d'altro canto...Fermi non potrà competere con 5xxx per tutto il 2010 nel rapporto prestazioni-prezzo...anche questo mi pare normale, ovvio e scontato...a meno che, nella seconda metà dell'anno...non fiocchino applicativi di ogni genere basati esclusivamente sull'ottimizzazione della GPGPU...
masty_<3
27-12-2009, 23:32
discorso 295gtx, su questo stesso sito si leggono risultati superiori alla 5870, sempre che abbia senso con 170 frame al secondo andare a vedere se il vicino ne fa 165 o 173.
E i consumi ad esempio? Che sono una cosa secondaria?
L'unica cosa sensata che si è letta è che sì, Fermi costerà. Tuttavia difficilmente Nvidia lascerà scoperte le fascie medie tra i 250 e i 300 euro, per cui i gamers non hanno motivo di preoccuparsi. Chi va di fascia bassa si aspetti un bel rebrand del gt200 o (meglio in senso epico) di un g92 :asd:
Invece ATI ha fatto delle schede senza rebrand di un cacchio, e poi tu 250/300€ la chiami fascia media? Quella va dagli 80 ai 140 esagerando!
E credo pure...IMHO...che R900 non potrà competere con un Fermi II...come d'altro canto...Fermi non potrà competere con 5xxx per tutto il 2010 nel rapporto prestazioni-prezzo...anche questo mi pare normale, ovvio e scontato...a meno che, nella seconda metà dell'anno...non fiocchino applicativi di ogni genere basati esclusivamente sull'ottimizzazione della GPGPU...
invece è normalissimo per ATI, che ha prodotto schede superiori alle avversarie a prezzi umani! (Ad esempio la 5850)
Ale55andr0
28-12-2009, 11:28
competere con un Fermi II...
manco il primo c'è in giro che si pensa al secondo :D
[QUOTE=dany700;30227143]competere con un Fermi II...QUOTE]
manco il primo c'è in giro che si pensa al secondo :D
Assolutamente si' :)
Se adesso si parla di Fermi, vuol dire che Fermi 2 e' sotto sviluppo da un paio di anni, di Fermi 3 stanno pensando le specifiche, e qualche PhD sta facendo "blue-sky research" per immaginare quali saranno le tecnologie e le architetture che serviranno (perche' non esistono ancora) per Fermi 4...
Questa e' normale amministrazione in tutti i campi dove lo sviluppo dei prodotti prende cosi' tanti anni.
ghiltanas
28-12-2009, 14:13
con fermi2 probabilmente si pensa ad un half-node, considerato che i 32nm dovrebbero essere un linear shrink dei 40nm, un pò com'è stato fra i 65 e i 55...
Ale55andr0
28-12-2009, 14:46
Assolutamente si' :)
Se adesso si parla di Fermi, vuol dire che Fermi 2 e' sotto sviluppo da un paio di anni, di Fermi 3 stanno pensando le specifiche, e qualche PhD sta facendo "blue-sky research" per immaginare quali saranno le tecnologie e le architetture che serviranno (perche' non esistono ancora) per Fermi 4...
Questa e' normale amministrazione in tutti i campi dove lo sviluppo dei prodotti prende cosi' tanti anni.
Se Fermi 2 è sotto sviluppo da anni perchè Fermi è ancora... Fermo? :asd:
Direi che nell'ultimo periodo in nVidia si siano sforzati più che altro sui nomi da dare alle vga :asd:
ghiltanas
28-12-2009, 14:52
questo se i 32nm di tsmc esisteranno e non sono stati annullati come si dice in giro...
io infatti pensavo a collaborazioni anche con altre fonderie, in particolare la globalfoundries, che se nn sbaglio dal q1 2010 accetterrà addirittura già ordini per chip a 28nm (in produzione verso la fine dell'anno questi).
Anche intel sta per iniziare con i 32nm, nn credo che tsmc si possa concedere il lusso di restare indietro :fagiano:
ghiltanas
28-12-2009, 14:57
Se Fermi 2 è sotto sviluppo da anni perchè Fermi è ancora... Fermo? :asd:
Direi che nell'ultimo periodo in nVidia si siano sforzati più che altro sui nomi da dare alle vga :asd:
perchè fermi apporta uno stravolgimento architetturale notevole e quando ciò accade si può andare incontro a difficoltà nn trascurabili...
Anche ati con r600 realizzò un chip nn brillante in quel periodo , che però funzionò bene da base per gli sviluppi futuri.Con fermi ci possono essere analogie in tal senso (una supposizione mia)
ghiltanas
28-12-2009, 15:05
Si dice che tsmc abbia annullato i 32nm per convogliare le risorse sui 28nm. In ogni caso lo shrink lineare, se previsto in design, lo fai solo verso i 32nm tsmc, non verso quelli di qualcun altro, quindi se salta quello salta lo shrink ottico in tutto e per tutto.
capito :fagiano:
a quel punto però sarebbe un problema anche per ati...io ipotizzavo un aggiornamento delle 5000 come step intermedio, invece a quel punto dovrebbe andare direttamente con la serie 6000 e pp a 28nm...
yossarian
28-12-2009, 15:22
capito :fagiano:
a quel punto però sarebbe un problema anche per ati...io ipotizzavo un aggiornamento delle 5000 come step intermedio, invece a quel punto dovrebbe andare direttamente con la serie 6000 e pp a 28nm...
prima fai il passaggio al nuovo pp e poi lanci la nuova architettura; oppure il contrario. Mai le due cose insieme.
ghiltanas
28-12-2009, 15:29
prima fai il passaggio al nuovo pp e poi lanci la nuova architettura; oppure il contrario. Mai le due cose insieme.
ok, infatti io pensavo a qualcosa stile 4770 a 32nm rapportato alla serie 5000. Se i 32 nm saltano, allora le opzioni sarebbero: direttamente serie nuova a 40nm però, oppure 28nm per le 5000 e poi serie nuova.Nel primo caso avrebbero tuttavia problemi di dimensione del chip (ati deve aumentare gli sp considerevolmente fra una serie e l'altra e quindi restare ai 40nm gli darebber problemi), nel secondo salterebbero uno step passando direttamente dai 40nm ai 28nm, nn un'operazione cosi semplice immagino...
In sostanza (se nn ho scritto boiate), la soluzione iniziale sarebbe la + logica e "semplice", quindi è bene che i 32nm anche per ati nn saltino, o sbaglio?
ghiltanas
28-12-2009, 15:54
Basta andare a 28nm, chiamare la serie 6000, metterci 3600SP e aumentare il bus di memoria, il tutto mantenendo la stessa architettura :>
Oppure, se stai cambiando architettura, puoi farla a 40nm, e magari cominciare dai derivati di questa a lavorare sui 28nm.
quello che avevo detto prima, però yoss mi ha ripreso :fagiano:
yossarian
28-12-2009, 15:56
ok, infatti io pensavo a qualcosa stile 4770 a 32nm rapportato alla serie 5000. Se i 32 nm saltano, allora le opzioni sarebbero: direttamente serie nuova a 40nm però, oppure 28nm per le 5000 e poi serie nuova.Nel primo caso avrebbero tuttavia problemi di dimensione del chip (ati deve aumentare gli sp considerevolmente fra una serie e l'altra e quindi restare ai 40nm gli darebber problemi), nel secondo salterebbero uno step passando direttamente dai 40nm ai 28nm, nn un'operazione cosi semplice immagino...
In sostanza (se nn ho scritto boiate), la soluzione iniziale sarebbe la + logica e "semplice", quindi è bene che i 32nm anche per ati nn saltino, o sbaglio?
l'operazione più semplice da fare è prendere una 5770, provare il pp a 28 nm. Se tutto fila liscio, si passa alla produzione dei chip più complessi con lo stesso pp
ghiltanas
28-12-2009, 16:06
Eh, ma hanno finito i numeri :asd:
5775?
infatti :p (cmq allora ci avevo preso :D )
ndrmcchtt491
28-12-2009, 16:31
è proprio una moda disabilitare S.P. ...
E i consumi ad esempio? Che sono una cosa secondaria?
i consumi sono una cosa secondaria per un gamer, finchè non mi chiedono un alimentatore da 1000W non sto a lesinare su quale scheda consuma 10W in meno in idle e quale 80W in più in full.
Invece ATI ha fatto delle schede senza rebrand di un cacchio, e poi tu 250/300€ la chiami fascia media? Quella va dagli 80 ai 140 esagerando!
e ha fatto male, che senso ha scalare l'ultimo chip per portare le Dx11 su fascia bassa, quando le schede stesse non hanno la potenza per reggerle 'ste benedette Dx11? Avere Dx11 scritto sulla scatola d'imballaggio e la consapevolezza di non poterle mai sfruttare...
per i costi è più personale, dai 200 ai 300 per me è fascia media, dagli 80 ai 140 fascia bassa... sotto gli 80 è roba da HTPC imo.
Considerando che più della metà dei videogiocatori giocano a risoluzioni da 1400x900 in giù quello che dici non ha senso ;)
guarda come va il tassellatore sull'unigine con le 58xx, e fatti un'idea di come può andare su una 57xx.
Chi compra una 57xx pensando di farci girare le Dx11 non ha senso.
yossarian
29-12-2009, 07:10
e ha fatto male, che senso ha scalare l'ultimo chip per portare le Dx11 su fascia bassa, quando le schede stesse non hanno la potenza per reggerle 'ste benedette Dx11? Avere Dx11 scritto sulla scatola d'imballaggio e la consapevolezza di non poterle mai sfruttare...
guarda come va il tassellatore sull'unigine con le 58xx, e fatti un'idea di come può andare su una 57xx.
Chi compra una 57xx pensando di farci girare le Dx11 non ha senso.
non credo tu abbia le idee molto chiare. Unigine è solo una techdemo molto pompata ma non è indicativa di quello che si può fare con le operazioni di tessellation.
Dai un'occhiata qui
http://castano.ludicon.com/blog/2009/01/10/10-fun-things-to-do-with-tessellation/
e considera che le dx11 non sono solo tessellation
per i costi è più personale, dai 200 ai 300 per me è fascia media, dagli 80 ai 140 fascia bassa... sotto gli 80 è roba da HTPC imo.
Se tu ti puoi permettere di spendere cifre del genere, potrebbe voler dire che stai comprando un prodotto che per le tue tasche risulta essere medio, ma non in senso generale.
I raggruppamenti, le fasce vengono stilate non solo in base alle potenzialità dell'hardware che ti offre ma anche, e soprattutto, al prezzo.
Se compri una scheda da 250 euro, sapendo che davanti c'hai una famiglia di altre schede più potenti e con prezzi che vanno da 300-450 euro al dettaglio, non vuol dire che stai acquistando un prodotto di fascia media solo perché non risulta essere il top della gamma; sarà pure meno performante, ma il prezzo rimane inaccessibile comunque all'utente medio.
Se tu metti a disposizione un budget che si aggira tra 200-300 euro per l'acquisto di una scheda video sono solo possibilità e convinzioni tutte tue che potrebbero avere riscontro al limite con il settore professionistico ma non certamente con il resto dell'utenza media.
E la fascia media è un'altra, 200-300 è ritenuta abbondantemente essere fascia alta, e nell'intorno dei 300 euro incomiciamo persino ad essere degli utenti decisamente appassionati/entusiasti.
Se si ha intenzione di coprire un target di massa, bisogna cogliere il punto di vista che ti permette di considerare la più ampia visuale possibile e tutti gli utilizzatori e non soltanto l'appassionato sfegatato, altrimenti un'azienda sbaglia l'analisi di mercato, vende poco, non riesce a smaltire velocemente i costi di produzione e domattina chiude.
masty_<3
29-12-2009, 21:31
guarda come va il tassellatore sull'unigine con le 58xx, e fatti un'idea di come può andare su una 57xx.
Chi compra una 57xx pensando di farci girare le Dx11 non ha senso.
Apparte il discorso della risoluzione, che è infima, è come se parli del 3dmark. Sono dei BENCH pesanti un accidente (es: 3dmark faccio 3400 punti con sta cosa del piffero e mi gira in media ad un 5-8 fps mentre crysis va dai 12 in su a 1280x1024
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.