View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
yossarian
01-10-2009, 18:29
Secondo me una features c'è se c'è la parte "hardware", sta cosa dell'emulazione è una presa in giro... per me non è un chip DX11, non è completo :muro:
si pososno emulare via SW, come tutte le unità di tipo fixed function, tramite VS e GS; il problema è l'hit prestazionale.
Comunque, non vorrei raffreddare gli entusiasmi ,a GT300 è ben lungi dall'essere lanciato sul mercato
Foglia Morta
01-10-2009, 18:34
si pososno emulare via SW, come tutte le unità di tipo fixed function, tramite VS e GS; il problema è l'hit prestazionale.
Comunque, non vorrei raffreddare gli entusiasmi ,a GT300 è ben lungi dall'essere lanciato sul mercato
Kyle Bennett ( admin di [H]ardocp ) parla di Febbraio - Marzo ( conosce gente che lavora per TSMC ). CJ ( non so se lo sai ma è un olandese che conosce degli insider ) dice che la gpu ha bisogno di almeno un respin... quanto tempo si impiega per fare un respin ?
halduemilauno
01-10-2009, 18:35
una carrellata di immagini e quant'altro...
http://www.pcgameshardware.com/aid,696377/G300-Fermi-Nvidia-focuses-on-GPU-Computing-Impressive-Raytracing-demo-shots/News/
;)
halduemilauno
01-10-2009, 18:40
dove lo hai letto?
su alcuni forum da parte di partecipanti all'evento di ieri sera. ho specificato "confidenzialmente" e ho anche detto "cmq aspettiamo tutti i riscontri del caso".
leoneazzurro
01-10-2009, 18:40
Kyle Bennett ( admin di [H]ardocp ) parla di Febbraio - Marzo ( conosce gente che lavora per TSMC ). CJ ( non so se lo sai ma è un olandese che conosce degli insider ) dice che la gpu ha bisogno di almeno un respin... quanto tempo si impiega per fare un respin ?
2-4 mesi.
Sergio_Di_Rio
01-10-2009, 18:43
su alcuni forum da parte di partecipanti all'evento di ieri sera. ho specificato "confidenzialmente" e ho anche detto "cmq aspettiamo tutti i riscontri del caso".
Sai un amico di mio cugino mi ha detto che..:rolleyes: Come pensavo, numeri a caso. Se ci mettevi un bell' IMHO era decisamente meglio.
appleroof
01-10-2009, 18:46
si pososno emulare via SW, come tutte le unità di tipo fixed function, tramite VS e GS; il problema è l'hit prestazionale.
Comunque, non vorrei raffreddare gli entusiasmi ,a GT300 è ben lungi dall'essere lanciato sul mercato
considerando la situazione dei giochi attuali e sopratutto che praticamente tutti i titoli tripla A sono stati rimandati al Q1 2010 (chissà perchè...:D ) direi che la cosa non è assolutamente drammatica.
Anzi a questo punto aspettare mi sembra (personalmente) la cosa assolutamente più conveniente da fare, scimmia permettendo.
p.s.: la scheda mostrata è bellissima :)
halduemilauno
01-10-2009, 18:47
si pososno emulare via SW, come tutte le unità di tipo fixed function, tramite VS e GS; il problema è l'hit prestazionale.
Comunque, non vorrei raffreddare gli entusiasmi ,a GT300 è ben lungi dall'essere lanciato sul mercato
ciò non esclude o non escluderebbe che alla data da alcuni indicata 27 novembre non ci possa essere una presentazione ove si svelino tutte le possibilità e capacità della scheda. ma cmq credo che per quello che ho detto magari si possa fare anche prima. cmq per la commercializzazione ieri proprio quella data veniva citata.
per carità staremo a vedere.
Diobrando_21
01-10-2009, 18:47
su alcuni forum da parte di partecipanti all'evento di ieri sera. ho specificato "confidenzialmente" e ho anche detto "cmq aspettiamo tutti i riscontri del caso".
ciao hal, scusa ma qualche delucidazione su questo tessellatore? lo so che è presto però se sai qualcosa...
Andrea deluxe
01-10-2009, 18:48
:O
http://www.pcgameshardware.com/aid,696377/G300-Fermi-Nvidia-focuses-on-GPU-Computing-Impressive-Raytracing-demo-shots/News/&menu=browser&image_id=1200585&article_id=696377&show=original
halduemilauno
01-10-2009, 18:50
Sai un amico di mio cugino mi ha detto che..:rolleyes: Come pensavo, numeri a caso. Se ci mettevi un bell' IMHO era decisamente meglio.
ma seppur possa essere da me condivisa non è una mia opinione. altrimenti avrei proprio detto IMHO come avrei potuto dire AFAIK.
Andrea deluxe
01-10-2009, 18:53
p.s.: la scheda mostrata è bellissima :)
mi aspetto la degna erede della mitica 8800gtx:D
halduemilauno
01-10-2009, 18:54
ciao hal, scusa ma qualche delucidazione su questo tessellatore? lo so che è presto però se sai qualcosa...
quel che ho detto e quel che ha appena aggiunto/chiarito yossarian.
Bastoner
01-10-2009, 18:54
:O
http://www.pcgameshardware.com/aid,696377/G300-Fermi-Nvidia-focuses-on-GPU-Computing-Impressive-Raytracing-demo-shots/News/&menu=browser&image_id=1200585&article_id=696377&show=original
Notare: Physix, Dx11, Ray Tracing, 3D Vision. Manca il tassellator...mi sa che Nvidia ci farà questo bel regalo. Toglietevi dalla testa la bella demo Alien vs Predator, probabilmente Nvidia riuscirà a toglierci anche questa nuova feature, se é vero che potrà emularla solo via software. :(
A meno che ATI non si dia una mossa, come sembra che stia facendo, nelle partnership.
martinez1983
01-10-2009, 18:54
considerando la situazione dei giochi attuali e sopratutto che praticamente tutti i titoli tripla A sono stati rimandati al Q1 2010 (chissà perchè...:D ) direi che la cosa non è assolutamente drammatica.
Anzi a questo punto aspettare mi sembra (personalmente) la cosa assolutamente più conveniente da fare, scimmia permettendo.
p.s.: la scheda mostrata è bellissima :)
Quella è una brutta roba!!!:D E tutto il giorno che non faccio altro che pensare a sta scheda!!!:muro:
Temo che se non mi do una calmata alla svelta, finisce che cambio piattaforma e ne ficco 3 sopra il banchetto!!!:D
Cmq tornando seri,anche se dobbiamo aspettare un eventuale respin,non muore nessuno!!!;)
Ci sarà da divertirsi!!!
una carrellata di immagini e quant'altro...
http://www.pcgameshardware.com/aid,696377/G300-Fermi-Nvidia-focuses-on-GPU-Computing-Impressive-Raytracing-demo-shots/News/
;)
Impressionante la Raytracing Demo!!!:eek: (anche se vorrei sapere con quanti fps)
@Bastoner
hai ragione niente tassellatore...la cosa puzza di bruciato!!!!
halduemilauno
01-10-2009, 18:55
considerando la situazione dei giochi attuali e sopratutto che praticamente tutti i titoli tripla A sono stati rimandati al Q1 2010 (chissà perchè...:D ) direi che la cosa non è assolutamente drammatica.
Anzi a questo punto aspettare mi sembra (personalmente) la cosa assolutamente più conveniente da fare, scimmia permettendo.
p.s.: la scheda mostrata è bellissima :)
vero molto molto bella.
;)
appleroof
01-10-2009, 18:59
mi aspetto la degna erede della mitica 8800gtx:D
magari..:sperem:
Notare: Physix, Dx11, Ray Tracing, 3D Vision. Manca il tassellator...mi sa che Nvidia ci farà questo bel regalo. Toglietevi dalla testa la bella demo Alien vs Predator, probabilmente Nvidia riuscirà a toglierci anche questa nuova feature, se é vero che potrà emularla solo via software. :(
A meno che ATI non si dia una mossa, come sembra che stia facendo, nelle partnership.
aspettiamo un attimo prima di fasciarci la testa, non credi? ;)
Bastoner
01-10-2009, 19:01
aspettiamo un attimo prima di fasciarci la testa, non credi? ;)
Felicissimo di essere smentito.
una carrellata di immagini e quant'altro...
http://www.pcgameshardware.com/aid,696377/G300-Fermi-Nvidia-focuses-on-GPU-Computing-Impressive-Raytracing-demo-shots/News/
;)
che dire la scheda esteticamente è veramente bella, specialmente x la scocca nero traslucida........ottime finiture
Andrea deluxe
01-10-2009, 19:05
Felicissimo di essere smentito.
magari con quella potenza in dual precision..... il tassellatore.....
ati ha una sk video dx11 "generica" con una unita' tassellatrice!
nvidia ha una sk dx11 "generica" con uno sproposito di potenza da usare.......(per tutto il resto)
IMHO
che dire la scheda esteticamente è veramente bella, specialmente x la scocca nero traslucida........ottime finiture
stai dando delle opinioni sull'estetica della vga che sembrano essere fatti apposta per descrivere una macchina :asd: comunque quoto esteticamente è molto bella anche se a dir la verità curo poco questo aspetto, alla fine una vga manco la vedo è dentro al case :asd:
appleroof
01-10-2009, 19:07
Felicissimo di essere smentito.
certo :)
cmq ho letto l'articolo di hwupgrade, e sono rimasto :eek: e anche mooolto incuriosito, più che rv870 (che è un'evoluzione diretta di rv770 per cui ci si poteva figurare molto pù facilmente cosa avrebbe reso, fermo restando che è un'ottima gpu da tutti i punti di vista): l'architettura di Fermi è molto più nuova rispetto a g80/gt200 per cui la curisità di vederla all'opera è estrema :D
gradirei qualche commento di yossarian, se ha voglia, sulle specifiche illustrate da hwuprgade :)
stai dando delle opinioni sull'estetica della vga che sembrano essere fatti apposta per descrivere una macchina :asd: comunque quoto esteticamente è molto bella anche se a dir la verità curo poco questo aspetto, alla fine una vga manco la vedo è dentro al case :asd:
beh si anch'io, però se bisogna essere sinceri è molto bella.....che poi si sa che verrà chiusa in case ;)
devAngnew
01-10-2009, 19:21
Notare: Physix, Dx11, Ray Tracing, 3D Vision. Manca il tassellator...mi sa che Nvidia ci farà questo bel regalo. Toglietevi dalla testa la bella demo Alien vs Predator, probabilmente Nvidia riuscirà a toglierci anche questa nuova feature, se é vero che potrà emularla solo via software. :(
A meno che ATI non si dia una mossa, come sembra che stia facendo, nelle partnership.
Non sarei cosi pessimista....:D
Dopotutto la modalità di gestione della tessellation unit da parte di nvidia è molto flessibile quindi può dinamicamente variare i cuda core da destinare a tali operazioni a seconda della scena da visualizzare mentre per ATI essendo un unità fissa in alcune situazioni potrebbe essere meno performante..... ricordatevi la vecchia storia degli shader unificati e shader fissi sappiamo bene come è andata a finire.....
Comunque vedremo....
;)
Athlon 64 3000+
01-10-2009, 19:57
Sono curioso di sapere tramite yossarian quanto è effettivamente diversa l'architettura di GT300 rispetto a GT200b.
Andrea deluxe
01-10-2009, 19:59
Il tassellatore ha a che fare con la DP?
se mi confermate che la tassellation fa parte delle dx11, sarebbe ridicolo se venisse trasandata....
poi tutto e' possibile...
se mi confermate che la tassellation fa parte delle dx11, sarebbe ridicolo se venisse trasandata....
poi tutto e' possibile...
Tutto può esser emulato via software. Bisogna vedere poi in che modo ed a che spese..:(
devAngnew
01-10-2009, 20:13
Il tassellatore ha a che fare con la DP?
Notoriamente una unità fixed function è molto più efficiente di una programmabile nel fare la stessa funzione, senza contare che AMD ha il tassellatore nel DNA da molto prima che smettesse di chiamarsi ATi, non è plausibile che non lavori efficientemente...
Certamente, ma la flessibilità di assegnare dinamicamente i cuda core può portare i suoi vantaggi rispetto ad un'unità fissa con un numero fisso di "core" questo può portare a situazioni in cui Ati con la sua tesselation unit può impiegare più tempo per fare i suoi calcoli di tesselation mentre Nvidia assegnando dinamicamente i core possa fare lo stesso lavoro prima; c'è poi da notare che nvidia ha detto anche che ha aumentato l'efficienza di swiching della sua gpu nell'eseguire il passaggio tra CUDA application ed altri DX11 OpenGL/CL oltre che shader switching etc..
Cmq vedremo sul campo tale efficienza....
;)
beh si anch'io, però se bisogna essere sinceri è molto bella.....che poi si sa che verrà chiusa in case ;)
A meno che non usi un banchetto.. ma io sto pensando a rinchiudere il banchetto in una scatola rivestita con fonoassorbente.. quindi nel 90% dei casi la bellezza della vga resta nascosta :mc:
Wing_Zero
01-10-2009, 20:37
Cioè cioè...ho appena letto la news in prima pagina di HWUpgrade...
Ma..ma..ma..Le nuove NVIDIA sono DX 11 Compliant?? Ovvero: le nuove nvidia hanno il tessellator?
Per favore rispondete solo SI o NO, evitate risposte del tipo NO ma sn DX 11 lo stesso , proponendo erronee giustificazioni del tipo " le emula in hardware" o robe del genere..., Perchè tanto O sono dx 11, o non sono dx 11. Punto.
martinez1983
01-10-2009, 20:45
Cioè cioè...ho appena letto la news in prima pagina di HWUpgrade...
Ma..ma..ma..Le nuove NVIDIA sono DX 11 Compliant?? Ovvero: le nuove nvidia hanno il tessellator?
Per favore rispondete solo SI o NO, evitate risposte del tipo NO ma sn DX 11 lo stesso , proponendo erronee giustificazioni del tipo " le emula in hardware" o robe del genere..., Perchè tanto O sono dx 11, o non sono dx 11. Punto.
Sai la faccenda è avvolta nel mistero!!!
Una unità dedicata come sulle ati,non sembra esserci!!!
Ma vista la flessibilità di assegnare dinamicamente i cuda core (come ha già detto devAngnew)
Cmq dobbiamo aspettare!!
Non possiamo dire ne SI nè NO!!!
Wing_Zero
01-10-2009, 21:03
nel caso della tessellation, ripeto, non siamo di fronte ad uno standard; per cui la differente implementazione e il mancato utilizzo fino alle dx11 ci possono stare tutte; ci sono stati altri casi in cui, invece, alcune feature, nonostante facessero parte degli standard dx sono state usato poco o niente. Ad esempio l'EMBM (environment mapped bump mapping), introdotto con le dx6 e supportato dalla matrox g400 ma non, ad esempio, dalle geforce che pure erano dx7, ha avuto scarso utilizzo, nonostante migliorasse non di poco la resa grafica. Oppure il vertex texturing, che sarebbe dovuto servire per il displacement mapping, presente nelle specifiche dx9c, supportato da NV40 e derivati, ma non da R3x0 e NV3x e supportato in maniera non "ortodossa" da da R5x0, ha trovato applicazione, forse, in un paio di titoli all'epoca di G70 e R580. Questo tanto per fare un paio di esempi.
Poi, cambiano le API di riferimento, cambia il modo di implementare una feature e quei chip che potevano farne uso qualche generazione prima restano tagliati fuori.
Quindi gt300 puo' essere dx 11 pur senza avere il tesselletor??
Wing_Zero
01-10-2009, 21:10
Basta che lato programmazione si comporti come da specifiche DX11.
Potrei sbagliarmi, ma non sono nemmeno certo che con una riscrittura ad hoc del driver lo stesso tassellatore di RV770 potrebbe essere DX11 compliant (poi sono altre le cose che gli mancano per essere un chip DX11, quindi non potrebbe comunque esserlo)
mbe cavolo, allora se le spcifiche dx 11 nn hanno richieste HW, ma solo lato "programmazione", basta che AMD con RV770 rilasci dei driver che permettano di emulare lato software quelle caratteristichi mancanti del tassellatore di rv770 cosi da rendere la scheda dx 11 complianti. sicuramente con un hit prestazionale notevolissimo, pero' almeno potremmo far girare videogiochi dx 11...invece di avere il tassellatore li inutilizzato....
può essere che a dicembre vedremo solo la top di gamma gf 380.
le altre respinnate a marzo 2010 e non è da escludere con questo respin , un respin ma con i 28 nani , xchè coinciderebbe credo con i 28 nani di tsmc , mi pare dichiarati nel primo trimestre 2010.
Quindi anche dopo, verso aprile potremmo avere un GT300b a 28 nanometri.
vedremo.
28 nm te li puoi anche scordare 3 mesi appena dopo le 40nm...già in ritardo di quasi un anno rispetto ad ati...sbaglio o nvidia ha un pò l'acqua alla gola :mbe:
28 nm te li puoi anche scordare 3 mesi appena dopo le 40nm...già in ritardo di quasi un anno rispetto ad ati...sbaglio o nvidia ha un pò l'acqua alla gola :mbe:
quoto per i 28nm secondo me in questo scenario è già tanto che a febbraio riescano a lanciare sto Fermi, poi magari con un die shrink successivo riusciranno a far qualcosa
esatto. precipitare le cose poi non aiuta e si rischiano epic fail colossali...nvidia comunque ha da remare...
http://forums.guru3d.com/showthread.php?p=3294535
Non mi pare sia stato postato.Chiedo scusa in caso contrario.
Ciao!
più che economicamente, intendevo che ha da recuperare strada a livello di architettura e tecnologia ;)
http://forums.guru3d.com/showthread.php?p=3294535
Non mi pare sia stato postato.Chiedo scusa in caso contrario.
Ciao!
http://www.youtube.com/watch?v=r17UOMZJbGs&hd=1
Gira su GT200
http://www.youtube.com/watch?v=r17UOMZJbGs&hd=1
Gira su GT200
Ops...grazie.
Là sul forum non pare essersene reso conto nessuno.:stordita:
http://www.youtube.com/watch?v=r17UOMZJbGs&hd=1
Gira su GT200
Quindi GT300 dovrebbe fare 8 volte meglio?
E' da una vita che sogno fluidi cosi' nei giochi... insieme a fiamme e fumo.
:sperem:
yossarian
01-10-2009, 23:30
Sai la faccenda è avvolta nel mistero!!!
Una unità dedicata come sulle ati,non sembra esserci!!!
Ma vista la flessibilità di assegnare dinamicamente i cuda core (come ha già detto devAngnew)
Cmq dobbiamo aspettare!!
Non possiamo dire ne SI nè NO!!!
le alu di gt300 (cuda core è solo marketingese come stream processor) non hanno "elevate" doti di flessibilità se confrontate con quelle di qualunque altro chip. Semplicemente, come tutte le unità programmabili, possono essere in grado di svolgere qualunque tipo di calcolo se implementano la sufficiente precisione. Il problema è quanti cicli impiegano a fare una determinata operazione.
R300 implementava il truform tramite n-patches senza avere hardware dedicato (come invece avveniva su R200) ma avendo 4 unità di vertex shading al posto di una sola.
Quindi gt300 puo' essere dx 11 pur senza avere il tesselletor??
se fa le operazioni di tessellation, ove richieste, si. Anche GT200 poteva fare tessellation; molto più lentamente di RV770, ma era in grado di farla.
Lo stesso vale per GT300 se veramente non ha un'unità dedicata alle operazioni di tessellation. Infatti, RV770 non è un chip dx11 ma non per l'implementazione del tessellator (ovvero per la mancanza di hull e domanin shader) ma per altri motivi più........reconditi :D
Il problema che potrebbe sorgere, semmai, è che si sarebbe in presenza di 3 diverse implementazioni delle operazioni di tessellation: quella di RV870 con huul domain shader e unità fixed function dedicata; quella di RV770 con vertex e geometry shader e con unità fixed function dedicata, quella di nVida, apparentemente solo con vertex e geometry shader. Al di là del discorso sull'efficienza (a occhio la terza mi pare la peggiore), c'è da chiedersi quale adotteranno gli sviluppatori :fiufiu:
Bastoner
01-10-2009, 23:34
.... c'è da chiedersi quale adotteranno gli sviluppatori :fiufiu:
Mah, una a caso....:fiufiu:
Kharonte85
01-10-2009, 23:55
le alu di gt300 (cuda core è solo marketingese come stream processor) non hanno "elevate" doti di flessibilità se confrontate con quelle di qualunque altro chip. Semplicemente, come tutte le unità programmabili, possono essere in grado di svolgere qualunque tipo di calcolo se implementano la sufficiente precisione. Il problema è quanti cicli impiegano a fare una determinata operazione.
R300 implementava il truform tramite n-patches senza avere hardware dedicato (come invece avveniva su R200) ma avendo 4 unità di vertex shading al posto di una sola.
se fa le operazioni di tessellation, ove richieste, si. Anche GT200 poteva fare tessellation; molto più lentamente di RV770, ma era in grado di farla.
Lo stesso vale per GT300 se veramente non ha un'unità dedicata alle operazioni di tessellation. Infatti, RV770 non è un chip dx11 ma non per l'implementazione del tessellator (ovvero per la mancanza di hull e domanin shader) ma per altri motivi più........reconditi :D
Il problema che potrebbe sorgere, semmai, è che si sarebbe in presenza di 3 diverse implementazioni delle operazioni di tessellation: quella di RV870 con huul domain shader e unità fixed function dedicata; quella di RV770 con vertex e geometry shader e con unità fixed function dedicata, quella di nVida, apparentemente solo con vertex e geometry shader. Al di là del discorso sull'efficienza (a occhio la terza mi pare la peggiore), c'è da chiedersi quale adotteranno gli sviluppatori :fiufiu:
Nel dubbio nessuna...addio tessellation :doh:
michelgaetano
02-10-2009, 00:01
Al di là del discorso sull'efficienza (a occhio la terza mi pare la peggiore), c'è da chiedersi quale adotteranno gli sviluppatori :fiufiu:
Da ignorante chiedo: sarebbe possibile programmare un gioco (o un applicazione, o che altro ancora) in modo tale che l'utilizzo (o meno) del tessellatore possa essere disattivato dalle opzioni o a seconda della scheda montata? Anche in termini pratici, richiederebbe un'eternità?
yossarian
02-10-2009, 00:03
Da ignorante chiedo: sarebbe possibile programmare un gioco (o un applicazione, o che altro ancora) in modo tale che l'utilizzo (o meno) del tessellatore possa essere disattivato dalle opzioni o a seconda della scheda montata? Anche in termini pratici, richiederebbe un'eternità?
in teoria è possibile ricorrere a 3 path differenti. In teoria..............:D
Athlon 64 3000+
02-10-2009, 00:11
in teoria è possibile ricorrere a 3 path differenti. In teoria..............:D
DOmanda idiota,RV770 e RV790 dalle dx11 possono avere dei benefici oppure non essendo dx 11 compliant non porterà nessun vantaggio?
yossarian
02-10-2009, 00:18
DOmanda idiota,RV770 e RV790 dalle dx11 possono avere dei benefici oppure non essendo dx 11 compliant non porterà nessun vantaggio?
certo che ne avranno, nel momento in cui si inizierà ad utilizzarle. Le dx11 sono un superset delle 10.1 e molte feature sono già presenti sulle gpu ATi della serie 4xx0 (le ottimizzazioni con il MSAA la possibilità di implementare filtri custom, una maggior precisione di calcolo per il LoD e per le operazioni di blending, il gather4 per le operazioni di texturing il cubemap array, ecc) e sono rimaste invariate con le dx11.
Athlon 64 3000+
02-10-2009, 00:27
le alu di gt300 (cuda core è solo marketingese come stream processor) non hanno "elevate" doti di flessibilità se confrontate con quelle di qualunque altro chip. Semplicemente, come tutte le unità programmabili, possono essere in grado di svolgere qualunque tipo di calcolo se implementano la sufficiente precisione. Il problema è quanti cicli impiegano a fare una determinata operazione.
R300 implementava il truform tramite n-patches senza avere hardware dedicato (come invece avveniva su R200) ma avendo 4 unità di vertex shading al posto di una sola.
se fa le operazioni di tessellation, ove richieste, si. Anche GT200 poteva fare tessellation; molto più lentamente di RV770, ma era in grado di farla.
Lo stesso vale per GT300 se veramente non ha un'unità dedicata alle operazioni di tessellation. Infatti, RV770 non è un chip dx11 ma non per l'implementazione del tessellator (ovvero per la mancanza di hull e domanin shader) ma per altri motivi più........reconditi :D
Il problema che potrebbe sorgere, semmai, è che si sarebbe in presenza di 3 diverse implementazioni delle operazioni di tessellation: quella di RV870 con huul domain shader e unità fixed function dedicata; quella di RV770 con vertex e geometry shader e con unità fixed function dedicata, quella di nVida, apparentemente solo con vertex e geometry shader. Al di là del discorso sull'efficienza (a occhio la terza mi pare la peggiore), c'è da chiedersi quale adotteranno gli sviluppatori :fiufiu:
Per quanto riguarda la tesseletion e possibile che possa anche essere utilizzato il metodo dell'RV770 oltre che quello di RV870 e GT300?
yossarian
02-10-2009, 00:30
Per quanto riguarda la tesseletion e possibile che possa anche essere utilizzato il metodo dell'RV770 oltre che quello di RV870 e GT300?
secondo me è già difficile che decidano di implementarne due di path :D
in teoria è possibile ricorrere a 3 path differenti. In teoria..............:D
aspettiamo Stalker e vediamo che succede
mamma..che caos !!! :mbe:
3 path diversi..hull-domain shader ; vertex-geometry....certo che 8 anni fà , capire l'architettura di una Gpu era abbastanza facile , oggi solo x questo ci vorrebbe una laurea !!!!
Senza considerare poi lo standard tra i 1000 che iprogrammatori adotterano.
Domande al solito ai super esperti ::
Alla luce di quanto fin'ora emerso dell'architettura Fermi o GT300 ( o come cavolo la chiameranno , già il nome è un mistero) , va bè :::
sembra che sino al giorno prima si parlava di sto MIMD , ora anche nella recensione , nessuna menzione sulla arch. MIMD è presente ,
1) la famigerata architettura MIMD è presente o no in fermi Gt300-Gf100???
2) sempre da quello che è emerso fin'ora ufficialmente , con fermi-gt300 , nvidia secondo voi ha risolto il problema della bandwith interna , attraverso le varie cache????
O è bandwith limitata all'interno come GT200??????
Grazie. :)
halduemilauno
02-10-2009, 08:18
ieri un'utente ha sollevato la questione Gflops che in quella amd è ben superiore alla nvidia 2720 vs 1638 e io ho risposto che le due architetture sono tanto diverse che era inutile star li a vedere solo quei dati. spiego meglio quel che intendevo la GTX285 ha 708,5 Gflops e la GTX295 1192,3 ebbene queste due schede reggono benissimo il confronto con i 1360 della 4890, i 2088 della 5850, i 2400 della 4870x2 e i 2720 della 5870. anzi come abbiamo visto la GTX295 è ancora superiore alla 5870 che ne dispone di oltre il doppio. tutto questo per dire appunto che è inutile, fuorviante star li a paragonare i Gflops da architetture cosi diverse. meno diverso invece o cmq + utile è stare a confrontare gli stessi dati tutti in casa nvidia quindi se ora abbiamo i 708,5 e i 1192,3 rispettivamente con GTX285 e GTX295 ora con la GF100(fermi)avremmo 1638 Gflops.
i dati esposti presi qui...
http://www.hardware.fr/articles/770-4/dossier-amd-radeon-hd-5870.html
Tutto qui.
;)
halduemilauno
02-10-2009, 08:39
ultime news...
http://www.brightsideofnews.com/news/2009/10/1/nvidia-gt300-real-power-consumption-revealed-not-300w!.aspx
We have already disclosed nVidia GT300 GPU [or Fermi CUDA architecture, depends what naming convention you like the most] power consumption for the consumer card, but it looks like 6GB of GDDR5 memory is too hard of a cookie to fit inside the 225W limit.
As we all know, power comes to the board in 75 or 150W package: an x8 electrical PCI Express slot is capable of providing 75W of power [same goes for the x16 one], a single 6-pin PEG power connector will give you additional 75W and an 8-pin PEG [PCI Express Graphics] connector will give you 150W to play with.
In case of upcoming high-memory configurations nVidia Tesla, Quadro and GeForce cards, the company had to install a 6-pin and an 8-pin connector, getting 300W of power to play with. However, this was a precautionary measure. According to information we have at hand, the GT300 board [yeah, featuring "Fermi" CUDA architecture] barely missed 225W cut-off for the 6+6 pin if the board comes with 6GB of GDDR5 memory.
nVidia could have gotten 6+6-pin configuration and still ship 6GB version, but the margin of efficiency would be just too low [even with digital PWM, boards cannot be 100% power efficient] to qualify inside OEM systems. The decision was thus made and the 6GB cards come with 300W of available power.
If you're an overclocker, start preparing champagne - you will have around 50W to play with on a board with 6GB of GDDR5, but on lower density boards [if an 8+6-pin configuration is kept], you'll have around 60W or maybe even more, depending how secure nVidia wants to be. Given the memory controller inside nVidia GT300, you can really go as wild as you can on the ATI Radeon HD 5870 cards, meaning you could overclock the memory by as high as 40% on the clock. In case of GPUs [from both ATI and nVidia], who needs L3 cache if your system memory gives you anywhere between 153-179.2GB/s [5870 and 5870 OC] and 211.1-268.8GB/s [GT300 stock and potential OC].
Bear in mind that consumer boards have to withstand much higher temperatures than Quadro and Tesla cards, since commercial cards are delivered inside designed cases, while consumer GeForce boards have to work "with everything inside everything", as our source told us.
;)
goldorak
02-10-2009, 09:03
Scusate se lo dico ma queste sono stronzate :sbonk:, sta facendo :mc: :mc: :mc: .
Quando Nvidia rilascera' dati precisi sulla frequenza della gpu, sui voltaggi etc... allora potremo INIZIARE a speculare sulle potenzialita' di overclock delle versione consumer di GT300.
halduemilauno
02-10-2009, 09:17
http://www.fudzilla.com/content/view/15784/1/
Launch on Tuesday
Nvidia’s next generation GPU codenamed Fermi will launch in 2009. Jensen didn’t want to talk about it, some other people also refused to tell us the date but one of the Senior people at Nvidia did confirm that the chip should ship in 2009.
So if you are after the fastest and probably the best single GPU that can do a lot of cool computing, this might be the one for you. We still don’t know the price but we would not be surprised it if launches as $399 part for a single and probably $649 for dual. Of course, this is more of an educated guess rather than a fact that we can confirm.
We were concerned that Fermi will only ship in 2010, which might be too late but with a 2009 launch even if it's just last weeks of December, Nvidia will surely benefit more than with early Q1 2010.
On the other hand, if you absolutely can't wait and want a DirectX 11 card that is available today and is at the same time the fastest single GPU around you can easily reach out for a Radeon HD 5870 or the cheaper 5850 as these are available today.
;)
halduemilauno
02-10-2009, 09:18
http://www.fudzilla.com/content/view/15783/1/
Geforce general manager confirms
Drew Henry, the new general manager of Geforce and Ion has told us today that Fermi will be faster than anything available including the shiny new Radeon 5870. Since we learned that the chip should ship in 2009, Nvidia might have a winner on its hands and you should be able to buy one before Xmas.
This is the general idea. We also expect that Fermi will beat the performance of Geforce 295 as well, as this was hinted in many a conversation we had in the last three days. Of course Nvidia did confirm that they are working on the GX2 version of the Fermi and that the TDP for both single and dual card should be similar to numbers we’ve seen with Geforce GTX 285 single and 295 dual card.
Nvidia is confident that in gaming performance they will win versus ATI and since they’ve seen what 5870 is capable of, they are quite confident they'll have an upper hand.
;)
freedom07
02-10-2009, 09:34
:D :D belle news Hal .. grazie
quindi ci sono buone possibilità di vedere almeno la top di gamma entro natale..:)
Kharonte85
02-10-2009, 09:53
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/
The board has wood screws crudely driven through it. The vents on the end plate are blocked. The DVI connector is not soldered to anything, The SLI connectors are somewhat covered by a heat shield. The 8-pin power connector is connected to nothing. The 6-pin connector is connected to the PCB with glue, not pins and solder. The board is crudely chopped off with power tools. The 8-pin connector that should be there is not. The 6-pin connector that should be there is cut. The mounting holes are too close to the edge. There are also likely many more flaws, but this should be enough to prove a point.
In the end, what you have here is a faked Fermi board. Jen-Hsun held up a scam card. If you watch the video here, he says, "This puppy here, is Fermi". Bullshit.
:asd:
Il solito tono :rolleyes: ...comunque il dubbio è venuto a piu'
Sui 6+8 pin invece mi sa che non li vedremo nella versione Geforce, perlomeno non in quella posizione, perchè a quanto pare era anche una caratteristica della vecchia Tesla basata su GT 200
http://www.hwupgrade.it/articoli/skvideo/1989/scheda_1_s.jpg
http://www.hwupgrade.it/articoli/skvideo/1989/scheda_2_s.jpg
http://www.hwupgrade.it/articoli/skvideo/1989/scheda_4_s.jpg
Che Hwupgrade ci spiega così:
La scheda è alimentata con due connettori PCI Express da 6 pin ciascuno, con lo stesso approccio quindi scelto per le soluzioni GeForce GTX 260; notiamo come per i due connettori di alimentazione sia stato scelto un posizionamento asimmetrico, con un connettore presente posteriormente e l'altro sulla parte superiore. La spiegazione di questo tipo di design è molto semplice: è sufficiente un solo connettore collegato per garantire il corretto funzionamento della scheda, e collegando solo quello posteriore è possibile montare questa scheda anche all'interno di uno chassis da 3 unità rack di ingombro fermo restanto il posizionamento verticale della scheda.
http://www.hwupgrade.it/articoli/skvideo/1989/nvidia-tesla-t10-gpu-computing-di-seconda-generazione_3.html
Probabilmente la scheda consumer avrà tutto un'altro aspetto...
sickofitall
02-10-2009, 09:57
Io direi che ci sono ottime possibilità di non vederle sul mercato prima di febbraio 2010...
pasienza, vorrà dire che la 295 mi resterà nel case per qualche mese in più :D
Il solito tono :rolleyes: ...comunque il dubbio è venuto a piu'
Sui 6+8 pin invece mi sa che non li vedremo nella versione Geforce, perlomeno non in quella posizione, perchè a quanto pare era anche una caratteristica della vecchia Tesla basata su GT 200
http://www.hwupgrade.it/articoli/skvideo/1989/scheda_1_s.jpg
http://www.hwupgrade.it/articoli/skvideo/1989/scheda_2_s.jpg
http://www.hwupgrade.it/articoli/skvideo/1989/scheda_4_s.jpg
Che Hwupgrade ci spiega così:
La scheda è alimentata con due connettori PCI Express da 6 pin ciascuno, con lo stesso approccio quindi scelto per le soluzioni GeForce GTX 260; notiamo come per i due connettori di alimentazione sia stato scelto un posizionamento asimmetrico, con un connettore presente posteriormente e l'altro sulla parte superiore. La spiegazione di questo tipo di design è molto semplice: è sufficiente un solo connettore collegato per garantire il corretto funzionamento della scheda, e collegando solo quello posteriore è possibile montare questa scheda anche all'interno di uno chassis da 3 unità rack di ingombro fermo restanto il posizionamento verticale della scheda.
http://www.hwupgrade.it/articoli/skvideo/1989/nvidia-tesla-t10-gpu-computing-di-seconda-generazione_3.html
Probabilmente la scheda consumer avrà tutto un'altro aspetto...maaa...può darsi i connettori, ma x il design ed i dissi , potrebbe anche essere cosi.
D'altra parte ha un dign che ricalca quello di GT200.
Ricordo che alcuni mesi fà si parlava che le VGA del 2009 avrebbero avuto dissi occupante 3 slot pci !!!!!
Magari sarà cosi !! :D
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/
The board has wood screws crudely driven through it. The vents on the end plate are blocked. The DVI connector is not soldered to anything, The SLI connectors are somewhat covered by a heat shield. The 8-pin power connector is connected to nothing. The 6-pin connector is connected to the PCB with glue, not pins and solder. The board is crudely chopped off with power tools. The 8-pin connector that should be there is not. The 6-pin connector that should be there is cut. The mounting holes are too close to the edge. There are also likely many more flaws, but this should be enough to prove a point.
In the end, what you have here is a faked Fermi board. Jen-Hsun held up a scam card. If you watch the video here, he says, "This puppy here, is Fermi". Bullshit.
:asd:
...scandaloso...non trovo spiegazioni ad un uscita del genere da parte di nvidia...
...ciao Andrea...
ilratman
02-10-2009, 10:06
Il solito tono :rolleyes: ...comunque il dubbio è venuto a piu'
Sui 6+8 pin invece mi sa che non li vedremo nella versione Geforce, perlomeno non in quella posizione, perchè a quanto pare era anche una caratteristica della vecchia Tesla basata su GT 200
http://www.hwupgrade.it/articoli/skvideo/1989/scheda_1_s.jpg
http://www.hwupgrade.it/articoli/skvideo/1989/scheda_2_s.jpg
http://www.hwupgrade.it/articoli/skvideo/1989/scheda_4_s.jpg
Che Hwupgrade ci spiega così:
La scheda è alimentata con due connettori PCI Express da 6 pin ciascuno, con lo stesso approccio quindi scelto per le soluzioni GeForce GTX 260; notiamo come per i due connettori di alimentazione sia stato scelto un posizionamento asimmetrico, con un connettore presente posteriormente e l'altro sulla parte superiore. La spiegazione di questo tipo di design è molto semplice: è sufficiente un solo connettore collegato per garantire il corretto funzionamento della scheda, e collegando solo quello posteriore è possibile montare questa scheda anche all'interno di uno chassis da 3 unità rack di ingombro fermo restanto il posizionamento verticale della scheda.
http://www.hwupgrade.it/articoli/skvideo/1989/nvidia-tesla-t10-gpu-computing-di-seconda-generazione_3.html
Probabilmente la scheda consumer avrà tutto un'altro aspetto...
ottimo questo servirebbe infatti a me il mio fusion è proprio oome un server 3U!
peccato per la lunghezza, sempre troppo lunghe a questo non pensano mai invece!
Essendo comprovato che si trattava di una scheda fake non si saranno sforzati di fare un design nuovo solo per una non scheda...quoto..
speriamo che riescano entro natale ,,,non voglio molto , ma almeno la top di gamma ..
un respin quanto tempo porta via?
e poi uno stesso processo produttivo , i 40 nani di ora , di quanto si possono migliorare al fine di rese migliori??
Che figura :asd:
Sono in alto mare, potevano evitarsi questa figura mondiale, ci rivediamo nel 2010 senza dubbio.
Foglia Morta
02-10-2009, 10:37
Prevedo una migrazione affrettata ai 32nm di GF sia per nVidia che per AMD (ci sono anche rumors che Redwood e Cedar siano già a 32nm, non so quanto attendibili cmq, direi poco).
Mi sa che si vedranno solo nel Q3 2010 le gpu a 32nm
Severnaya
02-10-2009, 10:41
ma sono plausibili i 32nm a un anno da oggi?
come rientrerebbero dai costi dei progetti a 40nm? se vi erano problemi con i 40 è possibile "saltare" una generazione???
Andrea deluxe
02-10-2009, 10:45
http://www.techpowerup.com/105052/NVIDIA_Fermi__Tesla_Board_Pictured_in_Greater_Detail_Non-Functional_Dummy_Unveiled.html
ma non possono annullare il contratto con tsmc se è un cesso...farsi pagare il ritardo ed accordarsi con una fonderia migliore???
possibile che non hanno una via d'uscita , se il problema è produttivo di tsmc ???
devAngnew
02-10-2009, 10:54
ma non possono annullare il contratto con tsmc se è un cesso...farsi pagare il ritardo ed accordarsi con una fonderia migliore???
possibile che non hanno una via d'uscita , se il problema è produttivo di tsmc ???
Speriamo che non si affacci il fantasma di nv30, per adesso alcune notizie sembrano ottimistiche per un'uscita a fine novembre o dicembre....
vedremo....
;)
P.S . potrebbe anche farsi produrre la gpu da IBM... come ha già fatto in passato
yossarian
02-10-2009, 11:14
ieri un'utente ha sollevato la questione Gflops che in quella amd è ben superiore alla nvidia 2720 vs 1638 e io ho risposto che le due architetture sono tanto diverse che era inutile star li a vedere solo quei dati. spiego meglio quel che intendevo la GTX285 ha 708,5 Gflops e la GTX295 1192,3 ebbene queste due schede reggono benissimo il confronto con i 1360 della 4890, i 2088 della 5850, i 2400 della 4870x2 e i 2720 della 5870. anzi come abbiamo visto la GTX295 è ancora superiore alla 5870 che ne dispone di oltre il doppio. tutto questo per dire appunto che è inutile, fuorviante star li a paragonare i Gflops da architetture cosi diverse. meno diverso invece o cmq + utile è stare a confrontare gli stessi dati tutti in casa nvidia quindi se ora abbiamo i 708,5 e i 1192,3 rispettivamente con GTX285 e GTX295 ora con la GF100(fermi)avremmo 1638 Gflops.
i dati esposti presi qui...
http://www.hardware.fr/articles/770-4/dossier-amd-radeon-hd-5870.html
Tutto qui.
;)
un appunto: ogni alu di GT200 fa, in teoria, una MADD + una MUL, quindi sono 3 flops per ciclo. Con una frequenza di 1476 MHz pewr lo shader core, hai 1062 Gflops e non 708.
Analogamente, per la GTX295 hai 1788,48 Gflops.
Ogni alu di GT300 fa, invece, solo una MADD
leoneazzurro
02-10-2009, 11:15
Il problema non è solo il processo (che pure ha le sue magagne): le rese dipendono dal processo applicato ad un determinato chip, dipendono ad esempio da quanto è grande il chip, dal grado di "tolleranza" dell'architettura alle difettosità (unità ridondanti, possibilità di disabilitare le unità difettose), dal consumo del chip (ovviamente chip con leakage alto o con consumi troppo elevati non possono essere venduti), dalla possibilità di raggiungere determinate frequenze (emblematico il caso di Rv790 rispetto a RV770).
Ad esempio si sempre saputo che con RV770 e derivati ATi ha avuto ottime rese, grazie alla ridondanze presenti nello shader core. Mentre GT200 inizialmente ha avuto grossi problemi che poi sono via via andati riducendosi al raffinarsi del processo produttivo.
Nel passaggio a 40 nm invece anche ATI ha avuto inizialmente dei problemi con RV740, mentre le schede DX10.1 di Nvidia ancora devono vedersi in numeri non trascurabili.
E questo con chip di dimensioni inferiori (chip più piccolo -> rese migliori) e anche su una architettura "tollerante" come quella ATI.
Si ipotizza anche che Cypress abbia più SIMD di quelli che gli sono accreditati in questo momento (basandosi sul rumor che Juniper, il chip di fascia inferiore, abbia 1120 SP e 16-24 ROPs misurando circa la metà dell'area di Cypress). Perchè allora non lanciare una scheda "superiore" (5890)?
Le ipotesi sono
1) che si aspetti il lancio di Fermi
2) che comunque le rese attuali abbiano ancora qualche problema
(si noti che 1) e 2) non sono mutualmente esclusive)
Quindi il fatto che Fermi sia parecchio più grande di Cypress potrebbe sì dare problemi a Nvidia, considerando lo stato attuale della difettosità media del processo TSMC, ed ancora peggio sarebbe se Fermi non prevedesse una ridondanza fine a livello di architettura.
un appunto: ogni alu di GT200 fa, in teoria, una MADD + una MUL, quindi sono 3 flops per ciclo. Con una frequenza di 1476 MHz pewr lo shader core, hai 1062 Gflops e non 708.
Analogamente, per la GTX295 hai 1788,48 Gflops.
Ogni alu di GT300 fa, invece, solo una MADD
come mai gt300 fermi, fa 1 sola op x ciclo di clock???
non ci capisco + nulla.
inoltre non è full-mimd come si ipotizzava tempo fà ??
:confused:
yossarian
02-10-2009, 11:39
come mai gt300 fermi, fa 1 sola op x ciclo di clock???
non ci capisco + nulla.
inoltre non è full-mimd come si ipotizzava tempo fà ??
:confused:
sono due ops per ciclo: una MADD è una MUL + una ADD, mentre prima erano 3.
Il motivo può essere stato quello di risparmiare spazio per aumentare il numero di alu oppure una diversa organizzazione del lavoro della GPU
Mai ipotizzato che fosse full MIMD anzi, al riguardo, ho sempre espresso le mie perplessità (i circuiti di logica e controllo avrebbero occupato troppo spazio).
leoneazzurro
02-10-2009, 11:48
come mai gt300 fermi, fa 1 sola op x ciclo di clock???
non ci capisco + nulla.
inoltre non è full-mimd come si ipotizzava tempo fà ??
:confused:
Esegue 1 MADD (che sono 2 operazioni in virgola mobile, ma in caso serva solo MUL o ADD si riduce a 1).
Dipende da quello che intendi per MIMD. Anche R600 e G80 erano MIMD, se viste a livello di chip e non singola unità di esecuzione. Modalità che non è cambiata in Fermi, ci sono 2 SIMD per SM alimentati da uno scheduler ciascuno, ma sempre SIMD sono.
Kharonte85
02-10-2009, 11:53
Più che sul tono mi concentrerei sulle prove evidenti di quello che scrive...
Quali prove?
Non è che le foto sono un mistero...gli occhi per vedere che qualcosa non quadra ce li abbiamo tutti, in effetti stupisce come possano aver fatto una leggerezza del genere :boh: ma a conti fatti non è che cambia la sostanza di quello che è stato mostrato a livello tecnico-teorico...la scheda avrà un aspetto simile a quello (perlomeno nella versione Tesla) il perchè non è stato presentato un sample originale-funzionante è sconosciuto ma puo' avere mille ragioni (di cui la prima che mi sovviene: non svelare nulla di un PCB che è bene tenere sotto segreto ancora un po')
yossarian
02-10-2009, 11:54
Esegue 1 MADD (che sono 2 operazioni in virgola mobile, ma in caso serva solo MUL o ADD si riduce a 1).
Dipende da quello che intendi per MIMD. Anche R600 e G80 erano MIMD, se viste a livello di chip e non singola unità di esecuzione. Modalità che non è cambiata in Fermi, ci sono 2 SIMD per SM alimentati da uno scheduler ciascuno, ma sempre SIMD sono.
il fatto è che qualcuno aveva diffuso la voce che si potesse trattare di un'architettura di tipo full MIMD, ossia non un ibrido MIMD-SIMD ma con ogni singola alu indipendente dalle altre e la cosa aveva scatenato un certo entusiasmo (mal riposto, aggiungerei, considerando quello che ciò avrebbe comportato a livello di circuiti di trasmissione e controllo).
Kharonte85
02-10-2009, 12:10
Quella VGA l'ha fatta un falegname, non un team ingegneristico.
E fin qui possiamo concordare...anzi, con 40 milalire il mio falegname la faceva meglio cit :asd:
Quello che è stato mostrato a livello teorico è sicuramente interessante, ma hai visto il video con il CEO tutto felice a mostrare alla stampa la nuova creatura chiaramente falsa? Siamo al ridicolo. Se non fai vedere la VGA quando la presenti è solo perché non ce l'hai, non certo per non svelare le particolarità di un PCB quando hai contestualmente detto tutto dell'architettura ;)
Ma questo lo dici tu...potrebbero esserci altre ragioni...ok svelare le potenzialità ma qualche segreto se lo vorranno pur tenere, altrimenti sarebbe ancor piu' anomalo di quanto anomala sia questa pre-presentazione...
Fra l'altro hanno anche segato quel PCB. Che sia per far vedere quanto sono fighi che (non) hanno una VGA (falsa) più corta della concorrenza? :Perfido: :asd:
Vedremo, spero di no e non credo dato che gt300 è piu' piccolo di gt200 65nm e con un bus inferiore 384bit Vs 512bit.
il fatto è che qualcuno aveva diffuso la voce che si potesse trattare di un'architettura di tipo full MIMD, ossia non un ibrido MIMD-SIMD ma con ogni singola alu indipendente dalle altre e la cosa aveva scatenato un certo entusiasmo (mal riposto, aggiungerei, considerando quello che ciò avrebbe comportato a livello di circuiti di trasmissione e controllo).
intendevo MIMD come flessibilità.
quindi la flessibilità di fermi rispetto alla architettura ati RV 870 è andata a farsi benedire??
se vero , allora in che diavolo sarebbe innovativo sto fermi???
intendevo MIMD come flessibilità.
quindi la flessibilità di fermi rispetto alla architettura ati RV 870 è andata a farsi benedire??
se vero , allora in che diavolo sarebbe innovativo sto fermi???
Nelle saldature ;)
leoneazzurro
02-10-2009, 12:19
intendevo MIMD come flessibilità.
quindi la flessibilità di fermi rispetto alla architettura ati RV 870 è andata a farsi benedire??
se vero , allora in che diavolo sarebbe innovativo sto fermi???
E' innovativo in quasi tutto il resto, un chip mica è solo le unità di esecuzione :p
Foglia Morta
02-10-2009, 12:20
E fin qui possiamo concordare...anzi, con 40 milalire il mio falegname la faceva meglio cit :asd:
30 mila lire e la citazione è corretta :O
Nelle saldature ;)
datemi una risposta seria dai! :)
E' innovativo in quasi tutto il resto, un chip mica è solo le unità di esecuzione :pbe cosa rimane dopo gli Sp::
la cache le TMU e poi???
Non capisco cosa ci sia di innovativo rispetto a GT200..
vedo solo una cache L2 unificata e basta , rispetto a GT200 e + Sp chiaro.
Ma allora è un'altro Gt 200 rinominato.
una cache condivisa non mi sembra sufficiente a decretare un cambiamento ..
Kharonte85
02-10-2009, 12:35
30 mila lire e la citazione è corretta :O
Giusto...:D
http://www.techpowerup.com/105052/NVIDIA_Fermi__Tesla_Board_Pictured_in_Greater_Detail_Non-Functional_Dummy_Unveiled.html
lol nvida è alla frutta ........nemmeno un saple vero, chissa cosa hanno fatto per farlo :asd:
un appunto: ogni alu di GT200 fa, in teoria, una MADD + una MUL, quindi sono 3 flops per ciclo. Con una frequenza di 1476 MHz pewr lo shader core, hai 1062 Gflops e non 708.
Analogamente, per la GTX295 hai 1788,48 Gflops.
Ogni alu di GT300 fa, invece, solo una MADD
Quoto!
Inoltre,è inutile paragonare le prestazioni nei giochi con i dati puri delle sole capacità di calcolo matematiche delle GPU.Le unità fixed function fanno ancora la loro buona parte,per quanto i giochi sian sempre più dipendenti dagli shader.
Senza dimenticare che,comunque,ad ora anche le unità di calcolo delle GPU Ati raggiungono elevate percentuali di utilizzo.:)
Ciao!
leoneazzurro
02-10-2009, 13:57
be cosa rimane dopo gli Sp::
la cache le TMU e poi???
Non capisco cosa ci sia di innovativo rispetto a GT200..
vedo solo una cache L2 unificata e basta , rispetto a GT200 e + Sp chiaro.
Ma allora è un'altro Gt 200 rinominato.
una cache condivisa non mi sembra sufficiente a decretare un cambiamento ..
Gli scheduler? Il modo in cui i carichi di lavoro sono ripartiti? La gestione della memoria? La gestione della cache? Il supporto ECC?
sono due ops per ciclo: una MADD è una MUL + una ADD, mentre prima erano 3.
Il motivo può essere stato quello di risparmiare spazio per aumentare il numero di alu oppure una diversa organizzazione del lavoro della GPU
Si!
Soprattutto considererei la proporzione tra l'effettivo utillizzo della alu MUL rapportata al consumo di spazio sul die...
Avranno preferito riutilizzare lo spazio tolto alla MUL per inserire altri più "prolifici" MADD...:stordita:
Ciao
be cosa rimane dopo gli Sp::
la cache le TMU e poi???
Non capisco cosa ci sia di innovativo rispetto a GT200..
vedo solo una cache L2 unificata e basta , rispetto a GT200 e + Sp chiaro.
Ma allora è un'altro Gt 200 rinominato.
una cache condivisa non mi sembra sufficiente a decretare un cambiamento ..
Cambia magari il modo in cui sono gestite?
Tutto ciò che possono aver modificato a livello di scheduler,registri,algoritmi di gestione delle operazioni....
Questo solo parlando delle alu.
Il grosso dei cambiamenti possono essere stati proprio a questi livelli.
I "numeri grossi" tanto cari ai fanboy lasciamoli al marketing...:)
Ciao!
appleroof
02-10-2009, 14:26
be cosa rimane dopo gli Sp::
la cache le TMU e poi???
Non capisco cosa ci sia di innovativo rispetto a GT200..
vedo solo una cache L2 unificata e basta , rispetto a GT200 e + Sp chiaro.
Ma allora è un'altro Gt 200 rinominato.
una cache condivisa non mi sembra sufficiente a decretare un cambiamento ..
Sviluppiamo ora quelle che sono le caratteristiche architetturali della nuova architettura Fermi di NVIDIA, alla luce di quello che il produttore ha sino ad ora reso disponibile per il pubblico. Partiamo dal numero di stream processors, passato dai precedenti 240 delle achitetture GT200 agli attuali 512; NVIDIA ha scelto di chiamare questi componenti come CUDA Cores e non più come stream processors, ma di fatto sono la stessa cosa in termini di architettura della GPU.
Al pari di quanto evidenziato con le precedenti architetture di GPU a shader unificati, anche per Fermi sono stati integrati vari streaming multiprocessor o SM, all'interno dei quali trovano posto vari CUDA core. Se in G80 e GT200 i core erano raggruppati a blocchi di 8 all'interno di un SM, in Fermi l'approccio è cambiato con un numero di core 4 volte superiore per ogni SM: siamo quindi ora a 32 core. Riassumiamo questi dati nella seguente tabella:
Qual è la struttura di una SM in Fermi? Oltre ai 32 CUDA core troviamo una Special Function Unit, che viene utilizzata per operazioni di interpolazione e per matematica trascendentale. Una SFU era già presente in GT200: in Fermi tale unità di elaborazione ha pipelines raddoppiate, passate dalle 2 precedenti alle 4 attuali.
NVIDIA ha inserito un'architettura della cache in Fermi particolarmente complessa, considerato che stiamo parlando di una GPU. Per ogni streaming microprocessor troviamo una cache dedicata da 64 Kbytes di capacità, partizionabile come memoria condivisa e come cache L1: i rapporti sono 1:3 oppure 3:1. Il rapporto è funzione del tipo di applicazione che viene eseguita: ricordiamo come GT200 integrasse una memoria cache da 16 Kbytes non partizionabile. Una seconda cache, di tipo L2, è presente all'interno del chip in quantitativo di 768 Kbytes, di tipo unificato.
Vi sono inoltre molte novità introdotte da NVIDIA a livello di ogni singolo CUDA Core. Innanzitutto le elaborazioni interne ad ognuno di questi core sono eseguite con precisione IEEE-754 2008 per le operazioni in virgola mobile e a 32bit per quelle con interi: la risultante sono unità di elaborazione indipendenti per le due tipologie che sono pienamente compatibili con gli standard di mercato, elemento che rappresenta un punto di forza nel momento in cui si voglia utilizzare queste soluzioni per GPU Computing.
La capacità di elaborazione in double precision in virgola mobile (FP64) è stata largamente incrementata rispetto a GT200, quella che era la prima architettura di NVIDIA a implementare FP64: il valore di picco nell'esecuzione di codice a doppia precisione in virgola mobile è ora pari alla metà di quanto ottenibile in singola precisione, mentre con GT200 tale valore era pari a circa 1/8. Riassumiamo questi dati nella seguente tabella, introducendo un confronto tra G80, GT200 e Fermi:
E' evidente come l'architettura Fermi sia stata sviluppata per offrire capacità di elaborazione in double precision, utile per alcuni ambiti di calcolo GPU Computing, molto più elevata della prima implementazione fornita da GT200. Non solo il numero di stream processors è più che raddoppiato, ma la penalità data dall'elaborare in FP64 è molto più ridotta rispetto alla precedente generazione di GPU. G80, prima GPU destinata all'utilizzo in sistemi Tesla, era del tutto sprovvista di supporto FP64.
http://www.hwupgrade.it/articoli/skvideo/2293/nvidia-fermi-la-nuova-architettura-scopre-le-carte_3.html
direi che di novità ce ne sono a sufficienza :D
x.vegeth.x
02-10-2009, 14:30
6 gb di vram? :mbe: ma non sono nelle schede gaming vero? :mbe: ma servono? :mbe:
Andrea deluxe
02-10-2009, 14:33
6 gb di vram? :mbe: ma non sono nelle schede gaming vero? :mbe: ma servono? :mbe:
a noi tocheranno quelle da 1.5 e 3gb!
appleroof
02-10-2009, 14:34
a noi tocheranno quelle da 1.5 e 3gb!
peccato
:asd: :asd:
halduemilauno
02-10-2009, 14:35
6 gb di vram? :mbe: ma non sono nelle schede gaming vero? :mbe: ma servono? :mbe:
solo Tesla e Quadro avranno 6 giga. per le GeForce 1,5/3.
;)
x.vegeth.x
02-10-2009, 14:45
a noi tocheranno quelle da 1.5 e 3gb!
solo Tesla e Quadro avranno 6 giga. per le GeForce 1,5/3.
;)
ah ecco :doh:
1,5gb per le single e 3 per le dual immagino...mi sembra esagerato lostesso per giocare a risoluzioni umane. comunque aquesto giro vado di single sperando di non spendere un patrimonio.
Andrea deluxe
02-10-2009, 14:55
ah ecco :doh:
1,5gb per le single e 3 per le dual immagino...mi sembra esagerato lostesso per giocare a risoluzioni umane. comunque aquesto giro vado di single sperando di non spendere un patrimonio.
3gb anche per le single!
halduemilauno
02-10-2009, 15:00
ah ecco :doh:
1,5gb per le single e 3 per le dual immagino...mi sembra esagerato lostesso per giocare a risoluzioni umane. comunque aquesto giro vado di single sperando di non spendere un patrimonio.
la 512 shader è fatta quantomeno per i 1920x1200 cmq anche per essa dovrebbe esserci chi la proporrà con i tre giga. certo la x2 obbligatoria con i tre.
;)
Andrea deluxe
02-10-2009, 16:19
certo che su extreme system ne girano di pazzi........:D
http://img28.imageshack.us/img28/2883/tesafilm.png
goldorak
02-10-2009, 16:23
Già mi vedo i pazzi furiosi a comprarsi le Quadro 6GB per poter giocare a GTA4 :asd:
:sbonk: per poi suicidarsi quando si rendono conto che GTA4 gira a 55fps e non 60fps. :asd:
appleroof
02-10-2009, 16:31
certo che su extreme system ne girano di pazzi........:D
http://img28.imageshack.us/img28/2883/tesafilm.png
:D :D :D
Certo che ne hanno di immaginazione :asd:
(e anche niente da fare eh :D)
Kharonte85
02-10-2009, 16:43
Dire tutto di una architettura e tenere strategicamente segreto il layout del PCB è una spiegazione che non regge. La mia unica spiegazione è che non hanno una VGA pronta. Sono pronto ad ascoltare altre possibili interpretazioni, ma che sia necessario tenere nascosto il PCB per motivi strategici non è credibile proprio.
Non sono pronti di sicuro e questo è assodato da tempo oramai, pero' non è mai successo che nvidia rivelasse il layout della nuova scheda mesi prima della presentazione alla stampa quindi non vedo perchè mostrare anche quello, già le notizie sull'architettura sono stati "obbligati" a diffonderle per tenere alto l'Hype, pero' ovviamente non hanno svelato i dettagli quali le frequenze di funzionamento (anche perchè le dovranno ancora stabilire) e non hanno dato alcuna notizia sul lato benchmark-giochi.
Tanto voglio dire, non è che se presentano le schede a Dicembre uno si frega del layout che era stato fatto vedere a Settembre e Nvidia direbbe: ma quello era un prototipo...fine dei :blah:
Fra l'altro con il CEO a fare il bello con la scheda fake in mano davanti ai fotografi... che figura di merda...
Infatti è talmente clamorosa da sembrare quasi un depistaggio (non ci credo che non siano riusciti a mettere insieme una scheda fake credibile...invece è successo il che vuol dire che c'è qualcosa che non torna)...bastava che avessero avuto l'accortezza di non fare vedere la parte posteriore e difficilmente qualcuno se ne sarebbe accorto...:boh:
mister-x
02-10-2009, 17:07
Infatti è talmente clamorosa da sembrare quasi un depistaggio (non ci credo che non siano riusciti a mettere insieme una scheda fake credibile...invece è successo il che vuol dire che c'è qualcosa che non torna)...bastava che avessero avuto l'accortezza di non fare vedere la parte posteriore e difficilmente qualcuno se ne sarebbe accorto...:boh:
In realtà non sarebbe bastato nemmeno quello perchè l'hanno fatta talmente male da lasciare tappata la principale apertura per l'aria calda :doh: :D
Mi viene il dubbio che volessero essere scoperti :confused:
appleroof
02-10-2009, 17:08
In realtà non bastava nemmeno quello perchè l'hanno fatta talmente male da lasciare tappata la principale apertura per l'aria calda :doh: :D
Mi viene il dubbio che volessero essere scoperti :confused:
a questo punto pure a me, ma che senso avrebbe? :stordita:
appleroof
02-10-2009, 17:19
Nessuno :D
in effetti se quella non era un prototipo della scheda def. hanno fatto una figura barbina (però c'è da dire che Nvidia è molto brava a mescolare le carte), ma onestamente credo che il punto non sia quello, ma i contenuti ossia le abbondanti anticipazioni sulla prox architettura...:)
halduemilauno
02-10-2009, 17:27
a questo punto pure a me, ma che senso avrebbe? :stordita:
in effetti se quella non era un prototipo della scheda def. hanno fatto una figura barbina (però c'è da dire che Nvidia è molto brava a mescolare le carte), ma onestamente credo che il punto non sia quello, ma i contenuti ossia le abbondanti anticipazioni sulla prox architettura...:)
hai un pvt.
;)
appleroof
02-10-2009, 17:37
hai un pvt.
;)
risposto :)
michelgaetano
02-10-2009, 18:14
Qualcuno mi aggiorna? Sono appena rientrato e non ho capito questa cosa del fake :stordita:
Qualcuno mi aggiorna? Sono appena rientrato e non ho capito questa cosa del fake :stordita:
la scheda in mano al ceo nvida non è altro un pcb fake con un dissipatore incollato sopra, per adesso hanno solamente dei sample delle gpu .....
michelgaetano
02-10-2009, 18:35
la scheda in mano al ceo nvida non è altro un pcb fake con un dissipatore incollato sopra, per adesso hanno solamente dei sample delle gpu .....
Qui c'è racontato tutto:
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc
In la scheda che JHH aveva in mano alla presentazione dell'architettura era un falso. Non un'altra scheda, ma proprio una patacca. Lo si vede da una marea di cose diverse, tra cui il fatto che il PCB viene da una scheda più lunga segata di netto.
Insomma, una mossa solo per mostrare una scheda e far vedere che Nvidia c'è?
O c'è altro che Hal non può dire se non privatamente? :stordita:
appleroof
02-10-2009, 18:37
Qui c'è racontato tutto:
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc
In la scheda che JHH aveva in mano alla presentazione dell'architettura era un falso. Non un'altra scheda, ma proprio una patacca. Lo si vede da una marea di cose diverse, tra cui il fatto che il PCB viene da una scheda più lunga segata di netto.
aspetta...non avevo visto l'autore dell'articolo: Charlie Demerjian...:asd: :asd: :asd:
appleroof
02-10-2009, 18:39
Basta guardare le foto, l'autore è irrilevante. Certo a meno che nVidia non sia riuscita a fare i connettori per l'alimentazione supplementare PCIe che si autoalimentano via etere...
:mbe:
io li vedo i connettori...
appleroof
02-10-2009, 18:46
Il problema è che le saldature sul PCB sono da un'altra parte, oltre al fatto che non ci sono i buchi in cui i connettori dovrebbero essere fissati:
http://pc.watch.impress.co.jp/img/pcw/docs/318/660/03.jpg
capito...
mah, cosa ti devo dire, non mi scandalizzo e non mi stupirei se fosse addirittura fatto apposta, tutto questo (le strade della strategia aziendale sono oscure a noi poveri mortali :asd: :asd: )
Basta guardare le foto, l'autore è irrilevante. Certo a meno che nVidia non sia riuscita a fare i connettori per l'alimentazione supplementare PCIe che si autoalimentano via etere...:rotfl:
:mbe:
io li vedo i connettori...Ehm...non sono saldati...ma solo incollati ;)
martinez1983
02-10-2009, 18:47
:mbe:
io li vedo i connettori...
Ma mancano le saldature di uno dei 2 connettori!!!;)
Si vede bene sul retro della scheda,un connettore sembra fantasma!!!:D
Il problema è che le saldature sul PCB sono da un'altra parte, oltre al fatto che non ci sono i buchi in cui i connettori dovrebbero essere fissati:
http://pc.watch.impress.co.jp/img/pcw/docs/318/660/03.jpg
Dopo i cuda cores, le cuda saldature...
Bastoner
02-10-2009, 18:59
The board has wood screws crudely driven through it. The vents on the end plate are blocked. The DVI connector is not soldered to anything, The SLI connectors are somewhat covered by a heat shield. The 8-pin power connector is connected to nothing. The 6-pin connector is connected to the PCB with glue, not pins and solder. The board is crudely chopped off with power tools. The 8-pin connector that should be there is not. The 6-pin connector that should be there is cut. The mounting holes are too close to the edge. There are also likely many more flaws, but this should be enough to prove a point.
Veramente, non ho più parole. Sono scioccato.
Bastoner
02-10-2009, 19:00
Dopo i cuda cores, le cuda saldature...
E dopo anche i Cuda Frames :rolleyes:
Andrea deluxe
02-10-2009, 19:10
se non si muovono, ati gli fa un "cuda culo".......
michelgaetano
02-10-2009, 19:20
Domandone, vorrie la vostra opinione :D
Visto che la cosa della scheda tarocca sembra abbastanza inconfutabile, secondo voi le testate segnaleranno la cosa?
Voglio dire, è un comportamento abbastanza di basso livello e tutto, ma lì rimaneva una presentazione delle caratteristiche di Fermi. Che quello fatto vedere fosse la vera scheda, un fake o boh, un mattone o un plum cake, non dovrebbe fare poi troppa differenza, o sbaglio?
Ma mancano le saldature di uno dei 2 connettori!!!;)
Si vede bene sul retro della scheda,un connettore sembra fantasma!!!:D
Dopo i cuda cores, le cuda saldature...
Azz... ora che me lo fate notare è proprio vero!! il pcb è di una scheda (una gtx 285??), mentre la cover è di un'altra...
LOL
dopo questa, 5870 a nastro, ma proprio senza nemmeno guardare... :asd:
Domandone, vorrie la vostra opinione :D
Visto che la cosa della scheda tarocca sembra abbastanza inconfutabile, secondo voi le testate segnaleranno la cosa?
Voglio dire, è un comportamento abbastanza di basso livello e tutto, ma lì rimaneva una presentazione delle caratteristiche di Fermi. Che quello fatto vedere fosse la vera scheda, un fake o boh, un mattone o un plum cake, non dovrebbe fare poi troppa differenza, o sbaglio?Tecnicamente non farebbe differenza (visto che era una presentazione di caratteristiche/features).
Ma l'avere il sample pronto significa che tutto procede bene e che le tempistiche per il lancio sono buone (vedi rv770/rv870).
Quindi l'accaduto non fa ben sperare...poi certo nVidia ci ha giá abituati a tutto, nel bene e nel male...
Kharonte85
02-10-2009, 19:48
Domandone, vorrie la vostra opinione :D
Visto che la cosa della scheda tarocca sembra abbastanza inconfutabile, secondo voi le testate segnaleranno la cosa?
Voglio dire, è un comportamento abbastanza di basso livello e tutto, ma lì rimaneva una presentazione delle caratteristiche di Fermi. Che quello fatto vedere fosse la vera scheda, un fake o boh, un mattone o un plum cake, non dovrebbe fare poi troppa differenza, o sbaglio?
No non fa alcuna differenza, e soprattutto non dimostra niente poiche':
mah, cosa ti devo dire, non mi scandalizzo e non mi stupirei se fosse addirittura fatto apposta, tutto questo (le strade della strategia aziendale sono oscure a noi poveri mortali :asd: :asd: )
Esatto :D
x.vegeth.x
02-10-2009, 19:52
3gb anche per le single!
alèèè...ma a che serve tutta quella memoria?
la 512 shader è fatta quantomeno per i 1920x1200 cmq anche per essa dovrebbe esserci chi la proporrà con i tre giga. certo la x2 obbligatoria con i tre.
;)
io ho il monitor 1680x1050, ma non è escluso che ogni tanto lo possa attaccare in sala al tv 40" fhd :D il monitor ha nemmeno 2 anni di vita, non credo che lo cambierò prima del prossimo natale...
alèèè...ma a che serve tutta quella memoriaA far andare GTA4 in dual box
michelgaetano
02-10-2009, 19:58
A far andare GTA4 in dual box
Ma neanche, l'hai vista la comparativa di hwu della 285? :stordita:
Athlon 64 3000+
02-10-2009, 19:58
Negli ultimi tempi ho cercato di stare fuori da questi fatti,ma in questi giorni ne ho sentite di tutti i colori su Nvidia e questo sul PCB farlocco è una cavolata che proprio non mi va giù:mad:
CI vuole un bel coraggio a prendere per il culo la gente con queste pagliacciate e facendo credere di avere una scheda funzionante.
Io non ho mai sopportato Nvidia proprio per queste pagliacciate e anche per la sua politica che continua ad eseguire anche per danneggiare la concorrenza che effettua da anni.:mad:
Scusate lo sfogo,ma è anche per questo che dopo che qualche anno fà da senza bandierà preferisco AMD/ATI.
Bastoner
02-10-2009, 20:03
No non fa alcuna differenza, e soprattutto non dimostra niente poiche':
Esatto :D
MA QUALI STRATEGIE OSCURE??? Mi fate sbellicare voi Cuda Boys, ma che c'è da elucubrare su quello che abbiamo visto?? Una scheda video patacca, un tarocco, una presa per il culo, un PBC tagliato e incollato con la sputazza per imbrogliare una platea di giornalisti (e milioni di utenti in tutto il mondo). Ci hanno fatto vedere quattro grafici e ci hanno parlato di nuove architetture, ma potevano dire quello che volevano, anche che ci mettevano 10 miliardi di transistor. Sono parole. I fatti sono questi: la scheda era un fake clamoroso. E voi state qui a parlare di oscure strategie di marketing. Oddio, i CUDA Boys.....:rolleyes:
x.vegeth.x
02-10-2009, 20:04
Ma neanche, l'hai vista la comparativa di hwu della 285? :stordita:
non si nota la differenza tra 1 e 2gb, non capisco l'utilità dei 3...mah
Azz... ora che me lo fate notare è proprio vero!! il pcb è di una scheda (una gtx 285??), mentre la cover è di un'altra...
LOL
dopo questa, 5870 a nastro, ma proprio senza nemmeno guardare... :asd:
e mi sa :asd:
Ma neanche, l'hai vista la comparativa di hwu della 285? :stordita:Non hanno fatto il test con le texture impostate su alto e distanza a 100 però. ;)
michelgaetano
02-10-2009, 20:28
Non hanno fatto il test con le texture impostate su alto e distanza a 100 però. ;)
Che geni, lo davo per scontato :asd:
Vedendo comunque gli screen comparativi, mi chiedevo comunque a riguardo (mi sembrava inutile :stordita:)
Ad ogni modo non c'è mezzo frame guadagnato negli altri giochi (tra l'altro la 2 GB è in OC).
mircocatta
02-10-2009, 20:32
se non si muovono, ati gli fa un "cuda culo".......
:sbonk: :sbonk: :sbonk:
:sbonk: :sbonk: :sbonk:
lol :sbonk: :sbonk:
mircocatta
02-10-2009, 20:40
lol :sbonk: :sbonk:
ti giuro, più la leggo e più rido :asd:
Andrea deluxe
03-10-2009, 08:56
http://www.youtube.com/watch?v=iyg9HgiD8X0&feature=sub
http://www.youtube.com/watch?v=BAZQlQ86IB4&feature=channel
capito...
mah, cosa ti devo dire, non mi scandalizzo e non mi stupirei se fosse addirittura fatto apposta, tutto questo (le strade della strategia aziendale sono oscure a noi poveri mortali :asd: :asd: )
Guarda, c'è poco di oscuro. Se hai già una scheda funzionante mostri quella, senza magari farla fotografare da vicino, ma la mostri. Che bisogno c'è di approntare un ES farlocco, se hai il vero?
Tra l'altro di solito nelle presentazioni di questo tipo (ossia fatte apposta per distogliere l'attenzione dai prodotti della concorrenza) di solito si mostra qualcosa (demo, giochi) che giri sulla scheda in questione, proprio per mostrarne le potenzialità, senza far vedere benchmarks o altro. Visto che la stragrande maggioranza dei clienti acquista le vga per uso video (giochi e film) e non per il calcolo parallelo.
Se non l'hanno fatto vuol dire che le schede con G300 in grado di far girare qualcosa non esistono ancora.
Non credo nemmeno che gli interessi l'essere "scoperti", tra l'altro, perchè tanto la notizia di G300 è stata battuta e la leggono tutti, mentre qualla che in realtà la scheda è un fake su HWU non la leggo ancora da nessuna parte.
La vera strategia è quella (e cercano di usarla un po' tutti in ogni settore, seppure c'è chi ci riesce meglio e chi peggio): controllare la comunicazione. Tipo, escono articoli su nuove versioni delle tue vga su un sito a caso, ma fai in modo che non venga comparato con le schede più performanti della controparte (che le sbeffeggerebbero nel rapporto qualità-prezzo), pena magari il mancato invio di sample per fare i bench in futuro. :asd:
Bastoner
03-10-2009, 09:00
http://www.youtube.com/watch?v=iyg9HgiD8X0&feature=sub
http://www.youtube.com/watch?v=BAZQlQ86IB4&feature=channel
Belli ma a che servono? NOn sono renderizzati in tempo reale, quindi potrebbe essere tutta fuffa:rolleyes:
Andrea deluxe
03-10-2009, 09:04
Belli ma a che servono? NOn sono renderizzati in tempo reale, quindi potrebbe essere tutta fuffa:rolleyes:
un po di fumo.....negli occhi...
tanto pissx morirà........
appleroof
03-10-2009, 09:27
Guarda, c'è poco di oscuro. Se hai già una scheda funzionante mostri quella, senza magari farla fotografare da vicino, ma la mostri. Che bisogno c'è di approntare un ES farlocco, se hai il vero?
Tra l'altro di solito nelle presentazioni di questo tipo (ossia fatte apposta per distogliere l'attenzione dai prodotti della concorrenza) di solito si mostra qualcosa (demo, giochi) che giri sulla scheda in questione, proprio per mostrarne le potenzialità, senza far vedere benchmarks o altro. Visto che la stragrande maggioranza dei clienti acquista le vga per uso video (giochi e film) e non per il calcolo parallelo.
Se non l'hanno fatto vuol dire che le schede con G300 in grado di far girare qualcosa non esistono ancora.
Non credo nemmeno che gli interessi l'essere "scoperti", tra l'altro, perchè tanto la notizia di G300 è stata battuta e la leggono tutti, mentre qualla che in realtà la scheda è un fake su HWU non la leggo ancora da nessuna parte.
La vera strategia è quella (e cercano di usarla un po' tutti in ogni settore, seppure c'è chi ci riesce meglio e chi peggio): controllare la comunicazione. Tipo, escono articoli su nuove versioni delle tue vga su un sito a caso, ma fai in modo che non venga comparato con le schede più performanti della controparte (che le sbeffeggerebbero nel rapporto qualità-prezzo), pena magari il mancato invio di sample per fare i bench in futuro. :asd:
non è così scontato che vada così: mi stupisco che tu non ricordi il mistero assoluto che ha circondato G80 di cui non si sapeva nulla fino al debutto sul mercato; se non ricordo male nemmeno di r600 si ebbero presentazioni del tipo cui fai riferimento
potrebbe, e sottolineo potrebbe, essere che l'abbiano fatto in modo da convincere tutti che la scheda appunto non è pronta: sembra contorto ma per questo dico che le strade delle strategie aziendali sono oscure :D. Se così non fosse, allora hanno semplicemente fatto una minchiata :boh:
Kharonte85
03-10-2009, 09:29
Guarda, c'è poco di oscuro. Se hai già una scheda funzionante mostri quella, senza magari farla fotografare da vicino, ma la mostri. Che bisogno c'è di approntare un ES farlocco, se hai il vero?
Tra l'altro di solito nelle presentazioni di questo tipo (ossia fatte apposta per distogliere l'attenzione dai prodotti della concorrenza) di solito si mostra qualcosa (demo, giochi) che giri sulla scheda in questione, proprio per mostrarne le potenzialità, senza far vedere benchmarks o altro. Visto che la stragrande maggioranza dei clienti acquista le vga per uso video (giochi e film) e non per il calcolo parallelo.
Se non l'hanno fatto vuol dire che le schede con G300 in grado di far girare qualcosa non esistono ancora.
Di nuovo...ma che ne sappiamo noi? Siamo qui a fare chiacchiere e basta...la verità è che questa cosa non ci fornisce nessuna informazione.
Non credo nemmeno che gli interessi l'essere "scoperti", tra l'altro, perchè tanto la notizia di G300 è stata battuta e la leggono tutti, mentre qualla che in realtà la scheda è un fake su HWU non la leggo ancora da nessuna parte.
Ecco a questo invece bisognerebbe rimediare dato che pure Fudzilla lo ha riportato:
Fermi Tesla board is a mock-up
Written by Fuad Abazovic
Friday, 02 October 2009 18:12
Nvidia confirms
Fermi that was running PhysX at Jensen's GTC keynote was real but the one that we all took pictures of was a mock-up.
The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires and the top brass at Nvidia didn't want to give that thing to Jensen. This was confirmed today by a top Nvidia VP president class chap, but the same person did confirm that the card is real and that it does exist.
Charlie was surely right about this one here. The card that Jensen showed and we all pictured is not a working sample. Some key people at Nvidia have promised to show us the picture of the real one. Stay tuned.
http://www.fudzilla.com/content/view/15798/65/
La vera strategia è quella (e cercano di usarla un po' tutti in ogni settore, seppure c'è chi ci riesce meglio e chi peggio): controllare la comunicazione. Tipo, escono articoli su nuove versioni delle tue vga su un sito a caso, ma fai in modo che non venga comparato con le schede più performanti della controparte (che le sbeffeggerebbero nel rapporto qualità-prezzo), pena magari il mancato invio di sample per fare i bench in futuro. :asd:
Questo tipicamente tentano di farlo tutte le aziende a scopo di lucro...forse nvidia semplicemente è più brava e quindi ha più successo o forse la malizia sta negli occhi di chi guarda.
non è così scontato che vada così: mi stupisco che tu non ricordi il mistero assoluto che ha circondato G80 di cui non si sapeva nulla fino al debutto sul mercato; se non ricordo male nemmeno di r600 si ebbero presentazioni del tipo cui fai riferimento
Per G80 non c'era bisogno di far sapere nulla in anticipo, perchè erano in vantaggio rispetto ad ATI.
Per R600 era meglio non far vedere nulla... :asd:
Comunque io mi riferisco al fatto che, quando si fanno presentazioni di questo tipo cioè fatte apposta per sviare l'attenzione dagli altri, qualcosina più di una finta scheda di solito si mostra.
Anche perchè per assurdo hanno svelato molto di più con le slides sull'architettura... quindi non mi pare che sia la segretezza il problema.
potrebbe, e sottolineo potrebbe, essere che l'abbiano fatto in modo da convincere tutti che la scheda appunto non è pronta: sembra contorto ma per questo dico che le strade delle strategie aziendali sono oscure :D. Se così non fosse, allora hanno semplicemente fatto una minchiata :boh:
Questo lo escludo categoricamente. NVidia è un'azienda quotata, e fare comunicazioni false sui propri prodotti può provocare contraccolpi enormi sul titolo.
Questo tipicamente tentano di farlo tutte le aziende a scopo di lucro...forse nvidia semplicemente è più brava e quindi ha più successo o forse la malizia sta negli occhi di chi guarda.
Ma infatti l'ho scritto anch'io.
C'è anche da dire che in qualunque campo c'è chi in certe cose è più spregiudicato e chi lo è meno.
Però oggettivamente (e lo dico perchè so per certo che succede in altri campi, quindi immagino che valga anche in questo campo), certe cose sono abbastanza "fishy" (= mi puzzano)...
Dagli articoli ATI con a fianco le pubblicità NVidia ad altri piccoli segnali tipo l'articolo sulla GTX285... ;)
Sapevi ad esempio che un sacco di giornali non pubblicarono le notizie di Dolce e Gabbana multati dal fisco per un sacco di soldi per paura di perdere le loro campagne pubblicitarie?
Non vedo perchè testate molto meno forti economicamente dovrebbero essere meno prone verso gli inserzionisti quando questi ultimi fanno la voce grossa. ;)
devAngnew
03-10-2009, 09:58
http://www.youtube.com/watch?v=iyg9HgiD8X0&feature=sub
http://www.youtube.com/watch?v=BAZQlQ86IB4&feature=channel
Belli se sono in real time come pure ha affermato fudzilla questo gf300 è veramente incredibile....:cool:
devAngnew
03-10-2009, 10:09
un po di fumo.....negli occhi...
tanto pissx morirà........
Non credo proprio, anzi poichè ha fatto un certo investimento per acquistare Ageia e le sue tecnologie cerca di vendere quante più schede possibili, non appena usciranno motori fisici concorrenti come quelli annunciati da ATI credo che Nvidia rilancerà subito (credo che l'abbiano già fatta la conversione o sono a buon punto ma aspettano :asd: ) PhysiX in versione OpenCL...
Attualmente IMHO ha solo tirato un pò troppo la corda poichè impedisce ai possessori di schede video ATI di utilizzare una 2 sv Nvidia per la fisica.
;)
appleroof
03-10-2009, 10:09
Per G80 non c'era bisogno di far sapere nulla in anticipo, perchè erano in vantaggio rispetto ad ATI.
Per R600 era meglio non far vedere nulla... :asd:
Comunque io mi riferisco al fatto che, quando si fanno presentazioni di questo tipo cioè fatte apposta per sviare l'attenzione dagli altri, qualcosina più di una finta scheda di solito si mostra.
Anche perchè per assurdo hanno svelato molto di più con le slides sull'architettura... quindi non mi pare che sia la segretezza il problema.
cut
bè...mi pare che ti fai la domanda e ti dai la risposta...:D
Ma infatti l'ho scritto anch'io.
C'è anche da dire che in qualunque campo c'è chi in certe cose è più spregiudicato e chi lo è meno.
Però oggettivamente (e lo dico perchè so per certo che succede in altri campi, quindi immagino che valga anche in questo campo), certe cose sono abbastanza "fishy" (= mi puzzano)...
Dagli articoli ATI con a fianco le pubblicità NVidia ad altri piccoli segnali tipo l'articolo sulla GTX285... ;)
Sapevi ad esempio che un sacco di giornali non pubblicarono le notizie di Dolce e Gabbana multati dal fisco per un sacco di soldi per paura di perdere le loro campagne pubblicitarie?
Non vedo perchè testate molto meno forti economicamente dovrebbero essere meno prone verso gli inserzionisti quando questi ultimi fanno la voce grossa. ;)
anche tu complottista?? :asd: Dai smettetela con la dietrologia da aficionados traditi :D, credo che qui si sia risposto in maniera esauriente al proposito: http://www.hwupgrade.it/forum/showthread.php?p=29126470&posted=1#post29126470
gianni1879
03-10-2009, 11:05
MA QUALI STRATEGIE OSCURE??? Mi fate sbellicare voi Cuda Boys, ma che c'è da elucubrare su quello che abbiamo visto?? Una scheda video patacca, un tarocco, una presa per il culo, un PBC tagliato e incollato con la sputazza per imbrogliare una platea di giornalisti (e milioni di utenti in tutto il mondo). Ci hanno fatto vedere quattro grafici e ci hanno parlato di nuove architetture, ma potevano dire quello che volevano, anche che ci mettevano 10 miliardi di transistor. Sono parole. I fatti sono questi: la scheda era un fake clamoroso. E voi state qui a parlare di oscure strategie di marketing. Oddio, i CUDA Boys.....:rolleyes:
3gg di vacanza non fanno mai male, ti ricordo che anche usare certi modi colorati non sono molto graditi su questo forum.
mister-x
03-10-2009, 11:07
Nvidia admits fermi is a dummy
http://www.xbitlabs.com/news/video/display/20091002130844_Nvidia_Admits_Showing_Dummy_Fermi_Card_at_GTC_Claims_First_Graphics_Cards_on_Track_for_Q4_2009.html
Nvidia plans three Fermi cards at launch
http://www.fudzilla.com/content/view/15795/1/
http://vr-zone.com/articles/-rumour-nvidia-fermi-to-release-in-three-variants/7804.html?doc=7804
x.vegeth.x
03-10-2009, 12:26
Nvidia admits fermi is a dummy
http://www.xbitlabs.com/news/video/display/20091002130844_Nvidia_Admits_Showing_Dummy_Fermi_Card_at_GTC_Claims_First_Graphics_Cards_on_Track_for_Q4_2009.html
Nvidia plans three Fermi cards at launch
http://www.fudzilla.com/content/view/15795/1/
http://vr-zone.com/articles/-rumour-nvidia-fermi-to-release-in-three-variants/7804.html?doc=7804
interessato alla high end single gpu, anche se non nel 2009...magari a inizio 2010
anche tu complottista?? :asd: Dai smettetela con la dietrologia da aficionados traditi :D, credo che qui si sia risposto in maniera esauriente al proposito: http://www.hwupgrade.it/forum/showthread.php?p=29126470&posted=1#post29126470
Guarda, solitamente non lo sono. Ma il fatto che a volte i giornali vengano pagati in maniera più o meno indiretta per fare uscire certe "notizie" non è un imho. E' la realtà, e diciamo che ho le mie fonti. O credi forse che gli uffici di PR delle aziende servano esclusivamente ad organizzare gli eventi? ;)
Poi naturalmente sei libero di credermi o meno. :)
Ed avviene con importanti testate nazionali a pagamento, figuriamoci con quelle internet che vivono solo con la pubblicità.
Ovviamente come ho detto certe cose avvengono sia per un marchio che per l'altro, solo che esistono aziende più spregiudicate nel fare uso di certi mezzi rispetto ad altre. E certo alcuni comportamenti non fanno che alimentare il sospetto.
Di nuovo...ma che ne sappiamo noi? Siamo qui a fare chiacchiere e basta...la verità è che questa cosa non ci fornisce nessuna informazione.
Perhaps, Nvidia is somewhat too optimistic. At the GTC, Nvidia demonstrated the A1 revision of the Fermi-G300 graphics chip made in late August, whereas usually the company uses only A2 or even A3 revisions on commercial products. It usually takes months to create a new revision.
For example, ATI, graphics business unit of Advanced Micro Devices and the arch-rival of Nvidia, demonstrated its latest RV870 “Cypress” processor in action back in early June ’09, but was only able to release the chip commercially in late September ’09, about four months later.
http://www.xbitlabs.com/news/video/display/20091002130844_Nvidia_Admits_Showing_Dummy_Fermi_Card_at_GTC_Claims_First_Graphics_Cards_on_Track_for_Q4_2009.html
Come vedi non sono solo io ad aver fatto 2+2...
Ossia:
1) a settembre è uscita la prima revision della gpu (lo stesso CEO di NVidia ha detto che quella nelle sue mani era una gpu di pochi giorni prima, ed era una A1).
2) Di solito le gpu che finiscono nelle schede reali sono A2 o A3, cioè le vga vengono messe in vendita alla seconda-terza revision.
3) Per fare una revision ci vogliono mesi. Pure ammettendo 2-3 mesi per avere 2 revision (che è troppo poco) o che NVidia riesca a lanciare GF100 con gpu A2, ci vogliono altri 2-3 mesi.
4) Detto questo, vuol dire che non vedremo le nuove NVidia prima di almeno fine gennaio 2010 nel caso di un miracolo. Nel caso in cui le cose dovessero andare normalmente, si rischia di arrivare alla fine del Q1 2010.
Il tutto con un ragionevole grado di certezza sulla base delle info trapelate finora.
O anche l'articolo sopra l'ha scritto Charlie Demerjian? ;)
papafoxtrot
03-10-2009, 14:13
iscritto ragazzi!
Speriamo bene, gli avvenimenti degli ultimi giorni non lasciano ben sperare...
Sergio_Di_Rio
03-10-2009, 14:50
http://www.fudzilla.com/content/view/15798/34/
Fermi that was running PhysX at Jensen's GTC keynote was real but the one that we all took pictures of was a mock-up.
The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires and the top brass at Nvidia didn't want to give that thing to Jensen. This was confirmed today by a top Nvidia VP president class chap, but the same person did confirm that the card is real and that it does exist.
Charlie was surely right about this one here. The card that Jensen showed and we all pictured is not a working sample.
Che figura di MER%@.. Quasi al pari di questa :asd: :
http://www.youtube.com/watch?v=p7KvJ-7JfF4
halduemilauno
03-10-2009, 15:06
http://www.xbitlabs.com/news/video/display/20091002130844_Nvidia_Admits_Showing_Dummy_Fermi_Card_at_GTC_Claims_First_Graphics_Cards_on_Track_for_Q4_2009.html
si ribadisce e + volte(facendo anche il nome di Alibrandi)che la scheda è prevista in uscita quest'anno.
it does state that it will be able to ship the product commercially in late 2009 and denies the claim that the first Fermi products will only show up in Q1 2010.
“The first Fermi GPUs are expected to launch by year’s end,” stressed Mr. Alibrandi.
unico errore quando dice delle Rev la A1 è la seconda revisione del chip la prima è stata A0 la A1 si rifa al tape-out del 9 luglio la A0 invece alcuni mesi prima.
;)
sickofitall
03-10-2009, 15:35
Secondo me sono a buon punto con la revisione finale, alla conferenza hanno fatto apposta ad apparire in "difficoltà", forse per sviare l'attenzione dalle nuove ati o forse per bleffare, chi lo sa :rolleyes:
fatto sta che ora tutti ne stanno parlando, chi per farsi una risata deridendoli, altri invece un pò preoccupati attendono e attendono nuove mosse
sickofitall
03-10-2009, 15:45
o magari decidono di aspettare, quelli che hanno gtx 260/285/295 mica sono tutti li che si strappano i capelli perchè non escono subito le nuove geforce :asd:
o magari decidono di aspettare, quelli che hanno gtx 260/285/295 mica sono tutti li che si strappano i capelli perchè non escono subito le nuove geforce :asd:
si al momento non mi dispero :p
devAngnew
03-10-2009, 15:56
Visto l'andazzo game in ambito Pc vedi porting console (diciamo un buon 97%)
non c'è tutta stà fretta.... :asd: :asd: :asd:
b4st0n3r
03-10-2009, 15:57
http://www.youtube.com/watch?v=iyg9HgiD8X0&feature=sub
http://www.youtube.com/watch?v=BAZQlQ86IB4&feature=channel
avete visto alla fine del primo video quel ragazzo a destra? Si Sta scaccolando :asd:
Bah.. secondo me GT300 non è ancora pronta o comunque non avevano una scheda pronta da mostrare alla presentazione. Non credo che uscirà a fine 1°Q2010 come ha detto A.L.M., ma comunque a sto punto non sono nemmeno tanto sicuro che esca entro fine anno. IMHO una data probabile potrebbe essere fine gennaio 2010.
In ogni caso il fatto che nvidia non abbia mostrato una vera scheda alla presentazione non può che essere perchè non l'avevano pronta, altrimenti l'avrebbero mostrata. ;)
sickofitall
03-10-2009, 16:10
Se hai un prodotto che funziona lo vendi e basta. Nemmeno all'uscita della 8800GTX c'era tutto sto bisogno di forza bruta o di DX10. Avevano G80 pronto e l'hanno commercializzato.
Se non lo fanno significa solo che il chip non c'è.
il discorso è che se una persona ha una delle schede elencate prima ed è affezzionato a nvidia, non vedo il motivo per cui debba preoccuparsi, se poi uno è alla ricerca della scheda più potente ti dò ragione
Se hai un prodotto che funziona lo vendi e basta. Nemmeno all'uscita della 8800GTX c'era tutto sto bisogno di forza bruta o di DX10. Avevano G80 pronto e l'hanno commercializzato.
Se non lo fanno significa solo che il chip non c'è.
quoto anche perchè IMHO almeno il 50% di quelli che hanno una GTX285 e un buon 90% di quelli che hanno una GTX295 sarebbero disposti a passare alle nuove geforce nel caso uscissero. E sempre IMHO, un buon 50% di questi 50% e 90% sapendo che GT300 è in ritardo potrebbe pensare di passare a RV870, è anche per questo che è stata fatta quella presentazione con scheda tarocca. ( :D ) :read:
I dati non li ho sparati a caso, ma li ho presi da quello che ho visto l'anno scorso nel passaggio da G80/G92 a GT200 e dal passaggio da RV770 a RV870 ora. :)
il discorso è che se una persona ha una delle schede elencate prima ed è affezzionato a nvidia, non vedo il motivo per cui debba preoccuparsi, se poi uno è alla ricerca della scheda più potente ti dò ragione
ecco, una buona parte di chi ha la GTX285 è di certo affezzionato a nvidia (anche perchè altrimenti non avrebbe mai preso la GTX285, IMHO :D ), ma anche una (suppur piccola) parte degli appassionati potrebbe passare ad ATI con GT300 in ritardo.
È arrivando in anticipo rispetto alla concorrenza con schede valide che si fanno le quote di mercato, anche se GT300 sarà un mostro rispetto a RV870, comunque RV870 sarà uscito da 3 a x mesi prima di GT300 e in questi x mesi ATI avrà "rubato" una quota q di clienti che avrebbero preso nvidia se gt300 fosse uscita con RV870 (dove q aumenta all'aumentare degli x mesi :D ).
Prendete l'esempio di 7800GTX e X1800XT, la seconda era più veloce della prima e non di poco, ma nonostante questo con 7800GTX nvidia ha superato ATI in quote di mercato, proprio perchè è uscita 5 mesi prima. E a poco è servito far uscire le varie x1900/x1950, infatti nvidia è rimasta sempre sopra come quota di mercato.
gianni1879
03-10-2009, 16:26
avete visto alla fine del primo video quel ragazzo a destra? Si Sta scaccolando :asd:
ti ricordo che sono vietati i cloni
ma come fate a dire che il g300 andrà meglio delle attuali 5800? al di fuori della casa sembra tutto rose e fiori ma sentendo personale interno non sembra proprio cosi. La scheda è ancora in fase di progettazione nessuno puo' dire la resa e pertanto se la nuova tecnologia abbia dei miglioramenti
dewwwxx84
03-10-2009, 18:07
ecco, una buona parte di chi ha la GTX285 è di certo affezzionato a nvidia (anche perchè altrimenti non avrebbe mai preso la GTX285, IMHO :D ), ma anche una (suppur piccola) parte degli appassionati potrebbe passare ad ATI con GT300 in ritardo.
È arrivando in anticipo rispetto alla concorrenza con schede valide che si fanno le quote di mercato, anche se GT300 sarà un mostro rispetto a RV870, comunque RV870 sarà uscito da 3 a x mesi prima di GT300 e in questi x mesi ATI avrà "rubato" una quota q di clienti che avrebbero preso nvidia se gt300 fosse uscita con RV870 (dove q aumenta all'aumentare degli x mesi :D ).
Prendete l'esempio di 7800GTX e X1800XT, la seconda era più veloce della prima e non di poco, ma nonostante questo con 7800GTX nvidia ha superato ATI in quote di mercato, proprio perchè è uscita 5 mesi prima. E a poco è servito far uscire le varie x1900/x1950, infatti nvidia è rimasta sempre sopra come quota di mercato.
Come non quotarti...:D
Io faccio parte di quella percentuale di affezzionati ad NVIDIA,
sono passato da 8800gtx a 4870x2, rimasto deluso di ATI sono ritornato con una GTX285. ( esperienza puramente personale ).
Ora la tentazione di tornare ad ATI è forte ma sapendo cosa ho passato con HD4870x2... meglio non rischiare.
( esperienza puramente personale )
Aspetto NVIDIA fossero anche 3 mesi o 4 mesi. :)
sickofitall
03-10-2009, 18:11
Come non quotarti...:D
Io faccio parte di quella percentuale di affezzionati ad NVIDIA,
sono passato da 8800gtx a 4870x2, rimasto deluso di ATI sono ritornato con una GTX285. ( esperienza puramente personale ).
Ora la tentazione di tornare ad ATI è forte ma sapendo cosa ho passato con HD4870x2... meglio non rischiare.
( esperienza puramente personale )
Aspetto NVIDIA fossero anche 3 mesi o 4 mesi. :)
:asd: fidati che non sei il solo ad aver fatto le stesse scelte :asd:
8800gts--->4870x2(1 settimana)-->8800gts---->9800gx2--->4870(2settimane)---->gtx285---->gtx280liquido---->gtx295
Come non quotarti...:D
Io faccio parte di quella percentuale di affezzionati ad NVIDIA,
sono passato da 8800gtx a 4870x2, rimasto deluso di ATI sono ritornato con una GTX285. ( esperienza puramente personale ).
Ora la tentazione di tornare ad ATI è forte ma sapendo cosa ho passato con HD4870x2... meglio non rischiare.
( esperienza puramente personale )
Aspetto NVIDIA fossero anche 3 mesi o 4 mesi. :)So che non é l'argomento del thread, quindi mi scuso.
Ma stai comparando una dual con 2 single eh...prendi una gtx295 e avrai tutti (quasi, oppure anche di piú) problemi che hai con la ATi.
É una questione intrinseca del dual gpu, non una differenza tra le case.
Benzamen
03-10-2009, 18:16
Come non quotarti...:D
Io faccio parte di quella percentuale di affezzionati ad NVIDIA,
sono passato da 8800gtx a 4870x2, rimasto deluso di ATI sono ritornato con una GTX285. ( esperienza puramente personale ).
Ora la tentazione di tornare ad ATI è forte ma sapendo cosa ho passato con HD4870x2... meglio non rischiare.
( esperienza puramente personale )
Aspetto NVIDIA fossero anche 3 mesi o 4 mesi. :)
Come non quotarti.....
Purei io ho una 4870x2 ne sto passando di tutti colori :cry: Non vedo l'ora di tornare a nvidia, anche se ormai mi conviene aspettare la gt300 per non spendere due volte......
Dai NVIDIA metticela tutta a fare uscire questo mostro :sofico:
ma come fate a dire che il g300 andrà meglio delle attuali 5800? al di fuori della casa sembra tutto rose e fiori ma sentendo personale interno non sembra proprio cosi. La scheda è ancora in fase di progettazione nessuno puo' dire la resa e pertanto se la nuova tecnologia abbia dei miglioramenti
beh è presumibile che vada più di rv870, altrimenti sarà un nuovo nv30 o r600.. cioè un nuovo flop e spero che non sia così e non penso proprio che sia così. Nvidia difficilmente sbaglia, soprattutto dopo 2 anni di supremazia alle spalle.. ;)
sickofitall
03-10-2009, 18:18
So che non é l'argomento del thread, quindi mi scuso.
Ma stai comparando una dual con 2 single eh...prendi una gtx295 e avrai tutti (quasi, oppure anche di piú) problemi che con la ATi.
É una questione intrinseca del dual gpu, non una differenza tra le case.
io ho la 295 e non ho nessunissimo problema, altro che stuttering cronico delle rosse :rolleyes:
e come me altri smanettoni qui sul forum possono confermare :)
sicuramente molti non noteranno queste cose, ma se esistono persone che giudicano un videogioco "fluido" a 30fps... ci si può veramente aspettare di tutto:rolleyes:
dewwwxx84
03-10-2009, 18:26
Come ha riportato HALDUEMILAUNO il commento spiegava precisamente che usciranno ento il 2009, quindi io direi di aspettare fino a fine 2009 in santapace, poi... ci sara' qualche nuova news. :D
Come non quotarti...:D
Io faccio parte di quella percentuale di affezzionati ad NVIDIA,
sono passato da 8800gtx a 4870x2, rimasto deluso di ATI sono ritornato con una GTX285. ( esperienza puramente personale ).
Ora la tentazione di tornare ad ATI è forte ma sapendo cosa ho passato con HD4870x2... meglio non rischiare.
( esperienza puramente personale )
Aspetto NVIDIA fossero anche 3 mesi o 4 mesi. :)
:asd: fidati che non sei il solo ad aver fatto le stesse scelte :asd:
8800gts--->4870x2(1 settimana)-->8800gts---->9800gx2--->4870(2settimane)---->gtx285---->gtx280liquido---->gtx295
beh io sono abbastanza affezzionato ad ATI, però non sono così fanboy da distorcere la realtà o da non comprare nvidia anche se ati fa schifo, comunque a parte con la 4870x2 che può avere problemi causati dal multigpu, che altri problemi avete avuto con le ati single gpu?? Sinceramente ho praticamente sempre avuto ATI tranne un anno che ho avuto la geffo 6600gt (mitica!! :D ) e non ho mai avuto alcun problema, tranne con la 4850 ma era colpa di gigabyte ( :rolleyes: ).
@dewwwxx84: non per fare propaganda ad ATI e far pubblicità alla 5870, però IMHO la 5870 è veramente una scheda eccellente sotto tutti i punti di vista quindi penso che se la prendessi non ne rimarresti di certo deluso! Anche perchè non è dual gpu, consuma poco e ha un dissi reference ottimo (da sempre punto debole delle ATI) ;)
Come ha riportato HALDUEMILAUNO il commento spiegava precisamente che usciranno ento il 2009, quindi io direi di aspettare fino a fine 2009 in santapace, poi... ci sara' qualche nuova news. :D
io lo spero, ma non ne sarei così sicuro che usciranno entro il 2009.
Azzardo una data: fine gennaio 2010. :)
Se ho azzeccato però mi regalate la seconda 5850 (oppure un GT300!) :D :D
michelgaetano
03-10-2009, 19:54
Se siamo al toto-uscita di GeForce 3xx allora io dico Marzo 2010 sul mercato.
:asd:
Io voglio essere positivo e dico inizio gennaio in disponibilità :D
... troppo positivo? :stordita:
io ho la 295 e non ho nessunissimo problema, altro che stuttering cronico delle rosse :rolleyes:
e come me altri smanettoni qui sul forum possono confermare :)
sicuramente molti non noteranno queste cose, ma se esistono persone che giudicano un videogioco "fluido" a 30fps... ci si può veramente aspettare di tutto:rolleyes:Sicuramente non sono tra quelli, io addirittura mi arrabbio se gli fps non sono sincronizzati col refresh :asd:
Mi accorgo di microscatti minimi, cali di fps minimi, differenze di AF e quant'altro (sono un vero rompiballe, roba da non credere)
Per questo dico che, avendo provato gpu di entrambe le case, le single gpu sono IDENTICHE (a parte una migliore gestione dei colori da parte delle ATi, che con un po' di smanettamento si risolve anche per nVidia).
Stuttering inesistente con entrambe (2600xt mia, 9600gt mia, 4850 prestata per test).
Sulle dual gpu non mi pronuncio, non avendole mai provate, ma sono al corrente dei problemi di entrambe le case.
Dylan BJ
03-10-2009, 21:11
ragazzi e secondo voi quanto in soldoni ci chiedera' mamma Nvidia x la bomba GTX380?
:)
499$ al lancio :rolleyes:
fularino
03-10-2009, 21:58
E' facile rispondere: dipende da quanto sarà veloce.
Stando a quando si dice in giro una Gt 300 top darà la paga ad uno sli di gtx 295 e non di poco.:doh:
michelgaetano
03-10-2009, 22:06
Nemmeno se lo vedo :asd:
Considerando quanti casini crea un quad sli, ci credo ampiamente :asd:
Boh, io mi son sentito troppo positivo scrivendo Marzo...
:fagiano:
Nemmeno se lo vedo :asd:
massi sono le notizie del fud piu tutte quegli articoli sui cuda cores ecc, ma per ora nulla....se non vedo non credo
Nemmeno se lo vedo :asd:
quoto:D
Andrea deluxe
03-10-2009, 23:05
http://www.hardware-infos.com/news.php?news=3228
x.vegeth.x
03-10-2009, 23:28
ragazzi e secondo voi quanto in soldoni ci chiedera' mamma Nvidia x la bomba GTX380?
:)
349€ la 1,5gb, 399€ la 3gb, 649€ per la dual
appleroof
03-10-2009, 23:47
Boh, io mi son sentito troppo positivo scrivendo Marzo...
questa è proprio da guappo, tanto da spingermi a proprorti pubblicamente questa scommessa: se esce sul mercato prima di marzo, mi paghi una 5870, se esce dopo marzo 2010, te la pago...ci stai? :sofico: :D
appleroof
04-10-2009, 00:00
No, grazie, ma puoi mettere nei tuoi bookmarks la mia toto-previsione e rinfacciarmela successivamente ;)
D'altra parte è una cosa che faccio anche io :asd:
Esempino:
http://www.hwupgrade.it/forum/showpost.php?p=28976602&postcount=12109
Sono in attesa dei primi di novembre per vincere la HD5870, e se perdo non devo nemmeno comprarla io a lui :asd:
un 25% in pù dei giochi su Seven rispetto a Vista? Mi sa che perdi pure questa...:D :D
non accettando la mia scommessa cmq mi confermi la guapperia :read: :D
appleroof
04-10-2009, 00:10
E' una previsione, non una notizia venutami da fonte certa. Non sono così fesso da scommettere su una previsione basata su fonti non personali ;)
La maggiore probabilità per me rimane nel Q2 per i volumi, ma ho scritto Marzo perché è possibile che in volumi risibili riescano a portare qualche SKU anche nel Q1, anche se ho la netta impressione che i primi SKU saranno rimaneggiati per vedere una revisione due/tre mesi dopo (tipo GTX260 -> GTX260-216)
girala come vuoi, da come ti esprimevi eri guappo :D :D :D
imho la nuova Nvidia verrà lanciata entro fine anno con disponibilità in volumi entro i primi del 2010 (con ciò intendo entro max febbraio 2010)...ora puoi mettere pure questa tra i preferiti, rimane che non hai voluto scommeterci :asd: :asd:
Kharonte85
04-10-2009, 00:13
Anche io propendo per un paper lunch prima di fine anno e disponibilità successiva (2010)
Kharonte85
04-10-2009, 00:21
Entro fine anno credo più che paperlauncheranno le Tesla...
Sarebbe la prima volta...non è mai successo, cosa te lo fa pensare?
Teoricamente una scheda consumer dovrebbe essere meno impegnativa di una "business" e comunque Nvidia fino a prova contraria vende schede video per fare girare Videogiochi 3D...:fagiano:
appleroof
04-10-2009, 00:21
Anche io propendo per un paper lunch prima di fine anno e disponibilità successiva (2010)
d'altra parte se hanno atto il tape-out a giungo ci stà benissimo che entro Natale la lancino, poi che la disponibilità in volumi sia rimandata, vista la situazione, ci stà tutta, d'altra parte la stessa Ati con le 58x0 ha fatto un "quasi paper-launch" visto che non sono assolutamente ancora presenti in volumi (e in un caso e nell'altro mi sà che la colpa sia da attribuire a TMSC a questo punto...)
Kharonte85
04-10-2009, 00:23
d'altra parte se hanno atto il tape-out a giungo ci stà benissimo che entro Natale la lancino, poi che la disponibilità in volumi sia rimandata, vista la situazione, ci stà tutta, d'altra parte la stessa Ati con le 58x0 ha fatto un "quasi paper-launch" visto che non sono assolutamente ancora presenti in volumi (e in un caso e nell'altro mi sà che la colpa sia da attribuire a TMSC a questo punto...)
Eh sì
appleroof
04-10-2009, 00:30
Me lo fanno pensare gli yelds pessimi. Una Tesla identica ad una GeForce costa tipo 5 volte tanto, molto più facile ammortizzarci i costi ;)
E comunque nVidia sta puntando tutto sul GPU computing, è una questione di sopravvivenza, per come ha agito negli ultimi anni è evidente che considera primario puntare su quello più che sul far girare i Videogiochi 3D. Io non sono daccordo che sia una politica remunerativa, soprattutto per come la sta portando avanti nVidia, ma i fatti stanno ad indicare questo...
Certo che siamo tutti bravi quando non ci stiamo dentro, così come quando davamo per spacciata Amd prima che trovasse i petroldollai per tirare a campare....io non credo che Nvidia sia spacciata come traspare dalle tue parole, non credo che tre/quattro mesi di ritardo possano spacciarla e farla affannare come dici tu: lo dimostra proprio il ritardo di sei mesi con cui fu lanciato r600 (in una situazione per di più aggravata dalla debacle Adm con i phenom)....meditate gente, meditate :D (io stesso la vedevo funerea per Amd all'epoca, poi appunto arrivò la svolta degli sceicchi...)
Il processo 40nm di TMSC è stato un disastro, prevedo migrazioni di massa verso GF per i 32nm/28nm :D
speriamo, magari paradossalmente ne avrebbe da guadagnare pure Nvidia :D
michelgaetano
04-10-2009, 00:45
speriamo, magari paradossalmente ne avrebbe da guadagnare pure Nvidia :D
Beh, se pensiamo che con ogni probabilità, se TSMC non avesse fallito miseramente i 40nm come ha fatto, a quest'ora potevamo già avere una marea di 5800 e magari anche Nvidia avrebbe lanciato :stordita:
Personalmente non so a chi credere, Nvidia sembra sicura di lanciare entro il 2009, e francamente spero sia così, perchè farà abbassare prima i prezzi :D
yossarian
04-10-2009, 00:47
Secondo me sono a buon punto con la revisione finale, alla conferenza hanno fatto apposta ad apparire in "difficoltà", forse per sviare l'attenzione dalle nuove ati o forse per bleffare, chi lo sa :rolleyes:
fatto sta che ora tutti ne stanno parlando, chi per farsi una risata deridendoli, altri invece un pò preoccupati attendono e attendono nuove mosse
tranquillo che in ATi sanno bene a che punto è GT300 :D
michelgaetano
04-10-2009, 00:49
tranquillo che in ATi sanno bene a che punto è GT300 :D
Questo è molto inquietante :asd:
tranquillo che in ATi sanno bene a che punto è GT300 :D
quindi ce lo puoi dire :asd:
comunque credo che in ati sappiano anche quanto va gt300 se è già stato provato....:)
girala come vuoi, da come ti esprimevi eri guappo :D :D :D
imho la nuova Nvidia verrà lanciata entro fine anno con disponibilità in volumi entro i primi del 2010 (con ciò intendo entro max febbraio 2010)...ora puoi mettere pure questa tra i preferiti, rimane che non hai voluto scommeterci :asd: :asd:
Mi piaceva questa cosa della scommessa, peccato che non la facciate, anche perchè scommettere su basi certe non sarebbe scommetere, il gioco diverte appunto con l'azzardo, e fatela su! M'era garbato anche il toto stream processor, solo che adesso ci vuole più sale, ci vuole un bel premio!
:D
Io non c'ero in quella lista ;)
nVidia non è spacciata perché arriva con 6 mesi di ritardo con il suo chippone, ma è spacciata rispetto a quello che è oggi se non si verificano certe condizioni legate al fatto che non ha una CPU
1. O trova il modo di affermare il GPU computing in ambito consumer, cioè dove ci sono i volumi e quindi le possibilità di rimanere un'azienda delle dimensione e delle aspirazioni odierne.
2. O si dota di una CPU x86.
Al primo caso è evidente che non ci arriverà con le soluzioni proprietarie con cui sta provando, ma serviranno solo a relegarla in una nicchia. Al secondo caso non ci può arrivare.
Il fatto che la G300 sia così palesemente votato al GPU computing è un segno abbastanza evidente di quanto dico ;)
nVidia non ha detto che lancerà le GeForce 3xx entro una certa data, ma che Fermi arriverà entro fine anno. Sono sottigliezze lessicali pensate espressamente per non dire niente di falso (è un'azienda quotata, non può farlo), facendo credere certe cose, ma alla lettera avendone dette altre, ovvero che ci saranno le Tesla (sulla scheda patacca c'era scritto Tesla, non GeForce).
Mi paiono delle buone osservazioni, è plausibile che sia così, spero comunque di no.
No, grazie, ma puoi mettere nei tuoi bookmarks la mia toto-previsione e rinfacciarmela successivamente ;)
D'altra parte è una cosa che faccio anche io :asd:
Esempino:
http://www.hwupgrade.it/forum/showpost.php?p=28976602&postcount=12109
Sono in attesa dei primi di novembre per vincere la HD5870, e se perdo non devo nemmeno comprarla io a lui :asd:
un 25% in pù dei giochi su Seven rispetto a Vista? Mi sa che perdi pure questa...:D :D
non accettando la mia scommessa cmq mi confermi la guapperia :read: :D
questa scommessa la vincerò pure io, quindi avevo già prenotato a wing_zero una 5870! ;) :D
Sergio_Di_Rio
04-10-2009, 03:49
ma come fate a dire che il g300 andrà meglio delle attuali 5800? Perchè se, con oltre 3 miliardi di transistor, non sarà più veloce delle 5800, allora:
http://www.pctunerup.com/up/results/_200910/20091004033420_fail.jpg
:asd:
Sergio_Di_Rio
04-10-2009, 03:50
edit: doppio post, sorry!
C'è da augurarselo. L'ultima cosa che ci serve è che scompaia uno dei due competitor nel mercato delle VGA, visto che Intel sembra non solo essere molto in ritardo, ma anche con un prodotto che potrebbe far faville nel GPU computing (anche perché è più una CPU che una GPU) ma le cui prestazioni in ambito gaming sono tutte da scoprire e non sembrano in prospettiva essere molto competitive.
Già avere solo due alternative è molto limitante dalla nostra prospettiva utente/consumatore...Bei tempi quando c'erano nVidia, ATi, 3dfx, matrox e PowerVR a scannarsi brutalmente...
Per non parlare dei brand famosi come Hercules...mi fermo qui se no finisco in lacrime.
C'è da augurarselo. L'ultima cosa che ci serve è che scompaia uno dei due competitor nel mercato delle VGA, visto che Intel sembra non solo essere molto in ritardo, ma anche con un prodotto che potrebbe far faville nel GPU computing (anche perché è più una CPU che una GPU) ma le cui prestazioni in ambito gaming sono tutte da scoprire e non sembrano in prospettiva essere molto competitive.
Già avere solo due alternative è molto limitante dalla nostra prospettiva utente/consumatore...
ratatosk , mi pare tu stia leggermnete esagerando.
Preventivare una scomparsa di nvidia mi pare un tantinello esagerato.
Punta al gpu computing, ma non tralasciando il gaming.
Poi fino aprova contraria , ad oggi, Amd/Ati è messa ancora peggio economicamente, quindi allo stato attuale rischia + amd/ati di fallire , che i verdi.
Credo.
martinez1983
04-10-2009, 08:25
C'è da augurarselo. L'ultima cosa che ci serve è che scompaia uno dei due competitor nel mercato delle VGA, visto che Intel sembra non solo essere molto in ritardo, ma anche con un prodotto che potrebbe far faville nel GPU computing (anche perché è più una CPU che una GPU) ma le cui prestazioni in ambito gaming sono tutte da scoprire e non sembrano in prospettiva essere molto competitive.
Già avere solo due alternative è molto limitante dalla nostra prospettiva utente/consumatore...
Forse di sei dimenticato di aggiungere un non!!!!
Perchè altrimenti il discorso non ha senso!!!
Infatti di contraddici!!!
sono un semplice utente di un forum, però trovo azzardato che altri utenti riescano a pronosticare la fine di un azienda come nvidia, a meno che non abbiano dati, competenze e conoscenze dirette per farlo. Se, come dice giustamente Apple, è sopravvissuta Amd/Ati dopo R600 non vedo come possa essere messa in discussione la sopravvivenza di nvidia. Imho.
sono un semplice utente di un forum, però trovo azzardato che altri utenti riescano a pronosticare la fine di un azienda come nvidia, a meno che non abbiano dati, competenze e conoscenze dirette per farlo. Se, come dice giustamente Apple, è sopravvissuta Amd/Ati dopo R600 non vedo come possa essere messa in discussione la sopravvivenza di nvidia. Imho.
quoto tutta la vita! :read:
devAngnew
04-10-2009, 11:15
sono un semplice utente di un forum, però trovo azzardato che altri utenti riescano a pronosticare la fine di un azienda come nvidia, a meno che non abbiano dati, competenze e conoscenze dirette per farlo. Se, come dice giustamente Apple, è sopravvissuta Amd/Ati dopo R600 non vedo come possa essere messa in discussione la sopravvivenza di nvidia. Imho.
Ratatosk non ha tutti i torti chi segue il mondo dei PC sa bene che sia intel che amd si stanno muovendo verso cpu con gpu integrate e chi volete che acquisti una gpu dedicata a questo punto !!! Solo i video giocatori e coloro che fanno grafica sono pochi, "gli altri" usano il pc o per lavori tipici di ufficio o per facebook e chat, ecco perchè Nvidia stà cercando di sfondare nel gpgpu altrimenti ha un futuro molto nebuloso..... :sob:
ratatosk , mi pare tu stia leggermnete esagerando.
Preventivare una scomparsa di nvidia mi pare un tantinello esagerato.
Punta al gpu computing, ma non tralasciando il gaming.
Poi fino aprova contraria , ad oggi, Amd/Ati è messa ancora peggio economicamente, quindi allo stato attuale rischia + amd/ati di fallire , che i verdi.
Credo.
Non credo stia pronosticando la fine di nVidia, mi pare dica che attualmente la situazione per questa azienda non sia delle migliori, e che abbia da vincere una battaglia dura, se vuole rimanere a galla come colosso produttore di hardware. Per riuscirci infati, sta cercando di trasformare la gpu in qualcosa di più che una graphic processing unit.
Nvidia non è una azienza "pirla"....saprà piazzare al momento giusto la sua nuova scheda video G300....ed Ati non è una azienda "fessa".......e saprà rispondere al momento giusto al G300.
Speriamo solo che i prezzi siano contenuti e le prestazioni adeguate per entrambe, la concorrenza "favorisce" l'utente finale!:)
goldorak
04-10-2009, 13:04
ratatosk , mi pare tu stia leggermnete esagerando.
Preventivare una scomparsa di nvidia mi pare un tantinello esagerato.
Punta al gpu computing, ma non tralasciando il gaming.
Poi fino aprova contraria , ad oggi, Amd/Ati è messa ancora peggio economicamente, quindi allo stato attuale rischia + amd/ati di fallire , che i verdi.
Credo.
Io credo che invece abbia ragione.
Ci sara' no un motivo se Nvidia ha progettato Fermi esclusivamente per il GPGPU computing ? :stordita:
ATI/AMD e' forse messa peggio di Nvidia ora come ora, ma a medio e lungo termine la situazione si ribalta. Noi non sapiamo ancora come saranno le prestazioni dei futuri cpu/gpu integrati di AMD e Intel ma una cosa e' sicura, e cioe' quando arriveranno si avra' la stessa situazione che ci fu all'epoca con le schede audio discrete/schede audio integrate.
Oggi quali sono queste schede discrete che rimangono sul mercato ? Schede da 200-300 € di Asus o Auzentech ? Roba per pochi.
Nvidia non potra' piu' contare sui chipset integrati (perche' ne' Intel ne' AMD avranno interesse a farle concorrenza....) e spariranno tutte le schede video discrete di fascia bassa/media. Cosa rimarra' ? La fascia alta ? E sufficiente questo per far sopravvivere Nvidia ? No. Ecco perche' cercano disperatamente altri sbocchi, e senza licenza x86 non hanno alcuna alternativa se non cercare di catturare il mercato HPC tralasciando poco a poco quello dei gamers.
Io credo che invece abbia ragione.
Ci sara' no un motivo se Nvidia ha progettato Fermi esclusivamente per il GPGPU computing ? :stordita:
ATI/AMD e' forse messa peggio di Nvidia ora come ora, ma a medio e lungo termine la situazione si ribalta. Noi non sapiamo ancora come saranno le prestazioni dei futuri cpu/gpu integrati di AMD e Intel ma una cosa e' sicura, e cioe' quando arriveranno si avra' la stessa situazione che ci fu all'epoca con le schede audio discrete/schede audio integrate.
Oggi quali sono queste schede discrete che rimangono sul mercato ? Schede da 200-300 € di Asus o Auzentech ? Roba per pochi.
Nvidia non potra' piu' contare sui chipset integrati (perche' ne' Intel ne' AMD avranno interesse a farle concorrenza....) e spariranno tutte le schede video discrete di fascia bassa/media. Cosa rimarra' ? La fascia alta ? E sufficiente questo per far sopravvivere Nvidia ? No. Ecco perche' cercano disperatamente altri sbocchi, e senza licenza x86 non hanno alcuna alternativa se non cercare di catturare il mercato HPC tralasciando poco a poco quello dei gamers.
quoto!
Ho fatto un ragionamento, non ho scritto "nVidia muore".
bhe, hai scritto che è spacciata, diciamo che è un sinonimo :p
Io credo che invece abbia ragione.
Ci sara' no un motivo se Nvidia ha progettato Fermi esclusivamente per il GPGPU computing ? :stordita:
ATI/AMD e' forse messa peggio di Nvidia ora come ora, ma a medio e lungo termine la situazione si ribalta. Noi non sapiamo ancora come saranno le prestazioni dei futuri cpu/gpu integrati di AMD e Intel ma una cosa e' sicura, e cioe' quando arriveranno si avra' la stessa situazione che ci fu all'epoca con le schede audio discrete/schede audio integrate.
Oggi quali sono queste schede discrete che rimangono sul mercato ? Schede da 200-300 € di Asus o Auzentech ? Roba per pochi.
Nvidia non potra' piu' contare sui chipset integrati (perche' ne' Intel ne' AMD avranno interesse a farle concorrenza....) e spariranno tutte le schede video discrete di fascia bassa/media. Cosa rimarra' ? La fascia alta ? E sufficiente questo per far sopravvivere Nvidia ? No. Ecco perche' cercano disperatamente altri sbocchi, e senza licenza x86 non hanno alcuna alternativa se non cercare di catturare il mercato HPC tralasciando poco a poco quello dei gamers.
guarda che se sarà così per nvidia lo sarà pure per ati, quindi inizia a non spendere più niente per il tuo hardware e metti da parte i soldi per una bella console di nuova generazione. Se il gaming su pc, come stai dicendo, finisce per nvidia, finisce pure per ati e per noi.
appleroof
04-10-2009, 14:05
Io credo che invece abbia ragione.
Ci sara' no un motivo se Nvidia ha progettato Fermi esclusivamente per il GPGPU computing ? :stordita:
ATI/AMD e' forse messa peggio di Nvidia ora come ora, ma a medio e lungo termine la situazione si ribalta. Noi non sapiamo ancora come saranno le prestazioni dei futuri cpu/gpu integrati di AMD e Intel ma una cosa e' sicura, e cioe' quando arriveranno si avra' la stessa situazione che ci fu all'epoca con le schede audio discrete/schede audio integrate.
Oggi quali sono queste schede discrete che rimangono sul mercato ? Schede da 200-300 € di Asus o Auzentech ? Roba per pochi.
Nvidia non potra' piu' contare sui chipset integrati (perche' ne' Intel ne' AMD avranno interesse a farle concorrenza....) e spariranno tutte le schede video discrete di fascia bassa/media. Cosa rimarra' ? La fascia alta ? E sufficiente questo per far sopravvivere Nvidia ? No. Ecco perche' cercano disperatamente altri sbocchi, e senza licenza x86 non hanno alcuna alternativa se non cercare di catturare il mercato HPC tralasciando poco a poco quello dei gamers.
ho già fatto l'esempio di Amd che sta rislaendo la china dopo trimestri e trimestri disastrosi...quello che osservi è vero, ma non sottovaluterei le capacità dell'azienda di trovare una svolta, questo mercato ha già offerto esempi di questo tipo, e appunto quello di Amd/Ati è uno di quelli (la stessa Nvidia, in uno scenario effettivamente divero da quello di oggi, è vero, ma si riprese alla grande dal flop di nv30)
Io credo che invece abbia ragione.
Ci sara' no un motivo se Nvidia ha progettato Fermi esclusivamente per il GPGPU computing ? :stordita:
ATI/AMD e' forse messa peggio di Nvidia ora come ora, ma a medio e lungo termine la situazione si ribalta. Noi non sapiamo ancora come saranno le prestazioni dei futuri cpu/gpu integrati di AMD e Intel ma una cosa e' sicura, e cioe' quando arriveranno si avra' la stessa situazione che ci fu all'epoca con le schede audio discrete/schede audio integrate.
Oggi quali sono queste schede discrete che rimangono sul mercato ? Schede da 200-300 € di Asus o Auzentech ? Roba per pochi.
Nvidia non potra' piu' contare sui chipset integrati (perche' ne' Intel ne' AMD avranno interesse a farle concorrenza....) e spariranno tutte le schede video discrete di fascia bassa/media. Cosa rimarra' ? La fascia alta ? E sufficiente questo per far sopravvivere Nvidia ? No. Ecco perche' cercano disperatamente altri sbocchi, e senza licenza x86 non hanno alcuna alternativa se non cercare di catturare il mercato HPC tralasciando poco a poco quello dei gamers.
Che le schede di fascia bassa possano in futuro scomparire è possibile considerando che per visualizzare un desktop anche ricamato e infronzolito bastano e avanzano già le igp attuali e che AMD e Intel le integreranno nel processore, però l'audio è una cosa diversa dal video, ci sono meno dati da dover computare e infatti un upgrade in questo settore c'è adesso solo per quanto riguarda il nuovo standard di qualità HD ( hai citato Asus e Auzentech appunto ), ma che nVidia abbandoni o tralasci il mercato dei gamers mi pare troppo. Chiedo: non sono ancora i giochi ( al di là del discorso console-zavorra ) a trainare lo sviluppo grafico ( penso a IDTech5)? Sviluppo ben lontano dal fotorealismo ( che credo si possa definire come meta ultima, a meno che non si voglia andare oltre la realtà:confused: ). In più se già adesso i due competitor del settore cercano di far lavorare la gpu per elaborare la fisica nei videogiochi, non credo che abbandoneranno o tralasceranno mai questo mercato, o faccio male i conti?
goldorak
04-10-2009, 14:26
guarda che se sarà così per nvidia lo sarà pure per ati, quindi inizia a non spendere più niente per il tuo hardware e metti da parte i soldi per una bella console di nuova generazione. Se il gaming su pc, come stai dicendo, finisce per nvidia, finisce pure per ati e per noi.
Ma cosa non hai capito del mio intervento ? :fagiano:
ATI in quanto tale non esiste da tempo, fa parte di AMD. Nvidia senza schede grafiche e' morta. Se AMD non produce piu' schede grafiche discrete non e' la fine del mondo perche' hanno sempre la strada dell'integrazione con la cpu. Idem per Intel.
Per il gaming, esclusa la fascia dei fanatici che spende 300-400€ per le schede video discrete, il resto del mercato e' fatto di schede integrate (nei chipset), di cui Intel detiene la parte del leone, a seguire AMD ed Nvidia.
Per il resto la maggior parte delle schede video discrete che si vendono sono nella fascia 100-150 €.
Ora ascolta bene, nel momento in cui AMD ed Intel grazie a Fusion e Larrabee saranno nella posizione di integrare direttamente nell cpu, dei cores (cuda cores nella terminologia Nvidia), decine se non centinaia di cores preposti a funzioni di gpgpu nonche' di scheda video con prestazioni piu' che decenti in modo da eliminare del tutto la fascia bassa/media delle schede discrete MI DICI COSA DIAVOLO FA NVIDIA ?
Nvidia non ha futuro in quello che sara il pc del domani. Lo sai lei, e lo sanno anche i sassi. Bsata guardare all'evoluzione tencologica nonche' l'integrazione di componenti che poco a poco vanno a finire nella cpu. Ecco perche' stanno buttando alle ortiche tutto quello che e' specifico dell'ambito gamer e si concentrano su una architettura completamente programmabile. Perche' e' l'unica via che hanno per sfondare nel mercato professionale del gpgpu.
Ho fatto un ragionamento, non ho scritto "E' spacciata".
nVidia non è spacciata perché arriva con 6 mesi di ritardo con il suo chippone, ma è spacciata rispetto a quello che è oggi se non si verificano certe condizioni legate al fatto che non ha una CPU
E' vero che hai argomentato e non l'hai buttata lì, però il senso è quello.
Poi a me di nvidia/amd non me ne frega più di tanto, basta che mi lascino giocare su pc ed altro non chiedo, non ho niente contro le vga ati che spesso ho acquistato.
per quanto riguarda il tuo ragionamento il tempo dirà se è corretto o meno ed anche che fine farà nvidia. Con l'espressione "utente del forum" non intendevo offenderti, ma solo dire che per dare spacciata un'azienda come nvidia (o come amd un tempo) ci vogliano informazioni o dati a cui magari non abbiamo accesso.
mircocatta
04-10-2009, 14:59
Oggi quali sono queste schede discrete che rimangono sul mercato ? Schede da 200-300 € di Asus o Auzentech ? Roba per pochi.
e creative dove la metti? :O la migliore con l'xfi..o sbaglio?
Simedan1985
04-10-2009, 15:01
Ma cosa non hai capito del mio intervento ? :fagiano:
ATI in quanto tale non esiste da tempo, fa parte di AMD. Nvidia senza schede grafiche e' morta. Se AMD non produce piu' schede grafiche discrete non e' la fine del mondo perche' hanno sempre la strada dell'integrazione con la cpu. Idem per Intel.
Per il gaming, esclusa la fascia dei fanatici che spende 300-400€ per le schede video discrete, il resto del mercato e' fatto di schede integrate (nei chipset), di cui Intel detiene la parte del leone, a seguire AMD ed Nvidia.
Per il resto la maggior parte delle schede video discrete che si vendono sono nella fascia 100-150 €.
Ora ascolta bene, nel momento in cui AMD ed Intel grazie a Fusion e Larrabee saranno nella posizione di integrare direttamente nell cpu, dei cores (cuda cores nella terminologia Nvidia), decine se non centinaia di cores preposti a funzioni di gpgpu nonche' di scheda video con prestazioni piu' che decenti in modo da eliminare del tutto la fascia bassa/media delle schede discrete MI DICI COSA DIAVOLO FA NVIDIA ?
Nvidia non ha futuro in quello che sara il pc del domani. Lo sai lei, e lo sanno anche i sassi. Bsata guardare all'evoluzione tencologica nonche' l'integrazione di componenti che poco a poco vanno a finire nella cpu. Ecco perche' stanno buttando alle ortiche tutto quello che e' specifico dell'ambito gamer e si concentrano su una architettura completamente programmabile. Perche' e' l'unica via che hanno per sfondare nel mercato professionale del gpgpu.
Sembra che nvidia ,diventerà come apple ......scusate per la baggianata ,sono ignorante .Solo che alla fine nn so nvidia che farà,perche amd e intel si fanno la pasta fatta in casa e pure il sugo.Nvidia che farà??
Non è molto interessante questo mese, comunque:
http://store.steampowered.com/hwsurvey/
I sistemi operativi DX11 ready sono ormai (circa) la metà del totale, mentre quelli a 64bit circa un quarto del totale.
Ordinata, anzi, preordinata ieri la Ultimate di W7, i 32 bit devono morire.
e creative dove la metti? :O la migliore con l'xfi..o sbaglio?
Sbagli :p , la migliore con l'X-fi è la Auzentech Prelude.
Simedan1985
04-10-2009, 15:06
Il problema è proprio quello. Se nVidia si defila dal mercato ridimensionandosi in un'azienda di nicchia (Matrox anyone?) noi non abbiamo niente da guadagnare e molto da perdere.
A bè che la concorrenza faccia bene ,penso siamo tutti d'accordo:)
e creative dove la metti? :O la migliore con l'xfi..o sbaglio?
purtroppo anche lì una brutta storia.. un prodotto ottimo che poi per anni ha avuto un supporto non certo ineccepibile.. oltre ad essere sottoutilizzata in quello che doveva essere il suo habitat naturale, ovvero i giochi :(
Scusate se proseguo l'OT: perché proprio la Ultimate?
Se mi fai questa domanda inizio a pensare che abbia capellato, ho letto che su Amazon avrei potuto comprare la versione inglese, e che solo la Ultimate avrebbe avuto la possibilità in seguito di essere modificata con un language pack per l'italiano..
Sergio_Di_Rio
04-10-2009, 15:08
nVIDIA sta cercando di espandersi verso nuovi mercati ampliando il portafoglio dei suoi prodotti. In ambito GPGPU i vantaggi con TESLA sono evidenti:
NVIDIA loves to cite examples of where algorithms ported to GPUs work so much better than CPUs. One such example is a seismic processing application that HESS found ran very well on NVIDIA GPUs. It migrated a cluster of 2000 servers to 32 Tesla S1070s, bringing total costs down from $8M to $400K, and total power from 1200kW down to 45kW.
Inutile stare ad elencare gli enormi vantaggi che una migrazione del genere può portare ad una compagnia, oltre al non trascurabile risparmio energetico.
goldorak
04-10-2009, 15:10
Sembra che nvidia ,diventerà come apple ......scusate per la baggianata ,sono ignorante .Solo che alla fine nn so nvidia che farà,perche amd e intel si fanno la pasta fatta in casa e pure il sugo.Nvidia che farà??
Boh, continuera' a vendere schede grafiche di fascia alta, ma dovra' dire addio ai suoi chipset e alle schede di fascia medio/bassa.
Non e' certamente una situazione ideale, e d'altronde non ho mai capito per quale motivo non abbiano comprato Via per restare competitivi nel mercato consumer. AMD fa fatto uno sforzo gigantesco per comprare ATI e i frutti si vedranno con Fusion. Intel sta spendendo centinaia di milioni di $ per Larrabee e anche lei ha gli occhi fissati sull'integrazione gpu/cpu.
Nvidia poteva comprare Via, usare la sua licenza x86 per da una parte migliorare la cpu e dall'altra incominciare una integrazione gpu/cpu.
Invece se ne sono andati per i fatti loro, scomettendo su un mercato che ora come ora e' irrilevante, e lasciando campo libero ad AMD nella fascia consumer.
Sergio_Di_Rio
04-10-2009, 15:37
Il problema è proprio quello. Se nVidia si defila dal mercato ridimensionandosi in un'azienda di nicchia (Matrox anyone?) noi non abbiamo niente da guadagnare e molto da perdere.
Non succederà. Al momento si sta configurando una situazione ideale per noi consumatori. AMD/ATi sta riguadagnando terreno nel settore vga, dove nVIDIA, leader indiscussa, forse ne sta perdendo; è in difficoltà, ma è ben lontana da un probabile "fallimento-ridimensionamento".
Sergio_Di_Rio
04-10-2009, 15:46
Che i vantaggi del GPU computing siano enormi in alcuni campi (tu hai citato la sismica, io potrei aggiungere il meteo). Il punto è che non ci sono volumi per farne un mercato primario e nVidia sta privilegiando questo piuttosto del suo core business, ovvero le VGA per i videogiochi.
I volumi dovrebbero esserci. Queste sono le stime (nVIDIA) di mercato:
Seismic: $300M
Supercomputing: $200M
Universities: $150M
Defence: $250M
Finance: $230M
Un volume d'affari superiore a quello delle prime GEFORCE ed al momento senza competitor.
appleroof
04-10-2009, 18:20
Sembra che nvidia ,diventerà come apple ......scusate per la baggianata ,sono ignorante .Solo che alla fine nn so nvidia che farà,perche amd e intel si fanno la pasta fatta in casa e pure il sugo.Nvidia che farà??
è proprio per questo che spinge sul GPGPU: questa scelta, che alcuni qui indicano come un suicidio o quasi o come l'essere con l'acqua alla gola, è in realtà sintomo di vitalità e lungimiranza, in quanto se questo è il futuro allora è li che deve puntare, per non chiudere.
E il bello è che la cosa non entra minimamente in conflitto con il core business, anzi dalla stessa scheda si possono ricavare 2 prodotti destinati a 2 mercati differenti...onestamente meglio di così :boh:
l'unica vera difficoltà è rappresentata dal dominio dell'architettura x86, con una certa Intel che ovviamente la difende a spada tratta, ma Nvidia ha già dimostrato come attraverso Cuda l'ostacolo è superabilissimo praticamente da tutti gli sviluppatori.
I volumi dovrebbero esserci. Queste sono le stime (nVIDIA) di mercato:
Seismic: $300M
Supercomputing: $200M
Universities: $150M
Defence: $250M
Finance: $230M
Un volume d'affari superiore a quello delle prime GEFORCE ed al momento senza competitor.
ecco un esempio di come alcuni di noi si mettono al livello di analisti che lavorano o fanno consulenza per aziende da miliardi di dollari di fatturato...:stordita:
appleroof
04-10-2009, 18:33
Stime? :rolleyes:
e che vuoi, certeezze? E' sempre così quando si vuole valutare un mercato nuovo per gettarcisi....:stordita:
http://www.hardware-infos.com/news.php?news=3228
Quindi passeranno anche loro ad un rapporto ALU:TMU di 4:1. Sarà interessante capire quanto l'architettura NVidia sarà impattata da questo cambiamento...
Sinceramente non penso che un G300 così strutturato, a meno di stravolgimenti incredibili dell'architettura di fondo, andrà molto di più di una GTX295. Di fatto ci saranno 32SP in più di una GTX295, "più bravi dei vecchi". Ma dall'altro ci saranno molte meno TMU, e sappiamo quanto contasse questa cosa del rapporto ALU:TMU inferiore nella supremazia prestazionale NVidia.
Ovviamente è troppo presto per esprimere pareri, ma direi che ci sono ampi margini per affermare che Hemlock andrà comunque più veloce: non penso che G300 andrà più di un 30-50% più di una GTX295, anzi è più facile che rimanga sotto queste percentuali. Il tutto IMHO.
d'altra parte se hanno atto il tape-out a giungo ci stà benissimo che entro Natale la lancino, poi che la disponibilità in volumi sia rimandata, vista la situazione, ci stà tutta, d'altra parte la stessa Ati con le 58x0 ha fatto un "quasi paper-launch" visto che non sono assolutamente ancora presenti in volumi (e in un caso e nell'altro mi sà che la colpa sia da attribuire a TMSC a questo punto...)
La seconda revision è uscita a settembre... Fine dicembre è possibile se mettono in commercio il chip che aveva in mano Jen Hsun Huang, quindi. :fagiano:
Certo che siamo tutti bravi quando non ci stiamo dentro, così come quando davamo per spacciata Amd prima che trovasse i petroldollai per tirare a campare....io non credo che Nvidia sia spacciata come traspare dalle tue parole, non credo che tre/quattro mesi di ritardo possano spacciarla e farla affannare come dici tu: lo dimostra proprio il ritardo di sei mesi con cui fu lanciato r600 (in una situazione per di più aggravata dalla debacle Adm con i phenom)....meditate gente, meditate :D (io stesso la vedevo funerea per Amd all'epoca, poi appunto arrivò la svolta degli sceicchi...)
Piccolo OT: non sono certo stati gli sceicchi a progettare RV770 e RV870, i quali comunque continuano a derivare dalla vituperata architettura R600, e che probabilmente sono nati diverso tempo prima dell'operazione con Mubadala.
Le vicissitudini finanziarie c'entrano fino ad un certo punto con quelle dei prodotti. Porsche non faceva le auto meglio quando stava per comprare VW, non le farà peggio ora che è stata comprata da VW.
Quindi passeranno anche loro ad un rapporto ALU:TMU di 4:1. Sarà interessante capire quanto l'architettura NVidia sarà impattata da questo cambiamento...
Sinceramente non penso che un G300 così strutturato, a meno di stravolgimenti incredibili dell'architettura di fondo, andrà molto di più di una GTX295. Di fatto ci saranno 32SP in più di una GTX295, "più bravi dei vecchi". Ma dall'altro ci saranno molte meno TMU, e sappiamo quanto contasse questa cosa del rapporto ALU:TMU inferiore nella supremazia prestazionale NVidia.
Ovviamente è troppo presto per esprimere pareri, ma direi che ci sono ampi margini per affermare che Hemlock andrà comunque più veloce: non penso che G300 andrà più di un 30-50% più di una GTX295, anzi è più facile che rimanga sotto queste percentuali. Il tutto IMHO.
La seconda revision è uscita a settembre... Fine dicembre è possibile se mettono in commercio il chip che aveva in mano Jen Hsun Huang, quindi. :fagiano:
Piccolo OT: non sono certo stati gli sceicchi a progettare RV770 e RV870, i quali comunque continuano a derivare dalla vituperata architettura R600, e che probabilmente sono nati diverso tempo prima dell'operazione con Mubadala.
Le vicissitudini finanziarie c'entrano fino ad un certo punto con quelle dei prodotti. Porsche non faceva le auto meglio quando stava per comprare VW, non le farà peggio ora che è stata comprata da VW.
Interessante il discorso del rapporto 4:1, questo vuol dire che anche i giochi TWIMTBP ottimizzati per G300 cercheranno di sfruttare al massimo questo rapporto e quindi ciò avvanteggierà indirettamente anche le schede ATI che potrebbero finalmente "sfoggiare" tutti i loro gflops.
Io azzardo che G300 andrà un 10-20% in più della GTX295, il che vuol dire un 30% medio in più della 5870, a questo punto il divario tra 5870 e GT300 sarà maggiore di quello che c'era tra 4870 e GT200.. :)
Interessante il discorso del rapporto 4:1, questo vuol dire che anche i giochi TWIMTBP ottimizzati per G300 cercheranno di sfruttare al massimo questo rapporto e quindi ciò avvanteggierà indirettamente anche le schede ATI che potrebbero finalmente "sfoggiare" tutti i loro gflops.
Io azzardo che G300 andrà un 10-20% in più della GTX295, il che vuol dire un 30% medio in più della 5870, a questo punto il divario tra 5870 e GT300 sarà maggiore di quello che c'era tra 4870 e GT200.. :)
un 10-20% in piu' della gtx295 in che ambito dx10 o dx11? perchè già con le dx11 la ati va un 30% in piu' rispetto alle dx10 senza contare il fatto che vada malissimo in dx9 rispetto alle dx10, vedi bench con 3d mark 06 rispetto al vantage, cosa mi fa pensare sta cosa: la nuova nata ati è piu' ottimizzata per i nuovi giochi rispetto ai vecchi, ovviamente la gtx295 non ha piu' senso in quanto non si possono far raffronti :)
Sergio_Di_Rio
05-10-2009, 00:17
è proprio per questo che spinge sul GPGPU: questa scelta, che alcuni qui indicano come un suicidio o quasi o come l'essere con l'acqua alla gola, è in realtà sintomo di vitalità e lungimiranza, in quanto se questo è il futuro allora è li che deve puntare, per non chiudere.
E il bello è che la cosa non entra minimamente in conflitto con il core business, anzi dalla stessa scheda si possono ricavare 2 prodotti destinati a 2 mercati differenti...onestamente meglio di così :boh:
Concordo. nVIDIA, forte della posizione leader del mercato, sta investendo molto in R&D, per potersi aprire verso nuovi mercati. Inoltre, fatto da non trascurare, nell'ambito GPGPU Computing, al momento, non sono presenti competitor.
ecco un esempio di come alcuni di noi si mettono al livello di analisti che lavorano o fanno consulenza per aziende da miliardi di dollari di fatturato...:stordita:
Risparmiati la sottile ironia. Non sono presuntuoso a tal punto, ho solo riportato quanto scritto su AnandTech (http://www.anandtech.com/video/showdoc.aspx?i=3651&p=2).
Stime? :rolleyes:
Sì, così si chiamano. Purtroppo non hanno ancora la palla di cristallo.
Appunto. Loro stimano quello, io stimo altro, facile no? ;)
Stime poi. Riferite a quando? Stime per il prossimo anno? Decennio? Secolo?
Due numeretti messi lì non sono una stima.
Le stime dovrebbero essere riferite ai mercati attualmente disponibili: "These figures were calculated by looking at the algorithms used in each segment, the number of Hess-like Tesla installations that can be done, and the current budget for non-GPU based computing in those markets. If NVIDIA met its goals here, the Tesla business could be bigger than the GeForce one. "
"Loro" sono analisti professionisti con dati alla mano. "Tu" puoi stimare quello che vuoi (e ci mancherebbe) ma dubito fortemente sulla quantità e qualità dei dati a tua disposizione. La base di una qualunque ricerca di mercato sono la quantità e qualità dei dati disponibili; più se ne hanno (in quantità e qualità), migliori e più realistiche saranno le stime effettuate.
I volumi dovrebbero esserci. Queste sono le stime (nVIDIA) di mercato:
Seismic: $300M
Supercomputing: $200M
Universities: $150M
Defence: $250M
Finance: $230M
Un volume d'affari superiore a quello delle prime GEFORCE ed al momento senza competitor.
Le stime dovrebbero essere riferite ai mercati attualmente disponibili:
"Loro" sono analisti professionisti con dati alla mano. "Tu" puoi stimare quello che vuoi (e ci mancherebbe) ma dubito fortemente sulla quantità e qualità dei dati a tua disposizione. La base di una qualunque ricerca di mercato sono la quantità e qualità dei dati disponibili; più se ne hanno (in quantità e qualità), migliori e più realistiche saranno le stime effettuate.
I valori si riferiscono ai prossimi 18 mesi.
Per lavoro mi capita a volte di dare un'occhiata a ricerche di mercato, quindi credo che un parere un pelo più da esperto della media del forum riesco a darlo.
Oggi NVidia fattura nell'ambito gpgpu circa $10m.
Quei numeri possono voler dire tutto e nulla perchè si riferiscono al mercato totale HPC (High Performance Computing), ma non citano la possibilità che uno sostituisca il prodotto con n gpu con un normale supercomputer. E se anche fosse vero che quel mercato nei prossimi 18 mesi assuma quelle dimensioni, cosa vuol dire, che NVidia passerà da $10m di fatturato in quell'ambito a oltre $500m in soli 18 mesi? Con la crisi ancora in corso? Ma LOL dai... :asd:
Mi pare abbastanza evidente che siano dati sparati nello spazio. Sicuramente è encomiabile e tutto, ma l'uso gpgpu delle vga non sarà il driver primario delle architetture presenti e future per ancora qualche anno.
Sugli analisti professionisti: non c'è fonte di società terze esperte di mercato nell'articolo di Anandtech. Si cita NVidia. Quando un'azienda presenta sè stessa ai clienti io ho sentito con le mie orecchie le peggiori cazzate mai sparate, con rispetto parlando. :)
Sicuramente sarà stato detto più volte, ma dato che non trovo notizie precise chiedo comunque.......
La data prevista di rilascio sul mercato della Geffo 300 quando sarà ?
Primi del 2010 ?
Grazie
Sergio_Di_Rio
05-10-2009, 02:26
I valori si riferiscono ai prossimi 18 mesi.
Appunto, il mercato attuale.
Per lavoro mi capita a volte di dare un'occhiata a ricerche di mercato, quindi credo che un parere un pelo più da esperto della media del forum riesco a darlo.
Oggi NVidia fattura nell'ambito gpgpu circa $10m.
Quei numeri possono voler dire tutto e nulla perchè si riferiscono al mercato totale HPC (High Performance Computing), ma non citano la possibilità che uno sostituisca il prodotto con n gpu con un normale supercomputer. E se anche fosse vero che quel mercato nei prossimi 18 mesi assuma quelle dimensioni, cosa vuol dire, che NVidia passerà da $10m di fatturato in quell'ambito a oltre $500m in soli 18 mesi? Con la crisi ancora in corso? Ma LOL dai...
Assolutamente no. Ma se come dici, dai "un'occhiata", allora saprai anche che analisi di questo tipo danno solo un'idea del volume d'affari potenzialmente disponibile, quale percentuale poi di questo volume riuscirà ad "accaparrarsi" l'azienda è tutt'altra storia.
Mi pare abbastanza evidente che siano dati sparati nello spazio. Sicuramente è encomiabile e tutto, ma l'uso gpgpu delle vga non sarà il driver primario delle architetture presenti e future per ancora qualche anno.
Forse non mi sono ben spiegato. Non ho mai detto credere ciecamente a quello che dichiara nvidia. Mi sono limitato a riportare le sue dichiarazioni ed esprimere considerazioni positive su un settore ancora inesplorato come quello del gpgpu. Adesso spero di essermi spiegato.
Sugli analisti professionisti: non c'è fonte di società terze esperte di mercato nell'articolo di Anandtech. Si cita NVidia. Quando un'azienda presenta sè stessa ai clienti io ho sentito con le mie orecchie le peggiori cazzate mai sparate, con rispetto parlando. :)
Sono d'accordo sulle "peggiori idiozie" sparate dalle aziende, evidentemente le nostre orecchie hanno sentito cose simili. Generalmente le analisi di mercato vengono affidate a terzi e sono effettuate da (appunto) professionisti del settore. Come ho già detto prima, la cosa più importante in una ricerca di mercato sono la quantità e qualità dei dati, che rendono una stima più o meno attendibile. I dati di qualità, però, costano. Un'azienda come nvidia, in procinto di buttarsi a capofitto in questo business, dopo aver investito capitali in R&D, non credo che lesini su quello che è il cuore di un piano marketing ben strutturato, ossia le ricerche di mercato, etc..
Danielao
05-10-2009, 08:14
Adesso basta che ritorninio a taroccare il 3DMark e siamo a posto
http://www.tomshw.it/news.php?newsid=19598
shinamossa
05-10-2009, 09:40
Adesso basta che ritorninio a taroccare il 3DMark e siamo a posto
http://www.tomshw.it/news.php?newsid=19598
Un tapirone non glielo leva nessuno, stavolta....
:tapiro:
Ma tra l'altro dicono che il tech demo mostrato girava su FERMI realmente, a questo punto:
1) O hanno solo 1 scheda fermi pronta ( :asd: ) e quindi siccome era nel pc per far girare il tech demo non l'hanno potuta mostrare
2) Il tech demo non girava su fermi perchè una scheda funzionante con fermi non esiste ancora (quello che credo io :rolleyes: )
3) Ci stanno prendendo per il culo apposta, ma non riesco a capire il senso di ciò :confused: :confused:
Ma tra l'altro dicono che il tech demo mostrato girava su FERMI realmente, a questo punto:
1) O hanno solo 1 scheda fermi pronta ( :asd: ) e quindi siccome era nel pc per far girare il tech demo non l'hanno potuta mostrare
2) Il tech demo non girava su fermi perchè una scheda funzionante con fermi non esiste ancora (quello che credo io :rolleyes: )
3) Ci stanno prendendo per il culo apposta, ma non riesco a capire il senso di ciò :confused: :confused:
Il messaggio è chiaro: non comprate le schede video ati che le nvida van molto meglio......
Il messaggio è chiaro: non comprate le schede video ati che le nvida van molto meglio......
si, van molto meglio però vi mostriamo una scheda fake.. :confused: :confused:
si, van molto meglio però vi mostriamo una scheda fake.. :confused: :confused:
sono in netto ritardo e con il mercato natalizio che li puo' andare in crisi, che cosa avresti fatto? meglio presentare un fake che niente magari qualcuno ci abbocca.....
p.s. io una scheda video vera nel case già l'ho :asd:
La presentazione l'hanno fatta solo per tenere alto l'hype su un prodotto che evidentemente non esiste.
Che poi son bravi tutti a dire "il mio prodotto X è il migliore della terra e frantuma in prestazioni qualunque cosa mai esistita fino ad oggi" senza produrlo.
Io stesso posso farlo.
8000SP
1000TMU
32nm
4GB GDDR5
1024bit
Ecco fatto. Batte tutto. Unico neo è che non sono in grado di produrlo. Ma ho leadership tecnologica e sono un figo, quindi non comprate quei prodotti veri della concorrenza che sono sugli scaffali e sono oggi il prodotto migliore sul mercato.
La "strategia" è questa, si sapeva che il ritardo di nVidia avrebbe generato una campagna di millanterie e marketing su "tecnologie" proprietarie come CUDA e PhysX.
lol :asd: :sbonk: quoto han fatto cosi :asd:
halduemilauno
05-10-2009, 11:38
Nvidia wants to hide stuff from AMD
Nvidia's excuse for not showing GT300, Fermi based board is that they want to hide some things from the red green competition.
Since the latest GPU technology conference was all about how to make money on GPU computing, Nvidia didn't want to cloud this with a DirectX 11 demo, which would actually prove that Fermi GT300 board is real.
The second reason is that the board has a lot of wires sticking out, as well as test modules, and looks like a character from Terminator. Judging from we've learned in the last few days we are talking about a handful of boards if not even less than that.
Production is not that far away but Nvidia still works heavily to make the November launch possible. We believe that the decision to show a mock up card is definitely a bad idea as now, it looks like Nvidia wanted to deceive journalists and the rest of the world, with a mock up, claiming that this is the real deal.
NDA journalists might see the Geforce GT300 Fermi version in November unless something drastically changes and the availability should be later that month. We do expect big shortage of chips at launch due to high demand. Just remember what happened when G80 and G92 got out.
http://www.fudzilla.com/content/view/15813/1/
;)
The Pein
05-10-2009, 11:48
Mah, per me non ha senso tutta stà segretezza....
ilratman
05-10-2009, 11:50
Mah, per me non ha senso tutta stà segretezza....
ha senso se non hai nulla da tenere segreto! :asd:
yossarian
05-10-2009, 11:51
Nvidia wants to hide stuff from AMD
Nvidia's excuse for not showing GT300, Fermi based board is that they want to hide some things from the red green competition.
Since the latest GPU technology conference was all about how to make money on GPU computing, Nvidia didn't want to cloud this with a DirectX 11 demo, which would actually prove that Fermi GT300 board is real.
The second reason is that the board has a lot of wires sticking out, as well as test modules, and looks like a character from Terminator. Judging from we've learned in the last few days we are talking about a handful of boards if not even less than that.
Production is not that far away but Nvidia still works heavily to make the November launch possible. We believe that the decision to show a mock up card is definitely a bad idea as now, it looks like Nvidia wanted to deceive journalists and the rest of the world, with a mock up, claiming that this is the real deal.
NDA journalists might see the Geforce GT300 Fermi version in November unless something drastically changes and the availability should be later that month. We do expect big shortage of chips at launch due to high demand. Just remember what happened when G80 and G92 got out.
http://www.fudzilla.com/content/view/15813/1/
;)
la cosa non ha molto senso, anzi non ne ha affatto. Cosa dovrebbe nascondere visto che le scelte architetturali di AMD sono del tutto differenti da quelle di nVidia e, di conseguenza, lo è anche il layout del pcb (la cui parte posteriore sarebbe l'unica cosa visibile, tra l'altro)?
Se fermi fosse un pordotto reale, avrebbero potuto far vedere la demo, aprire il pc e tirare fuori la vga che la aveva fatta girare; invece si sono limitati a dire che si trattava di una demo dx11 (bisognerebbe creder loro sulla fiducia?) e che è stato fermi a farla girare (sempre sulla fiducia), invece, magari, di una 295 GTX o, peggio, di una 5870
freedom07
05-10-2009, 11:52
l'unica cosa certa ke per ora nn è pronto nulla di concreto .. aspettiamo ed vediamo ..
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.