View Full Version : NVIDIA Fermi, la nuova architettura scopre le carte
Redazione di Hardware Upg
01-10-2009, 15:01
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2293/nvidia-fermi-la-nuova-architettura-scopre-le-carte_index.html
L'architettura Fermi, nome ufficiale sicuramente più suggestivo scelto da Nvidia per GT300, mostra le proprie potenzialità con numeri davvero impressionanti. Fermi andrà a costituire la base per le proposte commerciali destinate al mondo desktop di fascia alta, per i professionisti e per gli High Performance Computer
Click sul link per visualizzare l'articolo.
Avete scritto più volte Tegra al posto di Tesla
cosmo979
01-10-2009, 15:23
Quando usciranno queste schede (forse inizio 2010), ati avrà a disposizione la 5890 e le x2 per contrastarle.. e potrà permettersi anche un taglio dei prezzi.. nvidia non potrà svendere i nuovi prodotti... staremo a vedere!!!
Paolo Corsini
01-10-2009, 15:24
Avete scritto più volte Tegra al posto di Tesla
Errore mio; succede questo a dormire poco di notte e a lavorare dalla mattina ad un pezzo architetturale. Sistemato, grazie della segnalazione
non lo so ma questa gt300 non mi convince
Tecnicamente questa nuova generazione di nVidia sembra incredibilmente promettente.
Mi aspetto delle prestazioni ludiche leggermente superiori (o al massimo in linea) a quelle delle Radeon HD 5870, ma quello che interessa veramente è vedere come verranno gestite le librerie PhysX (Batman Arkham Asylum sarà un primo valido banco di prova) e come la capacità di calcolo potrà essere sfruttata per fini non ludici.
Poi ovviamente andranno considerati consumi, prezzi, dimensioni e rumorosità.
Le premesse per uno step forward di grossa entità ci sono tutte però.
blu(e)yes
01-10-2009, 15:45
più che una scheda video sembra che stia mostrando una reliquia di qualche santo... :D
paolox86
01-10-2009, 15:46
Sulla carta dovrebbe triturare qualsiasi concorrenza, vediamo e speriamo in prezzi abbordabili
g.luca86x
01-10-2009, 15:46
CUDA, CUDA, CUDA, CUDA, CUDA, CUDA, CUDA, CUDA, CUDA...
sta venendo solo a me la nausea nel sentire sempre questo nome? A quando uno standard universale di programmazione parallela su gpu? Ma da nvidia si ricordano che le schede video sono nate per i videogiocatori? Ah già, per i videogiochi è inutile fare presentazioni perchè coi soldi che risparmiano ci pagano le software house per castrare la concorrenza...
Comunque se non hanno fornito alcuna specifica su frequenze ecc. allora quella che il cinese tiene in mano è un dissipatore attaccato su un pezzo di fr4, niente più... Questa presentazione di Nvidia sembra solo un rimestamento delle varie indiscrezioni che già circolavano, niente di che a parte una spiegazione su schema a blocchi della loro architettura!
paolox86
01-10-2009, 15:48
e speriamo pure nei consumi....
fabio.xs
01-10-2009, 15:49
Ma Nvidia non arla proprio di consumi e di diminuire drasticamente il consumo delle schede quando queste vanno in idle, da questo punto di vista le ATI sono veramente ottime, una HD5870 in idle consuma quanto una HD4650 che di suo consumava anche molto poco, quasi quanto una 9500GT e questo per me vale molto più di fare 10fps in più su 100 in determinati giochi.
prezzi? così a occhio mi sembran come specifiche simili alla 5870, il fatto che la serie verrà nominata GF 1** (G Fsta per fermi, come G T stava per Tesla)mi lascia un pò dubbioso, molti vedendo gf e gt non saranno portati dal "GT" a prender ancora schede della serie precedente?
Sulla carta dovrebbe triturare qualsiasi concorrenza, vediamo e speriamo in prezzi abbordabili
con nvidia non ci sono mai prezzi abbordabili...lo diventano forse dopo 1/2 anni che sono sul mercato e che hanno cambiato nome 6 o 7 volte..chissà perchè mi preparo alla solita botta di prezzo.
Ma poi mi chiedo, servono oggi giorno tutti questi mostri di prestazioni considerando lo stallo del mercato game per pc? cioè...quando la uso tutta questa potenza? :confused:
già una 5850 la vedo anche troppo...
oppure una 4870 per andare al risparmio...
di più non serve, supponendo in uno stallo delle prestazioni delle vga credo che la tecnologia abbia senso solo se riesce a migliorare i costi di produzione per darti lo stesso prodotto (o poco più) ma spendendo meno mese dopo mese, come ha fatto ati in questi anni che sta regalando quel piccolo gioiello che si chiama 4670...puntare alto come prestazioni ma anche come prezzi ogni volta, non ha senso secondo me...!
per me sotto il rivestimento non c'e un bel niente.
Nel pacco grande c'e la sorpresa piccola
seondo me è una bel passo in avanti che segnerà la base per le generazioni future, come fece G80
Ma Nvidia non arla proprio di consumi e di diminuire drasticamente il consumo delle schede quando queste vanno in idle, da questo punto di vista le ATI sono veramente ottime, una HD5870 in idle consuma quanto una HD4650 che di suo consumava anche molto poco, quasi quanto una 9500GT e questo per me vale molto più di fare 10fps in più su 100 in determinati giochi.
Non ne parla anche perché già le schede della serie GTX 200 abbassano le frequenze e i voltaggi quando sono in idle, andando a ridurre drasticamente il consumo fino a raggiungere quelli di schede di fascia bassa
con nvidia non ci sono mai prezzi abbordabili...lo diventano forse dopo 1/2 anni che sono sul mercato e che hanno cambiato nome 6 o 7 volte..chissà perchè mi preparo alla solita botta di prezzo.
Ma poi mi chiedo, servono oggi giorno tutti questi mostri di prestazioni considerando lo stallo del mercato game per pc? cioè...quando la uso tutta questa potenza?
già una 5850 la vedo anche troppo...
oppure una 4870 per andare al risparmio...
di più non serve, supponendo in uno stallo delle prestazioni delle vga credo che la tecnologia abbia senso solo se riesce a migliorare i costi di produzione per darti lo stesso prodotto (o poco più ma spendendo meno mese dopo mese, come ha fatto ati in questi anni che sta regalando quel piccolo gioiello che si chiama 4670...puntare alto come prestazioni ma anche come prezzi ogni volta, non ha senso secondo me...!
ma guarda non penso che daran mazzate coi prezzi, a nvidia non penso sian così fessi, vedi come per 5 anni han rivenduto la stessa scheda solo cambiando nome - sono stati geniali (fetenti come pochi ma geniali), in pratica han sempre guadagnato fino all'anno scorso con l'arrivo della serie 4000
prima N vantava le sue schede come le più potenti, poi con le 4800, si son barricati con il "ma noi abbiam cuda e phisyx" e han mantenuto i prezzi.
ora si trovano in ritardo, qdi per forza devon adeguare i prezzi a quelli ati
(possessore di una gf2 400, nv8600,ati 4770) Fanboy del portafoglio mio
blackshard
01-10-2009, 16:11
CUDA, CUDA, CUDA, CUDA, CUDA, CUDA, CUDA, CUDA, CUDA...
sta venendo solo a me la nausea nel sentire sempre questo nome? A quando uno standard universale di programmazione parallela su gpu? Ma da nvidia si ricordano che le schede video sono nate per i videogiocatori? Ah già, per i videogiochi è inutile fare presentazioni perchè coi soldi che risparmiano ci pagano le software house per castrare la concorrenza...
Comunque se non hanno fornito alcuna specifica su frequenze ecc. allora quella che il cinese tiene in mano è un dissipatore attaccato su un pezzo di fr4, niente più... Questa presentazione di Nvidia sembra solo un rimestamento delle varie indiscrezioni che già circolavano, niente di che a parte una spiegazione su schema a blocchi della loro architettura!
Ormai comanda il marketing. CUDA Core non è un nome che evoca oggetti tecnologici.
blackshard
01-10-2009, 16:17
seondo me è una bel passo in avanti che segnerà la base per le generazioni future, come fece G80
Boh, non credo sia una rivoluzione. Sembra troppo un GT200 iperpompato e basta. E' certo che un chip del genere ha potenza a profusione, ma non è una revisione totale dell'architettura come ad esempio sono stati G80 e R600. D'altronde anche RV870 non è un'architettura nuova, ma un consolidamento della vecchia.
edit: aggiungo che probabilmente sul fronte GPGPU avranno più successo perchè si vede che hanno lavorato molto su quel fronte (vedi la capacità di elaborazione in doppia precisione), ma proprio per questo motivo queste schede si posizionano più nel mercato delle macchine di calcolo che nell'ambito ludico.
Pitagora
01-10-2009, 16:18
Fatto salvo il postulato per il quale la potenza di elaborazione non è mai "troppa", a mio avviso, puntare su CUDA è un'ottima idea.
Per chi sa anche soltanto i rudimenti di quelle che sono le problematiche di bilanciamento di un buon pc, avere la possibilità di avere una "potenza di fuoco" attivabile alla bisogna riesce a garantire una maggiore elasticità nella scelta degli altri componenti garantendo un comportamento più uniforme di tutta la macchina, specialmente dove i picchi e i colli di bottiglia possono essere più evidenti: elaborazione 3d in tempo reale... leggi: videogiochi. :)
Certo, lo switching tra una e l'altra modalità di lavoro dovrebbe essere assolutamente istantaneo, e non semplicemente "più veloce" come viene detto per questo prodotto, ma la strada giusta è proprio questa, secondo me.
Mi vengono in mente centinaia di articoli e di post che parlano di giochi e applicazioni cpu-limited o gpu-limited, ebbene, sviluppando per CUDA si potrà arrivare (in un futuro auspicabilmente prossimo), a non doversi più preoccupare di questo aspetto, i benchmark non si appiattiranno più salendo o scendendo di risoluzione (o almeno non come succede oggi), scendere di risoluzione/dettagli vorrà dire migliorare SEMPRE le prestazioni ed in modo sostanziale.
Quanto al prezzo... beh... Conoscendo NVIDIA, direi che al lancio non mi stupirei di vedere cifre che lambiscono le 4 cifre... di dollari.
Pareri contrari?
certo che oggi è scoppiata una guerra come poche.... :mbe:
era molto atteaa una risposta da nvidia.
Oggi abbiamo di fronte 2 aziende che partono alla pari, con uguale processo produttivo, solo che nvidia (al solito) ha qualche magagna in + a causa del chippone, più costoso, ma più prestante (DI QUANTO NN SI SA).
mi è sorto un dubbio, spero di farmi capire:
questa situazione mi ha ricordato il primo phenom, ovvero al tempo dei Core2Duo. Amd, in forte ritardo, nn si azzardò MAI a permettere una sbirciatina, un bench, un fott....imo grafichetto di confronto anche solo con una sua serie precedente, solo per mantenere l'attesa. Il motivo poi si capì: la progettazione era andata male e nonostante il precedente popò di hype creato su una tecnologia rivoluzionaria (il quad nativo con controller integrato), il semplice core2duo con classico bus era superiore su tutti i fronti.
Oggi Nvidia deve dare motivo di attendere a chi è indeciso: ma parlare e basta è sufficiente ? perchè nn danno un bench di confronto SE I NUMERI RISPECCHIANO LA REALTA' ?
Avremo sorprese negative ? faccio lo stesso ragionamento di allora... Se io ho un'ottima tecnologia che può zittire ogni dubbio, e attirarmi molti più acquirenti, perchè nn mostrarla ? anche fosse solo un sample, ma meglio di tutto il vaporware che si sta creando.... spero di essermi spiegato, grazie a tutti...
MiKeLezZ
01-10-2009, 16:25
Dite ciao a Fusion :o
prezzi? così a occhio mi sembran come specifiche simili alla 5870, il fatto che la serie verrà nominata GF 1** (G Fsta per fermi, come G T stava per Tesla)mi lascia un pò dubbioso, molti vedendo gf e gt non saranno portati dal "GT" a prender ancora schede della serie precedente?GT300 e RV870 sono due architetture differenti in praticamente tutto ciò sia possibile!
Ma Nvidia non arla proprio di consumi e di diminuire drasticamente il consumo delle schede quando queste vanno in idle, da questo punto di vista le ATI sono veramente ottime, una HD5870 in idle consuma quanto una HD4650Ho letto su un sito che le HD5870 consumano 27W in idle... se però ci colleghi solo un monitor. Con 2 monitor tale valore si raddoppia a 54W, il che non è più assolutamente concorrenziale.
Siccome io uso sempre 2 monitor sarebbe una cosa interessante da verificare.
Davide_72
01-10-2009, 16:26
Non capisco ultimamente tutti i commenti sempre negativi.
Ati a una bella scheda non ce dubbio su questo, dovremmo vedere i vari test per poter giudicare e criticare o no se hanno fatto un buon lavoro quelli di Nvidia, poi ognuno di noi potrà decidere cosa comprare.
peolo001
01-10-2009, 16:26
Secondo me dovrebbero sbrigarsi a farlo arrivare a noi questo chip invece di fare solo publicità,detto questo leggo dei commenti forse fuori luogo,nvidia ha gia con la serie 2xx un ottimo downlolt e downclock in idle molto migliore di quello delle ati 48xx e con le nuove sarà aiutata sicuramente dal nuovo processo produttivo.
ndrmcchtt491
01-10-2009, 16:27
azzo che scheda, veramente una belva:ave: :ave: :ave:
Finalmente quest anno c'è una vera novità nell' ambito della grafica sul pc,me lo sento:cool: :cool:.
Se da un lato AMD ha già sfornato i suoi prodotti nvidia con questa novità mi sembra decisamente più avanti in ambito gpgpu, poi che costerà come una ferrari e consumerà come uno shuttle è un' altro discorso.
Però si deve sbrigare con la commercializzazione senò perde il treno...
Abbasseranno i prezzi delle schede di vecchia generazione fino al debutto delle nuove: meglio così
Se una GTX285 va' a 200 euro, dov'è il problema?
Immaginate le GTX275 e 260 poi :)
Se non caleranno i prezzi, vorrà dire che perderanno market share, ed anche questo è positivo, perchè un mercato più equilibrato nei rapporti di forza, è un bene.
In merito al "chippone" Fermi: ok, sono 3B di transistor, ma è pur sempre un die inferiore all'attuale GT200 e "b".
Se quest'ultimo, in un'anno, sono arrivati a venderlo in schede da meno di 150 euro, non vedo perchè non possa accadere anche con la prossima generazione, considerato che TSMC al suo bel da fare con i 40nm affinchè GlobalFoundries non gli soffi il cliente per il prossimo die shrink.
Imho, è interessante questo GT300, perchè segna un punto di svolta anche per chi col pc non vuole solo giocarci.
Ma ci vuole qualcosa di più concreto di uno schemino su un pdf per gli "enthusiast" :D
se esce fra 40anni sticazzi che sarà piu potente e piu innovativa -_-'
Boh, non credo sia una rivoluzione. Sembra troppo un GT200 iperpompato e basta. E' certo che un chip del genere ha potenza a profusione, ma non è una revisione totale dell'architettura come ad esempio sono stati G80 e R600. D'altronde anche RV870 non è un'architettura nuova, ma un consolidamento della vecchia.
edit: aggiungo che probabilmente sul fronte GPGPU avranno più successo perchè si vede che hanno lavorato molto su quel fronte (vedi la capacità di elaborazione in doppia precisione), ma proprio per questo motivo queste schede si posizionano più nel mercato delle macchine di calcolo che nell'ambito ludico.
Non so se si possa definire una rivoluzione, ma sicuramente rappresenta un punto di svolta.
Già GT200 rispetto a G80, seppur con un design basato sullo stesso concetto, rappresenta un notevole passo avanti, questo al di là delle prestazioni.
Ma questa architettura non è assolutamente "un GT200 iperpompato e basta", anzi...
Quando usciranno queste schede (forse inizio 2010), ati avrà a disposizione la 5890 e le x2 per contrastarle.. e potrà permettersi anche un taglio dei prezzi.. nvidia non potrà svendere i nuovi prodotti... staremo a vedere!!!
il paragone va fatto con x1 non x2 perché la top gamma di entrambi è x2 e chi te lo dice che non lo potrà essere anche fermi?
halduemilauno
01-10-2009, 16:59
in quanto alla superfice del chip è di 452mm2.
aggiungo un'immagine...
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/Fermi_Graka_2.jpeg
;)
gianly1985
01-10-2009, 17:02
Fatto salvo il postulato per il quale la potenza di elaborazione non è mai "troppa", a mio avviso, puntare su CUDA è un'ottima idea.
Forse per il mercato HPC (http://en.wikipedia.org/wiki/High-performance_computing), ma per il mercato consumer la parola d'ordine è OpenCL, che gira sia su nVidia che su Ati che sulle CPU.
Lo sviluppatore di un programma "di massa" non vedo perchè dovrebbe precludersi gli utenti Ati facendo un programma con CUDA quando può farlo in OpenCL...
Quindi tutte quelle cose positive che auspichi, auspicale pensando ad OpenCL più che a CUDA :)
Pitagora
01-10-2009, 17:09
Forse per il mercato HPC (http://en.wikipedia.org/wiki/High-performance_computing), ma per il mercato consumer la parola d'ordine è OpenCL, che gira sia su nVidia che su Ati che sulle CPU.
Lo sviluppatore di un programma "di massa" non vedo perchè dovrebbe precludersi gli utenti Ati facendo un programma con CUDA quando può farlo in OpenCL...
Quindi tutte quelle cose positive che auspichi, auspicale pensando ad OpenCL più che a CUDA :)
Ma si, per carità, non sto qui a far differenze politiche tra opengl e directx (tanto per citare un dualismo vagamente similare)... Due aspetti sono importanti: prestazioni globali e compatibilità, che "vinca" CUDA od OpenCL poco importa, l'importante è muoversi in questa direzione.
capitan_crasy
01-10-2009, 17:10
Dite ciao a Fusion :o
In che senso?
Complimenti ad NVIDIA.....se riesce a concretizzare in un prodotto tali caratteristiche tecniche il prezzo, anche se sarà più elevato delle soluzioni RADEON serie 5800, eclissera il nuovo chip RV870 che altro non è lo stesso progetto di RV770 con raddoppio in hw delle proprietà. Badate bene che ho ordinato da 3 giorno due HD5870 di SAPPHIRE e possiedo 3xHD4890 , 2xGTX295 , 2x9800GX2 e 2x7950GX2.........non si tratta quindi di essere un funboy di un marchio o dell'altro........la mia è una considerazione OGGETTIVA INERENTE LE CARATTERISTICHE TECNICHE DEI PRODOTTI.
g.luca86x
01-10-2009, 17:14
Abbasseranno i prezzi delle schede di vecchia generazione fino al debutto delle nuove: meglio così
Se una GTX285 va' a 200 euro, dov'è il problema?
Immaginate le GTX275 e 260 poi :)
Se non caleranno i prezzi, vorrà dire che perderanno market share, ed anche questo è positivo, perchè un mercato più equilibrato nei rapporti di forza, è un bene.
In merito al "chippone" Fermi: ok, sono 3B di transistor, ma è pur sempre un die inferiore all'attuale GT200 e "b".
Se quest'ultimo, in un'anno, sono arrivati a venderlo in schede da meno di 150 euro, non vedo perchè non possa accadere anche con la prossima generazione, considerato che TSMC al suo bel da fare con i 40nm affinchè GlobalFoundries non gli soffi il cliente per il prossimo die shrink.
Imho, è interessante questo GT300, perchè segna un punto di svolta anche per chi col pc non vuole solo giocarci.
Ma ci vuole qualcosa di più concreto di uno schemino su un pdf per gli "enthusiast" :D
considera che sul prezzo finale ci sono anche i costi di R&D da ammortizzare. La gtx260 è arrivata a meno di 150€ perchè i costi fissi erano già stati ammortati da un bel pezzo e son rimasti i meri costi di produzione. Questo avrà anchei costi della ricerca e progettazione da ammortare. Il 40nm non può fare miracoli sui bilanci...
Un'altra foto:
http://pc.watch.impress.co.jp/img/pcw/docs/318/660/html/05.jpg.html
A1, 35a settimana del 2009.
Da qui si nota meglio la lunghezza della scheda:
http://pc.watch.impress.co.jp/img/pcw/docs/318/660/html/02.jpg.html
Saberfang
01-10-2009, 17:29
Alla fine si tratta di una architettura ibrida con cui Nvidia spera di dare l'assalto ad un nuovo settore di mercato.
Per quello che riguarda l'aspetto videoludico per adesso si sa poco per non dire niente tuttavia chi non si farà prendere dalla fretta della acquisto avrà sicuramente una valida alternativa al prodotto ATI verosimilmente per l'inizio del 2010.
considera che sul prezzo finale ci sono anche i costi di R&D da ammortizzare. La gtx260 è arrivata a meno di 150€ perchè i costi fissi erano già stati ammortati da un bel pezzo e son rimasti i meri costi di produzione. Questo avrà anchei costi della ricerca e progettazione da ammortare. Il 40nm non può fare miracoli sui bilanci...
Perchè GT300 dovrebbe richiedere più tempo di GT200 per ammortizzare i costi di R&D?
Considera che il genere di clientela sul quale potrebbe ampliare il suo mercato rispetto a GT200, nelle intenzioni, è molto più profittevole di quella gaming.
halduemilauno
01-10-2009, 17:33
per la versione GeForce si parla di frequenze per il core di 700Mhz, per gli shader di 1600/1700 e per la ram di 4400/4800. inizialmente ne sono previste due varianti una a 512 shader l'altra a 480.
;)
Complimenti ad NVIDIA.....se riesce a concretizzare in un prodotto tali caratteristiche tecniche il prezzo, anche se sarà più elevato delle soluzioni RADEON serie 5800, eclissera il nuovo chip RV870 che altro non è lo stesso progetto di RV770 con raddoppio in hw delle proprietà. Badate bene che ho ordinato da 3 giorno due HD5870 di SAPPHIRE e possiedo 3xHD4890 , 2xGTX295 , 2x9800GX2 e 2x7950GX2.........non si tratta quindi di essere un funboy di un marchio o dell'altro........la mia è una considerazione OGGETTIVA INERENTE LE CARATTERISTICHE TECNICHE DEI PRODOTTI.
io fossi in te ordinerei 2xhd5850 a sfregio :O , almeno pareggi e c' hai 3 ati e 3 nvidia , giusto per levare ogni dubbio sul fatto che tu sia un funboy ... che poi che ci sarà di così "divertente" :O .....
Balthasar85
01-10-2009, 17:39
Quando usciranno queste schede (forse inizio 2010), ati avrà a disposizione la 5890 e le x2 per contrastarle.. e potrà permettersi anche un taglio dei prezzi.. nvidia non potrà svendere i nuovi prodotti... staremo a vedere!!!
Tu dici? Io direi di no.
ATI procede con la strategia di due chip inseriti nelle VGA per formare la fascia alta mentre nVidia segue la strategia del chippone.
Detto ciò, il qui presente "chippone" nVidia è un diretto rivale non della 5870 già in commercio, bensì della 5870X2 attesa anch'essa per lo stesso periodo di nVidia (che ha annunciato l'uscita per fine novembre o al massimo i primi dell'anno nuovo)
Lo svantaggio ad ora nVidia lo ha sulla fascia media (4850/4870) non su quella alta. In ogni caso questo scarto di 60 giorni non lo vedo allarmante, le motivazioni per passare di corsa ad una VGA nuova non ci sono ancora (le DX11? I consumi?). Per il consumatore poi è ancor più utile aspettare che nVidia presenti le sue nuove VGA così da poter avere una prima discesa dei prezzi (ora è praticamente senza concorrenza).
CIAWA
g.luca86x
01-10-2009, 17:40
Perchè GT300 dovrebbe richiedere più tempo di GT200 per ammortizzare i costi di R&D?
Considera che il genere di clientela sul quale potrebbe ampliare il suo mercato rispetto a GT200, nelle intenzioni, è molto più profittevole di quella gaming.
non parlo di più tempo. Dal tuo precedente post sembrava intendessi un prezzo non immediato ma quasi in linea con quello della vecchia serie. Se ho inteso male faccio ammenda... Comunque il conto sulla clientela ipotetica non vale mondo in puri termini economici. Loro i conti li fanno sulla base della quota attuale di mercato perchè le spese vanno previste in fase di bilancio (il corso di economia di gestione d'impresa al poli almeno qualcosa mi ha lasciato :asd:). Quindi non aspettiamoci prezzi più levigati sulla base della ipotetica clientela professionale che può essere conquistata, perchè quella non la conteggiano proprio...
Architettura di per sé spettacolare, i salti rispetto alla precedente sono notevoli, ma troppo sbilanciata verso il GPGPU.
Secondo me in ambito gaming, quello interessato dai test di HwUpgrade e dal 99% dell'utenza, le innovazioni e aggiunte si faranno sentire molto meno, il vero salto prestazionale sarà in ambito workstation dove dubito abbia rivali al momento.
nVIDIA rischia molto facendo così, a differenza di AMD che invece si concentra pressoché solo nel gaming ottimizzando ad hoc le GPU, nei test ludici (quelli che fanno il successo o il flop nel mercato di massa) potrebbe risultare sotto le aspettive.
Capisco che nVIDIA voglia allargarsi ad altri settori, facendo competizione indiretta ai produttori di CPU, ma deve ricordarsi qual'è il settore che l'ha resa tale e su cui tuttora si mantiene. Tesla e Cuda sono una parte infinitesimale del loro fatturato, sviluppare architetture pensando ad essi mi pare masochistico.
Anche R600 sulla carta era un mostro innovativo, peccato che fu ottimizzata solo per il GPGPU e in ambito gaming sappiano bene che batoste prese.
Forse per il mercato HPC, ma per il mercato consumer la parola d'ordine è OpenCL, che gira sia su nVidia che su Ati che sulle CPU.
Lo sviluppatore di un programma "di massa" non vedo perchè dovrebbe precludersi gli utenti Ati facendo un programma con CUDA quando può farlo in OpenCL...
Quindi tutte quelle cose positive che auspichi, auspicale pensando ad OpenCL più che a CUDA
forse per questo nvidia ha fatto nexus per dare un ottimo ( dalle demo che si vedono ) sistema di sviluppo delle applicazioni
la stessa cosa l'ha fatta microsoft con VS e i risultati si vedono
non occore puntate a un sistema aperto o chiusa ma ad un sistema che sia usabile e molto facile da sviluppare e programmare
g.luca86x
01-10-2009, 17:44
Complimenti ad NVIDIA.....se riesce a concretizzare in un prodotto tali caratteristiche tecniche il prezzo, anche se sarà più elevato delle soluzioni RADEON serie 5800, eclissera il nuovo chip RV870 che altro non è lo stesso progetto di RV770 con raddoppio in hw delle proprietà. Badate bene che ho ordinato da 3 giorno due HD5870 di SAPPHIRE e possiedo 3xHD4890 , 2xGTX295 , 2x9800GX2 e 2x7950GX2.........non si tratta quindi di essere un funboy di un marchio o dell'altro........la mia è una considerazione OGGETTIVA INERENTE LE CARATTERISTICHE TECNICHE DEI PRODOTTI.
ti chiami piersilvio, vero? :D
Complimenti ad NVIDIA.....se riesce a concretizzare in un prodotto tali caratteristiche tecniche il prezzo, anche se sarà più elevato delle soluzioni RADEON serie 5800, eclissera il nuovo chip RV870 che altro non è lo stesso progetto di RV770 con raddoppio in hw delle proprietà. Badate bene che ho ordinato da 3 giorno due HD5870 di SAPPHIRE e possiedo 3xHD4890 , 2xGTX295 , 2x9800GX2 e 2x7950GX2.........non si tratta quindi di essere un funboy di un marchio o dell'altro........la mia è una considerazione OGGETTIVA INERENTE LE CARATTERISTICHE TECNICHE DEI PRODOTTI.
più che una considerazione oggettiva la vedo come una pubblicizzazione delle proprie disponibilità economiche :D
MadJackal
01-10-2009, 17:53
Ho letto su un sito che le HD5870 consumano 27W in idle... se però ci colleghi solo un monitor. Con 2 monitor tale valore si raddoppia a 54W, il che non è più assolutamente concorrenziale.
Siccome io uso sempre 2 monitor sarebbe una cosa interessante da verificare.
IIRC tutte le schede video, incluse quelle NVIDIA, girano a frequenza massima o quasi se hanno collegati due schermi, a causa di alcuni problemi di sincronizzazione e refresh. Al massimo al massimo si abbassano di un pò le frequenze del core, ma non delle RAM.
Quindi ovviamente i consumi aumentano ;)
Speriamo se non altro che queste schede video facciano scendere i prezzi delle Radeon HD 5xx0 :asd:
Balthasar85
01-10-2009, 18:05
ti chiami piersilvio, vero? :D
Piersy posso venire a casa tua a provare Crysis?!? :p
CIAWA
Gli manca la tessellation in hardware, non ho parole, vogliono andare di emulazione non ci posso credere :doh:
MadJackal
01-10-2009, 18:14
Gli manca la tessellation in hardware, non ho parole, vogliono andare di emulazione non ci posso credere :doh:
No, davvero? :asd:
Ma non è un requisito perchè le schede siano DX11 compliant?
EDIT: in effetti non mi pare ci sia nello schema... Oh shit. Quanto sarebbe bello se non gliela facessero passare buona! :mad:
No, davvero? :asd:
Ma non è un requisito perchè le schede siano DX11 compliant?
EDIT: in effetti non mi pare ci sia nello schema... Oh shit. Quanto sarebbe bello se non gliela facessero passare buona! :mad:
Non c'è, a regola non sarebbe una GPU DX11... che bella cosa, una volta che c'è una features che vale la pena seguire tutti per un netto miglioramento grafico ecco che una delle due non lo supporta come si deve, anzi per nulla direi.
MadJackal
01-10-2009, 18:21
Non c'è, a regola non sarebbe una GPU DX11... che bella cosa, una volta che c'è una features che vale la pena seguire tutti per un netto miglioramento grafico ecco che una delle due non lo supporta come si deve, anzi per nulla direi.
Eh ma PhysX, CUDA... :O
Ridicolo. Che cavolo, ATI ha mostrato certe immagini :muro:
Solo a me sembra un 'paper launch' (oppure è diventato di moda ed io mi sono perso...)?
Non per scatenare flame ma ATI ha presentato una scheda con un nuovo chipset 'funzionante' e con benchmark & critiche.
Nvidia ha solo mostrato in aria uno scatolotto, delle slide, dei dati (mostruosi quanto si vuole, ma solo numeri su carta...).
Se poi si aggiunge il fatto che sono ancora in fase di 'progettazione' è solo un tentativo per dire al mercato 'ehi! ci sono anche io!!!'.
Tornando al concreto (per quanto possibile sulla base dei soli dati): che sia un 'mostro' non lo metto in dubbio; sono dubbioso sulla reale necessità di 'spingere' verso il GPUComputing...è stato dimostrato già anni fa che alcuni compiti potevano essere svolti dalla GPU (da Nvidia se non erro) ma di 'programmi veri' ne ho visti pochi.
E anche se ne uscissero a palate sono programmi di 'nicchia' (elaborazione dati video/musica): dubito che Excel/Word o internet possano beneficiare di tutta questa potenza.
E' una scomessa piuttosto rischiosa quella di Nvidia di volersi 'creare' un mercato per i PRO (schede dedicate ad elaborare dati in server per università/centri di ricerca ecc...) - non perchè la GPU non sia in grado di funzionare come promesso, ma per un semplice calcolo economico.
Se ATI ha scelto di creare GPU 'piccole' e casomai di 'affiancarne' 2 per ottenere una potenza aggiuntiva, è ovvio che con una economia di scala ATI (e i clienti...) sono in vantaggio.
GPU piccole costano poco produrle, hanno rese più elevate (meno gpu da buttare x difetti), scaldano e consumano meno (nei server è una cosa da tenere in considerazione...).
Ed in ogni caso ATI potrebbe passare 1) ad un processo produttivo a nm più basso 2) modificare la GPU (aggiungendo - chennesò - cache) ecc...
Se poi è vero (considerando che sono ancora in fase di progettazione...) che manca un elemento cardine delle nuove DirectX 11 (tasselation), allora anche per i patiti dei giochi diventa una 'mezza-promessa'...
In molti si aspettavano da Nvidia una risposta del tipo: "Sappiate che anche se siamo in ritardo, stiamo arrivando." Questo oggi con Nvidia nn è assolutamente accaduto, cioè una semplice presentazione dell'architettura che verrà nn ha alcuna valenza se nn vengono fornite nemmeno le frequenze (che solitamente sono la prima cosa che si fissano) o tuttalpiù almeno uno straccio di istogramma per comparare l'attuale TOP Nvidia con Fermi. Oltre al fatto che nn si fanno accenni alla data di uscita. Se si parlasse con certezza di fine 2009 potremmo avere la speranza che sia in commercio nel gennaio 2010, ma se stiamo parlando del primo trimestre 2010 c'è il problema che è un tempo sufficiente per avere una risposta preventiva da parte di ATI (alias 5890 x2). Nel 2007, poco prima della presentazione di R600, le specifiche che emersero accreditavano alla schede una quasi convinzione di superiorità rispetto a G80 peccato che poi le cose nn andarono così. Spero vivamente che Nvidia nn sforni una GPU costosa e lenta (rispetto a R800) anche se tutte le dichiarazioni e soprattutto le nn dichiarazioni nn fanno presagire nulla di buono.
Per quanto riguarda l'architettura, da appassionato che cerca di capirne, sicuramente sono stati fatti dei grossi passi in avanti. Con Bus a 386bit + GDDR5 nn sarà limitata dalla banda passante ed il rinnovamento degli SP sicuramente porterà a considerevoli aumenti prestazionali, ma mi chiedo se un chip del genere possa essere cmq in grado di competere con una 5870 x2, che da alcune indiscrezioni pare nn essere solo un CrossFire, e cmq anche se fosse "solo" un CrossFire c'è in ogni caso da preoccuparsi. Se poi dovesse avere prestazioni poco superiore alla GTX295 mi chiedo seriamente cosa possa succedere alla già difficile situazione economica di Nvidia. Manca solo una multa dal Anti-Trust (che cmq per una semplice questione di correttezza si merita) e nn vedremo mai la luce di un GT400.
g.luca86x
01-10-2009, 18:46
Gli manca la tessellation in hardware, non ho parole, vogliono andare di emulazione non ci posso credere :doh:
davvero? non l'avevo notato... cacchio, se fosse così allora di giochi dx11 non ne vedremo per secoli! Assassin's creed docet :O
Foglia Morta
01-10-2009, 18:51
Avevo posto il dubbio su Larrabee: http://www.hwupgrade.it/forum/showpost.php?p=27468186&postcount=4415 . Si può fare , tutto però ha un costo.
Avevo posto il dubbio su Larrabee: http://www.hwupgrade.it/forum/showpost.php?p=27468186&postcount=4415 . Si può fare , tutto però ha un costo.
Ho letto anche l'articolo di anandtech e nemmeno li si fanno accenni a tessellation. Ho sempre più la netta sensazione che nn ci siano e che questo GT300 nn sia tutto questo che esattamente come lo furono R600 ed i Phenom@65nm
halduemilauno
01-10-2009, 19:05
Solo a me sembra un 'paper launch' (oppure è diventato di moda ed io mi sono perso...)?
Non per scatenare flame ma ATI ha presentato una scheda con un nuovo chipset 'funzionante' e con benchmark & critiche.
Nvidia ha solo mostrato in aria uno scatolotto, delle slide, dei dati (mostruosi quanto si vuole, ma solo numeri su carta...).
Se poi si aggiunge il fatto che sono ancora in fase di 'progettazione' è solo un tentativo per dire al mercato 'ehi! ci sono anche io!!!'.
Tornando al concreto (per quanto possibile sulla base dei soli dati): che sia un 'mostro' non lo metto in dubbio; sono dubbioso sulla reale necessità di 'spingere' verso il GPUComputing...è stato dimostrato già anni fa che alcuni compiti potevano essere svolti dalla GPU (da Nvidia se non erro) ma di 'programmi veri' ne ho visti pochi.
E anche se ne uscissero a palate sono programmi di 'nicchia' (elaborazione dati video/musica): dubito che Excel/Word o internet possano beneficiare di tutta questa potenza.
E' una scomessa piuttosto rischiosa quella di Nvidia di volersi 'creare' un mercato per i PRO (schede dedicate ad elaborare dati in server per università/centri di ricerca ecc...) - non perchè la GPU non sia in grado di funzionare come promesso, ma per un semplice calcolo economico.
Se ATI ha scelto di creare GPU 'piccole' e casomai di 'affiancarne' 2 per ottenere una potenza aggiuntiva, è ovvio che con una economia di scala ATI (e i clienti...) sono in vantaggio.
GPU piccole costano poco produrle, hanno rese più elevate (meno gpu da buttare x difetti), scaldano e consumano meno (nei server è una cosa da tenere in considerazione...).
Ed in ogni caso ATI potrebbe passare 1) ad un processo produttivo a nm più basso 2) modificare la GPU (aggiungendo - chennesò - cache) ecc...
Se poi è vero (considerando che sono ancora in fase di progettazione...) che manca un elemento cardine delle nuove DirectX 11 (tasselation), allora anche per i patiti dei giochi diventa una 'mezza-promessa'...
certo che è stato un paper launch e forse pure qualcosa di meno. è stata una presentazione di architettura, di tecnologia che riguarderà tre famiglie distinte di prodotti le GeForce, le Tesla e infine le Quadro dedicate ai rispettivi campi di utilizzo.
per la tessellation pare che essa verrà svolta(diciamo cosi)via software. ma aspettiamo info + dettagliate.
Con quella potenza a disposizione possono emulare senza problemi l'unità di tassellizzazione.....ma aspettiamo prima di dire "non c'è".
gianly1985
01-10-2009, 19:11
Tornando al concreto (per quanto possibile sulla base dei soli dati): che sia un 'mostro' non lo metto in dubbio; sono dubbioso sulla reale necessità di 'spingere' verso il GPUComputing...è stato dimostrato già anni fa che alcuni compiti potevano essere svolti dalla GPU (da Nvidia se non erro) ma di 'programmi veri' ne ho visti pochi.
Perchè prima non c'erano:
1) uno standard open, cross-plataform e cross-vendor
2) una azienda "big" che spingesse fortemente per il GPGPU anche in ambito
home (che poi è la stessa ad aver ideato lo standard del punto 1)
Adesso ci sono sia il primo (http://en.wikipedia.org/wiki/OpenCL) che la seconda (http://www.apple.com/it/macosx/technology/#opencl).
g.luca86x
01-10-2009, 19:12
tra l'altro avete notato la foto che reclamizza l'articolo con il cinese che tiene la "scheda video" in mano? La scheda ha solo un connettore a 8 pin sul lato! Che voi sappiate esistono altri esempi di alimentazione tramite singolo 6+2?
riuzasan
01-10-2009, 19:18
Va bene i paper launche e le innovative promesse ...
Ma, nota dolente, di hardware vero non se ne parla, di date definitive per il lancio di GT300 ancora niente, di demo show o qualcosa di simile, zero.
ATI ha già sul mercato in vendita la sua proposta.
Nvidia nemmeno un demo tecnologico alla sua stessa fiera?
E' normale che Nvidia dovrebbe mostrare ADESSO alla stampa specializzata un demo di GT300 con un mattone come Crysis per spingere eventuali clienti ad aspetatre prima di comparre una 58xx.
Se non sono in grado di farlo significa che stanno ancora molto dietro con i tempi di rilascio.
MadJackal
01-10-2009, 19:30
Con quella potenza a disposizione possono emulare senza problemi l'unità di tassellizzazione.....ma aspettiamo prima di dire "non c'è".
Beh, ci stiamo basando semplicemente sulle immagini dell'articolo, in cui non si vede ;)
(e guardando un'immagine su beyond3d, la trovate qui (http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png), pare proprio non esserci)
E che sia possibile emulare la tessellation unit con prestazioni decenti è tutto da vedere.
infatti sono molto indietro con i tempi di rilascio, ati ha già presentato e messo in vendita le sue schede video e i partners stanno già facendo versioni personalizzate, sta già progettando la versione x2e nvidia sta appena presentando l'architettura, ti sembra essere avanti? È vero che or ora non c'è niente sui cui valga la pena investire soldi per avere le directx11, ma intanto le schede ci sono e la gente le compra. Questo periodo di assenza ovviamente assicurerà una fetta di mercato importante ad ati.
Imho, è interessante questo GT300, perchè segna un punto di svolta anche per chi col pc non vuole solo giocarci.
:D
AMEN:O
peolo001
01-10-2009, 19:41
Per quanto riguarda la tasselation sono un po scettico ma è anche probabile che i core di questa architettura siano sufficentemente versatili per emularla con poca perdita di prestazioni,si perderà qualche punto percentulale nei giochi che la utilizzano ma probabilmente si guadagnerà qualcosa nel calcolo parallelo,se qualcuno è piu informato aspetto delucidazioniiiiiiiiiiiiiiii
CUDA, CUDA, CUDA, CUDA, CUDA, CUDA, CUDA, CUDA, CUDA...
sta venendo solo a me la nausea nel sentire sempre questo nome?
anche a me.
Fanboy del portafoglio mio
Anche io
Solo a me sembra un 'paper launch'
Non solo a te.
Se qualcun'altro lavora un po' in fretta fa tempo a uscire RV900...
GLaMacchina
01-10-2009, 19:55
Credo che saranno costretti a emulare la tassellation.
Si sa che le GPU nVidia hanno moltissima "potenza bruta" in più di quelle ATI.
Magari le faranno potentissime e che consumano moltissimo solo per gli enthusiast usando i loro muscoli per l'emulazione.
Se fossi in nVidia farei così e direi:"Vabè questa generazione è andata male".
Ciò non toglie che rimane tutto ancora da vedere, magari mi sto proprio sbagliando!
psychok9
01-10-2009, 20:17
Uff... di nuovo superchippone costoso... :doh:
A questo punto spero tanto che AMD si smuova con i driver video Linux (cosa a cui tengo parecchio), e al prossimo giro mi prendo una bella 5850-5860(al tempo della GT300 sicuramente ATi rilancerà con modelli potenziati), a prezzo ribassato e senza dover comprare alimentatori da 1KW :D
Spero faccia fiasco anche questo Physx... voglio poter cambiare scheda video, cpu, etc, quando mi pare senza dover rimanere bloccato con 1 tecnologia proprietaria!
Forza OpenCL.
Neanche avevo fatto in tempo a festeggiare per la "tessellation" integrata nelle DX11 e ora scopro che nVidia non vuole... E' una tecnologia che ci permette di risparmiare potenza bruta e loro la rimandano ormai da tantissima anni... Viene quasi da pensar male!!!
Non è che non sono in grado di implementarla in hardware?
P.s. Grave che non ci sia neanche uno straccio di tech demo, e ciò mi fa pensare che sono ancora in alto mare (secondo me non a caso se la rideva a presentare un GT300 fake :D), e si scontrerà presumibilmente contro una 5870x2... che, ad occhio dovrebbe stargli sopra in performance. Un ipotetica GT300x2, con livelli di complessità così elevati potrebbe uscire nel 2011 e non credo si possa parlare quindi di "scontro" con una 5870x2 ma con il modelo successivo.
Perchè prima non c'erano:
1) uno standard open, cross-plataform e cross-vendor
2) una azienda "big" che spingesse fortemente per il GPGPU anche in ambito
home (che poi è la stessa ad aver ideato lo standard del punto 1)
Adesso ci sono sia il primo (http://en.wikipedia.org/wiki/OpenCL) che la seconda (http://www.apple.com/it/macosx/technology/#opencl).
Più che OpenCL credo che vedremo molti programmi usare il modello GPGPU attraverso Direct Computing di Microsoft che è ovviamente cross vendor visto che è supportato sia da AMD che da NVIDIA.
OpenCL rimarrà IMHO confinato a quei pochi programmi cross platform di un certo spessore che possono trarre vantaggio dal modello GPGPU e che girano sia su Windows che su Mac OS.
psychok9
01-10-2009, 20:25
Più che OpenCL credo che vedremo molti programmi usare il modello GPGPU attraverso Direct Computing di Microsoft che è ovviamente cross vendor visto che è supportato sia da AMD che da NVIDIA.
OpenCL rimarrà IMHO confinato a quei pochi programmi cross platform di un certo spessore che possono trarre vantaggio dal modello GPGPU e che girano sia su Windows che su Mac OS.
Spero di no :(
Ma sempre meglio del CUDA...
Più che OpenCL credo che vedremo molti programmi usare il modello GPGPU attraverso Direct Computing di Microsoft che è ovviamente cross vendor visto che è supportato sia da AMD che da NVIDIA.
OpenCL rimarrà IMHO confinato a quei pochi programmi cross platform di un certo spessore che possono trarre vantaggio dal modello GPGPU e che girano sia su Windows che su Mac OS.
Se iniziano a spingere i rack tesla vedrai molti piu' programmi in opencl di quanti ne vedrai in Direct Computing, gia' oggi e' possibile avere cluster CUDA su linux. Inoltre la comunita' scientifica tende sempre a preferire la creazione di algoritmi e librerie cross platform.
Noi ci stiamo gia' orientando in quella direzione, la comunita' opensource pure.
DarKilleR
01-10-2009, 21:22
...ma sono l'unico quasi sconvolto dal fatto che: NVIDIA ALLA PROPRIA FIERA...
NON HA mostrato una TechDemo mostrando le potenzialità della sua scheda?
Evidentemente è così indietro che per le mani non ha ancora niente di definitivo...però avrebbe acquistato serietà e soprattutto invogliato molti clienti ad aspettare...
Per ora cosa abbiamo invece?
Dylan BJ
01-10-2009, 21:31
Beh, ci stiamo basando semplicemente sulle immagini dell'articolo, in cui non si vede ;)
(e guardando un'immagine su beyond3d, la trovate qui (http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png), pare proprio non esserci)
scusate perche' il nome GF100?
Se iniziano a spingere i rack tesla vedrai molti piu' programmi in opencl di quanti ne vedrai in Direct Computing, gia' oggi e' possibile avere cluster CUDA su linux. Inoltre la comunita' scientifica tende sempre a preferire la creazione di algoritmi e librerie cross platform.
Noi ci stiamo gia' orientando in quella direzione, la comunita' opensource pure.
Stai pur sempre parlando di ambiti specifici.
Dal mio punto di vista, CUDA verrà utilizzato dalla applicazioni custom dei centri di ricerca, OpenCL sarà utilizzato in ambito accademico, su Mac OS, su Linux e tutti gli altri sistemi operativi che lo supporteranno e da quei pochi programmi che possono avvantaggiarsi del GPGPU che sono cross platform mentre Direct Computing sarà lo standard de facto per i sistemi Windows.
Se prendiamo una software house che sviluppa software per Windows di uso comune (è una grossa fetta di applicazioni) in grado di avvantaggiarsi del GPGPU (bisogna vedere quante saranno) per Windows e che mira a qualsiasi utente comune, perché dovrebbe scegliere OpenCL (CUDA non prendiamolo neppure in considerazione) piuttosto che Direct Computing?
Se prendiamo una software house che sviluppa software per Windows di uso comune (è una grossa fetta di applicazioni) in grado di avvantaggiarsi del GPGPU (bisogna vedere quante saranno) per Windows e che mira a qualsiasi utente comune, perché dovrebbe scegliere OpenCL (CUDA non prendiamolo neppure in considerazione) piuttosto che Direct Computing?
Perche' le funzionalita' offerte sono uguali e sopratutto la facilita' di porgrammazione e' la stessa (a differenza di opengl e directx). E ormai per il desktop il mercato e' quasi 10% mac, chiudersi le possibilita' di un porting facile e' controproducente.
L'unico posto dove sono sicuro che Direct Compute spopolera' saranno i giochi visto che se usi directx il problema del porting non si pone.
Per essere chiari: imho adobe usera' opencl.
edit: una ricerchina veloce mi ha fatto trovare questo articolo. (http://www.xbitlabs.com/news/video/display/20090804231719_DirectX_Compute_Shaders_Less_Advanced_than_OpenCL_Head_of_Khronos_Group.html)
Se quello che dicono qui e' vero per eseguire dei compute shaders e' necessario sempre istanziare una scena directx, mentre opencl oltre a essere cross platform puo' eseguire senza la necessita' di istanziare alcuna scena 3d sulla scheda. Il che renderebbe davvero poco vantaggioso l'uso dei compute shaders per tutte quelle applicazioni che necessitano della scheda video solo per la computazione.
Alla luce di questo sono sempre piu' convinto che i compute shaders saranno utilizzati solo nei videogames.
Zappa1981
01-10-2009, 22:14
hahaha la nvidia è indietro come pochi e si arrampica sugli specchi.. tanti termini ma alla fine ati l ha battuta sul tempo e le schede promettono bene...sta volta cambio la x1950gt con una bella scheda nuova...eheheh...
Perche' le funzionalita' offerte sono uguali e sopratutto la facilita' di porgrammazione e' la stessa (a differenza di opengl e directx). E ormai per il desktop il mercato e' quasi 10% mac, chiudersi le possibilita' di un porting facile e' controproducente.
L'unico posto dove sono sicuro che Direct Compute spopolera' saranno i giochi visto che se usi directx il problema del porting non si pone.
Bisogna vedere anche con quali linguaggi OpenCL sarà facilmente sfruttabile, al momento credo siano disponibili solo C, C++ o Objective-C (su Mac OS). Contrariamente, Direct Computing sarà utilizzabile con tutti i linguaggi supportati da Visual Studio quindi direi che la scelta è ancora a favore di Direct Computing.
Per essere chiari: imho adobe usera' opencl.
Adobe ha già fatto una mossa strana, se non sbaglio l'ultima versione della CS usa CUDA, probabilmente passeranno ad OpenCL visto che scrivono programmi generalmente cross platform.
Bisogna vedere anche con quali linguaggi OpenCL sarà facilmente sfruttabile, al momento credo siano disponibili solo C, C++ o Objective-C (su Mac OS). Contrariamente, Direct Computing sarà utilizzabile con tutti i linguaggi supportati da Visual Studio quindi direi che la scelta è ancora a favore di Direct Computing.
Ho aggiunto altro sopra (http://hwupgrade.it/forum/showpost.php?p=29112416&postcount=78), riporto:
una ricerchina veloce mi ha fatto trovare questo articolo. (http://www.xbitlabs.com/news/video/display/20090804231719_DirectX_Compute_Shaders_Less_Advanced_than_OpenCL_Head_of_Khronos_Group.html)
Se quello che dicono qui e' vero per eseguire dei compute shaders e' necessario sempre istanziare una scena directx, mentre opencl oltre a essere cross platform puo' eseguire senza la necessita' di istanziare alcuna scena 3d sulla scheda. Il che renderebbe davvero poco vantaggioso l'uso dei compute shaders per tutte quelle applicazioni che necessitano della scheda video solo per la computazione.
Alla luce di questo sono sempre piu' convinto che i compute shaders saranno utilizzati solo nei videogames.
Edit: inoltre che io sappia l'unico linguaggio in cui puoi scrivere un compute shaders e' un simil C, esattamente come opencl... ma potrei benissimo sbagliarmi: dove hai preso l'info che i compute shaders potranno essere scritti anche in altri linguaggi?
"la facilita' di porgrammazione e' la stessa"
ancora con 'sta storia?!?!?!
ma hai programmato in CUDA o NO?
voi parlate di porting?!?!?!
non avete la piu' pallida idea di quello che scrivete.
prima che i software CUDA compilati senza errori cominciassero a funzionare abbiamo dovuto riconfigurare L'OS una decina di volte spesso andando per tentativi!!!
basta un thread che sta "antipatico" ai driver nvidia e il software CUDA si va a far benedire!!!
e voi parlate di porting e cross platform!?!?!?
io realmente non comprendo questo delirio di commenti.
quelli di NVIDIA cercano di vendere aria fritta a caro prezzo e invece di criticare ci andate dietro?
CUDA si impalla ogni tre per due almeno con i tools attuali e non è cosi' veloce come vogliono far credere ed inoltre ha una flessibilità pari a 0.
Quasi quasi rimpiango l'OCCAM e i transputer ai tempi dei 386.
non ho ancora provato a sviluppare algoritmi per il CELL su ps3-linux perche' reputavo fosse una perdita di tempo anzi un delirio, ma da quando ho provato CUDA quasi quasi la ps3 credo sia meglio.
"la facilita' di porgrammazione e' la stessa"
ancora con 'sta storia?!?!?!
ma hai programmato in CUDA o NO?
voi parlate di porting?!?!?!
non avete la piu' pallida idea di quello che scrivete.
prima che i software CUDA compilati senza errori cominciassero a funzionare abbiamo dovuto riconfigurare L'OS una decina di volte spesso andando per tentativi!!!
basta un thread che sta "antipatico" ai driver nvidia e il software CUDA si va a far benedire!!!
e voi parlate di porting e cross platform!?!?!?
io realmente non comprendo questo delirio di commenti.
quelli di NVIDIA cercano di vendere aria fritta a caro prezzo e invece di criticare ci andate dietro?
CUDA si impalla ogni tre per due almeno con i tools attuali e non è cosi' veloce come vogliono far credere ed inoltre ha una flessibilità pari a 0.
Quasi quasi rimpiango l'OCCAM e i transputer ai tempi dei 386.
non ho ancora provato a sviluppare algoritmi per il CELL su ps3-linux perche' reputavo fosse una perdita di tempo anzi un delirio, ma da quando ho provato CUDA quasi quasi la ps3 credo sia meglio.
Perdonami homero, qui stiamo parlando di opencl e compute shaders.
La stabilita' dei driver nvidia e il toolkit CUDA non rientrano in questa discussione.
una ricerchina veloce mi ha fatto trovare questo articolo. (http://www.xbitlabs.com/news/video/display/20090804231719_DirectX_Compute_Shaders_Less_Advanced_than_OpenCL_Head_of_Khronos_Group.html)
In tal caso OpenCL diventerebbe veramente interessante, ma prima voglio vedere se è veramente più complesso utilizzare DC.
È bello vedere come le dichiarazioni di KG e Microsoft siano piuttosto differenti su DC, il primo dice che è legato alla pipeline grafica, il secondo (che sviluppa DC) dice che non lo è, credo che dovremmo aspettare per capire bene come funziona. :D
Edit: inoltre che io sappia l'unico linguaggio in cui puoi scrivere un compute shaders e' un simil C, esattamente come opencl... ma potrei benissimo sbagliarmi: dove hai preso l'info che i compute shaders potranno essere scritti anche in altri linguaggi?
Idea mia, visto che è possibile utilizzare D3D con qualsiasi linguaggio supportato da Visual Studio immagino che la stessa cosa varrà per DC. Sul linguaggio utilizzato per i compute shader immagino che non ci siano stati cambiamenti, si tratta di un linguaggio C like ma se non sbaglio è piuttosto "OO".
In tal caso OpenCL diventerebbe veramente interessante, ma prima voglio vedere se è veramente più complesso utilizzare DC.
È bello vedere come le dichiarazioni di KG e Microsoft siano piuttosto differenti su DC, il primo dice che è legato alla pipeline grafica, il secondo (che sviluppa DC) dice che non lo è, credo che dovremmo aspettare per capire bene come funziona. :D
Beh, vedremo.
Idea mia, visto che è possibile utilizzare D3D con qualsiasi linguaggio supportato da Visual Studio immagino che la stessa cosa varrà per DC. Sul linguaggio utilizzato per i compute shader immagino che non ci siano stati cambiamenti, si tratta di un linguaggio C like ma se non sbaglio è piuttosto "OO".
Beh, io penso che funzionera' come funzionava prima quando lanciavi gli shared sulla GPU: la tua applicazione la scrivi nel linguaggio che vuoi (C#, C++, C ecc...), ma nel momento in cui vai a inviare una computazione di shading (uno shader o un compute shader) direttamente sulla gpu importi il tuo bel file C scritto a parte. Un po' come si faceva prima che importavi il tuo bel file scritto in HLSL. Che io sappia le GPU DX11 non saranno in grado far girare codice di alto livello (con cose come Introspection di una classe o roba del genere), il massimo che supporteranno sara' forse il costrutto try/catch. Sulle attuali GPU ad esempio non e' possibile far girare codice con exception e try/catch, ma non so se questa e' una limitazione del compilatore o e' una roba hardware.
The Gold Bug
01-10-2009, 22:55
Ma quello nell'ultima foto è Massimo Liguori :D
...ma sono l'unico quasi sconvolto dal fatto che: NVIDIA ALLA PROPRIA FIERA...
NON HA mostrato una TechDemo mostrando le potenzialità della sua scheda?
Evidentemente è così indietro che per le mani non ha ancora niente di definitivo...però avrebbe acquistato serietà e soprattutto invogliato molti clienti ad aspettare...
Per ora cosa abbiamo invece?
Nessun GF100 è funzionante. Tutte le demo presentate girano su GT200. La scheda presentata è persino un mock-up.
Esempio:
http://www.youtube.com/watch?v=r17UOMZJbGs&hd=1
120.000 particelle, il doppio della precedente demo, ma gira su GT200. Su GF100 le particelle saranno 8 volte di più (1,000,000)
hahaha la nvidia è indietro come pochi e si arrampica sugli specchi.. tanti termini ma alla fine ati l ha battuta sul tempo e le schede promettono bene...sta volta cambio la x1950gt con una bella scheda nuova...eheheh...
Complimenti x il post,veramente utile e esaustivo :doh:
Saberfang
01-10-2009, 23:34
Allora considerando che i giochi che sfrutteranno le dx11 prima del 2010 sono:
Battleforge
Stalker:Call of Pripyat
Colin McRae Dirt 2
chi compra adesso come adesso una 5870 è sicuramente un enthusiast quindi nonostante il natale di mezzo dubito che l'nVidia possa perdere grandi fette di mercato.
Oggi hanno presentato un'architettura non una scheda quindi a parte i numeri del chip è naturale non sapere nulla di quella che sarà il prodotto destinato al mercato videoludico tuttavia è evidente l'interesse per il GPU Computing e i possibili introiti in caso di successo delle schede Tesla (che avranno sicuramente un costo superiore ad una Quadro e soprattutto a una Geforce).
Tuttavia urlare alla disfatta nVidia quando adesso non si possono sfruttare le DX11 è inutile tanto vale aspettare l'uscita di questa nuova Geforce e comparare i due prodotti così da avere una scelta.
MadJackal
01-10-2009, 23:44
Nessun GF100 è funzionante. Tutte le demo presentate girano su GT200. La scheda presentata è persino un mock-up.
Esempio:
http://www.youtube.com/watch?v=r17UOMZJbGs&hd=1
120.000 particelle, il doppio della precedente demo, ma gira su GT200. Su GF100 le particelle saranno 8 volte di più (1,000,000)
Forse. Nemmeno il presentatore ne è sicuro. :rolleyes:
EDIT:
Beh, io penso che funzionera' come funzionava prima quando lanciavi gli shared sulla GPU: la tua applicazione la scrivi nel linguaggio che vuoi (C#, C++, C ecc...), ma nel momento in cui vai a inviare una computazione di shading (uno shader o un compute shader) direttamente sulla gpu importi il tuo bel file C scritto a parte. Un po' come si faceva prima che importavi il tuo bel file scritto in HLSL. Che io sappia le GPU DX11 non saranno in grado far girare codice di alto livello (con cose come Introspection di una classe o roba del genere), il massimo che supporteranno sara' forse il costrutto try/catch. Sulle attuali GPU ad esempio non e' possibile far girare codice con exception e try/catch, ma non so se questa e' una limitazione del compilatore o e' una roba hardware.
Stando al BasicCompute sample DX11 nel DirectX SDK di Agosto 2009, pare funzionare in maniera molto simile agli shader tradizionali, sì, con una bella chiamata a CreateComputeShader().
Notturnia
02-10-2009, 00:59
non vedo l'ora che escano questi mostriciattoli perchè spero di farmi il pc nuovo a cavallo dell'anno e una enthusiasm mi piacerebbe parecchio..
questo Fermi mi pare piena di belle cose potenzialmente veloci..
forza a testare e creare Nvidia che sennò mi tocca la 5870x2 o la 5890...
Kharonte85
02-10-2009, 01:23
In molti si aspettavano da Nvidia una risposta del tipo: "Sappiate che anche se siamo in ritardo, stiamo arrivando."
E' esattamente quello che è successo infatti...:fagiano:
Questo oggi con Nvidia nn è assolutamente accaduto, cioè una semplice presentazione dell'architettura che verrà nn ha alcuna valenza se nn vengono fornite nemmeno le frequenze (che solitamente sono la prima cosa che si fissano) o tuttalpiù almeno uno straccio di istogramma per comparare l'attuale TOP Nvidia con Fermi. Oltre al fatto che nn si fanno accenni alla data di uscita. Se si parlasse con certezza di fine 2009 potremmo avere la speranza che sia in commercio nel gennaio 2010, ma se stiamo parlando del primo trimestre 2010 c'è il problema che è un tempo sufficiente per avere una risposta preventiva da parte di ATI (alias 5890 x2). Nel 2007, poco prima della presentazione di R600, le specifiche che emersero accreditavano alla schede una quasi convinzione di superiorità rispetto a G80 peccato che poi le cose nn andarono così. Spero vivamente che Nvidia nn sforni una GPU costosa e lenta (rispetto a R800) anche se tutte le dichiarazioni e soprattutto le nn dichiarazioni nn fanno presagire nulla di buono.
Per quanto riguarda l'architettura, da appassionato che cerca di capirne, sicuramente sono stati fatti dei grossi passi in avanti. Con Bus a 386bit + GDDR5 nn sarà limitata dalla banda passante ed il rinnovamento degli SP sicuramente porterà a considerevoli aumenti prestazionali, ma mi chiedo se un chip del genere possa essere cmq in grado di competere con una 5870 x2, che da alcune indiscrezioni pare nn essere solo un CrossFire, e cmq anche se fosse "solo" un CrossFire c'è in ogni caso da preoccuparsi. Se poi dovesse avere prestazioni poco superiore alla GTX295 mi chiedo seriamente cosa possa succedere alla già difficile situazione economica di Nvidia. Manca solo una multa dal Anti-Trust (che cmq per una semplice questione di correttezza si merita) e nn vedremo mai la luce di un GT400.
A me pare ovvio che non avremmo visto il benchè minimo benchmark prestazionale relativo ai videogiochi, Nvidia deve pur continuare a vendere le attuali GPU...questo non è stato un paper lunch (come quello delle Hd5xx0 ---> introvabili) è stata solo una presentazione delle tecnologie per fare sentire che qualcosa di grosso bolle in pentola: il come, il quando, il quanto rimarra' un mistero fino allo scadere dell'NDA come è sempre stato.
I numeri fanno paura, se la matematica non è un opinione la scheda andrà molto forte...il discorso sulla Dual GPU è il solito: difficile che nvidia non ne proponga una, prima o poi (e comunque non è su quelle che si fanno i guadagni)...
Goofy Goober
02-10-2009, 09:20
voglio più fatti e meno pugnette :sofico: :sofico:
fin'ora siam solo alle fotografie e al manuale tecnico di istruzioni :D
non parlo di più tempo. Dal tuo precedente post sembrava intendessi un prezzo non immediato ma quasi in linea con quello della vecchia serie. Se ho inteso male faccio ammenda... Comunque il conto sulla clientela ipotetica non vale mondo in puri termini economici. Loro i conti li fanno sulla base della quota attuale di mercato perchè le spese vanno previste in fase di bilancio (il corso di economia di gestione d'impresa al poli almeno qualcosa mi ha lasciato :asd:). Quindi non aspettiamoci prezzi più levigati sulla base della ipotetica clientela professionale che può essere conquistata, perchè quella non la conteggiano proprio...
Il prezzo di lancio delle GT200 e' stato elevato ed in linea con le G80. Solo che con la GT200 hanno sbagliato l'approccio con la concorrenza, stralcio da Anandtech:
"Ujesh is wiling to take total blame for GT200. As manager of GeForce at the time, Ujesh admitted that he priced GT200 wrong. NVIDIA looked at RV670 (Radeon HD 3870) and extrapolated from that to predict what RV770's performance would be. Obviously, RV770 caught NVIDIA off guard and GT200 was priced much too high.
Ujesh doesn't believe NVIDIA will make the same mistake with Fermi.
Se colui che ha deciso il prezzo si da' le martellate sui maroni in quel modo, possiamo credergli :D
Ma la sua predizione è che non faranno lo stesso errore con Fermi (qualcun'altro, perchè mi sembra di capire che a lui gli hanno cambiato incarico :D, da qui la mia considerazione sul prezzo di lancio: 500-550$ per il top, e 350-400$ per quella "con i Cuda core" scartati ;)
Il mio riferimento al "chippone" Fermi è che alla fine, se sono riuscirti a rientrarci con GT200 e "b", possono riuscirci anche qusta volta.
Non ho mica detto che il debutto è a 150 euro :D
halduemilauno
02-10-2009, 09:33
E' esattamente quello che è successo infatti...:fagiano:
A me pare ovvio che non avremmo visto il benchè minimo benchmark prestazionale relativo ai videogiochi, Nvidia deve pur continuare a vendere le attuali GPU...questo non è stato un paper lunch (come quello delle Hd5xx0 ---> introvabili) è stata solo una presentazione delle tecnologie per fare sentire che qualcosa di grosso bolle in pentola: il come, il quando, il quanto rimarra' un mistero fino allo scadere dell'NDA come è sempre stato.
I numeri fanno paura, se la matematica non è un opinione la scheda andrà molto forte...il discorso sulla Dual GPU è il solito: difficile che nvidia non ne proponga una, prima o poi (e comunque non è su quelle che si fanno i guadagni)...
quoto.
;)
voglio più fatti e meno pugnette :sofico: :sofico:
fin'ora siam solo alle fotografie e al manuale tecnico di istruzioni :D
e quoto anche te.
;)
g.luca86x
02-10-2009, 10:02
Il prezzo di lancio delle GT200 e' stato elevato ed in linea con le G80. Solo che con la GT200 hanno sbagliato l'approccio con la concorrenza, stralcio da Anandtech:
"Ujesh is wiling to take total blame for GT200. As manager of GeForce at the time, Ujesh admitted that he priced GT200 wrong. NVIDIA looked at RV670 (Radeon HD 3870) and extrapolated from that to predict what RV770's performance would be. Obviously, RV770 caught NVIDIA off guard and GT200 was priced much too high.
Ujesh doesn't believe NVIDIA will make the same mistake with Fermi.
Se colui che ha deciso il prezzo si da' le martellate sui maroni in quel modo, possiamo credergli :D
Ma la sua predizione è che non faranno lo stesso errore con Fermi (qualcun'altro, perchè mi sembra di capire che a lui gli hanno cambiato incarico :D, da qui la mia considerazione sul prezzo di lancio: 500-550$ per il top, e 350-400$ per quella "con i Cuda core" scartati ;)
Il mio riferimento al "chippone" Fermi è che alla fine, se sono riuscirti a rientrarci con GT200 e "b", possono riuscirci anche qusta volta.
Non ho mica detto che il debutto è a 150 euro :D
a posto, allora faccio ammenda! :asd:
Comunque gran bella pippa quello di nvidia che aveva deciso i prezzi: si parlava di passaggio da 320 a 800stream processors e credeva avesse le stesse prestazioni, su per giù, della 3870? che piciu...
a posto, allora faccio ammenda! :asd:
Comunque gran bella pippa quello di nvidia che aveva deciso i prezzi: si parlava di passaggio da 320 a 800stream processors e credeva avesse le stesse prestazioni, su per giù, della 3870? che piciu...
Nessua venia: 2 parole in più per intendersi :)
Ma okkio si è parlato per mesi di 640SU, e loro potrebbero essere cascati su questa indiscrezione (oppure i primi sample di scheda erano proprio così)
E poi c'è stato il discorso della gestione dell'AA delle RV770 vs RV670 (un salto notevole ed imprevedibile).
Metti insieme questi 2 fattori, ed una GTX260 192SU che sarebbe potuta andare il 30-40% in più di una HD4870 (da qui prezzo di lancio), poi si ritrova con un 0-5% (vado a spanne) e tutto il resto della storia è cronaca di oggi :D
Se leggi il resto dell'intervista, parlano anche dell'errore di far debuttare la GT200 a 65nm invece di osare subito i 55nm. E vedi mesi di corsa contro il tempo per aumentare i margini
Ora c'è chiedersi se avessero previsto un raddoppio delle SU da RV770 a RV870 (ma non delle prestazioni, dovuto alla larghezza di banda che ho subito fatto rilevare), anche se ora, debuttando DOPO, anche della HD5870 X2, il discorso cambia.
g.luca86x
02-10-2009, 10:38
Nessua venia: 2 parole in più per intendersi :)
Ma okkio si è parlato per mesi di 640SU, e loro potrebbero essere cascati su questa indiscrezione (oppure i primi sample di scheda erano proprio così)
E poi c'è stato il discorso della gestione dell'AA delle RV770 vs RV670 (un salto notevole ed imprevedibile).
Metti insieme questi 2 fattori, ed una GTX260 192SU che sarebbe potuta andare il 30-40% in più di una HD4870 (da qui prezzo di lancio), poi si ritrova con un 0-5% (vado a spanne) e tutto il resto della storia è cronaca di oggi :D
Se leggi il resto dell'intervista, parlano anche dell'errore di far debuttare la GT200 a 65nm invece di osare subito i 55nm. E vedi mesi di corsa contro il tempo per aumentare i margini
Ora c'è chiedersi se avessero previsto un raddoppio delle SU da RV770 a RV870 (ma non delle prestazioni, dovuto alla larghezza di banda che ho subito fatto rilevare), anche se ora, debuttando DOPO, anche della HD5870 X2, il discorso cambia.
il raddoppio degli sp nella 5870 è un rumors di agosto, mi sembra, quindi non penso sapessero per tempo cosa ci fosse. Per la larghezza di banda, invece, si sapeva dall'inizio che avrebbero puntato sulle memorie un pò più veloci lasciando inalterato il bus, quindi questo magari lo hanno tenuto in conto. Resta ora da aspettare l'anno prossimo e vedere che cacchio tirano fuori. Non bisogna dimenticare che ati è da maggio che cristona con i 40nm e ancora oggi non è che ci sia l'abbondanza di 5870 in giro, anche se su alcuni shop on-line è disponibile. Non so se nvidia abbia preventivato le difficoltà di produzione, che nel suo caso, visto il chip più grande in termini puramente geometrici, dovrebbero incidere maggiormente, inficiandone quindi i costi...
il raddoppio degli sp nella 5870 è un rumors di agosto, mi sembra, quindi non penso sapessero per tempo cosa ci fosse. Per la larghezza di banda, invece, si sapeva dall'inizio che avrebbero puntato sulle memorie un pò più veloci lasciando inalterato il bus, quindi questo magari lo hanno tenuto in conto. Resta ora da aspettare l'anno prossimo e vedere che cacchio tirano fuori. Non bisogna dimenticare che ati è da maggio che cristona con i 40nm e ancora oggi non è che ci sia l'abbondanza di 5870 in giro, anche se su alcuni shop on-line è disponibile. Non so se nvidia abbia preventivato le difficoltà di produzione, che nel suo caso, visto il chip più grande in termini puramente geometrici, dovrebbero incidere maggiormente, inficiandone quindi i costi...
Fermi è partito chissà quando tempo fa' per lo sviluppo: almeno 2 anni secondo me.
Fare predizioni sulle prestazioni dei concorrenti, o sulla bontà di un processo produttivo con così tanto anticipo è tutt'altro che semplice.
I costi di produzione dipendono dal contratto stipulato da TSMC con Nvidia. Ci si può speculare quanto si vuole, ma visto che non sono pubblici, è un girare a vuoto.
Nvidia potrebbe aver comprato i wafer da 40nm, mandato i suoi tecnici, e sviluppato il prodotto, e quindi cambia enormemente se tiri fuori 5 pezzi buoni o 50.
Oppure mandato i suoi tecnici e sviluppato solo il prodotto, ma paga solo per il pezzo finito un X concordato mesi prima (è atipico, ma è una voce che ho letto diverse volte nel rapporto TSMC-Nvidia).
Francamente, m'interessa poco del costo del prodotto.
Io pago per il prezzo finale, e giudico solo quello ;)
Personalmente, con la HD4870 1Gb mi trovo nella condizione di poter aspettare fino all'estate prossima :D
sercio94
02-10-2009, 11:28
Da quello che ho capito questa è una bomba, ma se non mi danno le frequenze e tutto io non parlo...
Speriamo superi la 295 di molto...e che non consumi troppo...le Ati ad esempio non consumano molto, e per questo punto di vista sono ottime..ma (a mio parere) scaldano come termosifoni...
Le Nvidia sono più "consumose" ma scaldano di meno...secondo me un giocatore dovrebbe scelgliere dall' inizio se stare con Ati o Nvidia...
(io sono al 100% Nvidia! )
per vostra informazioni le applicazioni professionali che fanno uso di physx sono molteplici...rayfire me max softimage integra le dinamiche physx oltre a quelle ode (si puo' scegliere quale usare) blastcode della refreel thinkigparticles e non so' quante altre...scrivo questo perche' ono stato deriso quando l'ho scritto in un altro post senza specificare quali applicazioni ne fanno uso...come vedete non tutti ci preoccupiamo di come gira crysis...e nemmeno nvidiae ati ultimamente ci fanno oraimolto aso stando alle feature implementate...inutile spingere solo sulle prestazioni...ci vuole piu innovazione
g.luca86x
02-10-2009, 11:54
Da quello che ho capito questa è una bomba, ma se non mi danno le frequenze e tutto io non parlo...
Speriamo superi la 295 di molto...e che non consumi troppo...le Ati ad esempio non consumano molto, e per questo punto di vista sono ottime..ma (a mio parere) scaldano come termosifoni...
Le Nvidia sono più "consumose" ma scaldano di meno...secondo me un giocatore dovrebbe scelgliere dall' inizio se stare con Ati o Nvidia...
(io sono al 100% Nvidia! )
c'è qualcosa di contraddittorio nelle tue stesse parole: un chip che consuma meno non può scaldare più di uno che consuma di più perchè l'energia termica è quella elettrica assorbita trasformata in calore, detto in termini semplici. Quello che cambia è l'area di dissipazione che a parità di consumi c'è più calore da dissipare con i chip più piccoli, ma non è un handicap, anzi...
...la scheda presentata è un fake mal fatto non funzionante...
link 1 (http://www.techpowerup.com/105052/NVIDIA_Fermi__Tesla_Board_Pictured_in_Greater_Detail_Non-Functional_Dummy_Unveiled.html)
link 2 (http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/)
...assurdo...
...ciao Andrea...
io so solo che qua nvidia parla e straparla, e intanto Ati ha anticipato non 1 scheda, ma tutta la serie !
so solo che già stanno arrivando le schede di fascia media - QUELLE CON CUI SI FA IL MERCATO, milioni di acquirenti, nn le poche migliaia delle top !
http://translate.google.com/translate?js=n&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.mymypc.com%2Fvbp%2Fforum%2Fshowthread.php%3Fp%3D58958&sl=auto&tl=en&history_state0=
e intanto nvidia sta a fare proclami, profezie e promesse (imho per la disperazione sui suoi ritardi), e ripeto, senza dare un MINIMO bench della potenza promessa da g300 --sulla carta--.
mi ricorda il bleff di phenom (tanto hype per....... boh?)
m1llante75
02-10-2009, 12:24
Questa per me è solo una mossa per scoraggiare gli entusiast a passare ad ATI che attualmente ha a disposizione le schede migliori per prestazioni, prezzi, consumi.
Cercano di buttare fumo per frenare l'ascesa di ATI nel campo GPU. A me solo per la zozzata di cambiare nome rivendendo schede di tre anni fa mi fa vomitare questa non è altro che una mossa sporca di nvidia. Cosa hanno mostrato una scato vuotà? OK le caratteristiche tecniche, ma hanno un sample con bench o altro?
Per me sono indietro e hanno paura che anche i fedeli nvidia passino ad ATI tutto qui.
La mostrassero in funzione e dichiarassero la data di uscita.
Non sono un fanboy, ma guardo solo i fatti e mi faccio le mie ideee. Se fossi un manager nvidia probabilmente avrei fatto la stessa cosa non li biasimo, ma da consumatore non posso che ripudiare questo comportamento (mia interpretazione).
Poi giustamente non c'è gioco che non possa essere giocato a palla (a parte le tre esclusive PC Crysis, Clear Sky, e Arma2 che comunque mi sono goduto alla grande) con una scheda da 130 euri ATI 4870 o GT260). A parte risoluzioni mostruose ovviamente (0.001% del mercato forse)
g.luca86x
02-10-2009, 12:30
...la scheda presentata è un fake mal fatto non funzionante...
link 1 (http://www.techpowerup.com/105052/NVIDIA_Fermi__Tesla_Board_Pictured_in_Greater_Detail_Non-Functional_Dummy_Unveiled.html)
link 2 (http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/)
...assurdo...
...ciao Andrea...
il tuo secondo link è pazzesco! Perfino le saldature fasulle sul pcb e i connettori che non possono essere inseriti... Avevo ragione a dire che il cinese tiene in mano solo un dissipatore attaccato ad un pezzo di fr4... VERGOGNA!!!
MadJackal
02-10-2009, 12:44
il tuo secondo link è pazzesco! Perfino le saldature fasulle sul pcb e i connettori che non possono essere inseriti... Avevo ragione a dire che il cinese tiene in mano solo un dissipatore attaccato ad un pezzo di fr4... VERGOGNA!!!
Ma che vergogna... E' tutta da ridere :D
il tuo secondo link è pazzesco! Perfino le saldature fasulle sul pcb e i connettori che non possono essere inseriti... Avevo ragione a dire che il cinese tiene in mano solo un dissipatore attaccato ad un pezzo di fr4... VERGOGNA!!!
...senza dimenticare il pcb segato a manina...ripeto...assurdo...non hanno nemmeno usato il pcb originale destinato alla scheda...
...ciao Andrea...
yossarian
02-10-2009, 12:49
io so solo che qua nvidia parla e straparla, e intanto Ati ha anticipato non 1 scheda, ma tutta la serie !
so solo che già stanno arrivando le schede di fascia media - QUELLE CON CUI SI FA IL MERCATO, milioni di acquirenti, nn le poche migliaia delle top !
http://translate.google.com/translate?js=n&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.mymypc.com%2Fvbp%2Fforum%2Fshowthread.php%3Fp%3D58958&sl=auto&tl=en&history_state0=
e intanto nvidia sta a fare proclami, profezie e promesse (imho per la disperazione sui suoi ritardi), e ripeto, senza dare un MINIMO bench della potenza promessa da g300 --sulla carta--.
mi ricorda il bleff di phenom (tanto hype per....... boh?)
non ne dà perchè non può darne
non ne dà perchè non può darne
col risultato che se viene veramente presentata a "carnevale", si starà nel frattempo parlando del + e del - sulla serie 6xxx, mentre la serie 5xxx va a piede libero. 6 mesi in informatica sono una vita..... :mad:
yossarian
02-10-2009, 13:01
col risultato che se viene veramente presentata a "carnevale", si starà nel frattempo parlando del + e del - sulla serie 6xxx, mentre la serie 5xxx va a piede libero. 6 mesi in informatica sono una vita..... :mad:
sto dicendo da oltre un anno che nVidia è in affanno; prima ha dovuto inseguire sul processo produttivo, che ATi ha potuto testare con tutta calma; poi ha dovuto modificare la sua architettura (perchè GT200 non era così flessibile da diventare dx11 ma neppure dx10.1 con poche modifiche); inoltre insiste con la strategia del chippone, ma non può fare diversamente avendo scelto la strada di un chip di tipo superscalare
Il risultato è stato che ha dovuto sacrificare l'intera serie degli scarti di GT200 a 65 e a 55 nm perchè si sovrapponevano alle serie precedenti e ha dovuto tentare un salto (quasi) nel buio, con un nuovo pp e una nuova architettura col risultato che, al momento, ha solo slide da mostrare.
Saberfang
02-10-2009, 13:09
Continuo a non capire cosa cambia se in fondo la scheda mostrata è solo un guscio vuoto. Hanno mostrato dei benchmark utilizzando la scheda? No. Dato specifiche su un particolare futuro modello? No.
Per quanto mi riguarda potevano anche non mostrare nulla tanto quello di cui volevano parlare riguardava l'architettura non una Geforce futura.
Qualcuno ha fretta di acquistare una nuova scheda grafica performante con supporto per le DX11? Perfetto allora le ATI sono li per quello. Qualcuno vuole sfruttare la diminuzione di prezzo delle vecchie DX10? Può scegliere tra nVidia e ATI. Qualcuno non ha fretta e può permettersi di aspettare? Bene nVidia ha detto che tra qualche mese arriverà anche lei e sta affilando bene le armi, tutto qui.
Continuo a non capire cosa cambia se in fondo la scheda mostrata è solo un guscio vuoto.
nn c'è molto da capire........
Considerando che intanto ati sta per diffondere anche la fascia media (il vero guradagno, milioni di acquirenti, nn le poche migliaia delle top), devo constatare che Ati ha anticipato non 1 scheda, ma tutta la serie.
Devo dedurre anche che attualmente Nvidia nn ha in mano niente oltre alle bellissime slide, nn ha nemmeno 1 scheda funzionante da mostrare, e nemmeno un bench da VOLER mostrare...... perchè ? (phenom docet)
Per carnevale credo uscirà, ma nel frattempo in 5-6 mesi (una vita in ambiente informatico) ati venderà pure agli eschimesi.
per te questa è una perdita o un guadagno per nvidia ? quanti cambieranno nello stesso anno un scheda media ?
Kharonte85
02-10-2009, 13:23
Continuo a non capire cosa cambia se in fondo la scheda mostrata è solo un guscio vuoto. Hanno mostrato dei benchmark utilizzando la scheda? No. Dato specifiche su un particolare futuro modello? No.
Per quanto mi riguarda potevano anche non mostrare nulla tanto quello di cui volevano parlare riguardava l'architettura non una Geforce futura.
Qualcuno ha fretta di acquistare una nuova scheda grafica performante con supporto per le DX11? Perfetto allora le ATI sono li per quello. Qualcuno vuole sfruttare la diminuzione di prezzo delle vecchie DX10? Può scegliere tra nVidia e ATI. Qualcuno non ha fretta e può permettersi di aspettare? Bene nVidia ha detto che tra qualche mese arriverà anche lei e sta affilando bene le armi, tutto qui.
Esattamente.
nn c'è molto da capire........
Considerando che intanto ati sta per diffondere anche la fascia media (il vero guradagno, milioni di acquirenti, nn le poche migliaia delle top), devo constatare che Ati ha anticipato non 1 scheda, ma tutta la serie.
Devo dedurre anche che attualmente Nvidia nn ha in mano niente oltre alle bellissime slide, nn ha nemmeno 1 scheda funzionante da mostrare, e nemmeno un bench da VOLER mostrare...... perchè ? (phenom docet)
Per carnevale credo uscirà, ma nel frattempo in 5-6 mesi (una vita in ambiente informatico) ati venderà pure agli eschimesi.
per te questa è una perdita o un guadagno per nvidia ? quanti cambieranno nello stesso anno un scheda media ?
Da notare che i benchmark non li avrebbero mostrati nemmeno se avessero potuto, figuriamoci quando ottimisticamente le schede saranno presentate a dicembre e saranno disponibili nel Q1 2010, per nvidia sarebbe tirarsi la zappa sui piedi perche nessuno prenderebbe più una scheda nvidia da qui a natale e questo per l'azienda sarebbe ben peggio che fare vendere AMD/ATI, non so se mi sono spiegato.
Non è mai successo che Nvidia svelasse anche solo il giorno prima della fine dell'NDA le prestazioni della proprie schede, e questo è valso anche per il vincente G80 quindi...
nessuno prenderebbe più una scheda nvidia da qui a natale e questo per l'azienda sarebbe ben peggio
è più esatto dire che attualmente nessuno prenderebbe più una scheda ati/invidia precedente..... con 200 euro ti fai una 5850
chi è quel fesso (rispettosamente parlando) che butta anche solo 100 euro per qualcosa di superato ?
Non è mai successo che Nvidia svelasse anche solo il giorno prima della fine dell'NDA le prestazioni della proprie schede, e questo è valso anche per il vincente G80 quindi...
ma stavolta dovrebbe, anche solo per fermare gli indecisi; Ati sta uscendo la serie media, il vero guadagno, a poco prezzo
http://translate.google.com/translate?js=n&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.mymypc.com%2Fvbp%2Fforum%2Fshowthread.php%3Fp%3D58958&sl=auto&tl=en&history_state0=
Kharonte85
02-10-2009, 13:30
è più esatto dire che attualmente nessuno prenderebbe più una scheda ati/invidia precedente..... con 200 euro ti fai una 5850
chi è quel fesso (rispettosamente parlando) che butta anche solo 100 euro per qualcosa di superato ?
Appunto, già sarà difficile per Nvidia vendere con Cypress nei paraggi (per fortuna di nvidia la disponibilità per ora sembra molto limitata), figuriamoci se aggiungesse l'ombra della sua stessa Gpu di successiva generazione...:mc:
Nvidia ribatterà abbassando i prezzi come faceva AMD/ATI quando non era competitiva...pero' sarebbe davvero un suicidio svelare ADESSO le prestazioni delle future GPU nvidia.
MiKeLezZ
02-10-2009, 13:34
Le HD4870 hanno i chip di metà Agosto e il PCB di Settembre, quindi rispettivamente di 1 mese, 1 mese e mezzo prima della effettiva commercializzazione
Non deve stupire la scheda Fermi mostrata sia una pre-produzione con le viti del ferramenta, se è vero il debutto in Dicembre, le è concesso lo resti per almeno un altro mese e mezzo
D'altronde NVIDIA non poteva aspettare altri 1-2 mesi solo per mostrare qualcosa di meno artigianale
capitan_crasy
02-10-2009, 13:54
Le HD4870 hanno i chip di metà Agosto e il PCB di Settembre, quindi rispettivamente di 1 mese, 1 mese e mezzo prima della effettiva commercializzazione
Non deve stupire la scheda Fermi mostrata sia una pre-produzione con le viti del ferramenta, se è vero il debutto in Dicembre, le è concesso lo resti per almeno un altro mese e mezzo
D'altronde NVIDIA non poteva aspettare altri 1-2 mesi solo per mostrare qualcosa di meno artigianale
Su questo siamo d'accordo, quello che trovo ridicolo è mostrare in bella vista una scheda FAKE, che in ambiti di presentazione della architettura Fermi non c'entra assolutamente una mazza...
Insomma potevano trovare qualsiasi altro modo per apparire, purtroppo hanno scelto il peggiore...
http://www.fudzilla.com/images/stories/2009/September/General%20News/fermi_wtr.jpg
http://www.fudzilla.com/images/stories/2009/September/General%20News/fermi_wtr.jpg
Guarda come ride....:D :D :D , per la serie:"Megapacco", probabilmente c'è un mattone sotto le plastiche
Questa foto è pazzesca :D
Cosa ci sia da ridere, presentazione lollosa a parte, lo sanno solo loro, al loro posto avrei un viso molto scuro data la situazione del progetto Fermi...
sniperspa
02-10-2009, 14:28
Numerelli ce ne stanno?
sniperspa
02-10-2009, 14:53
Comunque se Nvidia avesse avuto veramente qualcosa di funzionande avrebbe per lo meno dato una mezza idea di quanto va la scheda...invece secondo me sono ancora in alto mare e prima di 2 mesi sarà ben difficile vedere qualcosa di nuovo nvidia sul mercato...
Ho la sensazione che stiano correndo ai ripari per fare in modo che i consumatori aspettino le nuove nvidia invece di prendere subito hd5xxx soprattutto perchè questo graverebbe sull'immagine dell'azienda....
Sia chiaro,lieto di essere smentito, visto che quando nvidia butterà sul mercato le nuove schede scenderanno i prezzi delle schede già in commercio(e ne gioviamo solo noi consumatori)
Poi il fatto che questo Fermi sarà competitivo non ci saranno dubbi in quanto non si azzarderebbe mai nvidia a mettere sul commercio qualcosa di non competitivo,quello che è da vedere è quando usciranno...
maxsin72
02-10-2009, 15:28
...ma sono l'unico quasi sconvolto dal fatto che: NVIDIA ALLA PROPRIA FIERA...
NON HA mostrato una TechDemo mostrando le potenzialità della sua scheda?
Evidentemente è così indietro che per le mani non ha ancora niente di definitivo...però avrebbe acquistato serietà e soprattutto invogliato molti clienti ad aspettare...
Per ora cosa abbiamo invece?
No, siamo almeno in due. Io credo che le GT300 non riusciranno ad essere sugli scaffali prima del 2010.
"Fermi" tutti......questa è una.........
........BUFALA..........!!!!!!!! :D
Comunque se Nvidia avesse avuto veramente qualcosa di funzionande avrebbe per lo meno dato una mezza idea di quanto va la scheda...invece secondo me sono ancora in alto mare e prima di 2 mesi sarà ben difficile vedere qualcosa di nuovo nvidia sul mercato...
Ho la sensazione che stiano correndo ai ripari per fare in modo che i consumatori aspettino le nuove nvidia invece di prendere subito hd5xxx soprattutto perchè questo graverebbe sull'immagine dell'azienda....
Sia chiaro,lieto di essere smentito, visto che quando nvidia butterà sul mercato le nuove schede scenderanno i prezzi delle schede già in commercio(e ne gioviamo solo noi consumatori)
Poi il fatto che questo Fermi sarà competitivo non ci saranno dubbi in quanto non si azzarderebbe mai nvidia a mettere sul commercio qualcosa di non competitivo,quello che è da vedere è quando usciranno...
Non è detto, e il passato lo dimostra, se hai una nuova GPU in cantiere e ti accorgi che non rende come pensavi non puoi certo evitare la sua commercializzazione, lo devi fare anche se non raggiungi i risultati sperati, saltare un'intera "sfornata" è impensabile.
sniperspa
02-10-2009, 18:59
Non è detto, e il passato lo dimostra, se hai una nuova GPU in cantiere e ti accorgi che non rende come pensavi non puoi certo evitare la sua commercializzazione, lo devi fare anche se non raggiungi i risultati sperati, saltare un'intera "sfornata" è impensabile.
Certo...vero, ma penso che in questo caso tarderebbero più possibile l'uscita in modo da limitare i danni il più possibile migliorando dove può....
Qualcuno meno giovane di me si ricorda casi in cui nvidia è uscita dopo ati e con un prodotto meno competitivo?(di prodotti flop ce ne sono stati sicuramente ma non ricordo se arrivavano prima o dopo la concorrenza)
g.luca86x
02-10-2009, 19:34
mi sa che sono più giovane di te ma mi pare di ricordare quando ati era uscita con la mitica 9700pro mentre nvidia ancora annaspava con le 5000, se non erro!
Certo...vero, ma penso che in questo caso tarderebbero più possibile l'uscita in modo da limitare i danni il più possibile migliorando dove può....
Qualcuno meno giovane di me si ricorda casi in cui nvidia è uscita dopo ati e con un prodotto meno competitivo?(di prodotti flop ce ne sono stati sicuramente ma non ricordo se arrivavano prima o dopo la concorrenza)
nVidia sembra proprio spingere l'uscita ben in la, si parla di inizio 2010, addirittura febbraio.
Quando uscì la 9700Pro nVidia presento l'aspirapolvere 5800, fu un flop clamoroso, il precedente c'è ;)
mmh forse nvidia ha finito di rosicare soprattutto visto le 5800 ati in uscita a breve!
speriamo la cosa non si inverta ma siano entrambe a buon prezzo e a ottime prestazioni(finalmente una nvidia con bus basso=prezzi meno disumani delle gtx200)
g.luca86x
02-10-2009, 23:55
nVidia sembra proprio spingere l'uscita ben in la, si parla di inizio 2010, addirittura febbraio.
Quando uscì la 9700Pro nVidia presento l'aspirapolvere 5800, fu un flop clamoroso, il precedente c'è ;)
ricordavo bene! allora siamo almeno in due a ricordarlo...
ricordavo bene! allora siamo almeno in due a ricordarlo...
Si ma io sono vecchio tu no :cry:
A me pare ovvio che non avremmo visto il benchè minimo benchmark prestazionale relativo ai videogiochi, Nvidia deve pur continuare a vendere le attuali GPU...questo non è stato un paper lunch (come quello delle Hd5xx0 ---> introvabili) è stata solo una presentazione delle tecnologie per fare sentire che qualcosa di grosso bolle in pentola: il come, il quando, il quanto rimarra' un mistero fino allo scadere dell'NDA come è sempre stato.
I numeri fanno paura, se la matematica non è un opinione la scheda andrà molto forte...il discorso sulla Dual GPU è il solito: difficile che nvidia non ne proponga una, prima o poi (e comunque non è su quelle che si fanno i guadagni)...
Ma introvabili de che, scusa? Da Prossimo ce le hanno già da diversi giorni in negozio qui in Lombardia. ;)
In diversi negozi online sarà disponibile da settimana prossima.
Mi sembra anche ovvio che non ce ne siano tantissime nelle prime 2 settimane dal lancio. E' quasi sempre così per i prodotti informatici...
Certo se fossero sicuri della data di lancio l'avrebbero più o meno comunicata, visto che avrebbe "rassicurato" la community.
Per quale motivo, se tra meno di 3 mesi dovessero lanciare la scheda, non dovrebbero dire almeno la data di lancio?
Invece non hanno detto nulla, non hanno mostrato nulla che ci giri sopra (che so, una demo), perchè non esiste ancora nulla (la scheda è un prototipo non funzionante).
A me pare mooolto difficile (per non dire impossibile) che uscirà a dicembre, visto che siamo arrivati ad ottobre e manco esiste un ES funzionante. ;)
Kharonte85
03-10-2009, 10:08
Ma introvabili de che, scusa? Da Prossimo ce le hanno già da diversi giorni in negozio qui in Lombardia. ;)
In diversi negozi online sarà disponibile da settimana prossima.
A me pare che la disponibilità della maggior parte dei negozi sia a partire da settimana prossima, quindi ad ora sono introvabili (al momento sul forum sono in pochissimi ad averla nel case).
Mi sembra anche ovvio che non ce ne siano tantissime nelle prime 2 settimane dal lancio. E' quasi sempre così per i prodotti informatici...
Dipende, mi ricordo di aver visto disponibilità migliori....e francamente non capisco il motivo per cui visto anche il noto ritardo di Nvidia, AMD non abbia aspettato un po' e fare un Hard-lunch, invece che anticipare e fare un Paper-lunch in due tempi (prima hd5870 e poi 5850).
Certo se fossero sicuri della data di lancio l'avrebbero più o meno comunicata, visto che avrebbe "rassicurato" la community.
Per quale motivo, se tra meno di 3 mesi dovessero lanciare la scheda, non dovrebbero dire almeno la data di lancio?
Invece non hanno detto nulla, non hanno mostrato nulla che ci giri sopra (che so, una demo), perchè non esiste ancora nulla (la scheda è un prototipo non funzionante).
A me pare mooolto difficile (per non dire impossibile) che uscirà a dicembre, visto che siamo arrivati ad ottobre e manco esiste un ES funzionante. ;)
Non è affatto detto...la logica umana è lontana da quella aziendale, cio' che ha senso e cio' che non lo ha in certi ambienti perde il suo confine per precipitare nel caos.
Una cosa è abbastanza certa invece: anche quello di nvidia sarà un paper-lunch (per ovvi motivi)
halduemilauno
03-10-2009, 10:56
Numerelli ce ne stanno?
per il momento questi...
http://img195.imageshack.us/img195/7057/40421036.jpg
approfitto per chiedere maggiori lumi su quei 30/256 shader a doppia precisione.
;)
halduemilauno
03-10-2009, 11:15
edit
blackshard
03-10-2009, 12:04
Ok, sembra che Fermi non esista ancora, e che la scheda sia decisamente farlocca:
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/
In particolare:
http://www.semiaccurate.com/static/uploads/2009/10_october/Fermi_power_cropped.jpg
dove si può notare che il connettore dell'alimentazione a 8 pin ha i punti di saldatura a 90° rispetto al connettore (perchè mai un ingegnere sano di mente dovrebbe fare una cosa del genere??) e tali punti di saldatura sembrano non ospitare niente.
Il connettore di alimentazione a 6 pin invece non ha alcun punto di saldatura. LOL.
sniperspa
03-10-2009, 12:16
Quando uscì la 9700Pro nVidia presento l'aspirapolvere 5800, fu un flop clamoroso, il precedente c'è ;)
Ricordo fin troppo bene la serie fx5xxx...non ricordavo se fosse uscita prima o dopo la concorrenza,ricordo solo che andava di m$%&£ pur non sapendo come andasse la concorrenza :fagiano:
approfitto per chiedere maggiori lumi su quei 30/256 shader a doppia precisione.
;)
Hal sono istruzioni per clock, non shader. C'è la stessa tabellina, in italiano/inglese su HWUpgrade.
Piuttosto non pensavo che G80 non supportasse di fatto FP64...
michelgaetano
03-10-2009, 12:50
Ok, sembra che Fermi non esista ancora, e che la scheda sia decisamente farlocca:
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/
In particolare:
http://www.semiaccurate.com/static/uploads/2009/10_october/Fermi_power_cropped.jpg
dove si può notare che il connettore dell'alimentazione a 8 pin ha i punti di saldatura a 90° rispetto al connettore (perchè mai un ingegnere sano di mente dovrebbe fare una cosa del genere??) e tali punti di saldatura sembrano non ospitare niente.
Il connettore di alimentazione a 6 pin invece non ha alcun punto di saldatura. LOL.
Dicono esista ed abbia fatto girare le varie demo, semplicemente quello mostrato è un fake ridicolo ricavato alla peggio, perhcè la vera scheda non era "presentabile".
MadJackal
03-10-2009, 13:27
Dicono esista ed abbia fatto girare le varie demo, semplicemente quello mostrato è un fake ridicolo ricavato alla peggio, perhcè la vera scheda non era "presentabile".
Si, ho letto non mi ricordo dove che l'ES era un groviglio allucinante di cavi anche io. :rolleyes:
Anche se qualcuno sta mettendo in giro la voce che esista solo quell'ES :asd:
per il momento questi...
http://img195.imageshack.us/img195/7057/40421036.jpg
approfitto per chiedere maggiori lumi su quei 30/256 shader a doppia precisione.
;)
Che io sappia non ci sono shader "a doppia precisione". :stordita:
Credo che sia un calcolo un pò stupido fatto sulla velocità di calcolo (FLOPs) relativa alle operazioni di doppia precisione, personalmente... Se non ricordo male i FLOPs in doppia precisione di GT200 erano 1/8 del massimo teorico, ed i numeri sembrano combaciare. Poi potrei ricordare male ;)
aaasssdddfffggg
03-10-2009, 13:52
a me non interessa proprio se ce la fanno a uscire per fine anno o per inizio 2010.Quello che mi interessa, e ne sono certo,è che quando esce sul mercato la scheda andrà come un missile.NVIDIA ormai sà quanto va la 5870 e facendosi 2 calcoli sà pure quanto andrà la dualGPU di ATI....
a me non interessa proprio se ce la fanno a uscire per fine anno o per inizio 2010.Quello che mi interessa, e ne sono certo,è che quando esce sul mercato la scheda andrà come un missile.NVIDIA ormai sà quanto va la 5870 e facendosi 2 calcoli sà pure quanto andrà la dualGPU di ATI....
L'altro reparto di R&D di ATi si è unito al lavoro che stava già svolgendo l'altro.
Delle prestazioni odierne se ne fanno un baffo se le schede escono fra sei mesi, visto che avranno completato già il tapeout delle nuove ;)
halduemilauno
03-10-2009, 14:20
Si, ho letto non mi ricordo dove che l'ES era un groviglio allucinante di cavi anche io. :rolleyes:
Anche se qualcuno sta mettendo in giro la voce che esista solo quell'ES :asd:
Che io sappia non ci sono shader "a doppia precisione". :stordita:
Credo che sia un calcolo un pò stupido fatto sulla velocità di calcolo (FLOPs) relativa alle operazioni di doppia precisione, personalmente... Se non ricordo male i FLOPs in doppia precisione di GT200 erano 1/8 del massimo teorico, ed i numeri sembrano combaciare. Poi potrei ricordare male ;)
si certo avevo confuso io. i Gflops in doppia precisione sono 819,2 questo su base shader a 1600 che cmq pare la versione definitiva di GF100 sarà 1700.
grazie.
;)
yossarian
03-10-2009, 14:39
per il momento questi...
http://img195.imageshack.us/img195/7057/40421036.jpg
approfitto per chiedere maggiori lumi su quei 30/256 shader a doppia precisione.
;)
Hal sono istruzioni per clock, non shader. C'è la stessa tabellina, in italiano/inglese su HWUpgrade.
Piuttosto non pensavo che G80 non supportasse di fatto FP64...
sono unità di calcolo fp64; G80 ne è assolutamente sprovvisto (infatti non effettua calcoli in doppia precisione); su GT200 ce ne sono 30 fisiche, ossia alu dedicate ai soli calcoli fp64; su GT300 ce ne sono 256 "logiche", ossia ogni due alu fp32 fisiche emulano una alu fp64 (come avviene in R600 e derivati, con la differenza che li servono 4 alu per emularne una fp64)
halduemilauno
03-10-2009, 14:40
Si, ho letto non mi ricordo dove che l'ES era un groviglio allucinante di cavi anche io. :rolleyes:
Anche se qualcuno sta mettendo in giro la voce che esista solo quell'ES :asd:
;)
sono stati Drew Henry e Jason Paul a dire questo e che quindi la scheda mostrata in realtà era una mock-up. e sono anche gli stessi che hanno confidato ad alcuni dei presenti le prestazioni della stessa in versione gaming.
;)
halduemilauno
03-10-2009, 14:43
sono unità di calcolo fp64; G80 ne è assolutamente sprovvisto (infatti non effettua calcoli in doppia precisione); su GT200 ce ne sono 30 fisiche, ossia alu dedicate ai soli calcoli fp64; su GT300 ce ne sono 256 "logiche", ossia ogni due alu fp32 fisiche emulano una alu fp64 (come avviene in R600 e derivati, con la differenza che li servono 4 alu per emularne una fp64)
ecco quel che non ricordavo se le 30 di GT200 erano fisiche o meno.
grazie.
;)
g.luca86x
03-10-2009, 15:07
sono stati Drew Henry e Jason Paul a dire questo e che quindi la scheda mostrata in realtà era una mock-up. e sono anche gli stessi che hanno confidato ad alcuni dei presenti le prestazioni della stessa in versione gaming.
;)
hai qualche numerello derivante da tali indiscrezioni oppure i confidenti si sono riservati il riserbo?
halduemilauno
03-10-2009, 15:39
hai qualche numerello derivante da tali indiscrezioni oppure i confidenti si sono riservati il riserbo?
qualche numerello(come lo chiami tu)si è uscito fuori. ma consiglio di aspettare maggiori info. tanto per saperne di + non credo che toccherà aspettare molto. almeno spero.
Altro Articolo inutile IMHO pro Nvidia alquanto inutile in quanto si parla di una tecnologia che chissa' quando verra veramente utilizzata e oltre tutto si parla di una scheda che vedra' la luce tra 5 mesi, poteva stare benissimo tra le news ma se' fatto un'articolo....siamo ancora in attesa di quello della ATI 5850 che e' "realta" o di quello di 2x 5870 in Xfire!!
Sempre piu' convinto che il caso mediaworld e "The Way It's Mean to Be Paid" di nvidia sono presenti un po' ovunque.
Per quanto mi riguarda finche non ci sono i numeri di piu' siti attentidibili su cui fare raffronti e' solo aria fritta. Quindi pochi fatti e tante parole al momento piu' avere anche 356700cores che texturizzano a 256Bit ma al momento e' "ARIA".
leoneazzurro
03-10-2009, 16:11
Ci si sarebbe anche rotti le scatole di ascoltare queste teorie complottiste ogni 3 commenti: tutti i maggiori siti di hardware hanno dedicato alla presentazione dell´architettura Fermi un articolo e spesso molto piú corposo di quello visto su HWU.
g.luca86x
03-10-2009, 16:27
qualche numerello(come lo chiami tu)si è uscito fuori. ma consiglio di aspettare maggiori info. tanto per saperne di + non credo che toccherà aspettare molto. almeno spero.
vabbè ma in fondo è anche sui rumors che si discute e commenta :D e poi se usciranno nel q1 2010 allora questi numeri li avremi ufficialmente a dicembre! non sei un dipendente nvidia, vero? anche se ti confidi con noi non ti licenziano mica! resta giusto inter nos...:D
halduemilauno
03-10-2009, 17:52
vabbè ma in fondo è anche sui rumors che si discute e commenta :D e poi se usciranno nel q1 2010 allora questi numeri li avremi ufficialmente a dicembre! non sei un dipendente nvidia, vero? anche se ti confidi con noi non ti licenziano mica! resta giusto inter nos...:D
si si inter vos ma anche milan vos(0 2).
;)
blackshard
03-10-2009, 17:58
sono stati Drew Henry e Jason Paul a dire questo e che quindi la scheda mostrata in realtà era una mock-up. e sono anche gli stessi che hanno confidato ad alcuni dei presenti le prestazioni della stessa in versione gaming.
;)
http://www.tgdaily.com/content/view/44179/135/
Quella "cosa" è l'ES :)
Comunque a questo punto avrebbero potuto anche sventolare il pupazzo di paperino oppure un fungo porcino e dire che quello è GT300... nel senso che non è molto professionale, ne' verso i consumatori, ne' verso gli addetti ai lavori, mostrare un pezzo di latta e dire che quello è un prodotto rivoluzionario. Quello che vendeva il tubo Tucker poi l'hanno arrestato, per dire...
E' palese che nVidia deve far parlare di se dopo l'uscite delle Radeon 5x00
atinvidia284
03-10-2009, 18:19
Nvidia è a corto di ossigeno per mostrare un pezzo di plastica spacciato per prototipo,in molti avevano notato qualcosa di strano ma solo da poco nvidia ha confermato che si trattava di fake :D
Per l'uscita entro la fine dell'anno forse è troppo fiduciosa,chissà che alla fine non ci sarà un ulteriore annuncio ufficiale che ne sposterà l'uscita nei primi mesi del 2010
......
“The first Fermi GPUs are expected to launch by year’s end,” stressed Mr. Alibrandi.
Perhaps, Nvidia is somewhat too optimistic. At the GTC, Nvidia demonstrated the A1 revision of the Fermi-G300 graphics chip made in late August, whereas usually the company uses only A2 or even A3 revisions on commercial products. It usually takes months to create a new revision.
For example, ATI, graphics business unit of Advanced Micro Devices and the arch-rival of Nvidia, demonstrated its latest RV870 “Cypress” processor in action back in early June ’09, but was only able to release the chip commercially in late September ’09, about four months later.
http://www.xbitlabs.com/news/video/display/20091002130844_Nvidia_Admits_Showing_Dummy_Fermi_Card_at_GTC_Claims_First_Graphics_Cards_on_Track_for_Q4_2009.html
g.luca86x
04-10-2009, 00:03
Nvidia è a corto di ossigeno per mostrare un pezzo di plastica spacciato per prototipo,in molti avevano notato qualcosa di strano ma solo da poco nvidia ha confermato che si trattava di fake :D
Per l'uscita entro la fine dell'anno forse è troppo fiduciosa,chissà che alla fine non ci sarà un ulteriore annuncio ufficiale che ne sposterà l'uscita nei primi mesi del 2010
“The first Fermi GPUs are expected to launch by year’s end,” stressed Mr. Alibrandi.
Perhaps, Nvidia is somewhat too optimistic. At the GTC, Nvidia demonstrated the A1 revision of the Fermi-G300 graphics chip made in late August, whereas usually the company uses only A2 or even A3 revisions on commercial products. It usually takes months to create a new revision.
For example, ATI, graphics business unit of Advanced Micro Devices and the arch-rival of Nvidia, demonstrated its latest RV870 “Cypress” processor in action back in early June ’09, but was only able to release the chip commercially in late September ’09, about four months later.
appunto! senza contare che ati si era pure sbattuta a testare il processo produttico a 40nm con rv740, molto più piccolo di rv870, ottenendo all'inizio rese ridicole. La fase di testing delle rese di produzione vera e propria nvidia ancora non l'ha nemmeno vista da lontano, visto che ancora non sanno nemmeno per certo a che frequenze far girare gt300! Certo che se nemmeno stavolta ati rosicchia qualcosa a nvidia in quote di mercato allora devono solo farsi benedire o reclamare dalla ue affichè indaghi...
hahaha la nvidia è indietro come pochi e si arrampica sugli specchi.. tanti termini ma alla fine ati l ha battuta sul tempo e le schede promettono bene...sta volta cambio la x1950gt con una bella scheda nuova...eheheh...
Visto che ci sei, cambiati pure l'avatar e mettici un'i7 :asd:
...la scheda presentata è un fake mal fatto non funzionante...
link 1 (http://www.techpowerup.com/105052/NVIDIA_Fermi__Tesla_Board_Pictured_in_Greater_Detail_Non-Functional_Dummy_Unveiled.html)
link 2 (http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/)
...assurdo...
...ciao Andrea...
Se la scheda fosse stata vera, considerando che la tecnologia è ancora "segreta", secondo te avrebbero consentito di dissezionare quel sample? La risposta è no. Quindi è assurdo che quella scheda è un fake? Ancora, la risposta è no. ;)
Aveva il solo scopo di mostrare come verrà esteticamente la prima reference board. Un sito che fa un'articolo del genere solo per fare "numeri" a mio avviso perde di credibilità l'esatto momento che lo pubblica. Se fosse stato un'engineering sample reale lo andavano a dare a loro? :asd:
michelgaetano
04-10-2009, 00:42
Se la scheda fosse stata vera, considerando che la tecnologia è ancora "segreta", secondo te avrebbero consentito di dissezionare quel sample? La risposta è no. Quindi è assurdo che quella scheda è un fake? Ancora, la risposta è no. ;)
Aveva il solo scopo di mostrare come verrà esteticamente la prima reference board.
Non è assurdo (perchè principalmente lì si parlava delle novità di Fermi, la scheda in sè lì faceva solo scena), ma perchè non dirlo? Cioè non potevano sperare che la cosa non fosse vista :stordita:
Non è assurdo (perchè principalmente lì si parlava delle novità di Fermi, la scheda in sè lì faceva solo scena), ma perchè non dirlo? Cioè non potevano sperare che la cosa non fosse vista :stordita:
Al momento che hanno consentito di dissezionare il sample hanno praticamente ammesso che era fake. Non è che un engineering sample reale si da al primo sito cinese che passa, insomma... :D
Chi si aspettava parole esplicite sulla veridicità del sample DOPO che è stato ceduto in mani esterne all'azienda forse non aveva ben capito che una multinazionale del genere è disposta a uccidere pur di non avere una fuga di informazioni di una simile tecnologia...
L'operaio che lavorava nelle fabbriche che producono per Apple che aveva perso il sample del nuovo iPhone secondo voi è morto suicida veramente? Naaaa. Io non ci credo. A quello l'hanno ammazzato. Lo fanno i governi, figuriamoci le corporation...
michelgaetano
04-10-2009, 01:06
Al momento che hanno consentito di dissezionare il sample hanno praticamente ammesso che era fake. Non è che un engineering sample reale si da al primo sito cinese che passa, insomma... :D
Chi si aspettava parole esplicite sulla veridicità del sample DOPO che è stato ceduto in mani esterne all'azienda forse non aveva ben capito che una multinazionale del genere è disposta a uccidere pur di non avere una fuga di informazioni di una simile tecnologia...
Andrebbe capito se davvero speravano di farla franca o meno (propendo per la seconda, o non permettevano simili foto - se l'hanno permesso senza pensare alla cosa sono semplicemente stupidi, e mi rifiuto di crederlo), a prescindere da quello, troverei doveroso, nel momento in cui si mostra la scheda, specificare che è solo un prototipo non funzionante che vuole solo indicare la linea delle nuove schede.
Forse chiedo troppo... :stordita:
Onymusha
04-10-2009, 10:19
nuova architettura, oltre al più che solo raddoppio degli stream, mi sa che i fanboy ATI sentono odore di presa nel di dietro :D
consumi bassi, attualmente nel mercato, versione X2, potenza già sufficiente .......LOL :D
Se la scheda fosse stata vera, considerando che la tecnologia è ancora "segreta", secondo te avrebbero consentito di dissezionare quel sample? La risposta è no. Quindi è assurdo che quella scheda è un fake? Ancora, la risposta è no. ;)
Aveva il solo scopo di mostrare come verrà esteticamente la prima reference board. Un sito che fa un'articolo del genere solo per fare "numeri" a mio avviso perde di credibilità l'esatto momento che lo pubblica. Se fosse stato un'engineering sample reale lo andavano a dare a loro? :asd:
...quelle foto sono state fatte al sample presentato dal CEO di nvidia...il sample non è stato dissezionato...è stato solo fotografato sul tavolo durante la presentazione...
...ciao Andrea...
Onymusha
04-10-2009, 11:02
capisco il rosiko per i fan ATI però la verità è che quando arriverà Nvidia si ritornerà all'era del G80 :)
PCB reference vero o finto poco importa.
capisco il rosiko per i fan ATI però la verità è che quando arriverà Nvidia si ritornerà all'era del G80 :)
PCB reference vero o finto poco importa.
il discorso qui e' che se nvidia ritarda troppo, ati fara' in tempo ad uscire con la seconda serie.
"Enrico Fermi, il fisico italiano impegnato nella realizzazione del primo reattore nucleare a fissione, vissuto nella prima metà del secolo scorso, presta il proprio cognome alla nuova architettura NVIDIA,"
I) diciamo meglio, Nvidia si appropria indebitamente del nome del famoso fisico italiano,
senza chiedere nulla a nessuno, per una scheda video che durera' non piu' di 6 mesi.. :D
II) aspettiamo la scheda einstain :asd:
III) Sti cinesi ci faranno il ..... a tutti :stordita:
e la crisi dell' industria italiana e' solo all' inizio.. :ops2:
michelgaetano
04-10-2009, 13:23
capisco il rosiko per i fan ATI però la verità è che quando arriverà Nvidia si ritornerà all'era del G80 :)
PCB reference vero o finto poco importa.
Per dire questo significa che non hai la minima cognizione del mercato (sia quello che vi fu al tempo di G80, sia l'attuale).
birmarco
04-10-2009, 17:40
Notevole. Veramente notevole. nVidia sta facendo veramente un ottimo lavoro. Con questa nuova tecnologia Fermi rivoluzionerà il mondo GPU. Già con GT200 nVidia a portato nelle case di tutti la visione 3D, il calcolo fisico e quello parallelo. ATi è rimasta ancora al vecchio stampo di GPU che spinge solo nei giochi. Molto probabilmente la serie HD5800 verrà sbaragliata dalle prestazioni di GT300. La ATi se la caverà solo per i prezzi. Da non videogiocatore (gioco solo a Crysis ogni tanto) sono più interessato all'ambito GPGPU che a quello videoludico. Sono già molto soddisfatto della mia GTX275 e credo farò un pensierino per queste GT300. Sono curioso di vedere quanti TeraFlop è in grado di generare una scheda del genere... immagino almeno 2-2,5... :sofico:
michelgaetano
04-10-2009, 18:03
Già con GT200 nVidia a portato nelle case di tutti la visione 3D, il calcolo fisico e quello parallelo.
Vedi che PhysX gira anche su G92 e G80.
E prima di parlare di sbaragliare etc sarebbe saggio avere quanto meno delle prove di quanto si afferma.
con GT200 nVidia a portato nelle case di tutti la visione 3DMa poi c'è qualcuno che sul serio li usa sti occhialini? Io non ho ancora conosciuto nessuno che li usi.
Spero che Nvidia cominci a fare anche i fatti dopo le chiacchiere... (e con "fatti" non intendo il "sabotare" gli avversari)
birmarco
04-10-2009, 18:31
Vedi che PhysX gira anche su G92 e G80.
E prima di parlare di sbaragliare etc sarebbe saggio avere quanto meno delle prove di quanto si afferma.
Lo so... era un elenco generico...
La scheda Ati non è nulla di entusiasmante. La più potente HD5800 (non la X2) va quanto una GTX295 (dipende dai giochi ecc...). Fermo restando che la 295 rispetto alla 5890 è sconveniente. Considerando che nVidia non fa uscire una GPU come la precedente e dai dettagli tecnici il raddoppio dei core ecc...) si capisce che sarà parecchio potente. Come minimo come la 5890...
E poi era un parere personale ;)
Ma poi c'è qualcuno che sul serio li usa sti occhialini? Io non ho ancora conosciuto nessuno che li usi.
Spero che Nvidia cominci a fare anche i fatti dopo le chiacchiere... (e con "fatti" non intendo il "sabotare" gli avversari)
Il 3d puoi usarlo anche senza kit e monitor. Basta impostare il driver come 3D Discovery. Puoi usare i classici occhiali di cartone da 1€ e il gioco è fatto. Devo procurarmeli assolutamente :D
maxsin72
04-10-2009, 18:35
Lo so... era un elenco generico...
La scheda Ati non è nulla di entusiasmante. La più potente HD5800 (non la X2) va quanto una GTX295 (dipende dai giochi ecc...)
Ah secondo te una scheda che ha 1 GPU che fa lo stesso lavoro (se non di più) di 2 GPU molto potenti accoppiate consumando molto di meno non è nulla di che?
Ah... guardando il tuo avatar capisco molte cose....
Il 3d puoi usarlo anche senza kit e monitor. Basta impostare il driver come 3D Discovery. Puoi usare i classici occhiali di cartone da 1€ e il gioco è fatto. Devo procurarmeli assolutamente :DMa parlavi del 3D Nvidia, forse sono stato poco attento, ma il 3D commercializzato da Nvidia a me risulta essere con occhialini attivi.
Ah secondo te una scheda che ha 1 GPU che fa lo stesso lavoro (se non di più) di 2 GPU molto potenti accoppiate consumando molto di meno non è nulla di che?Aggiungerei costando molto meno (tralasciando la questioncina delle Dx11).
michelgaetano
04-10-2009, 18:40
Lo so... era un elenco generico...
La scheda Ati non è nulla di entusiasmante. La più potente HD5800 (non la X2) va quanto una GTX295 (dipende dai giochi ecc...). Fermo restando che la 295 rispetto alla 5890 è sconveniente.
Almeno prima di parlare male di una scheda, impara il suo nome, ed è (HD) 5870. E andrà sì come una 295, ma non sarà dual gpu (e relative magagne), consuma e scalda meno, e ha directx 11.
Le manca PhysX, ma non frega molto :D
Considerando che nVidia non fa uscire una GPU come la precedente e dai dettagli tecnici il raddoppio dei core ecc...) si capisce che sarà parecchio potente. Come minimo come la 5890...
Solo speranze senza nessun dato a suffragarle. Che vada più forte è anche normale visti i mesi di ritardo, sarebbe ridicolo il contrario.
birmarco
04-10-2009, 18:51
Ah secondo te una scheda che ha 1 GPU che fa lo stesso lavoro (se non di più) di 2 GPU molto potenti accoppiate consumando molto di meno non è nulla di che?
Ah... guardando il tuo avatar capisco molte cose....
Non hai capito nulla ivece.
1) La 275 è la mia PRIMA scheda nVidia su una decina di VGa che ho acquistato e ce l'ho solo da pochi mesi. Sono rimasto molto soddisfatto perchè non girano solo coi giochi.
2) Ho specificato che era sconveniente la GTX295. Ma il paragone ra per far capire che si poteva restare a livello di ATi già adesso e andare anche oltre con il QUad-SLI. Il paragone era per far capire che nVidia parte a sviluppare una GT300 da buone e promettenti basi.
3) Se avessi avuto il logo ati avresti fatto un commento diverso? Commenti di questo tipo denotano superficialità nel trattare. Senza contare che cerchi la lite. Potevi commentare cercando argomenti concreti e non partire ad insultare.
4) Che tristezza...
Ma parlavi del 3D Nvidia, forse sono stato poco attento, ma il 3D commercializzato da Nvidia a me risulta essere con occhialini attivi.
Aggiungerei costando molto meno (tralasciando la questioncina delle Dx11).
S', 3D nVidia. E' quello che pensavo anche io. :D L'altro giorno girando tra i driver e sul sito nVidia ho scoperto che si può usare il 3D anche con occhiali anaglifici passivi (anche se avrai una qualità inferiore... di quanto non si sa... è ovvio che cercano di pubblicizzare il prodotto in kit. Cmq per 1€ credo farò la mia prova :D )
http://www.nvidia.it/object/3D_Vision_Discover_Main_it.html
birmarco
04-10-2009, 18:56
Almeno prima di parlare male di una scheda, impara il suo nome, ed è (HD) 5870. E andrà sì come una 295, ma non sarà dual gpu (e relative magagne), consuma e scalda meno, e ha directx 11.
Le manca PhysX, ma non frega molto :D
Solo speranze senza nessun dato a suffragarle. Che vada più forte è anche normale visti i mesi di ritardo, sarebbe ridicolo il contrario.
HO sparato alto perchè non ero sicuro si chiamasse 5870 o 5890 :D Se avessi scritto 5870 e invece era 5890 sarebbe stato un problema. Almeno era chiaro stessi parlano della più pontente :D :D :asd:
Della PhysX a me frega :) Cmq si... la 295 consuma un po' troppo... come tutte le schede doppia GPU ceh non convengono mai...
Dati a favore della GT300 ce ne sono. Memorie GDDR5 invece che GDDR3 (molti vantaggi rispetto alle GT200), il doppio dei core... e poi, come ho detto, dei giochi non me ne può fregar di meno. Preferisco una buona GPGPU. Mi ispira molto anche Nexus che si integra in MS VS :D
Ho specificato che era sconveniente la GTX295. Ma il paragone ra per far capire che si poteva restare a livello di ATi già adesso e andare anche oltre con il QUad-SLI. Il paragone era per far capire che nVidia parte a sviluppare una GT300 da buone e promettenti basi.Ma una HD5850 costa sui 200 euro e và più di una GTX285 che ne costa 285.
Come fai a dire che si può restare a livello di ATI, quando per andare più lento, senza Dx11, consumando di più e facendo più rumore, devi spendere anche il 40% in più? La verità è che Nvidia al moento non ha nulla.
Quello che farà Nvidia in futuro e se sarà più o meno performante ed a buon prezzo, lo sapremo solo quando uscirà e, se la cosa sarà troppo in là con il tempo, potrebbe anche essere che vada a scontrarsi con una nuova proposta ATI...
maxsin72
04-10-2009, 19:16
Non hai capito nulla ivece.
1) La 275 è la mia PRIMA scheda nVidia su una decina di VGa che ho acquistato e ce l'ho solo da pochi mesi. Sono rimasto molto soddisfatto perchè non girano solo coi giochi.
2) Ho specificato che era sconveniente la GTX295. Ma il paragone ra per far capire che si poteva restare a livello di ATi già adesso e andare anche oltre con il QUad-SLI. Il paragone era per far capire che nVidia parte a sviluppare una GT300 da buone e promettenti basi.
3) Se avessi avuto il logo ati avresti fatto un commento diverso? Commenti di questo tipo denotano superficialità nel trattare. Senza contare che cerchi la lite. Potevi commentare cercando argomenti concreti e non partire ad insultare.
4) Che tristezza...
S', 3D nVidia. E' quello che pensavo anche io. :D L'altro giorno girando tra i driver e sul sito nVidia ho scoperto che si può usare il 3D anche con occhiali anaglifici passivi (anche se avrai una qualità inferiore... di quanto non si sa... è ovvio che cercano di pubblicizzare il prodotto in kit. Cmq per 1€ credo farò la mia prova :D )
http://www.nvidia.it/object/3D_Vision_Discover_Main_it.html
Per favore calmati. Non cerco liti ma se mi vieni a dire che una gpu che va quanto 2 gtx 275 accoppiate non è nulla di che è legittimo avere il sospetto (visto anche l'avatar che hai) che tu sia un fanboy che cerca solo di trollare.
Quindi prima di postare flame inutilmente pensaci bene, grazie!!!!
birmarco
04-10-2009, 19:30
Ma una HD5850 costa sui 200 euro e và più di una GTX285 che ne costa 285.
Come fai a dire che si può restare a livello di ATI, quando per andare più lento, senza Dx11, consumando di più e facendo più rumore, devi spendere anche il 40% in più? La verità è che Nvidia al moento non ha nulla.
Quello che farà Nvidia in futuro e se sarà più o meno performante ed a buon prezzo, lo sapremo solo quando uscirà e, se la cosa sarà troppo in là con il tempo, potrebbe anche essere che vada a scontrarsi con una nuova proposta ATI...
Infatti. Io parlo delle pure prestazioni. Le ATi sono migliori per quanto riguarda il prezzo... ma per le prestazioni...
Per favore calmati. Non cerco liti ma se mi vieni a dire che una gpu che va quanto 2 gtx 275 accoppiate non è nulla di che è legittimo avere il sospetto (visto anche l'avatar che hai) che tu sia un fanboy che cerca solo di trollare.
Quindi prima di postare flame inutilmente pensaci bene, grazie!!!!
il mio primo post mi pare tranquillissimo: un normalissimo parere. Dopo vedo che uno mi commenta dandomi implicitamente dell'incompetente (fanboy). Permetti che uno si possa arrabbiare un po'?
Infatti. Io parlo delle pure prestazioni. Le ATi sono migliori per quanto riguarda il prezzo... ma per le prestazioni...Ma sai che non ti capisco? Di che prestazioni parli?
La GPU più veloce è la HD5870, seguita dalla HD5850.
La GTX295 sono 2 (due) GPU e vanno come 1 (una) HD5870 (pur costando e consumando molto di più di una e senza supporto alle Dx11).
Ovviamente due GPU Nvidia andrebbero confrontate con due GPU ATI quindi un CF o una corrispettiva proposta dual GPU tipo questa: http://www.hwupgrade.it/forum/showthread.php?t=2054375 di cui puoi all'incirca farti un'idea delle prestazioni guardando i test delle HD5870 in CF.
Questo ovviamente per quanto riguarda le prestazioni.
birmarco
04-10-2009, 20:43
Ma sai che non ti capisco? Di che prestazioni parli?
La GPU più veloce è la HD5870, seguita dalla HD5850.
La GTX295 sono 2 (due) GPU e vanno come 1 (una) HD5870 (pur costando e consumando molto di più di una e senza supporto alle Dx11).
Ovviamente due GPU Nvidia andrebbero confrontate con due GPU ATI quindi un CF o una corrispettiva proposta dual GPU tipo questa: http://www.hwupgrade.it/forum/showthread.php?t=2054375 di cui puoi all'incirca farti un'idea delle prestazioni guardando i test delle HD5870 in CF.
Questo ovviamente per quanto riguarda le prestazioni.
http://www.hwupgrade.it/articoli/skvideo/2287/ati-radeon-hd-5870-la-prima-scheda-video-per-directx-11_19.html
La 5870 è solo un 30% più potente di una GTX285... mi sembra un po' poco... considerando che la GTX285 è vecchia architettura e che nelle GT300 hanno raddoppiato i core (i 24 core in più della GTX275 rispetto alla GTX260 216 fanno già una bella diferenza... figuriamoci 272 in più!), hanno raddoppiato la banda passante (la GTX285 se la cava tranquillamente anche con le DDR3... vedremo adesso con le DDR5...) e hanno fatto molte altre migliorie trovo molto difficile che le 5800 siano comparabili alle GT300.
Cmq qui siamo in OT pauroso :eek: :D
La 5870 è solo un 30% più potente di una GTX285... mi sembra un po' poco... considerando che la GTX285 è vecchia architettura e che nelle GT300 hanno raddoppiato i core (i 24 core in più della GTX275 rispetto alla GTX260 216 fanno già una bella diferenza... figuriamoci 272 in più!), hanno raddoppiato la banda passante (la GTX285 se la cava tranquillamente anche con le DDR3... vedremo adesso con le DDR5...) e hanno fatto molte altre migliorie trovo molto difficile che le 5800 siano comparabili alle GT300Si siamo abbondantemente OT.
Senza scomodare inutilmente la HD5870, la HD5850 è solo un 15% più potente della GTX285 che costa solo il 40% in più. E stiamo considerando solo le prestazioni, non tutto il resto.
Se vuoi parlare della nuova G300, quando la vedremo potremo discuterne le prestazioni i consumi ed il prezzo, mi sembra un po' prestino adesso, visto che non c'è nulla.
michelgaetano
04-10-2009, 23:26
Si siamo abbondantemente OT.
Senza scomodare inutilmente la HD5870, la HD5850 è solo un 15% più potente della GTX285 che costa solo il 40% in più. E stiamo considerando solo le prestazioni, non tutto il resto.
Nonchè il consumare meno, lo scaldare meno, il fare meno rumore, l'avere le DirectX 11 e non essere una dual gpu.
Peraltro volendo, nella stessa fascia di prezzo (365 vs ~400) si fa un CF di 5850, che va così http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/18/#abschnitt_performancerating
Ma ovviamente con un avatar con scritto "Nvidia Geforce", questo è probabilmente fiato sprecato.
Ogni volta che vedo il titolo di un articolo su vga... mi fiondo prima sui commenti e poi leggo l'articolo! E' davvero singolare leggere certe frasi, non oso pensare se li pagavano davvero sti tizi per dire certe cose cose, chissa' cosa avremmo letto!! Eheh... lasciando i convenevoli tiro le mie personali somme! Ati ha per qualche annetto arrancanto e combattuto sulla linea prezzi, ora sta facendo quello che avremmo voluto avesse fatto in quegli anni, vale a dire schede potenti poco assetate di energia, innovative a prezzi comunque sempre meno folli della controparte! Tutto questo accompagnato da un supporto driver che ormai non fa quasi più ricordare i tempi delle 9700Pro! Signori non nascondiamolo è una realtà, Nvidia è in ritardo e fra presunte vga fake o ipotesi di nuovi mostri che non si sa nemmeno cosa saranno, non può che stare a guardare, e forse con poca intelligenza non attua nemmeno una politica dei prezzi simile a quella che fece Ati! Sono possessore di una 8800GTX, sarei pazzo a non ammettere che è stata uno dei miei migliori acquisti, ma ora sarei matto a non ammettere che sceglierei di certo rosso! :)
Per non andare OT, le premesse di questa teconologia se verrano davvero messe in pratica in tempi utili saranno davvero eccezionali per certi aspetti! Il lavoro di Nvidia si vede i suoi sforzi ci sono o servono i veri numeri, l' IT è innovazione, ben venga sempre e comunque... Mi auguro Nvidia si dia una mossa, il monopolio anche se momentaneo non giova a nessuno ricordatelo tutti mie cari sostenitori dei brand!
Saluti
allanon60
05-10-2009, 10:24
http://www.tomshw.it/news.php?newsid=19598
la presentazione di nvidia del famigerato G300 era un fake
tutto falso !!!!!!http://www.tomshw.it/news.php?newsid=19598
E qua su HWU, dopo ampissima copertura sul GTC, manco l'ombra di un articolo che parli del patetico fake di Fermi. Così si perde credibilità.
diablo...aka...boss
05-10-2009, 10:43
E qua su HWU, dopo ampissima copertura sul GTC, manco l'ombra di un articolo che parli del patetico fake di Fermi. Così si perde credibilità.
Appena ho letto l'articolo su tom's ho subito pensato: sicuro che su hw non ci sarà uno straccio di notizia! e infatti!!
Comunque se è vero, ma a sto punto dubito su tutto, che esca prima del 2010 in varie versioni è una buona cosa.
Una scheda di fascia alta, con specifiche tecniche identiche a quelle presentate, una scheda dual-GPU e una per la fascia performance, una sorta di 8800 GT dei giorni nostri.
quella per la fascia performance dovrebbe essere molto allettante come proposta.
Ma dove la trovate la forza per rispondere ancora alle trollate di certa gente ? :rolleyes:
atinvidia284
05-10-2009, 12:08
Ecco perchè era semplicemente un pezzo di plastica,non volevano che ati potesse copiare la loro creatura :O
Nvidia wants to hide stuff from AMD
Nvidia's excuse for not showing GT300, Fermi based board is that they want to hide some things from the red green competition.
Since the latest GPU technology conference was all about how to make money on GPU computing, Nvidia didn't want to cloud this with a DirectX 11 demo, which would actually prove that Fermi GT300 board is real.
The second reason is that the board has a lot of wires sticking out, as well as test modules, and looks like a character from Terminator. Judging from we've learned in the last few days we are talking about a handful of boards if not even less than that.
Production is not that far away but Nvidia still works heavily to make the November launch possible. We believe that the decision to show a mock up card is definitely a bad idea as now, it looks like Nvidia wanted to deceive journalists and the rest of the world, with a mock up, claiming that this is the real deal.
NDA journalists might see the Geforce GT300 Fermi version in November unless something drastically changes and the availability should be later that month. We do expect big shortage of chips at launch due to high demand. Just remember what happened when G80 and G92 got out.
michelgaetano
05-10-2009, 13:30
Ecco perchè era semplicemente un pezzo di plastica,non volevano che ati potesse copiare la loro creatura :O
la cosa non ha molto senso, anzi non ne ha affatto. Cosa dovrebbe nascondere visto che le scelte architetturali di AMD sono del tutto differenti da quelle di nVidia e, di conseguenza, lo è anche il layout del pcb (la cui parte posteriore sarebbe l'unica cosa visibile, tra l'altro)?
Se fermi fosse un pordotto reale, avrebbero potuto far vedere la demo, aprire il pc e tirare fuori la vga che la aveva fatta girare; invece si sono limitati a dire che si trattava di una demo dx11 (bisognerebbe creder loro sulla fiducia?) e che è stato fermi a farla girare (sempre sulla fiducia), invece, magari, di una 295 GTX o, peggio, di una 5870
Yossarian ha ben spiegato come la cosa non è così semplice.
gondsman
05-10-2009, 14:30
Scusate, ma da ingegnere elettronico... che cavolo volete che ATI possa copiare da nVidia vedendo la scheda in foto? Nel chip ci sarà un miliardo di transistor e non è che sono visibili a occhio nudo... che devono copiare? La circuiteria di alimentazione? Il layout del bus? E allora perché quelli di Intel si ostinano a mostrare i loro processori ai giornalisti? Vogliono essere copiati? Dai, non è proprio credibile la scusa di nVidia... la realtà è che hanno una resa produttiva ridicola (circolavano cifre inferiori al 2%) e quindi non hanno un bel niente da far vedere per ora...
birmarco
05-10-2009, 17:17
Nonchè il consumare meno, lo scaldare meno, il fare meno rumore, l'avere le DirectX 11 e non essere una dual gpu.
Peraltro volendo, nella stessa fascia di prezzo (365 vs ~400) si fa un CF di 5850, che va così http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/18/#abschnitt_performancerating
Ma ovviamente con un avatar con scritto "Nvidia Geforce", questo è probabilmente fiato sprecato.
Sarò io un cretino o voi (tu e quell'altro) che appena vedete un logo che non vi piace scrivete quello che vi pare senza nemmeno leggere. Mi si da dell'incompetente a prescindere. 0 argomentazioni, 0 lettura dei miei scritti. Non è assolutamente il modo. C'è gente che sa argomentare, altra gente che apre la bocca solo per prendere aria. In risposta al tuo commento ci tengo a dire una sola cosa, già da me detta almeno altre 20 volte. Io ho espressamente detto di lasciar perdere i consumi e il prezzo, che il mio discorso era in merito solo alle prestazioni. Solo alle prestazioni. E detto così perde anche di senso, ma sono stufo di riscrivere le stesse cose 1000 volte alle stesse persone che hanno voglia di fare solo casino e basta. Non rispetti le mie opinioni. Giusto per fare un esempio: fino a poco tempo fa avevo il logo Intel e non mi piacevano i prodotti AMD. Il logo Intel, in realtà, ce l'avevo perchè mi piaceva esteticamente e perchè possedevo due e8x00 (se non ci credi cerca pure nei 3d...) che mi soddisfavano parecchio. Ora, dai un'occhiata alla mia firma. Che CPU vedi? Cerca nei 3d delle schede video e potrai verificare che prima della GTX275 avevo una HD3650. I tuoi pregiudizi sono infondati, come il tuo dicorso.
E qua su HWU, dopo ampissima copertura sul GTC, manco l'ombra di un articolo che parli del patetico fake di Fermi. Così si perde credibilità.
Appena ho letto l'articolo su tom's ho subito pensato: sicuro che su hw non ci sarà uno straccio di notizia! e infatti!!
Comunque se è vero, ma a sto punto dubito su tutto, che esca prima del 2010 in varie versioni è una buona cosa.
quella per la fascia performance dovrebbe essere molto allettante come proposta.
Nel frattempo leggete quello che ha scritto Paolo Corsini in merito al "complotto", prima di sparare commenti a random...
http://www.hwupgrade.it/news/skvideo/nvidia-e-cuda-alcuni-approfondimenti_30305-40.html#commenti
;)
birmarco
05-10-2009, 17:20
Ecco perchè era semplicemente un pezzo di plastica,non volevano che ati potesse copiare la loro creatura :O
Scusate, ma da ingegnere elettronico... che cavolo volete che ATI possa copiare da nVidia vedendo la scheda in foto? Nel chip ci sarà un miliardo di transistor e non è che sono visibili a occhio nudo... che devono copiare? La circuiteria di alimentazione? Il layout del bus? E allora perché quelli di Intel si ostinano a mostrare i loro processori ai giornalisti? Vogliono essere copiati? Dai, non è proprio credibile la scusa di nVidia... la realtà è che hanno una resa produttiva ridicola (circolavano cifre inferiori al 2%) e quindi non hanno un bel niente da far vedere per ora...
Da non ingegnere elettronico non posso che quotare :Prrr:
Sarò io un cretino o voi (tu e quell'altro) che appena vedete un logo che non vi piace scrivete quello che vi pare senza nemmeno leggere. Mi si da dell'incompetente a prescindere. 0 argomentazioni, 0 lettura dei miei scritti. Non è assolutamente il modo. C'è gente che sa argomentare, altra gente che apre la bocca solo per prendere aria. In risposta al tuo commento ci tengo a dire una sola cosa, già da me detta almeno altre 20 volte. Io ho espressamente detto di lasciar perdere i consumi e il prezzo, che il mio discorso era in merito solo alle prestazioni.
Sarei io quell'altro? Perchè non mi sembra di averti offeso in alcun mex...
Mi sembra di averti invece risposto (in modo tranquillo) proprio rispetto all'aspetto prestazioni:
Senza scomodare inutilmente la HD5870, la HD5850 è solo un 15% più potente della GTX285 che costa solo il 40% in più. E stiamo considerando solo le prestazioni, non tutto il resto.
Sono solo due righe, ma c'è poco da dire se dobbiamo valutare le prestazioni della GTX285 alla luce delle nuove ATI.
Da non ingegnere elettronico non posso che quotare :Prrr:E qui mi fa piacere che anche tu convieni che Nvidia ha fatto una magra figura ^^
birmarco
05-10-2009, 17:44
Sarei io quell'altro? Perchè non mi sembra di averti offeso in alcun mex...
Mi sembra di averti invece risposto (in modo tranquillo) proprio rispetto all'aspetto prestazioni:
No, assolutamente no. :mano: Hai la coda di paglia?? (scherzo) :D
Sono solo due righe, ma c'è poco da dire se dobbiamo valutare le prestazioni della GTX285 alla luce delle nuove ATI.
Paragonare una vecchia architettura con una appena uscita non è il massimo. Può solo essere utile per capire quanto vale quella appena uscita (e da qui tutti i miei discorsi...).
E qui mi fa piacere che anche tu convieni che Nvidia ha fatto una magra figura ^^
A me interessa solo che un'azienda faccia dei prodotti validi. In questo caso che la scheda video la faccia nVidia, ATi, Nokia o qualunque altro non mi interessa... ;) Meglio se è l'azienda di cui ho appena adottato delle soluzioni.
Un bello SLI ibrido... :asd:
diablo...aka...boss
05-10-2009, 18:14
Nel frattempo leggete quello che ha scritto Paolo Corsini in merito al "complotto", prima di sparare commenti a random...
http://www.hwupgrade.it/news/skvideo/nvidia-e-cuda-alcuni-approfondimenti_30305-40.html#commenti
;)
E' andrea bai e centra in parte con la notizia, rileggitelo valà
e poi nessun commento a random, capita spesso che hw arrivi sempre dopo con le news, è un dato di fatto.
maxsin72
05-10-2009, 18:26
Sarò io un cretino o voi (tu e quell'altro)
L'altro che ha fatto riferimento al tuo avatar sono io. Però non mi sono permesso di offederti. Ho fatto solo dell'ironia sul fatto che uno che ha un avatar come il tuo e che commenta che la 5870 "non è nulla di che" potrebbe essere un "fanboy".
Per tua conoscenza fanboy non significa incompetente come hai scritto precedentemente, indica solo una categoria di persone che si esprimono a favore di un marchio per partito preso, insomma quello che hai dato l'impressione di fare tu liquidando la 5870 come "nulla di che".
Quindi se vuoi darti del cretino da solo fai pure che potresti trovarmi anche d'accordo ma fammi il favore di non darlo a me e di evitare di continuare a trollare e a lanciare flame.
A questo proposito mi farebbe piacere che qualche moderatore intervenisse.
maxsin72
05-10-2009, 18:40
Giusto per darci un'idea di quanto correttamente e a favore di tutti gli utenti si stia comportando NVidia in questo periodo leggetevi questo link:
http://www.tomshw.it/news.php?newsid=19603
birmarco
05-10-2009, 18:43
L'altro che ha fatto riferimento al tuo avatar sono io. Però non mi sono permesso di offederti. Ho fatto solo dell'ironia sul fatto che uno che ha un avatar come il tuo e che commenta che la 5870 "non è nulla di che" potrebbe essere un "fanboy".
Per tua conoscenza fanboy non significa incompetente come hai scritto precedentemente, indica solo una categoria di persone che si esprimono a favore di un marchio per partito preso, insomma quello che hai dato l'impressione di fare tu liquidando la 5870 come "nulla di che"
Quindi se vuoi darti del cretino da solo fai pure che potresti trovarmi anche d'accordo ma fammi il favore di non darlo a me e di evitare di continuare a trollare e a lanciare flame.
A questo proposito mi farebbe piacere che qualche moderatore intervenisse.
Non ti ho affatto dato del cretino. Rileggi bene! Per me fanboy=incompetente. E si capisce dalla definizione che hai dato tu. Uno che giudica solo per partito preso è evidentemente incompetente... mi sembra scontato. Quindi mi hai offeso liberamente senza che ti avessi fatto nulla (ieri). Dovresti pesare le tue frasi... non a tutti piace farsi dare dell'incompetente e del cretino (lo hai appena fatto...). Anche a me piacerebbe l'intervento di qualche mod. Nella sezione schede video (in generale) la gente è un po' troppo suscettibile... e questo non è l'unico episodio.
Siccome qui si è in OT esagerato e non mi piace riempire la discussione di queste menate (l'ho già fatto fin troppo e mi scuso con chi leggerà la notizia...) non risponderò più a post di questo genere nè ad utenti che non sanno regolare i propri commenti. Tratterò solo con utenti con cui vale la pena parlare.
Se qualcuno a ancora qualcosa da dire a riguardo esistono i PVT.
diablo...aka...boss
05-10-2009, 18:52
Giusto per darci un'idea di quanto correttamente e a favore di tutti gli utenti si stia comportando NVidia in questo periodo leggetevi questo link:
http://www.tomshw.it/news.php?newsid=19603
l'ho letta anche io, ma secondo me andando avanti così, l'unica a rimetterci è nvidia stessa.
birmarco
05-10-2009, 18:59
l'ho letta anche io, ma secondo me andando avanti così, l'unica a rimetterci è nvidia stessa.
Credo anche io... è una cattiva mossa. Ma forse hanno le loro strategie... So che ASUS fa anche lei delle schede fisiche.... ed è pure un brand nVidia. Non so.... però :D Sarebbe l'unica soluzione per la fisica con ATi...
leoneazzurro
05-10-2009, 19:03
Il moderatore interviene.. e dice che la dovreste smettere tutti e tre.
Birmarco, comunque fanboy significa "ragazzo fan di una data marca". Si puó essere competenti eppure molto parziali.
maxsin72
05-10-2009, 19:12
Il moderatore interviene.. e dice che la dovreste smettere tutti e tre.
Birmarco, comunque fanboy significa "ragazzo fan di una data marca". Si puó essere competenti eppure molto parziali.
Raccolgo volentieri l'invito e ti ringrazio per la precisazione.
atinvidia284
05-10-2009, 23:39
Comunque noto che nvidia in questo periodo ha una spiccata propensione a farsi irridere,l'assurdo motivo per il quale hanno mostrato fieramente un pacco vero e proprio si spera sia l'ultima delle battute.
Per il resto spero che fermi ponga nuovi punti di riferimento nel 3d gaming,non allontanandosi troppo dal motivo principale per il quale esiste una gpu.
Apetto ancora nelle news la notizia del fake di Fermi (e la credibilità continua a scendere....). Persino Fudzilla si è sentito in dovere di dare la notizia (tenendo però a precisare che tutto il resto era vero, parola di Jen-Hsun!...). Siete voi giornalisti presenti i primi che hano preso in giro, io al vostro posto sarei imbufalito. Felice di essere smentito al più presto.
Apetto ancora nelle news la notizia del fake di Fermi (e la credibilità continua a scendere....). Persino Fudzilla si è sentito in dovere di dare la notizia (tenendo però a precisare che tutto il resto era vero, parola di Jen-Hsun!...). Siete voi giornalisti presenti i primi che hano preso in giro, io al vostro posto sarei imbufalito. Felice di essere smentito al più presto.
Non trattenere il respiro però :D
maxsin72
06-10-2009, 13:43
A quanto pare Nvidia non abbasserà i prezzi nonostante l'uscita delle ati 5800.
La cosa è alquanto incomprensibile...
http://www.fudzilla.com/content/view/15831/1/
Con questo atteggiamento credo sia giusto che le gt200 rimangano sugli scaffali:
Il prezzo deve essere commisurato alle prestazioni.
diablo...aka...boss
06-10-2009, 18:03
A quanto pare Nvidia non abbasserà i prezzi nonostante l'uscita delle ati 5800.
La cosa è alquanto incomprensibile...
http://www.fudzilla.com/content/view/15831/1/
Con questo atteggiamento credo sia giusto che le gt200 rimangano sugli scaffali:
Il prezzo deve essere commisurato alle prestazioni.
contenti loro, entro fine anno dovrebbero uscire anche altre versioni più soft e meno care delle ati serie 5xxx , la cosa non mi torna pienamente...
Ma non possono rimanere "fermi" fino all'uscita della serie 300 lasciando il mercato in mano ad ATI.
Rischiano di perdere sempre più mercato, anche perchè se qualcuno comprerà le G200 a questi prezzi è facile sia un cliente perso (non appena saprà cosa gli è stato rifilato).
Secondo me abbassare i prezzi è l'unica alternativa, non faranno grossi profitti (ma meglio che niente, magari potrebbero poi risparmiare sulle bustarelle :rolleyes:), ma almeno non perderanno mercato.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.