View Single Post
Old 30-10-2010, 13:50   #71
Zappa1981
Senior Member
 
L'Avatar di Zappa1981
 
Iscritto dal: Jan 2005
Messaggi: 2788
Quote:
Originariamente inviato da Someone Guarda i messaggi
Devi esserti perso qualche puntata. Te le riassumo:
1. Uscita di GF100 per il mercato professionale. Il non plus ultra.
2. Uscita del GF100 per il mercato consumer. Consumi a palla, prestazioni altissime
3. Resa/costo del GF100 ai minimi termini (son sempre 3 miliardi di transistor in una mattonella da oltre 500mm2) e consumi troppo alti per riuscire a "tirare" ulteriormente l'architettura
4. nvidia rifà "l'architettura sbagliata" (per il mercato consumer, aggiungerei) sfornando il GF104 e suoi sottomultipli. Consumi ridotti, prestazioni in game invariati. L'architettura può essere "tirata in MHz" un po' di più.
5. Il GF104 fa "strage" del mainstream di ATI. Allora ecco le nuove fasce medie di AMD con bus da 256bit (!!), qualche cluster tagliuzzato per mandare le rese al top e "tiratura" dell'architettura rispetto alla revisione precedente. Si tratta di un moderato miglioramento energetico, non di prestazioni per MHz delle capacità di calcolo della revisione -> non c'è modo che con questa architettura AMD arrivi alle prestazioni del GF100 neanche a 1GHz. A meno di non fare una mattonella di dimensioni simili.
Notare infine come la nuova "fascia media" abbia un chip di 230mm2 rispetto al precedente di 170mm2.
6. Ora si combatte ad armi pari. Consumi simili per watt per entrambi i competitors. Purtroppo, se nvidia ha dovuto tagliare i prezzi della 460 di qualche dollaro, AMD si è praticamente giocata la propria fascia alta con queste "mainstream" che costano quasi la metà e vanno uno sputo in meno.
7. AMD propone una nuova architettura (la cui efficienza energetica va ancora dimostrata, vedere il numero di prese da 6 e 8 poli della 6890).
8. nvidia risponde con una nuova versione dell'architettura usata per il GF104 anche se ancora diversa (il numero di TMU/shaders è aumentato rispetto al GF104 a quanto sembra, se il chip ha 512SP).

Ai posteri l'ardua sentenza su chi farà meglio in termini di FPS, consumi, uova cotte o driver perennemente da migliorare.

Per finire, non si può fare un chip grafico mettendo nello stesso die 2 "semi" chip (GF104x2 per fare un GF110). Sembra che bazzichiate qui da tanto, ma non avete la minima idea di come funziona una GPU, eppure curiosamente sapete quali siano le architetture sbagliate e quelle giuste.
Complimenti.
AMD non si è giocata nulla... ne riparliamo quando escono le 6970... Nessuno quà è super esperto in informatica però siamo persone che spendono soldi e che usano quello che comprano, se a me non comoda un chip come il gf100 non lo compro, e che sia il migliore ripeto che è molto soggettiva come cosa... ATI/AMD ha scelto di produrre in un certo modo e chip in un certo modo e stà andando bene... Nvidia ha scelto di fare altro e se tanti preferiscono AMD non vedo perchè scaldarsi tanto.. AMD ha portato avanti un vecchio progetto risalente alla serie 2000 e anche se l idea è sorpassata a me sembra sia "migliore per me" del gf100, scalda meno, consuma meno e va leggermente meno..ma tanto la differenza prestazionale con i giochi che ci sono oggi nn si vede neanche.... e poi adesso costa anche meno. Cambiare architettura come fa nvidia non serve a niente, spende soldi e poi li recupera da noi alla fin fine... io 550 euro all epoca per una 480 che relazionata alla mia si è meglio ma con la mia gioco a tutto..scusa tanto spendo 140 euro e mi prendo una 4890 o similare dato che la mia è uscita prima ps: metti una mattonella a disposizione di amd che ti ci infila 4600shader a 1000mhz raffreddata ad acqua con tutti gli accorgimenti necessari al consumo... straccerebbe chiunque... e la tecnologia di amd potrebbe anche riuscire a farlo mentre il gf100 se lo raddoppi diventa una meteora... cmq il punto 5 devi averlo letto su playboy

Ultima modifica di Zappa1981 : 31-10-2010 alle 12:28.
Zappa1981 è offline   Rispondi citando il messaggio o parte di esso
 
1