View Single Post
Old 09-09-2008, 19:05   #2
tigershark
Bannato
 
Iscritto dal: Jun 2007
Messaggi: 1186
Quote:
Originariamente inviato da Dott.Wisem Guarda i messaggi
1) Come mai le schede ATi, pur avendo un numero spropositato di unità shader unificate, è da un po' di anni mi pare che, tranne che per l'ultima serie 48xx, vanno peggio delle schede nVidia, le quali invece hanno unità shader in quantità notevolmente inferiore?...
diciamo che sono architetture molto diverse tra loro, non puoi paragonare la singola unità di shading di una GPU Nvidia con quella Ati.

Detto in modo moooolto semplice il rapporto di potenza tra un'unità shader nvidia ed una Ati è 1:2 ma ripeto, è troppo semplicistica come spiegazione, le due aziende hann oadottato approcci defferenti nella realizzazione delle proprie architetture.


Quote:
Originariamente inviato da Dott.Wisem Guarda i messaggi
2) Come mai ATi continua a proporre schede video di fascia media con oltre 100 unità shader unificate, ma 4 rop invece che 8 ? Non è sprecato avere tutte quelle unità shader, se poi hai in uscita un notevole collo di bottiglia rappresentato dal pixel throughput dimezzato rispetto alla concorrenza? Finché la tipica risoluzione usata nei videogiochi era 1024x768 potevo anche capire, ma oggi la minima risoluzione è diventata 1280x800 (risoluzione standard di un notebook 15.4") ed i monitor LCD wide vanno da 1440x900 in su...
beh diciamo che Ati ha imparato dai suoi errori passati e con la serie 4xxx si è ripresa più che bene. Più che scelte tecniche sono scelte commerciali fatte anche per invogliare magari l'acquisto delle gpu di segmento superiore, considerando anche il fatto che una scheda Ati costa mediamente qualcosa in meno di quelle Nvidia a parità di segmento prestazionale.
tigershark è offline   Rispondi citando il messaggio o parte di esso