View Full Version : Radeon X800: è il momento di R420
Dark Schneider
07-05-2004, 21:42
Originariamente inviato da pg08x
Scusa ma prima di sparar sentenze vatti a leggere quanto ho scritto appena 2 post sopra... fino alla geforce4 erano schede a misura di utente poi per cercare stare al passo con ATI nvidia ha tirato fuori alcuni mostri che sinceramente richiedono dei compromessi.
Scusa ma che centra con quello a cui mi riferivo io?:confused:
Ho risposto a te sulla questione "schede-esperimento".
Poi se c'è uno che spara sentenze da subito non son di certo io, anzi.....te addirittura le anticipi le sentenze.:rolleyes:
Originariamente inviato da Dark Schneider
La GeForce 3 cmq è uscita nel Maggio 2001. Ad Ottobre 2001 sono stati immessi altri due modelli con frequenze divers:Ti200 e Ti500. La GeForce 4 Ti nell'Aprile 2002.
Cmq la 8500 la sua battaglia l'ha vinta sulle GeForce 3 poco prima dell'uscita della 4. Infatti aveva tantissimi problemi di drivers la 8500 che ne limitavano la bonta e le GeForce 3...la versione Ti500 gliele dava in quasi tutto il periodo in cui si son scontrati. Poi la 8500 è creciuta. Attualmente ovvio che una 8500 è meglio di una Ti500. :)
Ma se pg08x pensa che una 8500 adesso è ok.....e con l'"esperimento" GeForce 3 non si campa ora come ora...sbaglia ed anche di brutto. La 8500 alla fine si è dimostrata un po' più potente della Ti500 e non di certo un abisso a livello di differenze. Quindi se la 8500 ce la fa...ce la fa anche la GeForce 3.
Tutto vero verissimo. Una sola imprecisione: le Geffo 4 sono comparse a febbraio 2002, il 6 per la precisione. Le Geffo3 Ti500 pero' sarebbero dovute durare assai di piu', infatti a detta di nvda stessa, se non ricordo male, il progetto geffo4 fu anticipato di 6 mesi, se non ricordo male.
In ogni caso ai tempi fu una dimostrazione di potenza: nvidia dopo aver lanciato 2 schede nuove, le 3 ti, in men che non si dica aveva anticipato i piani mostrando che era gia' pronta la prossima serie.
In ogni caso anche per me la Ti500 e' paritaria della 8500, l'una non muore senza l'altra... certo che uno che spendeva per la Ti500 e non per la 4200 ai tempi era masochista ;)
Mannaggia i drivers della 8500 all'inizio! ININSTALLABILI! Per fortuna oggi sono un brutto ricordo!
Dark Schneider
07-05-2004, 22:19
Originariamente inviato da GokuSSJ
Tutto vero verissimo. Una sola imprecisione: le Geffo 4 sono comparse a febbraio 2002, il 6 per la precisione. Le Geffo3 Ti500 pero' sarebbero dovute durare assai di piu', infatti a detta di nvda stessa, se non ricordo male, il progetto geffo4 fu anticipato di 6 mesi, se non ricordo male.
In ogni caso ai tempi fu una dimostrazione di potenza: nvidia dopo aver lanciato 2 schede nuove, le 3 ti, in men che non si dica aveva anticipato i piani mostrando che era gia' pronta la prossima serie.
In ogni caso anche per me la Ti500 e' paritaria della 8500, l'una non muore senza l'altra... certo che uno che spendeva per la Ti500 e non per la 4200 ai tempi era masochista ;)
Mannaggia i drivers della 8500 all'inizio! ININSTALLABILI! Per fortuna oggi sono un brutto ricordo!
Si mi riferivo semplicemente alla loro immissione sul mercato. Marzo-Aprile le 4600-4400 e in Maggio la 4200. Nei negozi s'intende. Concordo che è stata una dimostrazione di forza cmq. :)
Mazzulatore
07-05-2004, 22:57
Chi è che diceva che il PCI express sarebbe indispensabile? a giudicare dai risultati non si direbbe.
Io lo dicevo e continuo a dirlo. Ormai il bus pci è insufficiente.
Bè, x ora di PCI-Xpress nn s'è visto niente, se le prestazioni aumentano a gratis ben venga, ovvio che c'è già abbastanza potenza...
Io l'8500 (BB ATI) l'ho presa il 24 dicembre 2001 e ho sempre giocato a tutto e bene, e di instabilità manco l'ombra. E' anche vero che ad ottobre non era così, cmq meno di 2 mesi e tutto ok non mi era parso molto. Il discorso cmq è OT, lasciamo stare....
sanitarium
08-05-2004, 00:52
Scusate, ma state parlando di PCI-X o di PCI-Express? :wtf:
Non sono due cose diverse?? :confused:
Mazzulatore
08-05-2004, 10:10
DJ lode questo è certo (basta una scheda ethernet gigabit ed un controller raid), ma mi riferisco al fatto che si dia per insufficiente l'agp 8x e a quelli che reputano pci express il salto prestazionale.
Originariamente inviato da IcemanX
Bè, x ora di PCI-Xpress nn s'è visto niente, se le prestazioni aumentano a gratis ben venga, ovvio che c'è già abbastanza potenza...
Io l'8500 (BB ATI) l'ho presa il 24 dicembre 2001 e ho sempre giocato a tutto e bene, e di instabilità manco l'ombra. E' anche vero che ad ottobre non era così, cmq meno di 2 mesi e tutto ok non mi era parso molto. Il discorso cmq è OT, lasciamo stare....
Vero, neppure io problemi, se escludiamo Phobos2 in UT2003, che quando inquadro il pianetone penso che arrivi a fare un frames... e il bello e' che solo sotto Windows! In Linux opengl, il pianetone se lo mangia nettamente meglio, bah... devo tornare in tema: ehm... ora che ci penso pero' per giocare a Far Cry e' necessaria una bella X800 Pro... oh e poi cmq seriamente parlando queste schede nuove a parer mio hanno in piu' soprattutto le prestazioni con i filtri, che con la 8500 erano un po' inusabili. Anzi, fsaa era inusabile, l'aniso e' perfetto :)
Devo pero' essere obiettivo e ammettere che la mia prox scheda potrebbe essere la X800 Pro, se il prezzo si abbassa e se la Ati impara Linux e l'opengl :cool:
Originariamente inviato da fek
Gli shader 1.4 permettevano effetti che non erano possibili con l'1.3, se non in alcuni casi in piu' passate, in altri casi non erano semplicemente possibili.
Allora quelli di nvidia sono ancora peggio di quanto credessi.
Ti assicuro che hanno sostenuto per anni la tesi che tutti gli effetti ottenibili con gli shader 1.4 erano riproducibili con 1.1 1.2 o 1.3 e senza neppure parlare della necessità di applicare più shaders.
CHE STRONZI
:mad:
Originariamente inviato da fek Infine, come ampiamente dimostrato proprio su questo forum, la certificazione DX8.1 non richiedeva il supporto dei ps1.4.
Posso assicurarti che si tratta solo di pressioni commerciali ed accordi interni fra nvidia e Microsoft.
Hai detto tu stesso che se provi a "dare in pasto" uno shader 1.4 ad una geforce4 (che pure ha scritto sulla confezione directx 8.1) il programma si blocca. Mi meraviglio di te... Inizia a guardare a cosa le schede sono in grado di fare e non a quello che c'è scritto sulla confezione ! scoprirai che non è stato "ampiamente dimostrato" un bel niente !
Originariamente inviato da Dark Schneider
....e con l'"esperimento" GeForce 3 non si campa ora come ora...sbaglia ed anche di brutto
Ma quante volte te lo devo ripetere che non ho mai detto che le geforce4 o geforce3 o geforce2 sono esperimenti
:(
Sicuramente lo sono la 5800 e la 6800 sia ben chiaro !!!
Originariamente inviato da Mazzulatore
DJ lode questo è certo (basta una scheda ethernet gigabit ed un controller raid), ma mi riferisco al fatto che si dia per insufficiente l'agp 8x e a quelli che reputano pci express il salto prestazionale.
Il fatto è che se ci badi ora come ora le schede stanno aumentando la ram a bordo (era ieri che si diceva che 64mb erano troppi e ci sono in giro schede con 256mb e gli attuali chip ne possono supportare anche 512) e sembra che il PCI-express invece sia più efficiente dell'AGP ma sinceramente per ora non mi sono interessato troppo alla cosa anche se si parlava di un uso della ram di sistema come ram "virtuale" (passami il termine) per la scheda video finalmente sfruttabile. Ti ripeto però che gli unici test che giravano erano di una Ati 9600 (insomma quel chip su PCI-Xpress non so come lo chiameranno), non erano chiari ma presentavano un netto vantaggio.
Io sono dell'avviso che se si deve cambiare, tanto vale farlo di sana pianta e con un'architettura finalmente priva di ogni compromesso (quindi entrambi i pci disponibili subito e in maniera nativa). Ma sono conscio del fatto che se uno spende 600€ per un R420 o un NV40 e poi si ritrova con la scheda non utilizzabile perchè ha deciso di cambiare la scheda madre dopo 2 mesi e non si trova l'AGP... bhè è una bella fregatura. Per questo io ho smesso di aggiornare il pc e aspetto di cambiare totalmente.
Ma è una scelta mia e non pretendo che tutti siano d'accordo :)
Diciamo che per come le schede madri usano attualmente l'AGP, il passaggio ad un qualcosa di nuovo è inutile, ma mi stuzzica l'idea di una nuova architettura e sono ansioso di vedere una test come si deve.
Originariamente inviato da DjLode
Il fatto è che se ci badi ora come ora le schede stanno aumentando la ram a bordo (era ieri che si diceva che 64mb erano troppi e ci sono in giro schede con 256mb e gli attuali chip ne possono supportare anche 512) e sembra che il PCI-express invece sia più efficiente dell'AGP ma sinceramente per ora non mi sono interessato troppo alla cosa anche se si parlava di un uso della ram di sistema come ram "virtuale" (passami il termine) per la scheda video finalmente sfruttabile. Ti ripeto però che gli unici test che giravano erano di una Ati 9600 (insomma quel chip su PCI-Xpress non so come lo chiameranno), non erano chiari ma presentavano un netto vantaggio.
Io sono dell'avviso che se si deve cambiare, tanto vale farlo di sana pianta e con un'architettura finalmente priva di ogni compromesso (quindi entrambi i pci disponibili subito e in maniera nativa). Ma sono conscio del fatto che se uno spende 600€ per un R420 o un NV40 e poi si ritrova con la scheda non utilizzabile perchè ha deciso di cambiare la scheda madre dopo 2 mesi e non si trova l'AGP... bhè è una bella fregatura. Per questo io ho smesso di aggiornare il pc e aspetto di cambiare totalmente.
Ma è una scelta mia e non pretendo che tutti siano d'accordo :)
Diciamo che per come le schede madri usano attualmente l'AGP, il passaggio ad un qualcosa di nuovo è inutile, ma mi stuzzica l'idea di una nuova architettura e sono ansioso di vedere una test come si deve.
Oh cavolo... a 'sta storia non ci avevo pensato in effetti... un agp adesso, fra 2 anni non ci sara' piu'... quindi se si rompe la scheda madre... cavoli non ci avevo proprio pensato :( Forse forse comprare una nuova agp da 6milioni di euro adesso, non e' troppo conveniente :( Anche perche' le mobo cambiano TUTTO in tempo reale, quindi e' veramente un rischio... mannaggia puzzola! :(
...in ogni caso prima o poi i rivenditori italiani dovranno decidersi se a loro interessa mantenere un mercato dell'hardware in Italia e continuare la loro attività anche negli anni a venire...o se la loro massima "aspirazione" è "arraffare" tutto cioò che possono in questi ultimi anni e poi cambiare lavoro e dedicarsi ad altro.
Non mi sembra che in Italia la situazione economica e il tenore di vita siano poi così tanto esaltanti rispetto ad altri paesi (volendo essere positivi...), tale da giustificare prezzi più elevati dei prodotti, quindi non capisco come si possa aumentare il prezzo di oltre 210€ su un prodotto che ne dovrebbe costare di listino 400€ (con cambio,ecc).Capisco che ormai molti rivenditori sono alla frutta....ma se la strada è vendere sempre meno pezzi a prezzi sempre più elevati il destino e segnato....
PixXelite
09-05-2004, 00:25
Non c'è che dire, Ati ha sfornato un prodotto davvero colossale, il tutto non occupando spazio, o non richiedendo alimentatori potenziati, il massimo risultato col minimo sforzo...bel lavoro...i miei complimenti!!
Complimenti anche alla redazione di hwupgrade per l'ottimo lavoro svolto nel stilare una così esauriente analisi della scheda..continuate così!Volevo anche lodare la redazione per le foto più che esplicative!
Originariamente inviato da pg08x
Allora quelli di nvidia sono ancora peggio di quanto credessi.
Ti assicuro che hanno sostenuto per anni la tesi che tutti gli effetti ottenibili con gli shader 1.4 erano riproducibili con 1.1 1.2 o 1.3 e senza neppure parlare della necessità di applicare più shaders.
CHE STRONZI
:mad:
Questa te la sei inventata. Non ho mai letto una dichiarazione simile da parte di nessun ingegnere NVIDIA. Se l'hai letta da qualche parte puoi quotarla per cortesia?
Originariamente inviato da pg08x
Posso assicurarti che si tratta solo di pressioni commerciali ed accordi interni fra nvidia e Microsoft.
Hai detto tu stesso che se provi a "dare in pasto" uno shader 1.4 ad una geforce4 (che pure ha scritto sulla confezione directx 8.1) il programma si blocca. Mi meraviglio di te... Inizia a guardare a cosa le schede sono in grado di fare e non a quello che c'è scritto sulla confezione ! scoprirai che non è stato "ampiamente dimostrato" un bel niente !
Hai poco da meravigliarti, poi tu che dici a qualcuno di non guardare il marchio sulla confezione e' comico.
Comunque, le DX8.1 non richiedono il supporto ai ps1.4.
Come le DX9.0 non richiedono il supporto ai ps3.0, pur supportandoli. Se provi a dare in pasto un pixel 3.0 ad un R3X0 la chiamata fallisce (il programma non si blocca, ma fallisce semplicemente la creazione del pixel shader e la funzione dedicata ritorna un errore che il programma puo' intercettare), eppure l'R3X0 come l'R420 sono schede DX9.0b.
Originariamente inviato da fek
Questa te la sei inventata. Non ho mai letto una dichiarazione simile da parte di nessun ingegnere NVIDIA. Se l'hai letta da qualche parte puoi quotarla per cortesia?
C'era sul sito nvidia ai tempi delle geforce4 ed era voce diffusa (poi mi sembra lo avessi sostenuto anche tu in un forum).
può anche darsi che sia possibile, magari non sei capace, non c'è nulla di male...
ti posto un link, a volte un "ripassino" può aiutare
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/reference/AssemblyLanguageShaders/PixelShaders/Instructions/ps_1_X_Instructions.asp
:D
Originariamente inviato da fek
Hai poco da meravigliarti, poi tu che dici a qualcuno di non guardare il marchio sulla confezione e' comico.
Lo dico e lo ripeto, tu guardi troppo al marchio sulla confezione non mi sembra affatto comico, invece anche in queste cose dovresti iniziare a ragionare con la tua testa (senza offesa).
Originariamente inviato da fek
Come le DX9.0 non richiedono il supporto ai ps3.0, pur supportandoli
Peccato che le vogliano chiamare directx 9.1 :D
DX 9.0C per essere precisi.
Il progetto della nVidia è un mezzo fallimento,altro non mi viene in mente come una scheda con 60 milioni di transistor in + al massimo guadagni delle briciole.
Ancora una volta sono combattuto nel pensare se l' ATI effettivamente abbia fatto una schda miracolosa oppure alla nVidia qualcuno ha fatto spendere un macello di soldi in + per niente.
Originariamente inviato da Rayse
DX 9.0C per essere precisi.
DX9.0b. Le C non sono ancora uscite :)
Gli shader 3.0 sono supportati e implementati nel RefRast fin dalla prima versione delle DX9.
Originariamente inviato da fek
DX9.0b. Le C non sono ancora uscite :)
Gli shader 3.0 sono supportati e implementati nel RefRast fin dalla prima versione delle DX9.
Vero, qui mi ero confuso.
Oltre tutto questo è il motivo per cui infine è stato deciso di chiamare la prossima versione directx 9.0c e non 9.1 (come avrebbero vuluto chiamarle prima)...
Le API rimarranno immutate.
Riguardo al directX 8.1 queste hanno invece introdotto i ben noti shaders 1.1 1.2 1.3 e 1.4
La sostanza non cambia... ma è meglio esser precisi.
... ma ...
prima delle geforce4 le schede video avevano sempre implementato tutte le caratteristiche della versione di directX di cui si fregiavano.
Dopo quella vicenda (shaders 1.4) è stato possibile ottenere la certificazione implementando solo un sottoinsieme di queste.
Contenti loro contenti tutti :D
ragion di più però per non lasciarsi "abbagliare" dalle etichette.
Originariamente inviato da Rayse
Ancora una volta sono combattuto nel pensare se l' ATI effettivamente abbia fatto una schda miracolosa oppure alla nVidia qualcuno ha fatto spendere un macello di soldi in + per niente.
Ringrazia il ceo nvidia Jen-Hsun Huang che si è completamente rimbambito.
Jen-Hsun Huang vuole rendere le CPU obsolete e crede di poter superare intel.
Pretendende che i coprocessori grafici prodotti da nvidia integrino funzionalità inutili senza rendersi affatto conto che minor specializzazione vuol dire performance minori.
Qula è stata la ragione del successo delle GPU ? sono nate per fare un lavoro specializzato che su un processore generico avrebbe richiesto molto più tempo di elaborazione.
Questo perchè una Cpu dedicata ad un compito specifico surclasserà sempre una general purpose a parità di livello tecnologico.
Gli ingegneri nvidia sono costretti ad integrare milioni di inutili transistors che portano a consumi maggiori, difficoltà a salire in frequenza, costi di produzione livitati, salti mortali nel mantenere le performance e tutto per soddisfare l'idea sbagliata di un'uomo che se continua così porterà la ditta da lui fondata alla rovina.
Non per ultima la brillante idea di integrare la compressione mpeg.
Caspita pg08x che disfattista ;) Alla rovina speriamo di no, se no la prox Ati costera' 6000 Euro anziche' 600! Piuttosto vero e' che i transistor nvda sono taaaaaaaaanti di piu'... osservazione che avevo gia' fatto ma che era stata prontamente ignorata :) Cmq la cosa mi fa strano... insomma, ho quasi l'impressione che nvidia sia alla frutta: pur di fare prestazioni mettono 6000 muli in un motore, quando Ati con 3000 cavalli ben allenati e alimentati il giusto, se la squatteggi tranquillamente.
Sbaglio?
Originariamente inviato da pg08x
prima delle geforce4 le schede video avevano sempre implementato tutte le caratteristiche della versione di directX di cui si fregiavano.
No. La GF3 e' una scheda pienamente DX8.0 e non supporta (solo per citare le prime cose che mi vengono in mente):
- i pixel shader 1.3 (e' 1.1)
- 8 texture stage (ma solo 4)
- pixel fogging (solo vertex fogging)
- exponential fogging (solo linear fogging)
- border texturing
Etc.... etc... Tutto questo e' previsto dalle specifiche DX8, ma non e' richiesto per essere compatibili DX8.
(Davvero, se non sai di che cosa stai parlando, evita queste sparate ;))
Originariamente inviato da pg08x
Jen-Hsun Huang vuole rendere le CPU obsolete e crede di poter superare intel.
Pretendende che i coprocessori grafici prodotti da nvidia integrino funzionalità inutili senza rendersi affatto conto che minor specializzazione vuol dire performance minori.
Dove il CEO NVIDIA ha mai affermato una cosa simile?
Le GPU vogliono semplicemente sgravare la CPU general purpose dai calcoli che non gli competono, come i calcoli vettoriali facili da parallelizzare, ambito nella quale la GPU rende al meglio, essendo di fatto poco piu' di un coprocessore vettoriale.
La GPU non si occupera' mai di gestire gli interrupt...
Questa disinformazione spicciola e di parte sta venendo un po' a noia anche a chi come me ha da sempre preferito l'architettura ATI...
Originariamente inviato da pg08x
Riguardo al directX 8.1 queste hanno invece introdotto i ben noti shaders 1.1 1.2 1.3 e 1.4
La sostanza non cambia... ma è meglio esser precisi.
E per essere precisi le DX8.1 hanno introdotto solo gli 1.4 ;)
(e la sostanza cambia parecchio)
Posso fare una domanda a pg08x? Ma scusa, senza offesa, ma dove vuoi arrivare con le questioni sul pixel shader o sulle idee di nvidia, che poi alla fine solo nvidia sa bene? Con tutti questi chiarimenti sul passato non ci capisco piu' nulla fra ps, directx, schede nuove o vecchie... oddio che confusione... quindi ricapitolando: la Radeon X800 ha il pixel shader 0.9b, che pero' non e' supportato dalle directx6.2ab, che pero' dovrebbe alleggerire il lavoro della cpu perche' e' una gpu, anche se l'introduzione delle direct9.0Z dovrebbe far diventare un super saiyan tutto il mio computer :)
Ho capito tutto?
Originariamente inviato da fek
Dove il CEO NVIDIA ha mai affermato una cosa simile?
....
Questa disinformazione spicciola e di parte sta venendo un po' a noia anche a chi come me ha da sempre preferito l'architettura ATI...
Si tratti di interviste MOLTO di parte rilasciate sul web.
La prima (ma posso citartene altre) che mi viene in mente è
"Meet Nvidia CEO Jen-Hsun Huang, the man who plans to make the CPU obsolete." http://www.wired.com/wired/archive/10.07/Nvidia.html
oppure
http://radio.weblogs.com/0105910/2002/06/19.html
con frasi ad effetto tipo:
As says Huang, "Some people say the network is the computer. We believe the display is the computer. Anywhere there's a pixel, that's where we want to be."
"What we can do in the next five years is going to blow your mind. In 10 years, we should be bigger than Intel." :sofico:
Originariamente inviato da fek
E per essere precisi le DX8.1 hanno introdotto solo gli 1.4 ;)
(e la sostanza cambia parecchio)
E qui sbagli di grosso
Added pixel shader versions 1.2, 1.3, and 1.4. These new versions expand existing functionality through a more powerful set of instructions, registers, and modifiers for programming pixel shaders.
Beccati il link all'msdn...
http://msdn.microsoft.com/archive/default.asp?url=/archive/en-us/dx81_c/directx_cpp/Graphics/WhatsNew.asp
non cambia nulla...
poi inutile che ti ostini a contestare ogni cosa che scrivo stiamo solo andando off topic ed io sinceramente ho 1000 cose da seguire (fra cui 2 nuovi progetti, gente che va in trasferta, modifiche software..., sviluppo)
Prossima volta porta tu della documentazione se ne trovi il tempo...
grazie x l'attenzione... e scusa la fretta ma veramente qua non gli ne può fregar de meno a nessuno...
Originariamente inviato da pg08x
...
non cambia nulla...
poi inutile che ti ostini a contestare ogni cosa stiamo solo andando off topic ed io sinceramente ho 1000 cose da seguire (fra cui 2 nuovi progetti, gente che va in trasferta, modifiche software..., sviluppo)
No no speta, presidente! Due progetti, gente in trasferta, modifiche software... sei un super capo supremo di qualche ditta? Quando mi assumi? :)
Originariamente inviato da pg08x
E qui sbagli di grosso
Added pixel shader versions 1.2, 1.3, and 1.4. These new versions expand existing functionality through a more powerful set of instructions, registers, and modifiers for programming pixel shaders.
Touche', su questo hai ragione :)
poi inutile che ti ostini a contestare ogni cosa che scrivo stiamo solo andando off topic ed io sinceramente ho 1000 cose da seguire (fra cui 2 nuovi progetti, gente che va in trasferta, modifiche software..., sviluppo)
Hey, rilassati, se posti cose che credo essere imprecise, mi limito a correggerle e poi puo' capitare che mi sbaglio come in questo caso, non c'e' bisogno di fare lo stizzito e cercare di darti un tono su un forum, uomo super impegnato...
Originariamente inviato da pg08x
Si tratti di interviste MOLTO di parte rilasciate sul web.
La prima (ma posso citartene altre) che mi viene in mente è
"Meet Nvidia CEO Jen-Hsun Huang, the man who plans to make the CPU obsolete." http://www.wired.com/wired/archive/10.07/Nvidia.html
oppure
http://radio.weblogs.com/0105910/2002/06/19.html
con frasi ad effetto tipo:
As says Huang, "Some people say the network is the computer. We believe the display is the computer. Anywhere there's a pixel, that's where we want to be."
"What we can do in the next five years is going to blow your mind. In 10 years, we should be bigger than Intel." :sofico:
Quello e' il titolo dell'articolo, ma lui non ha mai affermato di voler sostituire la CPU con la GPU, si e' limitato a dire che vogliono essere "ovunque ci sia un pixel". E poi la sparata su Intel, vabbe', so' americani e gli si concede di fare gli sboroni...
Non cercare di attaccarti a tutto per dimostrare che NVIDIA e' il diavolo.
cdimauro
11-05-2004, 07:41
pg08x: vedo sulla questione DirectX 8.1, nonostante quanto già scritto in passato, torni sempre. Ma ci torno pure: mi dimostri in quale parte dell'SDK della MS sta scritto che per essere full compliant con le DX8.1 una GPU debba implementare TUTTE le funzionalità in esse specificate? :rolleyes: :muro:
X chi volesse acquistare 1 Sapphire ati 9800XT 256 Mb con 3 settimane di vita, scontrino etc... La vendo a 380 € da subito. Mia sorella mi porta dagli USA la X800
eh eh eh.
La mia mail è
[email protected]
TyGerONE
19-05-2004, 16:45
hanno consegnato stamane 10 pezzi di X800 PRO. Inutile dire che sono già tutte vendute. Una è mia, pagato 370 ivata.
]AdmIn3^[
21-05-2004, 18:59
no comment...always the best.Ma serve l'overclock? ahhaha non mi pare tanto utile
sdjhgafkqwihaskldds
07-06-2004, 15:03
Originariamente inviato da pg08x
E strepitoso quello che una scheda ATI riesce a fare con un alimentatore normale, ventole normali.
ad nvidia servono 500-600Watt due molex ventoloni pazzeschi e schede stufa... ed a volte non la raggiunge.
:D
E basta ad associare nVidia ad una ditta che produce stufe.
Basta a dire che le schede consumano troppo, è un discorso già vecchio. Sono ottime schede grafiche.
sdjhgafkqwihaskldds
07-06-2004, 15:13
Originariamente inviato da pg08x
Allora quelli di nvidia sono ancora peggio di quanto credessi.
Ti assicuro che hanno sostenuto per anni la tesi che tutti gli effetti ottenibili con gli shader 1.4 erano riproducibili con 1.1 1.2 o 1.3 e senza neppure parlare della necessità di applicare più shaders.
CHE STRONZI
:mad:
Ho letto su una rivista di informatica circa un anno fà che addirittura dicevano che le caratteristiche DX9 erano compatibili con tutte le schede definite "programmabili" . Per tali schede veniva citata tutta la famiglia Radeon dalla 8500 in poi (Ma quando mai:oink: ) e con tutte le GeForce 3 e 4 non in versione MX:oink: :oink:
Ovvero DX8 = DX9
Mi stavo accingendo ad acquistare una favolosa Radeon 9000 con la consapevolezza di prendere una scheda video meglio della 8500 e compatibile DX9.
Fortuna compresi in tempo.
perke' nn vi konvertite ad una console!!!! vi sta parlando uno ke è stufo di buttare soldi e rinkorrere ste case ke ogni giorno ti sfornano una scheda e un chip nuovo................... ati x800 x800xt x800 super x800 ultra x800 pro nvida ultra 6800 -6950 NOS - 8000000000 cc common rail!!!!! ma daiiiiiiiiiiiii.
PS : essendo possesore di una 9600xt ho paura ke HL2 nn funzioni su tale skeda con le nuove ke stanno uscendo la ati forse se ne è dimenticata....................................
rmarango
31-12-2004, 16:46
Raffaele questo e' un vecchio thread...pero' ho scoperto una cosa interessante che non so' se a tutti era nota sugli screenshot fp16 vs. fp32 image quality citati nel tuo articolo :
http://www.nvnews.net/vbulletin/showthread.php?t=30854&page=1&pp=15
Se era una cosa gia' nota me ne scuso ....
:)
p.s. il link riporta diverse immagini piuttosto pesanti (56k warning)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.