View Full Version : GeForce FX 5800 Ultra e non solo: quando i produttori di GPU sbagliano
Redazione di Hardware Upg
03-05-2023, 15:51
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/6528/geforce-fx-5800-ultra-e-non-solo-quando-i-produttori-di-gpu-sbagliano_index.html
Si possono avere mille pareri diversi sulle schede video uscite in commercio dall'introduzione del rendering 3D a oggi, ma nella storia vi sono stati alcuni flop conclamati su cui - crediamo - la maggior parte degli appassionati si trova d'accordo. Grazie allo spunto di un lettore, ripercorriamo quelli che (secondo noi) rappresentano alcuni scivoloni evidenti in un'evoluzione altrimenti costellata di schede video buone e meno buone.
Click sul link per visualizzare l'articolo.
Manolo sistema:
"GeForce RTX 480, così calde da cuocerci sopra le uova!"
Le uova restano ben cotte ma quella era una GTX. :D
Manolo De Agostini
03-05-2023, 16:05
Manolo sistema:
"GeForce RTX 480, così calde da cuocerci sopra le uova!"
Le uova restano ben cotte ma quella era una GTX. :D
Eh sì, maledizione. :D
Per cuocere un uovo basta prende una gpu qualsiasi, lanciare furmark e limitare le ventole al 10/20% :D
Comunque avrei aggiunto Vega, in tempi recenti e' stato un grandissimo flop.
Consumi elevati, prestazioni inferiori alla concorrenza (che tanto avevano deriso prima del lancio).
Anche le r9 290 furono un discreto flop. Le prestazioni c'erano ed era un ottima rivale della 970/980.
Peccato che il reference design fosse pessimo e non potevano rilasciare modelli custom per mesi uccidendo di fatto la gpu. Fu anche la prima di una lunga serie di gpu voltata troppo aggressiva.
Per ricordare che tutti sbagliano :D
Certo che a vedere i valori dei tanto (giustamente) criticati consumi della 2900 XT paragonati a quelli delle attuali schede.. :D
Io ho anche le XTX
ps
La Fury Nano è stata una delle schede più equilibrate e soddisfacenti che ho avuto
io ricordo anche una certa Matrox Pharelia,che avrebbe dovuto essere antagonista di geffo e ati,ma alla fine si rivelò un flop...
nickname88
03-05-2023, 16:53
Manolo sistema:
"GeForce RTX 480, così calde da cuocerci sopra le uova!"
Le uova restano ben cotte ma quella era una GTX. :D
Se la RTX480 era calda allora dovresti vedere le attuali :rolleyes:
Intanto la RTX480 era il top delle VGA quando è uscita, quindi almeno quello .....
Se la RTX480 era calda allora dovresti vedere le attuali :rolleyes:
Intanto la RTX480 era il top delle VGA quando è uscita, quindi almeno quello .....
In verita' lo era la 5970 (soluzione dual gpu).
ErLucios
03-05-2023, 17:01
Mio fratello aveva la fx5950 asus, io la fx5600 e subito dopo la 2900xt
Se la RTX480 era calda allora dovresti vedere le attuali :rolleyes:
Intanto la RTX480 era il top delle VGA quando è uscita, quindi almeno quello .....
Si si per carità :stordita:
Se la RTX480 era calda allora dovresti vedere le attuali :rolleyes:
Intanto la RTX480 era il top delle VGA quando è uscita, quindi almeno quello .....
Bè, quelle attuali a paragone in uv scaldano meno di Fermi!
Tra tutte le schede citate comunque le HD 2900XT e le Radeon 290X erano silenziose a paragone della FX 5800 Ultra!
Pure Nvidia ci fece su dell' ironia.
https://youtu.be/WOVjZqC1AE4
io ricordo anche una certa Matrox Pharelia,che avrebbe dovuto essere antagonista di geffo e ati,ma alla fine si rivelò un flop...
Più che la Pharelia io ricordo anche la XGI Volari duo...:sofico:
Wolfw00f
03-05-2023, 18:15
Ma parliamo un po' delle KYRO :D
Le Kyro erano un'ottima alternativa economica
Therinai
03-05-2023, 19:11
Più che la Pharelia io ricordo anche la XGI Volari duo...:sofico:
Quoto questa era da citare, tra l'altro mi par di ricordare che fu recensita qui su HWU (magari sbaglio, si parla di vent'anni fa).
Sulle altre citate sono d'accordo, almeno contestualizzando. Tipo La fury X era una buona scheda, ma la soluzione AIO non la rendeva appetibile per molti (vuoi anche solo per il fatot che gli AIO per cpu all'epoca erano già diffusi, e ti ritrovavi a scegliere quale dei due prendere).
La gtx 970 peccato per le polemiche nate dalle frottole di nvidia, non le ho mai capite, quella scheda era una bomba al prezzo a cui veniva venduta, penso sia stata la scheda con il miglior rapporto qualità prezzo che abbia mai trovato.
Comunque mi pare di ricordare che tra la fanbase nvidia anche qui sul forum ai tempi c'era gente che difendeva la 5800 :asd:
unnilennium
03-05-2023, 19:23
"...Mentre ATi aveva già iniziato a vendere dall'estate 2022 le soluzioni basate su GPU R300, ..."
forse intendeva scrivere 2002...
comunque complimenti all'articolo, sono passati più di 20 anni, ricordo un amico con un notebook con la versione mobile della 9700, un mostro di potenza che però faceva caldissimo dalle feritoie, da cuocere... che tempi...
devil_mcry
03-05-2023, 19:28
la cosa triste è che me le ricordo tutte "in vita" XD
Le Kyro erano un'ottima alternativa economica
Esatto, anzi, al salire della risoluzione si vedevano i benefici del tile rendering! ;)
Quoto questa era da citare, tra l'altro mi par di ricordare che fu recensita qui su HWU (magari sbaglio, si parla di vent'anni fa)
No, non ti sbagli. ;)
https://www.hwupgrade.it/articoli/skvideo/988/xgi-volari-duo-v8-ultra-il-terzo-antagonista_index.html
Comunque mi pare di ricordare che tra la fanbase nvidia anche qui sul forum ai tempi c'era gente che difendeva la 5800 :asd:
Effettivamente per NV30 Nvidia adottò una campagna di marketing esasperata: ricordo che tutti i mesi prima dell'uscita veniva sempre menzionata in quasi tutte le riviste del settore, e che con clok di 500MHz core e 1GHz le memorie, DDR2 tra l'altro, avrebbe dovuto spaccare il mondo in termini di velocità, poi in realtà si scoprì che spaccava solo i timpani. :D
Ammetto però che a quei tempi ero uno dei pochi che preferiva Nvidia ad ATI, coi soldi del lavoro estivo comprai una "misera" Creative GeForce FX 5200 Ultra pagandola tipo 150€ o qualcosa di simile, quando su quelle cifre o poco più c'erano le Radeon 9500 pro che gli facevano le scarpe. Potere del marketing verde! :muro:
Dynamizer
03-05-2023, 19:55
"estate 2022 le soluzioni basate su GPU R300"
🤔🙄
Credo sia un po' eccessivo parlare della GTX 970 in termini così negativi: errori di comunicazione ci sono stati sicuramente, ma quella scheda è stata una delle più vendute del suo periodo, visto anche il prezzo e la potenza che offriva, e molti l'hanno continuata ad usare per anni.
Therinai
03-05-2023, 20:32
No, non ti sbagli. ;)
https://www.hwupgrade.it/articoli/skvideo/988/xgi-volari-duo-v8-ultra-il-terzo-antagonista_index.html
Puah, non ricordo con cosa ho pranzato oggi ma ricordo una recensione di vent'anni fa di una vga nata morta, misteri dell'alzaimer. Tra l'altro ho dato un'occhiata ai post ed è riemerso l'utente "Paoletta Corsini" :rotfl:
Effettivamente per NV30 Nvidia adottò una campagna di marketing esasperata: ricordo che tutti i mesi prima dell'uscita veniva sempre menzionata in quasi tutte le riviste del settore, e che con clok di 500MHz core e 1GHz le memorie, DDR2 tra l'altro, avrebbe dovuto spaccare il mondo in termini di velocità, poi in realtà si scoprì che spaccava solo i timpani. :D
Ammetto però che a quei tempi ero uno dei pochi che preferiva Nvidia ad ATI, coi soldi del lavoro estivo comprai una "misera" Creative GeForce FX 5200 Ultra pagandola tipo 150€ o qualcosa di simile, quando su quelle cifre o poco più c'erano le Radeon 9500 pro che gli facevano le scarpe. Potere del marketing verde! :muro:
Guarda io comprai un ati 9700pro usata a 150€ quando uscì la 9800, qui sul mercatino di hwu, fu un affare colossale considerata la mia misera economia dell'epoca e che mostro era quella scheda. L'ho usata finché non si è bruciata :D
grey.fox
03-05-2023, 21:01
Mio Dio sono passati davvero vent'anni???!!! :cry: :cry: :cry: :cry:
Ricordo tutte queste cose come fosse ieri. :cry: :cry:
Vuol dire che sono vecchio. :muro:
EDIT
"Mentre ATi aveva già iniziato a vendere dall'estate 2022 le soluzioni basate su GPU R300"
2002 ;)
Guarda io comprai un ati 9700pro usata a 150€ quando uscì la 9800, qui sul mercatino di hwu, fu un affare colossale considerata la mia misera economia dell'epoca e che mostro era quella scheda. L'ho usata finché non si è bruciata :D
Io la 5200 Ultra la cambiai un anno più tardi proprio con la 9800 pro vendutami da un amico a poco meno di 80€, e fortunatamente è sopravvissuta fino ad oggi. :)
Ebbi come la sensazione di aver saltato due gen di vga! :oink:
C'è da dire che di 9700 e 9800 ne ho viste morire un sacco, avevano i dissipatori troppo giusti e le ram tirate, poi quella cavolo di colla gialla che usavano al posto della pasta termoconduttiva era veramente una schifezza, di peggio credo ci fosse solo la resina che usava 3dfx per i dissi delle V4 e V5.
conan_75
03-05-2023, 21:21
Tra le porcate ho avuto la V5 5500, andava meno delle GF2MX che costavano la metà.
L’ho buttata, oggi avrei potuto venderla a qualche collezionista.
La Parhelia non era male, semplicemente guardava un altro target.
Il mito dei miei tempi era la S3 Virge GX/DX nella versione 2Mb aggiornabile a 4Mb denominata anche il deceleratore 3d :D
La voodoo rush altra roba strana dell’epoca…
Ne avrei da raccontare…
No, non ti sbagli. ;)
https://www.hwupgrade.it/articoli/skvideo/988/xgi-volari-duo-v8-ultra-il-terzo-antagonista_index.html
Effettivamente per NV30 Nvidia adottò una campagna di marketing esasperata: ricordo che tutti i mesi prima dell'uscita veniva sempre menzionata in quasi tutte le riviste del settore, e che con clok di 500MHz core e 1GHz le memorie, DDR2 tra l'altro, avrebbe dovuto spaccare il mondo in termini di velocità, poi in realtà si scoprì che spaccava solo i timpani. :D
Ammetto però che a quei tempi ero uno dei pochi che preferiva Nvidia ad ATI, coi soldi del lavoro estivo comprai una "misera" Creative GeForce FX 5200 Ultra pagandola tipo 150€ o qualcosa di simile, quando su quelle cifre o poco più c'erano le Radeon 9500 pro che gli facevano le scarpe. Potere del marketing verde! :muro:
C'è anche da sottolineare la scelta infelice di utilizzare ventoline microscopiche che dovevano, di conseguenza, girare a mille
https://www.neoseeker.com/Articles/Hardware/Reviews/gainward5950/2.html#&gid=1&pid=11
Tra le porcate ho avuto la V5 5500, andava meno delle GF2MX che costavano la metà.
L’ho buttata, oggi avrei potuto venderla a qualche collezionista.
La Parhelia non era male, semplicemente guardava un altro target.
Il mito dei miei tempi era la S3 Virge GX/DX nella versione 2Mb aggiornabile a 4Mb denominata anche il deceleratore 3d :D
La voodoo rush altra roba strana dell’epoca…
Ne avrei da raccontare…
La Voodoo 5 5500 però aveva il miglior AA nel 2000, ricordo che trovai qualcosa di simile quando presi la 9800 pro, sulla 5200 Ulta c'era il quincunx che praticamente sfocava l'immagine.
C'è anche da sottolineare la scelta infelice di utilizzare ventoline microscopiche che dovevano, di conseguenza, girare a mille
https://www.neoseeker.com/Articles/Hardware/Reviews/gainward5950/2.html#&gid=1&pid=11
Scelte che non capirò mai!
Delle FX 5950 Ultra ricordo ci fosse anche una variante della Albatron simile a quella del link, ma con 3 ventole, di cui una di backup che partiva solo nel caso una delle altre due si inchiodasse.
Per la 5800 Ultra il discorso è ancora diverso: usarono l'idea di Abit usata pochi mesi prima per la sua GeForce 4 Ti 4200 OTES (chi se la ricorda?) ma con l'aggravante di chiudere la girante dentro una "gabbia" di plastica per forzare l'aria ad entrare dall'esterno, attraversare le alette del dissi e uscire di nuovo all'esterno facendo così fare da cassa di risonanza ed amplificare ancora di più i 7000 rpm della ventola! :sofico:
Credo sia un po' eccessivo parlare della GTX 970 in termini così negativi: errori di comunicazione ci sono stati sicuramente, ma quella scheda è stata una delle più vendute del suo periodo, visto anche il prezzo e la potenza che offriva, e molti l'hanno continuata ad usare per anni.
Non e' stata un flop, ma sicuramente si merita di rientrare nelle gpu "sbagliate", tra specifiche sbagliate e parziali.
Therinai
03-05-2023, 22:51
A proposito di geforce 4... fui tra i "fortunati" acquirenti di una MX 440... non so se possa rientrare tra i fail storici ma ricordo che fu una bella inculata, ma proprio vergogna totale...
La 5800 ultra a differenza delle 9700 usava un 4x2 invece che 8x1. Il che tranne in alcuni ambiti specifici la faceva andare peggio della controparte ati. Come flop io ci avrei aggiunto però la Voodoo 3000 e non la 5000 dato che la prima non aveva nemmeno i 32 bit come profondità di colore. Però ricordo ancora l’epoca d’oro in cui si sfidavano la tnt2 ultra la g400 con l’e-bump mapping, la s3 savage con il suo hrs e le varie ati, Voodoo ecc ecc
grey.fox
03-05-2023, 23:37
A proposito di geforce 4... fui tra i "fortunati" acquirenti di una MX 440... non so se possa rientrare tra i fail storici ma ricordo che fu una bella inculata, ma proprio vergogna totale...
Mamma mia....era praticamente una Geforce2 rimarchiata se non sbaglio! :doh:
Quindi pure directX 7.
AarnMunro
04-05-2023, 05:37
Nessuno ricorda le Matrox?
La Millennium...la mistique...
La memoria era in MB...
Nessuno ricorda le Matrox?
La Millennium...la mistique...
La memoria era in MB...
Eh si ne ho avute diverse nel periodo del Pentium di prima gen!
Non ho visto menzionata la Intel i740 agp, a questo punto credo di averla avuta solo io!
Ziggy Stardust
04-05-2023, 08:52
L'AGP!!! Prima del PCI.
Siamo a più di 25 anni fa ora
Non ho visto menzionata la Intel i740 agp, a questo punto credo di averla avuta solo io!
Bè, ma credo che nell'articolo siano trattate le vga di fascia alta che furono dei flop, la i740 era una vga di fascia bassa...
Wolfw00f
04-05-2023, 09:26
Esatto, anzi, al salire della risoluzione si vedevano i benefici del tile rendering! ;)
Ottima sulla carta, infatti poi sono scomparse (come le Volari) :fagiano:
Wolfw00f
04-05-2023, 09:30
Mamma mia....era praticamente una Geforce2 rimarchiata se non sbaglio! :doh:
Quindi pure directX 7.
NI
Aveva il supporto all'MSAA - le GeForce 2 supportavano solo l'SSAA allora chiamato FSAA "fullscreen antialiasing" per distinguerlo da quello applicato alle sole linee e usato in ambito professionale - pur mancando di quello allo shader model 1.x (come le GeForce 2 del resto che avevano il supporto alle specifiche degli shader di NVIDIA e che come era solito all'epoca non coincidevano non quelle di MicroSoft, ed erano chiamati "FRAGMENT SHADERS" - esattamente come capitava con le estensioni dell'OpenGL che erano numerosissime e diverse da produttore a produttore e non obbligatorie da supportare)
Era una GeForce 2,5 :stordita:
Bè, ma credo che nell'articolo siano trattate le vga di fascia alta che furono dei flop, la i740 era una vga di fascia bassa...
Mi ferisci!
Non ricordo che fosse una fascia bassa, tra l'altro all'epoca c'era meno segmentazione e meno modelli in commercio.
Il mio primo acquisto fu una Gecube 9600pro 256mb
Troppo brutta la 2900xt rossa con quelle specie di fiamme sembra la vga hot wheels
nickname88
04-05-2023, 09:42
I più grandi fails furono la HD2900 e la serie Vega.
I più grandi fails furono la HD2900 e la serie Vega.
La HD 2900 sicuramente, Vega no dai, alla fine è vero che consumava di più, ma il suo lo faceva, specialmente in dx12 e Vulkan.
Per me le peggiori di sempre restano le FX in quanto oltre che scaldare di più non riuscivano a gestire le dx9 (HL2 che girava in dx8 sulle FX non se lo ricorda nessuno?)
Mi ferisci!
Non ricordo che fosse una fascia bassa, tra l'altro all'epoca c'era meno segmentazione e meno modelli in commercio.
Era monofascia in realtà in quanto solo la i740 aveva lanciato Intel con vari tagli di memoria di cui la maggiore era 8 MB, proprio per contenere i costi. :)
I più grandi fails furono la HD2900 e la serie Vega.
Di sempre dici? Quindi escludiamo volutamente tutti i fails Nvidia? :doh:
Nuovamente.. come ritieni opportuno guarda.. :asd:
Wolfw00f
04-05-2023, 10:06
La HD 2900 sicuramente, Vega no dai, alla fine è vero che consumava di più, ma il suo lo faceva, specialmente in dx12 e Vulkan.
Per me le peggiori di sempre restano le FX in quanto oltre che scaldare di più non riuscivano a gestire le dx9 (HL2 che girava in dx8 sulle FX non se lo ricorda nessuno?)
Perchè non c'era il supporto (in HL2) alla mezza precisione (e per fare i conti a 24 o 32 bit - negli shader, non parliamo dei colori come negli anni '90 - andavano incontro quindi al classico bottleneck architetturale). Dove c'era supporto alla mezza precisione erano GPU SM 2.0a perfette :D
Cmq il problema erano le 5800, le 5700/5900 erano state pezze abbastanza buone al progetto.....cmq evitate da me che aspettai il 2005 per una 6600 (e quelle AGP avevano il problema del surriscaldamento per il BRIDGE PCI-Express se vi ricordate :D e che fu mantenuto fino alla 7900 GS )
Gyammy85
04-05-2023, 10:07
Se la RTX480 era calda allora dovresti vedere le attuali :rolleyes:
Intanto la RTX480 era il top delle VGA quando è uscita, quindi almeno quello .....
I casi sono due, o va fortissimo perché è una mattonella che scalda e consuma ma ok perché è il top, o va meno essendo di dimensioni paragonabili al competitor e quindi vabbè tutto sommato consuma 10 watt in meno, e poi ci sono le ficiurs, quindi top :O
Puah, non ricordo con cosa ho pranzato oggi ma ricordo una recensione di vent'anni fa di una vga nata morta, misteri dell'alzaimer. Tra l'altro ho dato un'occhiata ai post ed è riemerso l'utente "Paoletta Corsini" :rotfl:
Guarda io comprai un ati 9700pro usata a 150€ quando uscì la 9800, qui sul mercatino di hwu, fu un affare colossale considerata la mia misera economia dell'epoca e che mostro era quella scheda. L'ho usata finché non si è bruciata :D
Per soli 200 euro in più prendevi la 5900xt che non era malaccio, almeno avevi i driver perfetti ogni mese e giochi sempre più belli :O
La stavo per prendere ma poi trovai una 9800pro ad ottimo prezzo
Anche la mia dopo 3 anni si è rotta, c'è da dire che queste schede erano fragili rispetto a oggi
Wolfw00f
04-05-2023, 10:14
Di sempre dici? Quindi escludiamo volutamente tutti i fails Nvidia? :doh:
Nuovamente.. come ritieni opportuno guarda.. :asd:
Il fail più grosso di NVidia è l'NFORCE :stordita:
Perchè non c'era il supporto (in HL2) alla mezza precisione (e per fare i conti a 24 o 32 bit - negli shader, non parliamo dei colori come negli anni '90 - andavano incontro quindi al classico bottleneck architetturale). Dove c'era supporto alla mezza precisione erano GPU SM 2.0a perfette :D
Cmq il problema erano le 5800, le 5700/5900 erano state pezze abbastanza buone al progetto.....cmq evitate da me che aspettai il 2005 per una 6600 (e quelle AGP avevano il problema del surriscaldamento per il BRIDGE PCI-Express se vi ricordate :D e che fu mantenuto fino alla 7900 GS )
Sì, vero! Il problema delle FX era proprio che non potevano usare le fp24, o fp16 o fp32. ;)
Io di 6600GT agp ne bruciai 2, non dirlo a me! :rolleyes:
Ancora la voodoo 5 5500 cè l'ho conservata :) :fagiano:
Io ricordo la mia prima scheda video che credo che era una S3 Savage ed era un vero aborto. Ricordo perfettamente che i giochi giravano meglio in software mode che non sfruttando l'accelerazione hardware (mi ero finito il primo Half life così, credo a 640 x 480). C'erano poi giochi come la demo di Quake 3 che manco partivano.
Ricordo un mio amico con la Matrox, che aveva in un PC comprato nello stesso periodo, che riusciva a far girare tutti i giochi ed al confronto della S3 era un'altro pianeta.
Legolas84
04-05-2023, 10:21
La GTX 480 scaldava e consumava tanto, ma era il top del top, soprattutto liquidata.
Il vero fail imho è quando vai meno, consumi di più, ci dai giù di blackscreen e stuttering come se non ci fosse un domani al modico prezzo di 50 euro in meno :asd: situazione verificatasi più volte in passato...
PS
sempre bello rivedere la Voodoo 5 :)
La HD 2900 sicuramente, Vega no dai, alla fine è vero che consumava di più, ma il suo lo faceva, specialmente in dx12 e Vulkan.
Per me le peggiori di sempre restano le FX in quanto oltre che scaldare di più non riuscivano a gestire le dx9 (HL2 che girava in dx8 sulle FX non se lo ricorda nessuno?)
Vega ha sempre fatto il suo lavoro, secondo me sono state peggio le Fury.
Fury, Fury nano, baracca liquida e baracca liquida doppia :asd:
Wolfw00f
04-05-2023, 10:34
Anche la mia dopo 3 anni si è rotta, c'è da dire che queste schede erano fragili rispetto a oggi
Sì, anche io Hercules 9800 lisssssia bruciata (cedimento ventola).
Ce l'ho qui nel cassetto.....
Vega ha sempre fatto il suo lavoro, secondo me sono state peggio le Fury.
Fury, Fury nano, baracca liquida e baracca liquida doppia :asd:
Paradossalmente sì, però si giustificava coi driver immaturi e le hbm.
Ammetto che il progetto era affascinante, peccato per le prestazioni.
Come ho sempre trovato affascinanti le V5 5500 o la mai rilasciata 6000 in quadri sli e la Rage Fury MAXX.
Wolfw00f
04-05-2023, 10:38
Ce l'ho qui nel cassetto.....
*da guardare ascoltando una canzone nostalgica*
https://i.postimg.cc/9fNNNSfQ/IMG-20230504-103608394.jpg
Sta cosa faceva muovere HL2 a 1280x960 al massimo dettaglio su Athlon64 :O
Sì, anche io Hercules 9800 lisssssia bruciata (cedimento ventola).
Ce l'ho qui nel cassetto.....
La mia è una Sapphire 9800 pro, la reference per intenderci.
Credo sia arrivata fino ai giorni nostri perché montai dei dissi sulle ram e cambiai la pasta termoconduttiva quando la acquistai dato che era di un mio amico.
Ogni tanto la uso ancora oggi per giocare a HL2 o i vari NFS Undergorund ecc. :)
*da guardare ascoltando una canzone nostalgica*
https://i.postimg.cc/9fNNNSfQ/IMG-20230504-103608394.jpg
Sta cosa faceva muovere HL2 a 1280x1024 al massimo dettaglio :O
Che spettacolo, poi le Hercules erano il top a raffreddamento e OC, mi fai commuovere!
Legolas84
04-05-2023, 10:45
In quel tempo avevo la Hercules 9700 pro :)
In quel tempo avevo la Hercules 9700 pro :)
Ricordo la 9500 pro, la 9700 pro e la 9800 pro della Hercules perché si occavano che era un piacere. :)
Wolfw00f
04-05-2023, 10:48
Che spettacolo, poi le Hercules erano il top a raffreddamento e OC, mi fai commuovere!
Il resto del PC di allora lo tengo in solaio e funziona perfettamente con una 9600 XT trovata dal rigattiere :asd: (e sì, ci ho installato WinXP+Crysis e ci gira in DX9 a 640x480 e dettaglio minimo :stordita: )
La 9800 era stata messa sul pc del DENTISTA :sofico: e quando la ventola ha ceduto il case era ovviamente messo in un angolino soffocato dello studio dove non poteva circolare un filo di aria.....e così è morta :fagiano:
In cuor mio speravo di recuperarla quando avrebbe cambiato PC......e tenerla sempre con me fino alla fine dei tempi (ricordo ancora i 300 euro per comprarla in un negozio di BG in via Angelo Maj a settembre 2003) :O
Il resto del PC di allora lo tengo in solaio e funziona perfettamente con una 9600 XT trovata dal rigattiere :asd: (e sì, ci ho installato WinXP+Crysis e ci gira in DX9 a 640x480 e dettaglio minimo :stordita: )
La 9800 era stata messa sul pc del DENTISTA :sofico: e quando la ventola ha ceduto il case era ovviamente messo in un angolino soffocato dello studio dove non poteva circolare un filo di aria.....e così è morta :fagiano:
In cuor mio speravo di recuperarla quando avrebbe cambiato PC......e tenerla sempre con me fino alla fine dei tempi (ricordo ancora i 300 euro per comprarla in un negozio di BG in via Angelo Maj a settembre 2003) :O
Che brutta morte, lenta e dolorosa. :sofico:
Però seriamente è un peccato, per me le Radeon 9xxx sono state epocali, vedere Doom 3 e HL2 con filtri attivati era veramente qualcosa di impensabile solo pochi anni prima.
Wolfw00f
04-05-2023, 10:59
Che brutta morte, lenta e dolorosa. :sofico:
Però seriamente è un peccato, per me le Radeon 9xxx sono state epocali, vedere Doom 3 e HL2 con filtri attivati era veramente qualcosa di impensabile solo pochi anni prima.
Ah lo so bene, lo so DAVVERO bene.
Devo però dire che AF a parte che non esisteva ai tempi della GeForce 2, la GeForce 2 GTS - cioè la scheda che usavo prima della 9800 - faceva girare il flyby di Unreal 226 a 33 FPS a 1280x960 e SSAA 4x......questo su un Athlon 1333 :oink:
Ah lo so bene, lo so DAVVERO bene.
Devo però dire che AF a parte che non esisteva ai tempi della GeForce 2, la GeForce 2 GTS - cioè la scheda che usavo prima della 9800 - faceva girare il flyby di Unreal 226 a 33 FPS a 1280x960 e SSAA 4x......questo su un Athlon 1333 :oink:
Bè, Nvidia fino alle GeForce 4 Ti era sempre stata davanti, le FX furono un fail per una serie di scelte infelici, complice anche la controversia che si venne a creare tra Nvidia e Microsoft circa la fornitura dei chip per le allora XBOX.
Giusto per citare una rivista del settore datata gennaio 2003:
https://i.ibb.co/Nx48d1S/20220402-154614.jpg (https://ibb.co/jhpcPVR)
Wolfw00f
04-05-2023, 11:18
Bè, Nvidia fino alle GeForce 4 Ti era sempre stata davanti, le FX furono un fail per una serie di scelte infelici, complice anche la controversia che si venne a creare tra Nvidia e Microsoft circa la fornitura dei chip per le allora XBOX.
Avuta anche la GeForce 4200 Ti, tenuta fino al 2006 e ricordo distintamente che ci feci girare sopra la beta leakata delle mappe multiplayer di Shadow of Chernobyl :D (tanto c'era solo il renderer DX8 in quella beta).
Quella fu comprata invece ad Agosto 2002, felicissimo di averci fatto girare sopra America's Army in quanto primo titolo Unreal Engine 2.....seguito poi da UT 2003 e in attesa di Unreal 2.....per poi scoprire amaramente che nessuno dei primi titolo UE2 usava shader 1.x :asd: :asd: :asd: (i primi furono con Deus Ex Invisible War e Thief Deadly Shadows mutuati appunto da XBOX, ma che sono cmq basati su un fork molto antecedente alla versione del 2003 e customizzati pesantemente, come successo per Splinter Cell e BioShock) :fagiano:
Avuta anche la GeForce 4200 Ti, tenuta fino al 2006 e ricordo distintamente che ci feci girare sopra la beta leakata delle mappe multiplayer di Shadow of Chernobyl :D (tanto c'era solo il renderer DX8 in quella beta).
Quella fu comprata invece ad Agosto 2002, felicissimo di averci fatto girare sopra America's Army in quanto primo titolo Unreal Engine 2.....seguito poi da UT 2003 e in attesa di Unreal 2.....per poi scoprire amaramente che nessuno dei primi titolo UE2 usava shader 1.x :asd: :asd: :asd: (i primi furono con Deus Ex Invisible War e Thief Deadly Shadows, ma che sono cmq basati su un fork molto antecedente e customizzati pesantemente, come successo per Splinter Cell e BioShock) :fagiano:
Sprinter Cell!
Mi hai fatto tornare in mente il bug delle ombre con le dx9! :D
Wolfw00f
04-05-2023, 11:38
vedere Doom 3
.....cmq si vede meglio oggi in DX12 / Vulkan e con tutto revisionato PARTENDO dal motore di Rage/BFG :O
https://github.com/RobertBeckebans/RBDOOM-3-BFG/releases/tag/v1.5.0
https://i.postimg.cc/fTsyLWcm/RBDoom3-BFG-2023-05-04-11-28-57-173.jpg (https://postimg.cc/V57mZ8Hk)
https://i.postimg.cc/d3jqdd2d/RBDoom3-BFG-2023-05-04-11-36-10-416.jpg (https://postimg.cc/m1hfWP62)
E' stupendo anche con gli asset originali, giusto adattati per il motore nuovo e finalmente gira su ogni cosa :D
Devo ancora testarlo sull'UHD 750 ma dobrebbe girarci senza problemi.
Wolfw00f
04-05-2023, 11:41
Sprinter Cell!
Mi hai fatto tornare in mente il bug delle ombre con le dx9! :D
DX8 :O Splinter Cell ha aggiornato il motore alle DX9 e relative feature solo con Chaos Theory (e infatti è quello che dà meno problemi di suo, driver permettendo, perchè infatti i primi 2 avevano le ombre letteralmente tarate sull'HW XBOX e l'unico corrispettivo bene o male adeguato per avere una resa fedele sono le GeForce 3/4.....ma puoi sempre usare http://dege.freeweb.hu/dgVoodoo2/dgVoodoo2/ in cui abbiamo - sì uso "noi" non a caso perchè sono nel gruppo di beta tester praticamente da 10 anni ormai - aggiunto il preset GeForce 4800 :D con addirittura lo smoothing delle ombre e i risultati sono eccezionali sia nel primo, sia in Pandora Tomorrow )
E' proprio un problema HW legato al fatto che sono letteralmente cuciti intorno alla GPU dell' XBOX, è indipendente dalle librerie.
https://i.postimg.cc/Zq5wLG10/Untitled.jpg (https://postimages.org/)
L'alternativa "idiota" è usare le ombre projector in stile UT 2003/2004 pensate per GeForce 2 (basta forzarle nel file di configurazione)......ma Splinter Cell così perde tutto il suo fascino.
[K]iT[o]
04-05-2023, 11:49
Di tutte le schede nVidia i due fails peggiori penso siano la serie FX per le prestazioni (erano pessime) e vendevano praticamente solo per il marchio e la demo della fatina :ciapet: e il secondo fail (molto lungo) penso sia tutta la produzione dalla serie 7xxx alle 9xxx, non perchè non fossero veloci (lo erano) ma perchè si guastavano continuamente, chip progettati male.
Schede come la MX4 440 (e 4000!) e le TNT2 M64 erano piuttosto famigerate ma andavano forte nei pc non gaming o budget, insomma la loro utilità l'avevano.
ATi come fails purtroppo ci metterei sempre e solo il software, le schermate blu erano loro esclusiva praticamente.
Gli altri marchi hanno sempre faticato, se escludo chi usava i chip 3Dfx nei tempi d'oro, quindi non li menzionerei proprio.
E se proprio volete ricordare schede scarse a tutto tondo, sia integrate che dedicate, eccole: SiS (e pure chipsets).
Wolfw00f
04-05-2023, 11:49
A proposito, se Manolo volesse fare un articolo su dgVoodoo2 (magari manco lo conosce e legge ora che esiste) sarebbe uno dei più letti su hwupgrade dai vecchi :O
.....cmq si vede meglio oggi in DX12 / Vulkan e con tutto revisionato PARTENDO dal motore di Rage/BFG :O
https://github.com/RobertBeckebans/RBDOOM-3-BFG/releases/tag/v1.5.0
https://i.postimg.cc/fTsyLWcm/RBDoom3-BFG-2023-05-04-11-28-57-173.jpg (https://postimg.cc/V57mZ8Hk)
https://i.postimg.cc/d3jqdd2d/RBDoom3-BFG-2023-05-04-11-36-10-416.jpg (https://postimg.cc/m1hfWP62)
E' stupendo anche con gli asset originali, giusto adattati per il motore nuovo e finalmente gira su ogni cosa :D
Devo ancora testarlo sull'UHD 750 ma dobrebbe girarci senza problemi.
Mi hai aperto un mondo! Non sapevo dell'esistenza di questa mod!!
In ogni caso io preferisco l'esperienza su hw dell'epoca con relativi limiti, è più nostalgico. :D
Wolfw00f
04-05-2023, 11:51
iT[o];48188425']
TNT2 M64
La regalai ad una ragazza per giocarci a Diablo 2 :asd: :asd: :asd:
Il memory bus a 64 bit la uccideva letteralmente......e la ragazza NON fu molto contenta (oltre a dovermi sopportare si intende, LULZ)
Il fail più grosso di NVidia è l'NFORCE :stordita:
Ci sarebbe l'NV1 con il suo "rendering" quadratico (quadrated texture mapping) e supporto DirectX non nativo :asd:
grey.fox
04-05-2023, 12:05
.....cmq si vede meglio oggi in DX12 / Vulkan e con tutto revisionato PARTENDO dal motore di Rage/BFG :O
https://github.com/RobertBeckebans/RBDOOM-3-BFG/releases/tag/v1.5.0
https://i.postimg.cc/fTsyLWcm/RBDoom3-BFG-2023-05-04-11-28-57-173.jpg (https://postimg.cc/V57mZ8Hk)
https://i.postimg.cc/d3jqdd2d/RBDoom3-BFG-2023-05-04-11-36-10-416.jpg (https://postimg.cc/m1hfWP62)
E' stupendo anche con gli asset originali, giusto adattati per il motore nuovo e finalmente gira su ogni cosa :D
Devo ancora testarlo sull'UHD 750 ma dobrebbe girarci senza problemi.
Interessante.... E' applicabile anche alla versione BFG di Steam? Sono semplicemente dei files da sovrascrivere?
https://www.hwupgrade.it/articoli/skvideo/829/nvidia-geforce-fx-5800-ultra_index.html
Buona lettura! :O
Io già c'ero! :sofico:
Certo che a rileggere i commenti si vede come la guerra delle fazioni non è roba di oggi... :asd:
ps: invece a rileggere i prezzi di allora (e pensando a come gli stipendi siano sostanzialmente rimasti invariati, in Italia) mette una tristezza immane... :fagiano:
Wolfw00f
04-05-2023, 12:14
Interessante.... E' applicabile anche alla versione BFG di Steam? Sono semplicemente dei files da sovrascrivere?
E' pensato apposta per la BFG.
Non ricordo cmq la procedura di installazione perchè ho giusto messo la nuova versione su quella vecchia di un anno fa, quindi dovrei andare a vedere (perchè potrebbe essere necessario scompattare gli archivi della BFG che cmq sono l'unica cosa necessaria, ergo puoi banalmente fare una copia della cartella creata da Steam della BFG, metterla altrove e smanettarci :D il gioco si lancia dall'exe nel pacco, il DRM di Steam è completamente bypassato)
Ah, cancella pure la DLL di openalsoft, così RBDoom3 usa lo stack XAudio di Windows e va benone lo stesso (la versione di OpenAL Soft inclusa è vecchissima, ovviamente puoi sempre aggiornarla tu a mano con la più recente: https://openal-soft.org/ 64 bit ovviamente )
Wolfw00f
04-05-2023, 12:20
Ci sarebbe l'NV1 con il suo "rendering" quadratico (quadrated texture mapping) e supporto DirectX non nativo :asd:
Ma ai tempi dell'NV1 era tutta fantascienza quello di cui stiamo parlando :D
Invece con l'nForce si iniziava già ad avere un'alfabetizzazione informatica diffusa.....e non si può dimenticare che OGNI promessa dell'nForce - almeno i primi - è stata di fatto non mantenuta. Ma proprio nessuna :asd:
Un mio amico prese l'nForce al suo primo Athtlon (dopo l'esperienza bene o male tranquilla col P4 Northwood e GeForce 3) e ancora oggi ha gli incubi :stordita:
Non avevi certezza che le cose funzionassero stabilmente.....MAI (cosa che mi fa venire in mente un'altra gatta da pelare dell'epoca, come settare l'AGP Aperture Size e prima ancora la scelta dei driver dell' AGP :D )
Ma ai tempi dell'NV1 era tutta fantascienza quello di cui stiamo parlando :D
Invece con l'nForce si iniziava già ad avere un'alfabetizzazione informatica diffusa.....e non si può dimenticare che OGNI promessa dell'nForce - almeno i primi - è stata di fatto non mantenuta. Ma proprio nessuna :asd:
Un mio amico prese l'nForce al suo primo Athtlon (dopo l'esperienza bene o male tranquilla col P4 Northwood e GeForce 3) e ancora oggi ha gli incubi :stordita:
Non avevi certezza che le cose funzionassero stabilmente.....MAI (cosa che mi fa venire in mente un'altra gatta da pelare dell'epoca, come settare l'AGP Aperture Size e prima ancora la scelta dei driver dell' AGP :D )
La mia A7N8X-E Deluxe era una bomba :D
Wolfw00f
04-05-2023, 12:30
La mia A7N8X-E Deluxe era una bomba :D
Mi sa che era proprio quella, le performance c'erano ma la stabilità di una piattaforma anche solo VIA mancava. A quel punto meglio SiS :sofico:
Ma ai tempi dell'NV1 era tutta fantascienza quello di cui stiamo parlando :D
Invece con l'nForce si iniziava già ad avere un'alfabetizzazione informatica diffusa.....e non si può dimenticare che OGNI promessa dell'nForce - almeno i primi - è stata di fatto non mantenuta. Ma proprio nessuna :asd:
Un mio amico prese l'nForce al suo primo Athtlon (dopo l'esperienza bene o male tranquilla col P4 Northwood e GeForce 3) e ancora oggi ha gli incubi :stordita:
Non avevi certezza che le cose funzionassero stabilmente.....MAI (cosa che mi fa venire in mente un'altra gatta da pelare dell'epoca, come settare l'AGP Aperture Size e prima ancora la scelta dei driver dell' AGP :D )
Io ho ancora una macchina Compaq funzionante con scheda madre MSI, nforce 220 con grafica integrata e Athlon XP 2000+ e funziona ancora, in passato fu una delle mie macchine principali, a parte qualche bsod mai un problema...
Wolfw00f
04-05-2023, 12:57
E' pensato apposta per la BFG.
Non ricordo cmq la procedura di installazione perchè ho giusto messo la nuova versione su quella vecchia di un anno fa, quindi dovrei andare a vedere (perchè potrebbe essere necessario scompattare gli archivi della BFG che cmq sono l'unica cosa necessaria, ergo puoi banalmente fare una copia della cartella creata da Steam della BFG, metterla altrove e smanettarci :D il gioco si lancia dall'exe nel pacco, il DRM di Steam è completamente bypassato)
Ah, cancella pure la DLL di openalsoft, così RBDoom3 usa lo stack XAudio di Windows e va benone lo stesso (la versione di OpenAL Soft inclusa è vecchissima, ovviamente puoi sempre aggiornarla tu a mano con la più recente: https://openal-soft.org/ 64 bit ovviamente )
Update per gli interessati!
Sì, basta la cartella "base" della BFG e il contenuto della release 1.5.0 di RBDoom3 (provato ora, però io avevo già scompattato nel mio backup personale della BFG gli archivi e non so come sia ora la situazione con la versione di Steam ma dovrebbe andare tutto)
Come consigliato prima, cancellate pure "OpenAL32.dll" (è una vecchia versione di OpenAL Soft, francamente troppo vecchia e da sostituire nel caso con una più recente - OpenAL Soft è una delle tante implementazioni di OpenAL di Creative e anche su questa cosa avrei tonnellate di aneddoti dal 2002 ad oggi - il primo gioco ad usarla su PC fu Jedi Knight Outcast :D ), il motore notando la sua assenza defaulta su Windwos ad XAudio e va benissimo lo stesso.
Con l'integrata Intel ovviamente bisogna accontentarsi di 1280x720 :asd:
Così senza TAA e senza SSAO a 1920x1080 (sopra è uno stillicidio)
https://i.postimg.cc/7fWfQSGW/RBDoom3-BFG-2023-05-04-13-18-32-560.jpg (https://postimg.cc/7fWfQSGW)
Mi sa che era proprio quella, le performance c'erano ma la stabilità di una piattaforma anche solo VIA mancava. A quel punto meglio SiS :sofico:
Non so dirti: la mia esperienza è stata assolutamente positiva e che io sappia era ritenuta la migliore piattaforma per gli athlon xp
C'è anche da dire che era usanza al tempo l'utilizzare alimentatori smarzi
E gran parte delle volte erano quelli a dare instabilità
Wolfw00f
04-05-2023, 13:00
a parte qualche bsod mai un problema...
Noi ne abbiamo avuto parecchi :asd: (sarà che la usava con una Radeon 9700 quindi c'era appunto il problema di quale driver AGP usare perchè sia nVidia sia ATI ne fornivano uno con i driver)
Non so dirti: la mia esperienza è stata assolutamente positiva e che io sappia era ritenuta la migliore piattaforma per gli athlon xp
C'è anche da dire che era usanza al tempo l'utilizzare alimentatori smarzi
E gran parte delle volte erano quelli a dare instabilità
Questo è vero!
https://www.hwupgrade.it/articoli/skvideo/829/nvidia-geforce-fx-5800-ultra_index.html
Buona lettura! :O
Io già c'ero! :sofico:
Certo che a rileggere i commenti si vede come la guerra delle fazioni non è roba di oggi... :asd:
ps: invece a rileggere i prezzi di allora (e pensando a come gli stipendi siano sostanzialmente rimasti invariati, in Italia) mette una tristezza immane... :fagiano:
E dire che oggi la PNY è considerata al pari di Manli ecc ecc, all'epoca era premium partner di Nvidia!
Noi ne abbiamo avuto parecchi :asd: (sarà che la usava con una Radeon 9700 quindi c'era appunto il problema di quale driver AGP usare perchè sia nVidia sia ATI ne fornivano uno con i driver)
Questo è vero!
Allora può essere, sull'nforce ho sempre usato schede Nvidia!
Discorso ali erano i 5V che erano importanti per gli Athlon XP se non ricordo male.
Legolas84
04-05-2023, 13:36
https://www.hwupgrade.it/articoli/skvideo/829/nvidia-geforce-fx-5800-ultra_index.html
Buona lettura! :O
Io già c'ero! :sofico:
Certo che a rileggere i commenti si vede come la guerra delle fazioni non è roba di oggi... :asd:
ps: invece a rileggere i prezzi di allora (e pensando a come gli stipendi siano sostanzialmente rimasti invariati, in Italia) mette una tristezza immane... :fagiano:
Questo per me è stato l'unico vero e proprio Fail di NVIDIA, infatti a quel tempo avevo la Hercules 9700pro.
NV30 era una scheda che consumava di più per andare meno (fatali le 4 pixel pipeline vs le 8 di R300)... la situazione migliorò non poco con NV35 per poi ristabilirsi definitivamente solo con NV40...
ATi dal canto suo finì nella stessa situazione con R600 (infatti la vendita di tutta la baracca ad AMD è di quel periodo) e poi con le varie Fury...
[K]iT[o]
04-05-2023, 13:39
le A7N8X (X, Deluxe, -E Deluxe, ecc ecc) erano su nForce2, praticamente il chipset più amato di quei tempi. Ci usai la FX5600 (monnezza) FX5700 (monnezza profumata) e poi la 9800Pro di Sapphire (spettacolare).
Erano molto affidabili per quanto ricordi, ne montai un sacco. Esistevano anche delle revisioni, le prime avevano solo FSB333, le più nuove FSB400, avevo anche il primo tipo su una Chaintech Apogee (tutta color oro ahahah).
Questo per me è stato l'unico vero e proprio Fail di NVIDIA, infatti a quel tempo avevo la Hercules 9700pro.
NV30 era una scheda che consumava di più per andare meno (fatali le 4 pixel pipeline vs le 8 di R300)
Anche i 128 bit di bus abbinati a ram DDR2 con latenze altissime non è che aiutasse eh.
conan_75
04-05-2023, 15:32
NI
Aveva il supporto all'MSAA - le GeForce 2 supportavano solo l'SSAA allora chiamato FSAA "fullscreen antialiasing" per distinguerlo da quello applicato alle sole linee e usato in ambito professionale - pur mancando di quello allo shader model 1.x (come le GeForce 2 del resto che avevano il supporto alle specifiche degli shader di NVIDIA e che come era solito all'epoca non coincidevano non quelle di MicroSoft, ed erano chiamati "FRAGMENT SHADERS" - esattamente come capitava con le estensioni dell'OpenGL che erano numerosissime e diverse da produttore a produttore e non obbligatorie da supportare)
Era una GeForce 2,5 :stordita:
Era un ibrido di derivazione GF2 vitaminizzata sulle frequenze.
C'è da dire che costava poco.
nickname88
04-05-2023, 15:36
Di sempre dici? Quindi escludiamo volutamente tutti i fails Nvidia? :doh:
Nuovamente.. come ritieni opportuno guarda.. :asd:I flop ci sono da entrambe le parti ma quando floppa Nvidia il gap è sempre stato più contenuto.
Il più grande floppone di Nvidia è stata la FX5000 la cui figura era paragonabile a Vega, con la differenza che quantomeno copriva tutte le fasce e non serviva il liquido all'epoca.
Il flop delle serie HD2000 e 3000 sono impareggiabili.
Così come i flop delle CPU FX.
I casi sono due, o va fortissimo perché è una mattonella che scalda e consuma ma ok perché è il top, o va meno essendo di dimensioni paragonabili al competitor e quindi vabbè tutto sommato consuma 10 watt in meno, e poi ci sono le ficiurs, quindi top :O
Se scalda e consuma mi aspetto che almeno prestazionalmente sia davanti e non dietro.
conan_75
04-05-2023, 15:40
iT[o];48188425']Di tutte le schede nVidia i due fails peggiori penso siano la serie FX per le prestazioni (erano pessime) e vendevano praticamente solo per il marchio e la demo della fatina :ciapet: e il secondo fail (molto lungo) penso sia tutta la produzione dalla serie 7xxx alle 9xxx, non perchè non fossero veloci (lo erano) ma perchè si guastavano continuamente, chip progettati male.
Schede come la MX4 440 (e 4000!) e le TNT2 M64 erano piuttosto famigerate ma andavano forte nei pc non gaming o budget, insomma la loro utilità l'avevano.
ATi come fails purtroppo ci metterei sempre e solo il software, le schermate blu erano loro esclusiva praticamente.
Gli altri marchi hanno sempre faticato, se escludo chi usava i chip 3Dfx nei tempi d'oro, quindi non li menzionerei proprio.
E se proprio volete ricordare schede scarse a tutto tondo, sia integrate che dedicate, eccole: SiS (e pure chipsets).
Ho avuto anche la tnt2 m64, che porcheria.
Sostituiva una Graphics blaster exxtreme da 4Mb (permedia 2)
Il venditore me la diede come versione rinnovata della tnt2 invece era una versione pezzente con bus memory a 64bit.
Ricordo che, prima dell'avvento del web, i driver li prendevo dai cd delle riviste.
Sostituita dopo 1 mese con una più gloriosa gf2mx.
Legolas84
04-05-2023, 15:54
Ma ai tempi dell'NV1 era tutta fantascienza quello di cui stiamo parlando :D
Invece con l'nForce si iniziava già ad avere un'alfabetizzazione informatica diffusa.....e non si può dimenticare che OGNI promessa dell'nForce - almeno i primi - è stata di fatto non mantenuta. Ma proprio nessuna :asd:
Un mio amico prese l'nForce al suo primo Athtlon (dopo l'esperienza bene o male tranquilla col P4 Northwood e GeForce 3) e ancora oggi ha gli incubi :stordita:
Non avevi certezza che le cose funzionassero stabilmente.....MAI (cosa che mi fa venire in mente un'altra gatta da pelare dell'epoca, come settare l'AGP Aperture Size e prima ancora la scelta dei driver dell' AGP :D )
Il problema non era tanto l'nForce quanto l'implementazione animalesca fatta da alcuni vendor di schede madri....
nForce2 --> Presi prima una ABIT NF7-S... 3 RMA e mai una funzionante come si deve... la buttai in favore di una ASUS A7N8X Deluxe che era rock solid in ogni situazione.
nForce3 --> inizialmente andai di MSI con la K8N Neo2 Platinum che doveva essere dio in terra e invece era un cesso a pedali... 3 RMA ma nessuna funzionante, la cambiai con una nForce 4 --> DFI lanparty ut nf4 ultra-d che è stata una delle migliori schede madri che abbia mai avuto...
I sistemi intel che ho avuto invece sono sempre stati molto più stabili in generale...
Wolfw00f
04-05-2023, 15:59
Il problema non era tanto l'nForce quanto l'implementazione animalesca fatta da alcuni vendor di schede madri....
nForce2 --> Presi prima una ABIT NF7-S... 3 RMA e mai una funzionante come si deve... la buttai in favore di una ASUS A7N8X Deluxe che era rock solid in ogni situazione.
nForce3 --> inizialmente andai di MSI con la K8N Neo2 Platinum che doveva essere dio in terra e invece era un cesso a pedali... 3 RMA ma nessuna funzionante, la cambiai con una nForce 4 --> DFI lanparty ut nf4 ultra-d che è stata una delle migliori schede madri che abbia mai avuto...
I sistemi intel che ho avuto invece sono sempre stati molto più stabili in generale...
Era esattamente quello che dicevo, per quello ho scritto "veniva da P4 Northwood + GeForce 3", la questione della stabilità era relativa al confronto con quella piattaforma precedente che non ci diede mai un problema.
Legolas84
04-05-2023, 16:06
Era esattamente quello che dicevo, per quello ho scritto "veniva da P4 Northwood + GeForce 3", la questione della stabilità era relativa al confronto con quella piattaforma precedente che non ci diede mai un problema.
Ok, ma questo non lo imputerei a NVIDIA, ma ad AMD in quanto ho avuto anche dei sistemi con chipset SIS o VIA ed erano comunque meno stabili delle piattaforme Intel....
Gli nForce avevano prestazioni superiori alle controparti SIS e VIA, ma dovevi comprare le schede madri giuste, se no apriti cielo :asd:
Un bel po' di vecchiacci qui eh?
Vi sblocco un ricordo: https://youtu.be/WOVjZqC1AE4
Un bel po' di vecchiacci qui eh?
Vi sblocco un ricordo: https://youtu.be/WOVjZqC1AE4
Una volta risultavano pure simpatici ad nVidia ! :D
zanardi84
05-05-2023, 15:37
Che ricordi!
Metterei in questa rassegna altri "campioni" del tempo:
Matrox Pharelia che avrebbe dovuto tenere testa alle Radeon 8500 e alle Geforce 4 Ti e invece fu un fiasco colossale, anche in considerazione del costo molto elevato.
Gerforce 4 MX che a mio parere furono una spudoratissima operazione commerciale, essendo a tutti gli effetti delle GeForce 2 riviste e corrette, ma sembre basate su DX7 che nulla avevano a che vedere con le Ti come la 4600 e soprattutto la 4200 (che fu un vero e proprio best seller!).
un bel 4 per far credere a tutti che c'era davvero una gpu dal grande contenuto e poi ti trovavi con una patacca.
Radeon 9000 (che ho posseduto con soddisfazione!) perchè si trattava anch'essa di un rebranding (ma meno spudorato rispetto ad nVidia) perchè dietro a quel "9" si nascondeva in realtà una versione semplificata della 8500 che era basata su DX8.1 e non sulle 9. La scheda andava molto bene in effetti perchè permetteva di giocare a 1024x768 ad un bel numero di titoli tra il 2001 ed il 2003 senza usare i filtri, ma è pur vero che per pochissime decine di euro in più c'era la Ti 4200 che nella versione a 64MB era sicuramente più prestante.
Radeon 9200SE: credo che sia stata il peggio di quegli anni: il rebranding del rebranding perchè era una 9000 castrata col bus a 64 bit anzichè a 128 bit, la quale, come detto, era un rebranding semplificato della 8500.
Di fatto le prestazioni erano quelle di una Radeon 7500 con processo produttivo più raffinato e il supporto nativo a DX8.1 (e non al 9 come già detto nonostante il numero).
Un bel po' di vecchiacci qui eh?
Vi sblocco un ricordo: https://youtu.be/WOVjZqC1AE4
L'avevo già postato qualche giorno fa, epico! :sofico:
ronthalas
05-05-2023, 15:52
Si potrebbe ampliare il capitolo aggiungendo quello riguardo alle rimarchiature, da ambo le parti, a fronte di variazioni di chip classificabili come restyling.
Oppure aggiungendo il capitolato delle schede di fascia medio/bassa con ventoline assurde e rumori degni di un turbogetto da guerra fredda, F-104 docet.
e sulle cpu? il mitico Pre(s)cott (ma anche il K6-3)
Comunque ecco l'antenato del FlowFX! :D
https://i.ibb.co/gWjXSKv/20220404-194620.jpg (https://ibb.co/X52d7Ry)
Wolfw00f
05-05-2023, 17:46
Vero, è venuto prima lui!
La serie 8000 su portatili, maledetti.... Ero ignorante all'epoca, e acquistai un portatile che già di suo aveva Windows Vista, poi mi ritrovai con la GeForce 8600M GS, che dopo un paio d'anni si bruciò, e feci sostituire. Ciò nonostante il nuovo chip sostituito ha continuato a dare poi altri problemi di sfarfallii vari e corruzioni grafiche a schermo.
Maledetta Nvidia
Wolfw00f
06-05-2023, 11:50
La serie 8000 su portatili, maledetti.... Ero ignorante all'epoca, e acquistai un portatile che già di suo aveva Windows Vista, poi mi ritrovai con la GeForce 8600M GS, che dopo un paio d'anni si bruciò, e feci sostituire. Ciò nonostante il nuovo chip sostituito ha continuato a dare poi altri problemi di sfarfallii vari e corruzioni grafiche a schermo.
Maledetta Nvidia
Ma non c'era stata una class action in USA per quelle?
E' stato forse meno "appariscente" ... ma ha fatto danni come pochi !
IBM "Deathstar" (https://goughlui.com/2013/03/01/hard-drive-disassembly-the-ibm-deathstar/)
Uno di questi oggetti prodotti in Ungheria mi si guastò portandosi dietro GBytes di dati faticosamente scaricati a 56K e ben riorganizzati. Avendo avuto qualche avvisaglia, avevo fatto un backup parziale - del resto, ad inizio anni 2000, non era facile, non avevano diffusione le unità USB - ma il grosso l'ho perso. Ci ho messo un mese per ottenere la sostituzione in garanzia ed un altro per ripristinare il tutto !
Wolfw00f
06-05-2023, 14:12
E' stato forse meno "appariscente" ... ma ha fatto danni come pochi !
IBM "Deathstar" (https://goughlui.com/2013/03/01/hard-drive-disassembly-the-ibm-deathstar/)
Uno di questi oggetti prodotti in Ungheria mi si guastò portandosi dietro GBytes di dati faticosamente scaricati a 56K e ben riorganizzati. Avendo avuto qualche avvisaglia, avevo fatto un backup parziale - del resto, ad inizio anni 2000, non era facile, non avevano diffusione le unità USB - ma il grosso l'ho perso. Ci ho messo un mese per ottenere la sostituzione in garanzia ed un altro per ripristinare il tutto !
Stesso capitò ad un mio compagno di liceo :D
All'epoca fortunatamente prendevo Maxtor (e non era ancora unita a Seagate) :asd:
Quello sostitutivo poi è rimasto in uso per una decina d'anni :D
I maxtor li detestavo: i miei hanno sempre avuto temperature altissime e mi si sono spesso fallati
Ma devo dire che mi è capitato anche con qualche western digital
I quantum invece sono sempre stati quelli che non mi hanno mai deluso
Wolfw00f
06-05-2023, 15:03
I maxtor li detestavo: i miei hanno sempre avuto temperature altissime e mi si sono spesso fallati
Ma devo dire che mi è capitato anche con qualche western digital
I quantum invece sono sempre stati quelli che non mi hanno mai deluso
Il mio primo disco è stato un Quantum Fireball del 1997, dopo 2/3 anni dovetti chirurgicamente eliminare una porzione di disco partizionando prima e dopo la zona con i settori danneggiati :asd:
Therinai
06-05-2023, 15:22
Una delle cose più belle che mi sono successe nel 2023 è che ho totalmente eliminato i dischi meccanici e ora uso solo unità nvme (che vita grama direte voi, ma sono un tipo umile, mi acocntento di poco :D )
Wolfw00f
06-05-2023, 16:32
Una delle cose più belle che mi sono successe nel 2023 è che ho totalmente eliminato i dischi meccanici e ora uso solo unità nvme (che vita grama direte voi, ma sono un tipo umile, mi acocntento di poco :D )
Ma no, solo che gli SSD si fulminano molto più facilmente dei dischi meccanici e tanti saluti (a recuperare il contenuto della memoria).
Per questo per lo storage resto sui dischi classici :fagiano: (oppure cloud, certo)
Ovviamente per il resto il minimo ora sono SSD PCI-Ex 3.0 su M.2 e ovviamente NVME (tanto l'UEFI lo gestisce senza problemi)
All'inizio dell'articolo viene nominata la rivale della FX5800,la ati 9700 pro.
Io ho ancora la 9700 e in più ho conservato la 9600XT. Quest'ultima la presi dopo che vendetti la 9800 (pensa quanto stavo infognato all'epoca).
All'epoca ancora spendevo per farmi un pc.
Non sarebbe male un bench su un sistema del 2002-2003 tra GeForce FX 5800 Ultra e Radeon 9700 pro ora che ci penso.
Tra l'altro con 20 anni di ritardo le FX hanno acquistato un certo valore vista la loro retrocompatibilità per le buid da retrogaming.
Wolfw00f
06-05-2023, 19:32
Non sarebbe male un bench su un sistema del 2002-2003 tra GeForce FX 5800 Ultra e Radeon 9700 pro ora che ci penso.
Tra l'altro con 20 anni di ritardo le FX hanno acquistato un certo valore vista la loro retrocompatibilità per le buid da retrogaming.
La 9700 vince a man bassa :stordita:
La 9700 vince a man bassa :stordita:
Ma in giro sul pc dovrei avere qualche bench che avevo fatto tempo fa eh!
Appena ho tempo li cerco, solo che la mia 9700 è la liscia.
Max Power
06-05-2023, 22:28
Inserire la 6500XT, quando a gennaio 2022 (240€) quando la controparte Nvidia (1650S) costava 500€ e la più lenta 1650 300€. Vuol dire allinearsi agli Youtubers da 4 soldi.
Complimenti
Io ho ancora funzionante la voodoo 2 12 mb della power color. Tomb raider 2 che girava da dio. E poi adoravo vedere girare unreal flyby. Ancora a sentire quella musica mi vengono i brividi
Io ho ancora funzionante la voodoo 2 12 mb della power color. Tomb raider 2 che girava da dio. E poi adoravo vedere girare unreal flyby. Ancora a sentire quella musica mi vengono i brividi
Il flyby di Unreal sulle 3dfx aveva il "raytracing". :cool:
Altro flop la GT610 - la mia diede problemi dopo poco utilizzo e consumava anche troppo per quello che faceva era una Fermi se non erro - o la tecnologia Dual Graphics AMD che sebbene interessante non ne valeva la candela. In generale anche SLI o Crossfire non avevano senso se non per fare hype, quasi nessuno si comprava due o tre schede video che in produttività non servivano ad una mazza.
Wolfw00f
07-05-2023, 10:57
Io ho ancora funzionante la voodoo 2 12 mb della power color. Tomb raider 2 che girava da dio. E poi adoravo vedere girare unreal flyby. Ancora a sentire quella musica mi vengono i brividi
Bastano? :D
https://i.postimg.cc/GtzjyXXG/Untitled.jpg (https://postimg.cc/dZkdMjPV)
Sì, vedi PhysX perchè questa è una delle build della futura patch 227k di OldUnreal con tanto di OpenAL e PhysX (via CPU).
Lì è con tutto al massimo di quello che offre il vecchio renderer OpenGL 2.x (e 1920x1080 per fare lo screenshot col tuo post sotto)
C'è anche il renderer OpenGL 3/4, oltre ovviamente a quelli classici DX7 (ma non è compatibile con tutte le migliorie aggiunte nel corso degli anni ovviamente), DX8 e DX9 (di fatto in manutenzione ma non sviluppo attivo, proprio come quello OpenGL 2.x)
Esiste anche un renderer DX11 per la 227i con tanto di tessellation degli oggetti e normal+height maps per ottenere il Parallax Occlusion Mapping -> https://www.moddb.com/mods/unreal-directx11-renderer-for-ut-ug-rune-and-dx/downloads/unreal-directx11-renderer-for-utugrune-hp12-st-cbu-and-dx
Purtroppo Sweeney non ha mai rilasciato il codice del renderer software del 1998 (che ha scritto proprio di suo pugno alla Carmack), altrimenti avremmo aggiornato e ottimizzato pure quello.......ed era anche l'unica soluzione per chi ai tempi aveva una misera S3 Virge :D
Strato1541
07-05-2023, 12:19
Ricordo ai tempi della Gtx 480 vs ATi 5870, nei titoli che mi interessavano le Ati soffrivano di "stuttering", in particolare GTA4.
Nvidia era arrivata in ritardo con DX11 ma la scheda era comunque un po' più veloce della 5870, presi la 470 dopo una mese di 5870 totalmente insoddisfacente..
Quanti in questo forum mi dissero che l'avrei fusa.. Ebbene in uno dei muletti dopo 13 anni è ancora funzionante..
Era un po' meno calda della 480 e mi permise di giocare a molti titoli tra cui Metro 2033 uno dei titoli più pesanti dell'epoca, il tutto con reference board!
Wolfw00f
07-05-2023, 13:28
Io la 460 in effetti l'ho uccisa (ma ne ho qui una del vicino di casa ancora funzionante) :asd:
Sì, erano i tempi del primo Metro ed intendo NON la versione Redux :D (e molti dei suoi asset tra l'altro sono finiti in vari mod di STALKER)
Ho recuperato gli screen dei bench ai vari 3dmark 01 e 3dmark 03 con le vga elencate nel titolo, buona visione! :)
Ps. I driver usati sono i 61.77 per le verdi e i 10.2 per le rosse.
https://i.ibb.co/dQyLwMD/20220409-220738.jpg (https://ibb.co/55Vng4L)
https://i.ibb.co/fdHVt8x/20220409-222119.jpg (https://ibb.co/d4Ds6b5)
https://i.ibb.co/BNV040w/20220506-202853.jpg (https://ibb.co/tXMVZV3)
https://i.ibb.co/CQnfxVD/20220506-205513.jpg (https://ibb.co/FzBFG8C)
https://i.ibb.co/ZTbbSms/20230206-190643.jpg (https://ibb.co/QmxxkdB)
https://i.ibb.co/x8cCSgJ/20230206-192034.jpg (https://ibb.co/Xkd2Z5S)
https://i.ibb.co/R604jTS/20220408-231220.jpg (https://ibb.co/bvBRb53)
https://i.ibb.co/ChjLHpK/20220408-232554.jpg (https://ibb.co/KFtnrcx)
Wolfw00f
07-05-2023, 14:49
Oggi con i5 11600 + 3060 :asd:
https://i.postimg.cc/bNjvRRBn/Untitled.jpg (https://postimg.cc/rzQcV5cy)
Notare il bottleneck pauroso nella versione ad alto dettaglio di Chase dovuto a come il codice di allora gestisce effetti particellari&co.....un esempio immane di inefficienza del CODICE e non dell'HW.
Oggi con i5 11600 + 3060 :asd:
https://i.postimg.cc/bNjvRRBn/Untitled.jpg (https://postimg.cc/rzQcV5cy)
Notare il bottleneck pauroso nella versione ad alto dettaglio di Chase dovuto a come il codice di allora gestisce effetti particellari&co.....un esempio immane di inefficienza del CODICE e non dell'HW.
Una leggerissima differenza! :D
Vero è 10 volte più lenta la versione high detail rispetto alla low, ma anche di "lobby".
Io le ho testate su un modesto P4 2.6 GHz con FSB a 400 MHz e 1 GB di ram. :)
StylezZz`
07-05-2023, 16:28
Inserire la 6500XT, quando a gennaio 2022 (240€) quando la controparte Nvidia (1650S) costava 500€ e la più lenta 1650 300€. Vuol dire allinearsi agli Youtubers da 4 soldi.
Complimenti
È un fail dal punto di vista tecnico (64bit bus, pcie 4.0 x4, codifica H. 264 4k, H265/HEVC e AV1 assente), con queste specifiche non ci spenderei nemmeno 100€, meglio un integrata IMHO.
Le 1650 non hanno queste mancanze, e prima dello shortage potevi prendere una Super sotto 180€.
Therinai
07-05-2023, 17:30
l'ho provato anche io il 3d mark 2001 ma va al massimo a 60 fps ufff
l'ho provato anche io il 3d mark 2001 ma va al massimo a 60 fps ufff
Magari hai attivato il vsync, prova a controllare. :)
Wolfw00f
07-05-2023, 20:04
Semplicemente D3D8 da Win8.1/Win10 in poi è gestito dal driver D3D9 ma con forti limitazioni (o addirittura via D3D9on12 come sulle Intel ARC), tra cui il cap fisso alla frequenza di VSync (o addirittura 60 FPS indipendentemente da essa, devo controllare)
QUINDI avete 3 possibilità:
*se il driver D3D9 è buono E c'è completo supporto D3D8 (AMD, Nvidia, Intel pre-Alder Lake e pre ARC) usare una d3d8 di MS hackata che ripristini le funzionalità che la DLL offriva sotto Win7
*se il driver D3D9 è buono usare in alternativa uno wrapper D3D8to9 come quello di crosire (l'autore di reshade): https://github.com/crosire/d3d8to9/releases
*se il driver D3D9 non è buono usare dgVoodoo2 e wrappare a D3D11/12
*se il driver D3D9 non è buono forzare l'uso di D3D9on12 come ultima spiaggia
le soluzioni migliori sono 2) e 3) ;)
la 2 è semplicissima (drag&drop) ma offre meno controllo di 3
Semplicemente D3D8 da Win8.1/Win10 in poi è gestito dal driver D3D9 ma con forti limitazioni (o addirittura via D3D9on12 come sulle Intel ARC), tra cui il cap fisso alla frequenza di VSync (o addirittura 60 FPS indipendentemente da essa, devo controllare)
QUINDI avete 3 possibilità:
*se il driver D3D9 è buono E c'è completo supporto D3D8 (AMD, Nvidia, Intel pre-Alder Lake e pre ARC) usare una d3d8 di MS hackata che ripristini le funzionalità che la DLL offriva sotto Win7
*se il driver D3D9 è buono usare in alternativa uno wrapper D3D8to9 come quello di crosire (l'autore di reshade): https://github.com/crosire/d3d8to9/releases
*se il driver D3D9 non è buono usare dgVoodoo2 e wrappare a D3D11/12
*se il driver D3D9 non è buono forzare l'uso di D3D9on12 come ultima spiaggia
le soluzioni migliori sono 2) e 3) ;)
la 2 è semplicissima (drag&drop) ma offre meno controllo di 3
Ma le sai tutte!
Che lavoro fai?? :D
Wolfw00f
07-05-2023, 20:20
Ma le sai tutte!
Che lavoro fai?? :D
SOno un informatico ovviamente, ma qui è più questione di smanettamento.
Sono stato fra i primi ai tempi di Win8 ad accorgermi che DDRAW veniva già fortemente limitato (scoperto per puro caso in Cliver Baker Undying sul portatile con la 9600M) - questo perchè come avrete capito adoro l'Unreal Engine 1 dal lontano 1998 ed il motore era originariamente DX5 per quanto concerne il renderer D3D - e poi con Win 8.1 la cosa si è estesa a D3D8 le cui funzionalità passano cmq per il driver D3D9 GIA' dai tempi di Vista/7, quando fu introdotto il DWM e WDDM.
Una delle cose più evidenti (e che mi fece indagare sulla questione) era appunto il cap fisso degli FPS indipendentemente dal settaggio del VSync.
L'altra era (è) l'impossibilità di controllare brightness/contrast/gamma, proprio perchè da quando il DWM di Windows NON è disattivabile si è preso lui in carico tutta la parte di presentazione del frame nella finesta.....che è appunto sempre una finestra anche se voi leggete "Exclusive Fullscreen" :D e non esiste più il "fullscreen" classico dove era l'applicazione a gestire il dialogo col monitor in fase di presentazione del frame.
E' sempre e solo una finestra con dietro il DWM a gestirla solo con varie shim di compatibilità......(Exclusive, Borderless, ecc. ecc. ecc.) già da 10 anni.
Con Win11 22H2 non ha quasi più neppure senso considerare queste differenze in relazione alla latenza in D3D11 e D3D12 (avrete notato il nuovo settaggio introdotto relativo alle "ottimizzazioni" automatiche dei giochi in finestra)......a parte per l'integer upscaling che continua a necessitare ALMENO dell'exclusive fullscreen (e lo vedete benissimo nell'Unreal Engine 4 dove col borderless NON potete avere l'integer upscaling che invece funziona con l'exclusive)
Wolfw00f
07-05-2023, 20:34
La soluzione 1 (usare DDRAW e D3D8 hackate, ed intendo modificate a livello di esadecimale dagli stessi programmi che MS rilascia per il kit di compatibilità :asd: ) è scomoda e va ripetuta ovviamente quando aggiornano le DLL......pertanto consiglio sempre 2) o 3) - 3 per chi ha le ARC soprattutto - e 4 la consiglierò quando D3D9on12 sarà maturo (ma dubito avrà mai la copertura di casistica di dgVoodoo2, coprirà al massimo roba come CS GO e giochi da esport col motore fermo tecnologicamente a 10 anni fa)
Ah se usate dgVoodoo2 per le D3D9 (tipo con le ARC) consiglio vivamente di abilitare il large address aware all'exe principale del gioco, perchè ahimè è facilissimo superare i 2/3 GB di memoria richiesta per un'applicazione 32 bit in questo modo......ad esempio Arcania crasha al caricamento di un salvataggio se non si abilita il LAA. Ed il motivo banalmente è la memoria richiesta che sfonda i limiti classici di un'applicazione Win32 :fagiano:
Non ci sono problemi invece per applicativi D3D9 a 64 bit, ovviamente.
Applicativi D3D8 e precedenti NON esistono a 64 bit perchè MS non ha mai pubblicato gli strumenti+librerie per crearli, quindi a priori sapete che se un gioco è DX1->8 (e non parlo di feature level parlo del fatto che carica d3d8.dll, perchè anche oggi uno può creare applicativi che si appoggino a D3D9 ma col feature level bloccato agli shader 1.x) sarà anche necessariamente a 32 bit quindi col limite di default settato a 2/3 GB disponibili di memoria.
per chi vuol cmq provare D3D9on12 gentilmente offerto da Mamma MicroSoft e che tutti senza saperlo avete GIA' installato in Windows c'è questo: https://github.com/narzoul/ForceD3D9On12/releases/tag/v1.0.0 (ci sono i router ddraw,d3d8 e d3d9 che appunto reinstradano le relative richieste verso D3D9on12 e questa al driver D3D12 offerto da AMD, Nvidia, Intel.....o la stessa MS via CPU, già, se vi ricordate esiste WARP: https://learn.microsoft.com/it-it/windows/win32/direct3darticles/directx-warp )
AlexSwitch
08-05-2023, 09:34
Mi ferisci!
Non ricordo che fosse una fascia bassa, tra l'altro all'epoca c'era meno segmentazione e meno modelli in commercio.
Ahh le Intel i740 con AGP texturing... Ne provai una per qualche settimana e fu parecchio deludente.
Quella GPU doveva essere una rivoluzione grafica secondo Intel ed invece furono un flop così clamoroso che dopo due anni decisero di uscire completamente dal mercato delle GPU discrete.
Vent'anni dopo ci stanno riprovando con le ARC e con premesse diverse.... Corsi e ricorsi storici!!
Max Power
09-05-2023, 00:12
È un fail dal punto di vista tecnico (64bit bus, pcie 4.0 x4, codifica H. 264 4k, H265/HEVC e AV1 assente), con queste specifiche non ci spenderei nemmeno 100€, meglio un integrata IMHO.
Le 1650 non hanno queste mancanze, e prima dello shortage potevi prendere una Super sotto 180€.
Se mai è l'esatto opposto, con memoria a 64-bit (+ infinity cache) si sono ottenute prestazioni doppie, delle 128-bit.
Tant'è che oggi Nvidia sta facendo la stessa identica cosa.
Del codec può anche non fregare nulla. E confrontare una integrata da 2000 pt passmark con una dedicata da 9000 e dire che la prima è meglio...Allora è la matematica il problema.
Così come il valore €/FPS, in periodo pandemico Quelli con la grafica integrata (+100€ , basta ricordare il 5600G).
Per la cronaca, prima della pandemia, anche la 5500XT costava 180€.
E prima ancora 580 uguale.
Ma ti sei risposto da solo, e magari non te ne sei reso conto. PRIMA DELLA PANDEMIA.
Wolfw00f
09-05-2023, 00:30
Prima della crisi della SUPPLY CHAIN, la pandemia c'entra in sè quasi niente se non per correlazione temporale :asd:
StylezZz`
09-05-2023, 10:09
Se mai è l'esatto opposto, con memoria a 64-bit (+ infinity cache) si sono ottenute prestazioni doppie, delle 128-bit.
Tant'è che oggi Nvidia sta facendo la stessa identica cosa.
Del codec può anche non fregare nulla. E confrontare una integrata da 2000 pt passmark con una dedicata da 9000 e dire che la prima è meglio...Allora è la matematica il problema.
Così come il valore €/FPS, in periodo pandemico Quelli con la grafica integrata (+100€ , basta ricordare il 5600G).
Per la cronaca, prima della pandemia, anche la 5500XT costava 180€.
E prima ancora 580 uguale.
Ma ti sei risposto da solo, e magari non te ne sei reso conto. PRIMA DELLA PANDEMIA.
stai difendendo l'indifendibile.
ps: la RX 580 e la 5500 XT (schede uscite rispettivamente nel 2017 e 2019) sono meglio di questa ciofeca, e ho detto tutto.
Therinai
09-05-2023, 19:44
Semplicemente D3D8 da Win8.1/Win10 in poi è gestito dal driver D3D9 ma con forti limitazioni (o addirittura via D3D9on12 come sulle Intel ARC), tra cui il cap fisso alla frequenza di VSync (o addirittura 60 FPS indipendentemente da essa, devo controllare)
QUINDI avete 3 possibilità:
*se il driver D3D9 è buono E c'è completo supporto D3D8 (AMD, Nvidia, Intel pre-Alder Lake e pre ARC) usare una d3d8 di MS hackata che ripristini le funzionalità che la DLL offriva sotto Win7
*se il driver D3D9 è buono usare in alternativa uno wrapper D3D8to9 come quello di crosire (l'autore di reshade): https://github.com/crosire/d3d8to9/releases
*se il driver D3D9 non è buono usare dgVoodoo2 e wrappare a D3D11/12
*se il driver D3D9 non è buono forzare l'uso di D3D9on12 come ultima spiaggia
le soluzioni migliori sono 2) e 3) ;)
la 2 è semplicissima (drag&drop) ma offre meno controllo di 3
https://media.tenor.com/KLUdN61jmaMAAAAC/pikachu-surpr.gif
Ok mi arrendo, troppo sbatti :D
Grazie comunque per le dritte.
Max Power
09-05-2023, 23:57
stai difendendo l'indifendibile.
ps: la RX 580 e la 5500 XT (schede uscite rispettivamente nel 2017 e 2019) sono meglio di questa ciofeca, e ho detto tutto.
Sono la stessa cosa https://www.techpowerup.com/gpu-specs/radeon-rx-6500-xt.c3850
Senza considerare la risposta di Nvidia "la superpotenza del gaming" GTX 1630 (scritto così nel sito :asd: ).
A confronto di quest'ultima, anche la 6400 a prezzo MSRP è un best buy assoluto :asd:
mattia.l
10-05-2023, 09:25
Il bello di hwupgrade è che si possono ancora leggere gli articoli di 20 anni fa con tutte le immagini
Wolfw00f
10-05-2023, 09:53
Il bello di hwupgrade è che si possono ancora leggere gli articoli di 20 anni fa con tutte le immagini
vero, manco anand :asd:
StylezZz`
10-05-2023, 10:50
Sono la stessa cosa https://www.techpowerup.com/gpu-specs/radeon-rx-6500-xt.c3850
ti limiti a guardare le barrette senza considerare tutto il resto (esempio: prova a installare una 6500 XT in una mobo con pcie 3.0)...ma a parte questo, il fatto che ''sono la stessa cosa'' non è nemmeno normale, fanno uscire una scheda che non porta miglioramenti rispetto la gen precedente.
Senza considerare la risposta di Nvidia "la superpotenza del gaming" GTX 1630 (scritto così nel sito :asd: ).
A confronto di quest'ultima, anche la 6400 a prezzo MSRP è un best buy assoluto :asd:
fanno tutte schifo, secondo me non ha senso investire più di 100€ su gpu dedicate ridotte in queste condizioni, meglio l'usato oppure un integrata.
mattia.l
10-05-2023, 10:54
vero, manco anand :asd:
Speriamo che con la migrazione a nuovo forum e piattaforma venga mantenuto tutto, compresi i link degli articoli e la ricerca
Se qualcuno avesse agganci "in alto" in zona Luino dovrebbe farlo presente :D
conan_75
10-05-2023, 11:15
Speriamo che con la migrazione a nuovo forum e piattaforma venga mantenuto tutto, compresi i link degli articoli e la ricerca
Se qualcuno avesse agganci "in alto" in zona Luino dovrebbe farlo presente :D
Io credo che la piattaforma resterà questa fino alla fine dei suoi giorni.
PS
Che fine ha fatto Freeman?
Quanti ricordi! Complimenti per l'articolo storico!
PS
Che fine ha fatto Freeman?
E' stato visto l'ultima volta nei pressi della Borealis
mattia.l
10-05-2023, 16:24
Io credo che la piattaforma resterà questa fino alla fine dei suoi giorni.
PS
Che fine ha fatto Freeman?
Non posta da luglio 2022 :eek:
Wolfw00f
10-05-2023, 17:48
Dimenticavo, alternativa per chi NON ha buoni driver D3D8/D3D9 (ma buoni driver Vulkan)
https://github.com/doitsujin/dxvk/releases
https://github.com/AlpyneDreams/d8vk/releases (ora con pieno supporto a 3DMark 2001, guardatevi le tabelle con i risultati, eccezionali)
Non metto link a D3D12->VK perchè dò per scontato che nel 2023 tutti rilascino adeguati driver D3D12 :fagiano:
conan_75
10-05-2023, 19:42
Non posta da luglio 2022 :eek:
Più che altro il 70% dei mod attualmente in carica è sparito da anni.
Speriamo che con la migrazione a un nuovo forum
... non è questa, la migrazione di forum che stai cercando! :O
https://thumbs.gfycat.com/BronzeDizzyGrasshopper-size_restricted.gif
Quoto questa era da citare, tra l'altro mi par di ricordare che fu recensita qui su HWU (magari sbaglio, si parla di vent'anni fa).
Oggi malinconicamente mi ritrovo qua e quindi mi va di rispondere: ricordo bene quei tempi.
HWinit
https://web.archive.org/web/20060509171016/http://www.hwinit.it/modules/sections/index.php?op=viewarticle&artid=22
https://pixelperspective.altervista.org/club3d-volari-v8-ultra-duo-recensione/
*Ho editato il post inserendo la recensione con le immagini recuperate. Per tutti quei nerd sparsi nel "multiverso".
Prima rece in Italia e un po' nel mondo, avuta per vie traverse, le immagini le ho da qualche parte. Una delusione totale. Ci fu un po' di bagarre perché la rece non fu "segnalata" su questo bel pezzo di portale, ma finì lì: ricordo con affetto quel periodo.
Ricordo molto bene anche il periodo del Kyro con discussioni interminabili. Il TBR tecnologia rivoluzionaria venuta fuori col PCX1; se tanto mi da tanto anche il Midas 3 lo supporta.
Di recente ho trovato un Volari V8 (non duo) e una S3 Deltachrome.
La Deltachrome è stato un buon prodotto, poco conosciuto sicuramente, la Volari ancora oggi no; ha solo un grande valore affettivo e collezionistico per me.
Vabbè
Saludos!
Legolas84
19-05-2023, 14:04
Oggi malinconicamente mi ritrovo qua e quindi mi va di rispondere: ricordo bene quei tempi.
https://web.archive.org/web/20060509171016/http://www.hwinit.it/modules/sections/index.php?op=viewarticle&artid=22
Prima rece in Italia e un po' nel mondo, avuta per vie traverse, le immagini le ho da qualche parte. Una delusione totale. Ci fu un po' di bagarre perché la rece non fu "segnalata" su questo bel pezzo di portale, ma finì lì: ricordo con affetto quel periodo.
Ricordo molto bene anche il periodo del Kyro con discussioni interminabili. Il TBR tecnologia rivoluzionaria venuta fuori col PCX1; se tanto mi da tanto anche il Midas 3 lo supporta.
Di recente ho trovato un Volari V8 (non duo) e una S3 Deltachrome.
La Deltachrome è stato un buon prodotto, poco conosciuto sicuramente, la Volari ancora oggi no; ha solo un grande valore affettivo e collezionistico per me.
Vabbè
Saludos!
Ma chi si vede! Quanto tempo :) Come stai?
Ciao, tutto bene, poco tempo, per il resto si va "gelleggia" :-)
E tu?
A presto :-)
Oggi malinconicamente mi ritrovo qua e quindi mi va di rispondere: ricordo bene quei tempi.
https://web.archive.org/web/20060509171016/http://www.hwinit.it/modules/sections/index.php?op=viewarticle&artid=22
Prima rece in Italia e un po' nel mondo, avuta per vie traverse, le immagini le ho da qualche parte. Una delusione totale. Ci fu un po' di bagarre perché la rece non fu "segnalata" su questo bel pezzo di portale, ma finì lì: ricordo con affetto quel periodo.
Ricordo molto bene anche il periodo del Kyro con discussioni interminabili. Il TBR tecnologia rivoluzionaria venuta fuori col PCX1; se tanto mi da tanto anche il Midas 3 lo supporta.
Di recente ho trovato un Volari V8 (non duo) e una S3 Deltachrome.
La Deltachrome è stato un buon prodotto, poco conosciuto sicuramente, la Volari ancora oggi no; ha solo un grande valore affettivo e collezionistico per me.
Vabbè
Saludos!
La Volari V8 è quella a chip singolo, giusto?
La duo me la ricordo, una gran delusione perchè pensavo potesse andare a competere con ATi e Nvidia e invece consumava uno sfacelo e aveva un AF primitivo e nemmeno l'AA era il massimo.
Nonostante tutto sarei curioso di provarne una di persona comunque.
C'è da dire che nel 2003 facevano a gara la 5800 Ultra e la V8 duo a quale scheda consumava di più, la 5800U mi pare fosse sui 75W, la Volari non ricordo, ma così a naso credo molto di più perchè aveva 2 molex contro 1 della GeForce.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.