View Full Version : NVISION 2008: NVIDIA parla di visual computing
Redazione di Hardware Upg
27-08-2008, 14:48
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2028/nvision-2008-nvidia-parla-di-visual-computing_index.html
Nella prima edizione di NVISION è stata posta particolare attenzione non tanto sulle tecnologie e i prodotti sviluppati da NVIDIA, quanto sull'importanza sempre maggiore che sta assumendo il visual computing non solo nell'esperienza informatica, ma anche negli svariati contesti ordinari in cui la tecnologia è divenuta indispensabile
Click sul link per visualizzare l'articolo.
a che serve il compute shader?nn mi è chiaro...spero venga usato x la fisica/calcoli general purpose così avremo una sola libreria x tutto invece che cuda/physix/havock ecc ecc
AriusValaymar
27-08-2008, 15:13
Dei consumi mostruosi niente? Nel 2013 ci sara' in bundle una pila atomica con la scheda video?
leddlazarus
27-08-2008, 15:17
mi sa che anche per le gpu andremo verso il multicore come per i processori.
anche se le freq delle cpu sono ancora lontanissime, le gpu dubito saliranno cosi' tanto per come sono costruttivamente complesse.
tra quanto quei spettacolari occhialini che danno effetto 3d e quando rilasceranno i driver GeForce Stereoscopic 3D ?????
Wilfrick
27-08-2008, 15:44
le gpu hanno già da anni molti core, ora centinaia, presto saranno migliaia.
Severnaya
27-08-2008, 16:03
qualcuno tenga questa recensione così nel 2013 vediamo se a grandi linee ci hanno azzeccato
fabrisfabris
27-08-2008, 16:05
Grande.. Nvidia sta diventando una delle multinazionali più attive in campo informatico io sono sempre stato un loro fan..
In 5 anni saranno in grado di fare molto ma molto di piu di quanto hanno presentato oggi, in quanto oggi non conoscono le tecnologie che scopriranno tra qualche anno.
ciao a tutti
giovanbattista
27-08-2008, 16:22
x fabris spero tu sia un poppante xchè uno che si perde a spammare un sito su un post (in cui tra l'altro non centra proprio nulla) ha il cervello che si rapporta alla perfezione a quell'età.
tornando in tema sono convinto che ci vorranno almeno 10 anni prima di ottenere dei giochi che abbiano delle ambientazioni (e fisica) paragonabili a quelle di un programma di CG, il tutto in real time a 60fps costanti
Il boccia (potevano almeno mettergli una pedana sotto manco ci arriva poveretto) nell'ultima foto sta provando in anteprima il monitor della news di oggi il ViewSonic, sempre se l'occhio non mi inganna, ma pare proprio lui.
Molto interessante
Sto articolo me la stampo e la metto via in una scatola con su scritto "Non aprire prima del 2013":)
Interessante i 2 monitor con unico supporto.
Di che marca sono?
robert1980
27-08-2008, 17:32
tra quanto quei spettacolari occhialini che danno effetto 3d e quando rilasceranno i driver GeForce Stereoscopic 3D ?????
è vecchia come tecnologia, io li ho simili da anni...e se vai su nvidia.com trovi anche i driver
appleroof
27-08-2008, 17:45
Gran bell'articolo, complimenti. Personalmente ho trovato molto interessante il discorso sulle gpu da qui a 5 anni (impressionante pensare al ritardo tra tecnologia disponibile e applicazioni che la usano), gli aspetti legati al ray tracing/rastering e quanto detto circa le dx11
strano l'assoluto silenzio (almeno dall'articolo) su physx.
Ancora con 'sti occhialini polarizzati? Me li ero trovati anche con la prima geforce... con quake2 dopo un pò ti veniva il mal di mare.
mircocatta
27-08-2008, 18:18
bella fregatura per ati mettere il tasselletor prima delle directx11 visto che non saranno compatibili...
quanto ha sborsato nvidia per questa mossa? :sofico:
dark.raziel.lok
27-08-2008, 19:27
Quindi mi devo aspettare di muovere grafica del calibro di Transformers in tempo reale nel 2013? :D :D :D
Paolo Corsini
27-08-2008, 19:28
strano l'assoluto silenzio (almeno dall'articolo) su physx.
Assolutamente no, è stato uno dei temi tecnologici di NVISION soprattutto nelle sessioni dedicate ai giochi; semplicemente non c'è stato tempo per inserire questi discorsi in questo report (assieme a molto altro: il tempo è sempre tiranno)
appleroof
27-08-2008, 19:46
Assolutamente no, è stato uno dei temi tecnologici di NVISION soprattutto nelle sessioni dedicate ai giochi; semplicemente non c'è stato tempo per inserire questi discorsi in questo report (assieme a molto altro: il tempo è sempre tiranno)
infatti mi sembrava quantomeno strano (ammetto poi di non aver ancora guardato altre fonti sull'Nvision), magari se avete la possibilità inserite qualcosa in una seconda parte dell'articolo, se prevista, credo sia un tema altrettanto interessante, rispetto a quelli trattati, sotto numerosi punti di vista
halduemilauno
27-08-2008, 20:00
Gran bell'articolo, complimenti. Personalmente ho trovato molto interessante il discorso sulle gpu da qui a 5 anni (impressionante pensare al ritardo tra tecnologia disponibile e applicazioni che la usano), gli aspetti legati al ray tracing/rastering e quanto detto circa le dx11
strano l'assoluto silenzio (almeno dall'articolo) su physx.
e a proposito di PhysX...
http://www.tomshw.it/news.php?newsid=15170
;)
halduemilauno
27-08-2008, 20:14
Assolutamente no, è stato uno dei temi tecnologici di NVISION soprattutto nelle sessioni dedicate ai giochi; semplicemente non c'è stato tempo per inserire questi discorsi in questo report (assieme a molto altro: il tempo è sempre tiranno)
Complimenti per questo e in attesa dei successivi.
;)
molto interessante e....che dire...sbav :sbav:
ma dei chips difettosi non si sa niente?
Ginger79
28-08-2008, 00:10
Complimenti per l'articolo... molto interessante.
Nvidia si sta dimostrando un azienda al TOP, solida, piena di idee per il futuro e infinitamente superiore alla concorrenza. Un azienda concentrata sul progresso tecnologico a 360° piuttosto che sulla produzione di forni a mocroonde (HD 4870 X2) che come unico obiettivo hanno il c.d. "celodurismo".
Si dimostra inoltre vincente la strategia di non adottare la Tessellation in questa generazione di GPU vista l'assoluta incompatibilità con le DX11 e l'assoluta INUTILITA' della medesima al momento attuale (dato che non viene utilizzata da nessuno sviluppatore e mai lo sarà fino all'uscita delle DX11).
Straordinaria la strada intrapresa con Physx... altra tecnologia vincente... soprattutto dopo i recenti annunci di molte software houses le quali si dicono intenzionate ad adottare tale tecnologia in tutti i futuri titoli in uscita nei prox mesi.
e in ultimo quella frase all'inizio dell'articolo che preannuncia l'imminente uscita di una nuova GTX top di gamma che farà dimenticare la 4870 X2 ... che dire... un bel "Nvidia Rulez" detto con orgoglio.
darthrevanri
28-08-2008, 02:49
@ginger intanto la 4870 x2 costa di meno della TOP gtx280 e va del minimo 70% in piu chissenefrega dei 30 watt(ho sparato) consumo in piu, ai veri hard gameri nteressa prezzo/prestazioni
Mercuri0
28-08-2008, 09:39
...
:ubriachi:
Ginger79
28-08-2008, 10:09
@ginger intanto la 4870 x2 costa di meno della TOP gtx280 e va del minimo 70% in piu chissenefrega dei 30 watt(ho sparato) consumo in piu, ai veri hard gameri nteressa prezzo/prestazioni
Chi sono gli Hard GAMERI ?? Un nuovo tipo di crostaceo ? Poi quel nTERESSA mi piace un casino... bravo :D
Prezzi medi:
GTX 280 --> 369€
HD 4870 X2 --> 419€
Informati prima di fare figuracce. :D
Consumo:
HD 4870 X2 cosuma circa 120W in più rispetto alla GTX280. Leggiti qualche recensione prima di sparare dati e vedrai che forse tra un paio d'anni riuscirai a dire qualcosa di sensato.
2 su 2 CANNATE ... direi BOCCIATO.;)
:ubriachi:
Tu quale sei dei due ?
Suhadi_Sadono
28-08-2008, 10:56
Chi sono gli Hard GAMERI ?? Un nuovo tipo di crostaceo ? Poi quel nTERESSA mi piace un casino... bravo :D
Prezzi medi:
GTX 280 --> 369€
HD 4870 X2 --> 419€
Informati prima di fare figuracce. :D
Consumo:
HD 4870 X2 cosuma circa 120W in più rispetto alla GTX280. Leggiti qualche recensione prima di sparare dati e vedrai che forse tra un paio d'anni riuscirai a dire qualcosa di sensato.
2 su 2 CANNATE ... direi BOCCIATO.;)
Tu quale sei dei due ?
:asd: :asd:
Quoto
paolo_paul
28-08-2008, 11:49
Chi sono gli Hard GAMERI ?? Un nuovo tipo di crostaceo ? Poi quel nTERESSA mi piace un casino... bravo :D
Prezzi medi:
GTX 280 --> 369€
HD 4870 X2 --> 419€
Informati prima di fare figuracce. :D
Consumo:
HD 4870 X2 cosuma circa 120W in più rispetto alla GTX280. Leggiti qualche recensione prima di sparare dati e vedrai che forse tra un paio d'anni riuscirai a dire qualcosa di sensato.
2 su 2 CANNATE ... direi BOCCIATO.;)
Tu quale sei dei due ?
ciao,
piccola correzione: visto che 369 per la GTX280 non è il prezzo medio ma di partenza, dovresti aggiornare quello della 4870x2 a 384
sniperspa
28-08-2008, 12:20
Complimenti per l'articolo... molto interessante.
Nvidia si sta dimostrando un azienda al TOP, solida, piena di idee per il futuro e infinitamente superiore alla concorrenza. Un azienda concentrata sul progresso tecnologico a 360° piuttosto che sulla produzione di forni a mocroonde (HD 4870 X2) che come unico obiettivo hanno il c.d. "celodurismo".
Si dimostra inoltre vincente la strategia di non adottare la Tessellation in questa generazione di GPU vista l'assoluta incompatibilità con le DX11 e l'assoluta INUTILITA' della medesima al momento attuale (dato che non viene utilizzata da nessuno sviluppatore e mai lo sarà fino all'uscita delle DX11).
Straordinaria la strada intrapresa con Physx... altra tecnologia vincente... soprattutto dopo i recenti annunci di molte software houses le quali si dicono intenzionate ad adottare tale tecnologia in tutti i futuri titoli in uscita nei prox mesi.
e in ultimo quella frase all'inizio dell'articolo che preannuncia l'imminente uscita di una nuova GTX top di gamma che farà dimenticare la 4870 X2 ... che dire... un bel "Nvidia Rulez" detto con orgoglio.
Funboy a ore 12 :rolleyes:
Funboy a ore 12 :rolleyes:
Io ci aggiungerei la parola "SUPER", non è la prima volta che fa commenti di questo tipo :asd:
Ginger79
28-08-2008, 14:59
Funboy a ore 12 :rolleyes:
FUNboy ?? Cos'è un'altra nuova specie come quella del tuo amico "hard GAMERI" ?:D
Fatti un bel ripasso di inglese così eviti anche tu di fare brutte figure... ;)
P.s. Certo che Ati ha proprio delle belle menti che la sostengono... che grandi cime...:D
Ginger79
28-08-2008, 15:11
ciao,
piccola correzione: visto che 369 per la GTX280 non è il prezzo medio ma di partenza, dovresti aggiornare quello della 4870x2 a 384
Purtroppo ti sbagli anche tu: Se analizzi il risultato di Trovaprezzi (e non solo quello) relativo alla gtx280 vedrai che subito dopo il prezzo da me indicato 369 Euro trovi un 370 Euro e un 375 Euro. ciò significa che il prezzo medio di quella scheda è intorno ai 370 Euro (1 Euro in più di quanto da me citato... dunque trascurabile).
Se invece analizzi i risultati relativi alla HD4870 X2 subito dopo i 384 Euro (che tra l'altro riguardano 2 soli pezzi disponibili) trovi 392 Euro, 419 Euro, 434 Euro ... dunque il prezzo MEDIO (e si che l'ho anche scritto) è, volendo essere gentili, di 419 Euro.
Ergo 49€ in più rispetto alla GTX280 oltre ad un cosumo di ulteriori 120W. Dunque l'affermazione del "tizio" non meglio precisato di cui sopra è errata in quanto le schede appartengono a 2 fasce di prezzo (e di CONSUMO) differenti.
... Non ne dite una giusta... :D
paolo_paul
28-08-2008, 15:43
Purtroppo ti sbagli anche tu: Se analizzi il risultato di Trovaprezzi (e non solo quello) relativo alla gtx280 vedrai che subito dopo il prezzo da me indicato 369 Euro trovi un 370 Euro e un 375 Euro. ciò significa che il prezzo medio di quella scheda è intorno ai 370 Euro (1 Euro in più di quanto da me citato... dunque trascurabile).
Se invece analizzi i risultati relativi alla HD4870 X2 subito dopo i 384 Euro (che tra l'altro riguardano 2 soli pezzi disponibili) trovi 392 Euro, 419 Euro, 434 Euro ... dunque il prezzo MEDIO (e si che l'ho anche scritto) è, volendo essere gentili, di 419 Euro.
Ergo 49€ in più rispetto alla GTX280 oltre ad un cosumo di ulteriori 120W. Dunque l'affermazione del "tizio" non meglio precisato di cui sopra è errata in quanto le schede appartengono a 2 fasce di prezzo (e di CONSUMO) differenti.
... Non ne dite una giusta... :D
:mbe: ;)
Trova prezzi possono guardarlo tutti e quindi io, al tuo posto, "aggiornerei" i tuoi prezzi "medi". Per fare la media devi considerare tutti i prezzi, non solo i primi 7/8... alcune versioni (sia della 280 che della 4870x2) in alcuni shop costano più di 500 euro. Cmq siamo ot. L'articolo parla di cose molto più interessanti dei prezzi della top di turno... ;)
Fino a qualche tempo fa il filmato del multi-touch lo avrei scambiato per un trailer di Minority Report :)
sniperspa
28-08-2008, 15:58
FUNboy ?? Cos'è un'altra nuova specie come quella del tuo amico "hard GAMERI" ?:D
Fatti un bel ripasso di inglese così eviti anche tu di fare brutte figure... ;)
P.s. Certo che Ati ha proprio delle belle menti che la sostengono... che grandi cime...:D
Una svista può capitare...
Ma almeno io non mi metto a spalar merda contro ati facendo oltretutto delle belle figuracce,perchè parlavi di cose che non sapevi e quindi hai sparato cazzate...e quella non si chiama svista ma parlare per niente su argomenti che non si conosce suficentemente bene.
Detto questo ti dico che letto il tuo post iniziale mi è venuto da ridere....bo forse quelli di nvidia ti mandano una scheda a natale...in tal caso faresti pure bene...:rolleyes:
Se era nvidia quella che produceva la 4870x2 scommetto che saresti stato li ad elogiarla per le sue fenomenali potenzialità di calcolo e menate varie...ridicolo.
giovanbattista
28-08-2008, 16:47
Post OT semiserio-demenziale
Scusate ma non resisto......forse la tua amata verde ha _DOVUTO_ usando un eufemismo ritoccare (meglio dire falciare) i prezzi di molti modelli appartenenti alla fascia medio alta e alta proprio x cercare di controbattere alla fiammante TestaRossa che gli ha sfondato il popo....
Aggiungo che Personalmente amo solo le s.video intel (c'è chi si farebbe una scop@ta con una SV ??, la neuro chiama)....un passo davanti a tutte :)
Tranquilli solo ciccia x me
sniperspa
28-08-2008, 16:52
Post OT semiserio-demenziale
Scusate ma non resisto......forse la tua amata verde ha _DOVUTO_ usando un eufemismo ritoccare (meglio dire falciare) i prezzi di molti modelli appartenenti alla fascia medio alta e alta proprio x cercare di controbattere alla fiammante TestaRossa che gli ha sfondato il popo....
Aggiungo che Personalmente amo solo le s.video intel (c'è chi si farebbe una scop@ta con una SV ??, la neuro chiama)....un passo davanti a tutte :)
Tranquilli solo ciccia x me
E' la stessa impressione che ho avuto pure io :sofico:
daywatch85
28-08-2008, 18:52
Precisiamo una cosa:
GTX280: 380 Euro minimo su internet
Radeon HD4870X2: 384 Euro minimo su internet
Direi che conviene la 4870X2 per le prestazioni che ha visto che costa solo 4 euro in piu...
Certo che è pieno di fanboy sui forum...ma io mi chiedo...quelli che si comportano da fanboy hanno il cervello per ragionare e quindi per riconoscere se una scheda video ha un buon rapporto velocità-prezzo o proprio non ce la fanno?? Ragazzi ci vuole poco...basta guardare un test e cercare su internet il prezzo minimo di una e dell'altra scheda! C'è tanto bisogno di fare i fanboy? Se una scheda costa meno e va di piu lo possono vedere tutti quindi non potete smentirlo!! Datevi una svegliata va...
Ginger79
28-08-2008, 19:32
:mbe: ;)
Per fare la media devi considerare tutti i prezzi, non solo i primi 7/8... alcune versioni (sia della 280 che della 4870x2) in alcuni shop costano più di 500 euro.
Ho scelto solo i primi prezzi per pura comodità e per correggere ciò che avevi detto prima... cmq non importa... va bene così ;)
Ginger79
28-08-2008, 19:46
Una svista può capitare...
Poichè non è la prima volta che commetti questo tipo di errori ho pensato che si trattasse di "ignoranza" piuttosto che di una semplice svista. Ma, per carità, può capitare... si si...:sofico:
Ma almeno io non mi metto a spalar merda contro ati facendo oltretutto delle belle figuracce,perchè parlavi di cose che non sapevi e quindi hai sparato cazzate...
Ma ci credi almeno in quello che dici?? :D Poi su... un po più di fantasia nei commenti che fate... la storia delle brutte figure l'ho già usata io prima... che fai, mi imiti ? Ah no ... è una svista (non è mancanza di contenuti).. è una "svista" :D
Detto questo ti dico che letto il tuo post iniziale mi è venuto da ridere....
Eh meno male che la prendi sul ridere... a me dopo certi commenti e "sviste" è venuto da piangere.
Se era nvidia quella che produceva la 4870x2 scommetto che...
Se "fosse stata" Nvidia .... ecc... ecc... (è un'ipotetica) altra "svista" ... ahahahahha! Sei un grande!
sniperspa
28-08-2008, 21:50
Poichè non è la prima volta che commetti questo tipo di errori ho pensato che si trattasse di "ignoranza" piuttosto che di una semplice svista. Ma, per carità, può capitare... si si...:sofico:
Ah si?e da quando è che mi segui e che ascolti i miei strafalcioni?
Ti ricordo che questo è un forum di hardware non di letteratura
Ma ci credi almeno in quello che dici?? :D Poi su... un po più di fantasia nei commenti che fate... la storia delle brutte figure l'ho già usata io prima... che fai, mi imiti ? Ah no ... è una svista (non è mancanza di contenuti).. è una "svista" :D
Emh emh...signori e signore ecco a voi nostradamus ginger che ci delizia con una sua previsione nel giorno 16/05/08 mettendo in campo tutte le sue conoscenze tecnico/scientifiche/spirituali
A Giugno assisteremo ai funerali della divisione grafica AMD. 256Bit di bus si saturano già a 1280X720 con AA4X e AF8X... non oso immaginare a risoluzioni e filtri maggiori.
Se le specifiche delle schede Nvidia dovessero coincidere con quelle trapelate nelle info non ufficali sarebbe una battaglia persa in partenza.
La 4870 sarà, ad essere ottimisti, un 50-60% più veloce della attuale 3870 poichè l'efficienza dell'architettura, nonostante l'aumento di SP (peraltro poco significatifi quelli di ATI), è più o meno la stessa della generazione precedente.
Di contro abbiamo una GTX 280 che presenta notevoli innovazioni architetturali rispetto alla 9800GTX: Raddoppio di Bus (da 256bit a 512Bit), Raddoppio (o quasi) degli SP (da 128 a 240), Raddoppio delle ROPS (Da 16 a 32), Raddoppio della Ram (Da 512Mb a 1Gb)... il tutto condito con frequenze di GPU, RAM e SP piuttosto alte che portano a sviluppare un incremento prestazionale che oscilla tra il 100% e il 150% rispetto alla generazione precedente.
Facendo 2 conti e ragionando per logica mi sembra chiaro che non ci siano dubbi su chi sarà il vincitore. Questa volta però non sarà una semplice supremazia temporale e di pochi punti percentuali ma qualcosa di devastante (ad alte risoluzioni e con filtri applicati)... il che, ahimè, non preannuncia nulla di buono per noi acquirenti.
(http://www.hwupgrade.it/forum/showthread.php?t=1744596&highlight=HD4800+GT200)
dopo questa fossi in te :ops2:
;)
Se "fosse stata" Nvidia .... ecc... ecc... (è un'ipotetica) altra "svista" ... ahahahahha! Sei un grande!
Penso mi metteranno in prigione per questa cosa....ora basta che se continuo a risponderti oltraggio la tua sapienza grammaticale!
Ps.ho di meglio nella vita da fare che guardare gli errori grammaticali della gente che posta su questo forum ma in compenso mi ricordo benissimo quando un fanboy spara cazzate...
Ancora con 'sti occhialini polarizzati? Me li ero trovati anche con la prima geforce... con quake2 dopo un pò ti veniva il mal di mare.
Semmai avevi gli occhialini LCD... :)
Ginger79
28-08-2008, 22:52
Videogiochi a parte mi piacerebbe molto toccare con mano questi nuovi navigatori satellitari con tecnologia Nvidia. Sono anni che sogno un vero navigatore 3D, veloce, preciso e fotorealistico.
Altra grande novità è l'apertura dell'SLI sui chipset Intel (X58 in questo caso) senza bisogno di chip proprietari aggiuntivi. Era ora !
Il futuro si prospetta molto interessante... (solo grazie alla ricerca di Intel e Nvidia)
Mercuri0
29-08-2008, 03:07
Tu quale sei dei due ?
Ah, ma io non ci sono. Quei due sono le persone che varebbe la pena leggere da queste parti, e che ormai si guardano bene dal postare qualcosa in questo thread.
Perciò, si danno a bere rassegnati ai meccanismi di Internet e al Potere del Marchio.
Peccato, perché magari qualcuno poteva anche postare qualche info interessante sull'accelerazione grafica nei chip embedded per applicazioni come i navigatori satellitari che tanto ti interessano (per dirne una).
http://www.st.com/stonline/stappl/cms/press/news/year2007/ita/t2126.htm
^TiGeRShArK^
02-09-2008, 10:50
Videogiochi a parte mi piacerebbe molto toccare con mano questi nuovi navigatori satellitari con tecnologia Nvidia. Sono anni che sogno un vero navigatore 3D, veloce, preciso e fotorealistico.
Altra grande novità è l'apertura dell'SLI sui chipset Intel (X58 in questo caso) senza bisogno di chip proprietari aggiuntivi. Era ora !
Il futuro si prospetta molto interessante... (solo grazie alla ricerca di Intel e Nvidia)
:asd:
certo che ce ne vuole di coraggio a dare i meriti dell'avanzamento tecnologico a Nvidia e ad Intel :asd:
Forse, nonostante la tua età, ai tempi non seguivi molto il panorama informatico, perchè altrimenti dovresti ricordarti come stavano le cose quando Intel e Nvidia erano monopolisti de facto, ovvero quando AMD era relegata solo alla fascia bassa del mercato insieme a Cyrix e subito dopo il suicidio di 3dfx.
L'avanzamento tecnologico era praticamente stagnante e i prezzi erano elevatissimi.
Ai tempi del pentium, tanto per fare un esempio, c'era il famoso bug della FDIV, e i primi esemplari di Pentium appena usciti costavano un botto.
Nvidia poi riproponeva sempre la stessa architettura solo lievemente modificata, fino a quando ci ha regalato una "perla stupenda" con NV30 che era del tutto inadeguata rispetto alle controproposte della ormai matura ATI.
Come vedi la storia è fatta di corsi e ricorsi.
Ad oggi la scheda top è quella ATI ed ha un costo assolutamente paragonabile a quella nvidia, dato che 25 euro su 369 sono solo il 6,7% in +.
E se non ci fossero state ATI ed AMD le schede video e i processori odierni li avremmo visti solo tra due / tre anni a prezzi spropositati.
robert1980
02-09-2008, 11:03
:asd:
certo che ce ne vuole di coraggio a dare i meriti dell'avanzamento tecnologico a Nvidia e ad Intel :asd:
Forse, nonostante la tua età, ai tempi non seguivi molto il panorama informatico, perchè altrimenti dovresti ricordarti come stavano le cose quando Intel e Nvidia erano monopolisti de facto, ovvero quando AMD era relegata solo alla fascia bassa del mercato insieme a Cyrix e subito dopo il suicidio di 3dfx.
L'avanzamento tecnologico era praticamente stagnante e i prezzi erano elevatissimi.
Ai tempi del pentium, tanto per fare un esempio, c'era il famoso bug della FDIV, e i primi esemplari di Pentium appena usciti costavano un botto.
Nvidia poi riproponeva sempre la stessa architettura solo lievemente modificata, fino a quando ci ha regalato una "perla stupenda" con NV30 che era del tutto inadeguata rispetto alle controproposte della ormai matura ATI.
Come vedi la storia è fatta di corsi e ricorsi.
Ad oggi la scheda top è quella ATI ed ha un costo assolutamente paragonabile a quella nvidia, dato che 25 euro su 369 sono solo il 6,7% in +.
E se non ci fossero state ATI ed AMD le schede video e i processori odierni li avremmo visti solo tra due / tre anni a prezzi spropositati.
?? Da quello che ricordo io non è così...cioè sono d'accordo solo in parte..
Nvidia già ai tempi veramente old, aveva lasciato per strada 3dfx e ati...come intel aveva lasciato per strada Cyrix. AMD ha sempre svolto un ruolo cmq fondamentale per contrastare intel. Così come matrox lo faceva con nvidia e 3dfx e S3.
Nvidia ha raggiunto il suo scopo lasciando sul mercato e a basso prezzo una nuova architettura 2D-3D insieme e poi tramite la T&L abissando le concorrenti.
Me lo ricordo bene, perchè avendo una 3dfx mi piangeva il cuore, ma poi mi sono dovuto ricredere con Nvidia che sviluppava cmq dei buoni prodotti
^TiGeRShArK^
02-09-2008, 11:09
?? Da quello che ricordo io non è così...cioè sono d'accordo solo in parte..
Nvidia già ai tempi veramente old, aveva lasciato per strada 3dfx...
Non era stata nvidia a lasciare 3dfx, è stata 3dfx a suicidarsi praticamente....
come intel aveva lasciato per strada Cyrix. AMD ha sempre svolto un ruolo cmq fondamentale per contrastare intel. Così come matrox lo faceva con nvidia e 3dfx e S3.
Matrox aveva sempre il focus sul 2D.
L'unica scheda sua che ricordi che aveva buone prestazioni in 3d per l'epoca era la G200.
S3 era sempre indietro come prestazioni, + o - paragonabile alla Cyrix.
Nvidia ha raggiunto il suo scopo lasciando sul mercato e a basso prezzo una nuova architettura 2D-3D insieme e poi tramite la T&L abissando le concorrenti.
Me lo ricordo bene, perchè avendo una 3dfx mi piangeva il cuore, ma poi mi sono dovuto ricredere con Nvidia che sviluppava cmq dei buoni prodotti
Però poi ha mantenuto per troppo tempo invariata l'architettura, tanto che ATI con la 8500 supportava già le DX 8.1, mentre Nvidia era rimasta alle DX 8.0, anche con l'uscita delle successive geforce 4.
Il periodo in cui Nvidia è stata praticamente senza concorrenza è stato quello che andava da geforce 2 a geforce 3 così a spanne se non ricordo male.
E infatti è accaduto quanto appena descritto. ;)
robert1980
02-09-2008, 11:16
Non era stata nvidia a lasciare 3dfx, è stata 3dfx a suicidarsi praticamente....
Matrox aveva sempre il focus sul 2D.
L'unica scheda sua che ricordi che aveva buone prestazioni in 3d per l'epoca era la G200.
S3 era sempre indietro come prestazioni, + o - paragonabile alla Cyrix.
Però poi ha mantenuto per troppo tempo invariata l'architettura, tanto che ATI con la 8500 supportava già le DX 8.1, mentre Nvidia era rimasta alle DX 8.0, anche con l'uscita delle successive geforce 4.
Il periodo in cui Nvidia è stata praticamente senza concorrenza è stato quello che andava da geforce 2 a geforce 3 così a spanne se non ricordo male.
E infatti è accaduto quanto appena descritto. ;)
Sono d'accordo ma ho un altro punto di vista della situazione.
Ad esempio all'epoca avevano tutti G200. La mistique e la millennium erano rivolti a fascie anche 3D, ma erano delle ciofeche in merito.
Non sono mai stato d'accordo sulla 8500, che aveva una marea di problemi dovuti sia ad hardware che sopratutto software/driver. Invece già al tempo Nvidia aveva creato i driver stereo 3D che erano un must di tecnologia, finchè con le 4200 overcloccate abissavano ogni concorrente.
Ti correggo solo su una cosa: Geforce 1 (la 256 precisamente) era la vera svolta , costava 600.000 lire e andava piu delle ati / 3dfx, e così ha continuato fino alle geforce 4.
Le geforce 5 sono state uno schifo
Le geforce 6 sono state mitiche sotto l'aspetto oc, basti vedere la mia in firma
robert1980
02-09-2008, 11:22
Altra cosa: 3dfx non si è suicidata, semplicemente non era piu in grado con la sua architettura di egualiare le prestazioni di Nvidia. Ricordo che su una scheda avevano montato 4 chip operanti in parallelo, ma c'era un gap lo stesso non indifferente
^TiGeRShArK^
02-09-2008, 12:20
Altra cosa: 3dfx non si è suicidata, semplicemente non era piu in grado con la sua architettura di egualiare le prestazioni di Nvidia. Ricordo che su una scheda avevano montato 4 chip operanti in parallelo, ma c'era un gap lo stesso non indifferente
geforce è stata la svolta dopo le TNT, ma ancora con la prima geforce c'era la concorrenza di 3dfx.
Dico che quest'ultima si è suicidata sia per le pessime scelte architetturali, che per il suicidio commerciale vero e proprio con l'acquisizione di una azienda che produceva le schede in modo da prodursi le schede da se senza affidarsi a partner esterni.
La scheda 3dfx con 4 chip VSA era la 6000, mai commercializzata e al mondo ne esistono solo pochissimi esemplari funzionanti.
Le 5500 invece sono meno rare dato che furono commercializzate.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.