View Full Version : NVIDIA GeForce GTX 485: indiscrezioni e congetture
Redazione di Hardware Upg
22-06-2010, 11:24
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-485-indiscrezioni-e-congetture_33000.html
Si vocifera il debutto di una nuova proposta top di gamma tra le schede GeForce GTX 400 di NVIDIA, che avrebbe senso a nostro avviso solo se basata su una versione di GPU con 512 stream processors
Click sul link per visualizzare la notizia.
Wolfhask
22-06-2010, 11:31
bisognerebbe che fossero minori sia i consumi e le temperature per essere davvero interessante per un upgrade dalla serie 200
bisognerebbe che fossero minori sia i consumi e le temperature per essere davvero interessante per un upgrade dalla serie 200
Esatto, se addirittura monta due entrate da 8 pin ciascuna per l'alimentazione rimango con la mia GTX 280.
...se è un annuncio di nvidia si puo' ipotizzare un aumento di sp...anche se poco probabile se confrontato con i dati delle rese...se è un design adottato solo da alcuni partner è categoricamente esclusa la possibilità di un maggiore numero di sp...circolano tantissime voci anche per quanto riguarda il gf 104...molte di queste in netta contraddizione...resto dell'idea che se nvidia avesse news per quanto riguarda le soluzioni fermi le avrebbe tirate fuori al computex...e mi chiedo se una nuova soluzione in fascia altissima sia realmente utile...una domanda per la redazione : a quando la recensione della 465?...
...ciao Andrea...
nvidia deve anche abbassare i prezzi,troppo alti per essere competitivi.
prezzi fuori dal mercato + consumi esagerati + temperature
per tutto il resto c'è ATI
greeneye
22-06-2010, 11:52
Nvidia NON puo' vendere schede che consumano più di 300W, se lo facesse non ripetterebbe lo standard atx con infinite grane legali.
Questo non toglie che se vende una scheda da 300W e poi l'utente di sua iniziativa la overclocca facendone consumare 500 non puo' certo esserne ritenuta responsabile.
Le Fermi così come sono son buone giusto per limitare un pò le perdite, ormai il crollo di immagine c'è stato ed è stato giusto così. Spero in una ripresa di Nvidia a fine anno in modo da non far accumulare troppo vantaggio ad Ati e rimanere in una soluzione di competitività per tutti.
"....si vocifera l'utilizzo di un design del PCB che integri due connettori di alimentazione da 8 pin ciascuno, capaci di fornire ciascuno 150 Watt che si abbinano ai 75 Watt dello slot PCI Express 16x per un totale di 375 Watt......"
voci o no, starà sicuramente ben oltre i 300W e con un dissipatore maggiorato.... Dio mio, ma che senso può avere ? e soprattuto con che resa ? 1 su 1000 ? Ma puntate ai 28nm invece di imbarcarvi in inutili prove di forza con un pp inadatto allo scopo. Comincio anche io a pensare che navighino a vista....
una domanda per la redazione : a quando la recensione della 465?...
...ciao Andrea...
Mi associo, poi per carità, avete fatto un casino di hype e articoli per le 470-480, e ancora manco mezzo grafichetto sulla 465.... ci si deve sforzare a non pensare male, eh ?
Beltra.it
22-06-2010, 12:00
ma che diavolo crede di fare.. sforna una 485 dopo poco l'uscita della 480, così coloro che erano convinti di stare con il top per un pezzo si trovano coi piedi nella merda avendo speso una marea di soldi!!!
bah, nvidia di questo passo sta cadendo davvero atterra!!
ormai la serie 4xx è da buttare! prezzi improponibili rispetto alla controparte, consumi esagerati! le temperature sono ancora ben controllabili.
spero che con la serie 5xx tornino in alto! e sperare in un calo dei prezzi come avvenne per la serie 200!
voci o no, starà sicuramente ben oltre i 300W e con un dissipatore maggiorato.... Dio mio, ma che senso può avere ? e soprattuto con che resa ? 1 su 1000 ? Ma puntate ai 28nm invece di imbarcarvi in inutili prove di forza con un pp inadatto allo scopo. Comincio anche io a pensare che navighino a vista....
Scheda inutile...per chi se ne capisce.
Ma è anche vero, che una grande parte dei clienti è poco informata. Nvidia nel primo trimestre 2010 ha incrementato le proprie quote di mercato...con il nulla cosmico come offerta! Fai te...dove può arrivare la forza di un brand e la capacità di acquisto per certa gente.
La 485 GTX...è creata in loro onore.
Nvidia fra qualche mese...si riprenderà alla grande, l'importante, è che vi sia anche una risposta adeguata da Ati...per una sana concorrenza.
Pertanto, non mi preoccuperei dei desktop...ma piuttosto dei mobile.
Rischia seriamente di esser cacciata fuori dal mercato...come è già successo con i chipset.
ConteZero
22-06-2010, 12:24
Scheda inutile...per chi se ne capisce.
Ma è anche vero, che una grande parte dei clienti è poco informata. Nvidia nel primo trimestre 2010 ha incrementato le proprie quote di mercato...con il nulla cosmico come offerta! Fai te...dove può arrivare la forza di un brand e la capacità di acquisto per certa gente.
La 485 GTX...è creata in loro onore.
Nvidia fra qualche mese...si riprenderà alla grande, l'importante, è che vi sia anche una risposta adeguata da Ati...per una sana concorrenza.
Pertanto, non mi preoccuperei dei desktop...ma piuttosto dei mobile.
Rischia seriamente di esser cacciata fuori dal mercato...come è già successo con i chipset.
Miracoli di nVidia... già con le GeForce 5xxx nVidia riuscì a vendere ghiaccio agli eschimesi... questa volta stà vendendo forni ai tuareg (detti, appunto, "uomini blu").
sarà una limited ghost disuman power consumption edition questa scheda:asd: :tapiro: :sofico:
a và ma dai, davvero vogliono fare una cosa simile?:eek:
ok, ma sta vendendo solo per la noema che si è fatta col validissimo g80. tale nomea ormai non regge più, io farei i confronti a fine anno.
devono migliorare non poche cose su queste nvidia perchè se pensano di continuare a lavorare di merda come hanno fatto con le Fermi stanno freschi che investo i miei soldi nelle loro schede. E il bello è che te le fanno pagare pure profumatamente.
sbudellaman
22-06-2010, 12:40
... Mi associo, poi per carità, avete fatto un casino di hype e articoli per le 470-480, e ancora manco mezzo grafichetto sulla 465.... ci si deve sforzare a non pensare male, eh ?
beh dai non esageriamo :D ... a me non sembra che HWUP stia cercando in qualche modo di favorire nvidia, anzi leggendo la fine di questo articolo (che dice cose assolutamente vere) sembra tutto il contrario:
"... pressione competitiva delle soluzioni concorrenti ATI Radeon della serie 5800. Queste schede sono proposte a prezzi inferiori, vantano prestazioni velocistiche mediamente inferiori ma non molto distanti e soprattutto specifiche tecniche in termini di consumi e temperature ben più interessanti di quelle delle soluzioni GeForce GTX della serie 400."
Secondo me partite sempre in quarta quando si prefigura la possibilità di accusare favoritismi, quando è molto più facile pensare ad altre motivazioni ben più probabili e meno da "scandalo"... sono accuse non da poco ! E pure le prove sono poche :)
P.S. : Ovvio che ora mi aspetto dai moderatori una mancia adeguata, con tutti i soldi che prendete da nvidia è il minimo :O
:D
blackshard
22-06-2010, 12:50
A prescindere dalla scheda e da tutto il resto, ma chi diavolo ha bisogno di roba del genere?
Cazzarola, ma stiamo parlando di una scheda video e ci possiamo permettere che un oggetto del genere consumi 300 e più Watt?
Ma non vi pare che si stia dando troppa importanza alle cazzate, mentre le cose serie passano in secondo piano?
netcrusher
22-06-2010, 12:58
questa Nvidia non fà più paura a nessuno, se non fosse per il cartello che ha stretto con Intel già sarebbe fuori dalle palle da un bel pezzo..........oggi ho visto uno splendido notebook Hp da 17,3 pollici con core i7 720 QM e ati hd5850 da 1gb , fantastico!!!
A prescindere dalla scheda e da tutto il resto, ma chi diavolo ha bisogno di roba del genere?
Cazzarola, ma stiamo parlando di una scheda video e ci possiamo permettere che un oggetto del genere consumi 300 e più Watt?
Ma non vi pare che si stia dando troppa importanza alle cazzate, mentre le cose serie passano in secondo piano?
Non solo se andiamo a guardare l'aspetto un pò più tecnico il 99% dei giochi gira degnamente su vga come gtx275/5850. Gli unici giochi che non vanno al massimo sono i soliti mattoni,che però non vanno al massimo (o quanto meno non hanno fps granchè decenti) nemmeno su gtx480 e 5970..
quindi ste schede da 500 e passa euro a che servono???
Narkotic_Pulse___
22-06-2010, 13:09
un altro flop :asd:
Mah... Tutto sto crollo nvidia non lo vedo, perlomeno non da me... Le 480 e 470 sono fin troppo vendute... Ci sono esaurite già sei volte
edoardogiu
22-06-2010, 13:24
finalemte nvdia rivoluziona il mercato, ora però come faranno con il dissipatore, cioè quello della gtx 480 mi sembra abbia 4 o 5 pipe e pure non riesce a tenerla a bada
cmq non capisco perchè i due connettori da 8 pin, quello da 24 pin non si usa più?
Mi sembra da matti, ma a ben pensarci ad NVidia non restano altre mosse. Le rese sono ancora troppo basse per produrre altre schede Fermi di fascia mainstream oltre alla 465, ed i chip costano ancora tantissimo.
Passerà del tempo a tutto vantaggio di ATi.
ConteZero
22-06-2010, 13:26
Se continuano così la prossima serie avrà sul posteriore un connettore per un trasformatore esterno (in dotazione con ogni scheda).
papafoxtrot
22-06-2010, 13:30
un altro flop :asd:
Altro che flop... questa fa plof... E' na mmmm....
questa Nvidia non fà più paura a nessuno, se non fosse per il cartello che ha stretto con Intel già sarebbe fuori dalle palle da un bel pezzo..........oggi ho visto uno splendido notebook Hp da 17,3 pollici con core i7 720 QM e ati hd5850 da 1gb , fantastico!!!
Cartello :mbe:
Ma se sono in baruffa nera perché intel li ha parati fuori dal settore chipset?
Comunque c'è poco da fare, GF100 non è un chip adatto ad una scheda video. Va bene per il gpu computing, sebbene anche qui consumi troppo.
Se non fosse per cuda e tutto ciò che ha seminato nell'ambito HPC nvidia le prenderebbe da ati anche li...
GF104 secondo me sarà un chip migliore, anche se non avrà la potenza necessaria a eguagliare le HD5870. Potrebbe però raggiungere una HD5850 se ben cloccato, ed ammesso che la ram non sia troppo limitante.
D'altra parte fra qulche mese arriva rv970 a pulire via tutto...
papafoxtrot
22-06-2010, 13:32
Se continuano così la prossima serie avrà sul posteriore un connettore per un trasformatore esterno (in dotazione con ogni scheda).
Gli metteranno direttamente dietro lo spinotto blu a 3 poli... 220v monofase industriale.
Ed è già tanto che non gli mettono la 380 trifase... in quel caso spinotto rosso un po' più grande.
Se avevano messo a punto una GF100 a 512 cuda cores, questo è davvero il momento peggiore per tirarla fuori.
Se la GTX480 come single GPU risulta essere la più performante, un' eventuale GTX485 quale vantaggio dovrebbe ristabilire?
Rafforzare il primato di una scheda ultracostosa e con rendimenti disastrosi?
Niente! Non si resce proprio a farsi capire dal produttore californiano... nVidia per ora è concentrata a fare offerta e domanda ambedue da sè.
Sembrano racchiusi dentro una sfera di cristallo insonorizzata e sordi alle pesanti critiche e lamentele dei consumatori.
Aspettiamo, aspettiamo... il tempo passa...
Se questi al giro di boa e dopo l'estate non si inventano qualcosa e rimettono a posto tutte o quasi (almeno i prezzi) ste magagne, invece che fare pace con gli utenti e ritornare ad acquistare schede a prezzi accessibili, si comincia a bollare Fermi come progetto fallimentare in appena 6 mesi di vita e così la finiamo.
St. Jimmy
22-06-2010, 13:44
questa Nvidia non fà più paura a nessuno, se non fosse per il cartello che ha stretto con Intel già sarebbe fuori dalle palle da un bel pezzo..........oggi ho visto uno splendido notebook Hp da 17,3 pollici con core i7 720 QM e ati hd5850 da 1gb , fantastico!!!
paura?! cartello con Intel?! fuori dalle palle?!
scusa se lo dico, ma non capisco proprio come ragioni...questa non è una guerra e sia ATI che nVidia NON devono andare fuori dalle palle perchè ATI esattamente come nvidia non è un'azienda di santi e se non hanno concorrenza cosa pensi che farebbero? prezzi alti e la ricerca e sviluppo procederebbe a rilento...con la continua concorrenza, le novità devono saltare fuori per offrire un prodotto valido...ATI a suo tempo sbagliò con nvidia che dominava...imparando dagli errori e per competere al meglio hanno tirato fuori la serie 5000 e ora tocca ad nvidia imparare dai propri errori con Fermi. STOP! non inventatevi guerre inutili e fasulle
ConteZero
22-06-2010, 13:58
Le ultime nVidia vivibili sono state la 8800/9800/come-cavolo-hanno-rinominato-quel-chip per l'ennesima volta e l'8400/9400/idem-come-sopra.
edoardogiu
22-06-2010, 14:07
Altro che flop... questa fa plof... E' na mmmm....
Cartello :mbe:
Ma se sono in baruffa nera perché intel li ha parati fuori dal settore chipset?
Comunque c'è poco da fare, GF100 non è un chip adatto ad una scheda video. Va bene per il gpu computing, sebbene anche qui consumi troppo.
Se non fosse per cuda e tutto ciò che ha seminato nell'ambito HPC nvidia le prenderebbe da ati anche li...
GF104 secondo me sarà un chip migliore, anche se non avrà la potenza necessaria a eguagliare le HD5870. Potrebbe però raggiungere una HD5850 se ben cloccato, ed ammesso che la ram non sia troppo limitante.
D'altra parte fra qulche mese arriva rv970 a pulire via tutto...
guard ache a quanto previsto il gf 104 avrà 192 bit, come dovrebbe fare ad eguagliare la 5850?
paura?! cartello con Intel?! fuori dalle palle?!
scusa se lo dico, ma non capisco proprio come ragioni...questa non è una guerra e sia ATI che nVidia NON devono andare fuori dalle palle perchè ATI esattamente come nvidia non è un'azienda di santi e se non hanno concorrenza cosa pensi che farebbero? prezzi alti e la ricerca e sviluppo procederebbe a rilento...con la continua concorrenza, le novità devono saltare fuori per offrire un prodotto valido...ATI a suo tempo sbagliò con nvidia che dominava...imparando dagli errori e per competere al meglio hanno tirato fuori la serie 5000 e ora tocca ad nvidia imparare dai propri errori con Fermi. STOP! non inventatevi guerre inutili e fasulle
Magari fosse così...ma la vedo dura...
Intel ha il dominio CPU (scorrettamente) e prova a crescere nell'ambito GPU (e ce la farà entro pochi anni), nel frattempo il settore APU sarà un entry level.
Amd con Bulldozer recupererà fortemente lo svantaggio verso Intel (o forse sarà superiore?)..le sue GPU sono alla pari se non meglio di Nvidia...la sua APU sarà irraggiungibile da Intel per diversi anni.
Nvidia ha il primato GPU nel settore professionale...se la gioca con AMD nel reparto consumer...zero spaccato nelle CPU e un altro zero spaccato nelle APU. E se continua così...perderà anche il reparto mobile. Ciliegina sulla torta: se non renderà completamente open CUDA e PHYSX...perderà ulteriormente anche questo vantaggio.
Nvidia con Fermi...mi ricorda tanto la Matrox con la mystique o 3dfx con la voodoo. Poi sappiamo come è finita...che si svegli e non solo nel GPGPU.
Non ho nessuna intenzione di comprare APU, CPU o GPU che siano a 1000 euro ognuna.
Gabriyzf
22-06-2010, 14:11
paura di ati?
si conoscono date e specifiche della serie 6xx0?
ErPazzo74
22-06-2010, 14:25
leggo sempre i vostri commenti e vorrei dire la mia....ora nn sono informato ma evidentemente ati uscirà "a breve" con qualcosa di + potente ed nvidia risp con le armi a sua disposizione marketing e watt...e speriamo l'ultimo fazzoletto di sp...
ovv imho....sinceramente nn sn informato se ati abbia o no qualcosa di nuovo sotto il sole....ma mi
sembra proprio una contromossa....
riguardo ai prezzi alti io dico che finché le vendite sono elevate e redditizie non vedo perché la nvidia
essendo un'azienda, mira al profitto...x cui non abbasserà di sicuro i prezzi finché vende e guadagna...
x chi parla di flop, plof, scaffale....sta di fatto che questi vendono e guadagnano AD ORA...secondo me le ripercussioni del flop che è Fermi si avranno nel 2011...vedremo....
a chi dice che si deve sbrigare a risolvere, correre ai ripari, etc.....la verità è che 1 progetto non si
può rifare in 6mesi ci vogliono anni e le conseguenze di un progetto sbagliato le si pagano x anni....l'unica che può aiutare nvidia è tsmc ma sappiamo tutti quanto sia e quanto sarà "lesta" nel passaggio a 28nm...aahhaha
x cui nvidia è abbastanza impotente al momento, può spingere solo su marketing e su abbassamenti dei prezzi ma come dicevo prima ad ora nn ha interesse ad abbassare i prezzi in quanto vende anche con questi prezzi assurdi....
aggiungo che nonostante io sia un amante del 3D nn comprerei mai qualcosa che consuma il doppio o il triplo di tutto il mio desktop attuale....
Ciao pat
PS scusate il lungo post
ConteZero
22-06-2010, 14:29
Partiamo da una considerazione... un servo non può servire due padroni.
Un core o è un unità acceleratrice generica per il computing o è uno stream processor, usare lo stesso componente per entrambe le cose è inefficiente, e nVidia l'ha (suo malgrado) dimostrato.
Detto questo come APU nVidia ha qualcosa di credibile, AMD è anni luce indietro (sia come versatilità sia come driver).
Capisco che nVidia voglia risparmiare lavorando su un unica architettura, ma estendere chip grafici fino a renderli utilizzabili come acceleratori serve solo a renderli meno efficienti (per watt).
Intel è lontana ANNI LUCE, tant'è che per fornire qualcosa di passabile (nel mercato delle GPU) ha dovuto prendere in prestito architetture di terze parti.
(ed io continuo a dire che se andassero tutti a quel paese con i loro grandeur ed iniziassero ad usare acceleratori basati su sistemi consistenti, come gli SPE del Cell, forse avremmo tutto da guadagnarci... vaporware a parte).
paura di ati?
si conoscono date e specifiche della serie 6xx0?
si vocifera per l'autunno, con una semplice revisione della 5xxx niente di rivoluzionario.
Forse un raddoppio degli SP e altre piccolezze...ma non credo. Un incremento parziale del 50% degli stream...sono già sufficienti a tenere testa ad un costo di produzione irrisorio, qualsiasi Fermi a 28nm e con 512 SP.
Gabriyzf
22-06-2010, 14:40
si vocifera per l'autunno, con una semplice revisione della 5xxx niente di rivoluzionario.
Forse un raddoppio degli SP e altre piccolezze...ma non credo. Un incremento parziale del 50% degli stream...sono già sufficienti a tenere testa ad un costo di produzione irrisorio, qualsiasi Fermi a 28nm e con 512 SP.
beh, non è che sia poi una piccolezza, considerando quanto va già ora con 1600sp la 5870
ConteZero
22-06-2010, 14:44
beh, non è che sia poi una piccolezza, considerando quanto va già ora con 1600sp la 5870
Se non sbaglio ATi bara un po', nel senso che (IIRC) alla fine l'unità elaborativa è formata da un agglomerato di cinque SP (4 intere ed 1 fp), per cui quei 1600 sono 320 unità elaborative "effettive".
Infatti, qui si vede bene dallo schema a pagina 12 (relativo ad un predecessore, l'RV670) : http://developer.amd.com/gpu_assets/Stream_Computing_Overview.pdf
netcrusher
22-06-2010, 14:57
Altro che flop... questa fa plof... E' na mmmm....
Cartello :mbe:
Ma se sono in baruffa nera perché intel li ha parati fuori dal settore chipset?
Comunque c'è poco da fare, GF100 non è un chip adatto ad una scheda video. Va bene per il gpu computing, sebbene anche qui consumi troppo.
Se non fosse per cuda e tutto ciò che ha seminato nell'ambito HPC nvidia le prenderebbe da ati anche li...
GF104 secondo me sarà un chip migliore, anche se non avrà la potenza necessaria a eguagliare le HD5870. Potrebbe però raggiungere una HD5850 se ben cloccato, ed ammesso che la ram non sia troppo limitante.
D'altra parte fra qulche mese arriva rv970 a pulire via tutto...
Sì ma dal settore vga non mi pare proprio e sinceramente io vedo il 90% dei notebook con il tandem Intel-Nvidia e sinceramente mi sono scassato le balle, l'unico gioiellino degno di nota che ho visto oggi al M......d (che è uno shop che fà malamente cartello col tandem suddetto) è un hp con core i7- 720 qm e finalmente una hd5850 con 1gb ddr5 e schermo a 17.3 pollici, bello davvero, tu dici che non è cartello???? Allora cos'è??? Capisco che Ati=Amd però basta dai, quelle ge force gt320m sembrano chissà quale meraviglie..........ma un aggiornamento delle quote di mercato dove lo posso trovare???
Shivan man
22-06-2010, 15:04
Se continuano così la prossima serie avrà sul posteriore un connettore per un trasformatore esterno (in dotazione con ogni scheda).
Bè in passato è quasi uscita una scheda con questa configurazione, da una casa acquisita dalla stessa nvidia. Magari hanno rispolverato parte del progetto :asd:
http://3dfx.weppel.nl/3dfxpics/3dfx%20Voodoo%205%206000%20AGP%20Preview%204%20With%20Power.jpg
Ovviamente si scherza!:D
Partiamo da una considerazione... un servo non può servire due padroni.
Un core o è un unità acceleratrice generica per il computing o è uno stream processor, usare lo stesso componente per entrambe le cose è inefficiente, e nVidia l'ha (suo malgrado) dimostrato.
Detto questo come APU nVidia ha qualcosa di credibile, AMD è anni luce indietro (sia come versatilità sia come driver).
Capisco che nVidia voglia risparmiare lavorando su un unica architettura, ma estendere chip grafici fino a renderli utilizzabili come acceleratori serve solo a renderli meno efficienti (per watt).
Intel è lontana ANNI LUCE, tant'è che per fornire qualcosa di passabile (nel mercato delle GPU) ha dovuto prendere in prestito architetture di terze parti.
(ed io continuo a dire che se andassero tutti a quel paese con i loro grandeur ed iniziassero ad usare acceleratori basati su sistemi consistenti, come gli SPE del Cell, forse avremmo tutto da guadagnarci... vaporware a parte).
Amd è quel servo.
Nvidia e Intel...no. Perlomeno per un bel po' di tempo.
Nvidia è lungimirante...scommette sul lungo periodo (e nel breve sul professionale che rende tanti soldini). Ma attenzione...al lungo periodo
...bisogna anche arrivarci...sperando di non fare acqua da tutte le parti.
Amd ha tentato 4 anni fa e ci sta riuscendo...nelle CPU...nelle GPU...nelle APU...nei CHIPSET...ed anche nelle GPGPU entro 1-2 anni.
Nvidia in 4 anni...ha rimarchiato...ha presentato Fermi che nella prima incarnazione è da dimenticare...ha conquistato a pieno titolo il mercato professionale e nel contempo ha completamente perso il mercato dei chipset...è la pioniera del gpcomputig. Nel complesso tenuto conto della sua forza finanziaria in tale periodo...questi risultati, sono insoddisfacenti.
Nonostante non abbia realizzato risultati strategici comparabili ad Amd, è comunque più forte rispetto alla concorrente di allora, che si permise l'acquisto di ATI...ma è anche vero...che il mercato di oggi è molto più agguerrito e denso di novità repentine rispetto al 2006...situazione che se non è stata adeguatamente prevista da Nvidia, può seriamente creare...
delle fondamenta ambiziose, per un castello di carta.
Il passato è denso di nomi altisonanti crollati sotto i propri progetti...
Nvidia compresa...fallita ed acquistata all'asta o in un accordo preventivo ante fallimento (non ricordo bene)...perchè cercò "ambiziosamente" di fare le scarpe, tra le altre cose, anche a creative labs.
Se non sbaglio ATi bara un po', nel senso che (IIRC) alla fine l'unità elaborativa è formata da un agglomerato di cinque SP (4 intere ed 1 fp), per cui quei 1600 sono 320 unità elaborative "effettive".
Infatti, qui si vede bene dallo schema a pagina 12 (relativo ad un predecessore, l'RV670) : http://developer.amd.com/gpu_assets/Stream_Computing_Overview.pdf
vero e falso.
é vero perchè su strada...si è scelto di programmare il materiale ludico seguendo l'ispirazione Nvidia...in tal senso, 1 SP verde...corrisponde alle prestazioni di ben 4SP rosse, fermo restando tutte le altre variabili.
L'approccio delle SP di Ati è differente (è materiale di anni fa...preistoria)...ricordo solo, che se fosse stata abbracciata dai programmatori, 2SP rosse...avrebbero reso come 3SP verdi ;)
Beltra.it
22-06-2010, 15:21
Le ultime nVidia vivibili sono state la 8800/9800/come-cavolo-hanno-rinominato-quel-chip per l'ennesima volta e l'8400/9400/idem-come-sopra.
come si è visto conviene rinominare che fare nuovi chip e poi dover combattere contro il guaio dei driver immaturi.
ati ne è stato un esempio in passato
edoardogiu
22-06-2010, 15:28
ragazzi lasciate stare chi è il servo e chi il re
parliamo del 24 pin che ci vorrebbe per limentare al sccheda :eek: :eek: :eek: :eek:
ConteZero
22-06-2010, 15:31
Amd è quel servo.
Nvidia e Intel...no. Perlomeno per un bel po' di tempo.
Parlavo dei vari stream processor, che o sono fatti per una cosa o sono fatti per un altra; se li vuoi far funzionare in troppi campi diventano molto meno efficienti.
Nvidia è lungimirante...scommette sul lungo periodo (e nel breve sul professionale che rende tanti soldini). Ma attenzione...al lungo periodo
...bisogna anche arrivarci...sperando di non fare acqua da tutte le parti.
NVidia sono anni che rimesta l'acqua nel mortaio con gli stessi design puntando sul die shrink, e nonostante questo dopo anni di lavoro mentre riproponeva sempre le stesse cose ha partorito un topolino (vorace e brutto a vedersi).
Amd ha tentato 4 anni fa e ci sta riuscendo...nelle CPU...nelle GPU...nelle APU...nei CHIPSET...ed anche nelle GPGPU entro 1-2 anni.
AMD stà facendo molto poco perché da quando Intel s'è ripresa la corona delle CPU coi Core2 AMD vivacchia in ristrettezze.
Nvidia in 4 anni...ha rimarchiato...ha presentato Fermi che nella prima incarnazione è da dimenticare...ha conquistato a pieno titolo il mercato professionale e nel contempo ha completamente perso il mercato dei chipset...è la pioniera del gpcomputig. Nel complesso tenuto conto della sua forza finanziaria in tale periodo...questi risultati, sono insoddisfacenti.
Nonostante non abbia realizzato risultati strategici comparabili ad Amd, è comunque più forte rispetto alla concorrente di allora, che si permise l'acquisto di ATI...ma è anche vero...che il mercato di oggi è molto più agguerrito e denso di novità repentine rispetto al 2006...situazione che se non è stata adeguatamente prevista da Nvidia, può seriamente creare...
delle fondamenta ambiziose, per un castello di carta.
Il passato è denso di nomi altisonanti crollati sotto i propri progetti...
Nvidia compresa...fallita ed acquistata all'asta o in un accordo preventivo ante fallimento (non ricordo bene)...perchè cercò "ambiziosamente" di fare le scarpe, tra le altre cose, anche a creative labs.
Condivido, e non capisco perché anziché continuare a sviluppare un unico progetto polivalente (usabile come GPU e come GPGPU) che "perde" a causa dell'eccessiva flessibilità non separino i progetti e sviluppino GPGPU puramente "di calcolo" e GPU un po'meno altisonanti che però fanno onestamente il loro lavoro (come l'8800, un capolavoro che gli ha messo il pane in tavola per anni).
ConteZero
22-06-2010, 15:38
vero e falso.
é vero perchè su strada...si è scelto di programmare il materiale ludico seguendo l'ispirazione Nvidia...in tal senso, 1 SP verde...corrisponde alle prestazioni di ben 4SP rosse, fermo restando tutte le altre variabili.
L'approccio delle SP di Ati è differente (è materiale di anni fa...preistoria)...ricordo solo, che se fosse stata abbracciata dai programmatori, 2SP rosse...avrebbero reso come 3SP verdi ;)
Molto più semplicemente le SP "verdi" erano meno potenti ma più versatili degli "agglomerati" "rossi", e chi sviluppa i giochi (su PC) si preoccupa più di sbrigarsi prima che di ottimizzare (e poi ottimizzare per ATi voleva dire legare la resa ad una particolare piattaforma, al di fuori della quale il gioco avrebbe reso troppo poco).
Peraltro mi pare che il paradigma ATi sugli SP sia rimasto lo stesso (con tanto di "se fai un branch ed ogni ramo richiede 100T il tempo totale d'esecuzione è di 200T") e questa è un architettura buona per cose "basse" su codice a base di calcolo pesante e pochissimi branch, non certo una cosa adatta per fare accelerazioni serie.
Sono giorni (specie da quando ATi ha ritirato fuori Fusion) che dico che non è strada che spunta usare 'sti cosi per farci qualcosa di complesso, il top delle risposte è stato che sono meglio degli SPE che sono buoni solo per il calcolo vettoriale :doh:
beh, non è che sia poi una piccolezza, considerando quanto va già ora con 1600sp la 5870
Mi spiego in parole povere...Prendi una 4870 la miniaturizzi a 40nm e crei un blocchetto di transistors.
A questo punto...prendi due blocchetti come sopra, li unisci tramite un bus specifico e li condisci con un altro pizzico di transistors (directx 11...e altre diavolerie)...e dal fornetto esce magicamente una splendida 5xxx.
La 6xxx a 28nm presumibilmente...sarà formata da 3 o 4 blocchetti di cui sopra, magari con qualche pizzico di transistors in più...sempre che vengano confermate le voci di corridoio del momento.
I costi per questi passaggi grazie alla miniaturizzazione, ed alla completa ammortizzazione del progetto originale (2900)...consentono ad ATI di offrire al mercato prodotti competitivi ad un costo industriale decisamente risibile. Economie di scala inarrivabili ed oggettivamente incontrastabili dalla concorrenza sotto il profilo prezzo/prestazioni...almeno per tutto il 2011.
Se Fermi a 28nm nel 2011 potrà essere concorrenziale sotto il profilo delle prestazioni con 6xxx (è tutto da vedere)...ad Ati sarà sufficiente abbassare il prezzo per ristabilire gli equilibri. Ed anche ad un prezzo più basso, ogni 6xxx che Ati piazzerà renderà il doppio, triplo o forse più...di ogni Fermi venduta.
Nel caso inverso...Nvidia comincerà a piangere e di brutto. Perchè se è vero che 6xxx sarà una semplice revision di 5xxx (dopo un risultato inferiore alle aspettative delle vendite di Fermi nel 2011)...ATI presenterà il vero antagonista di Fermi...e allora nel 2012...ne vedremo delle belle.
ConteZero
22-06-2010, 16:07
Mi spiego in parole povere...Prendi una 4870 la miniaturizzi a 40nm e crei un blocchetto di transistors.
A questo punto...prendi due blocchetti come sopra, li unisci tramite un bus specifico e li condisci con un altro pizzico di transistors (directx 11...e altre diavolerie)...e dal fornetto esce magicamente una splendida 5xxx.
La 6xxx a 28nm presumibilmente...sarà formata da 3 o 4 blocchetti di cui sopra, magari con qualche pizzico di transistors in più...sempre che vengano confermate le voci di corridoio del momento.
I costi per questi passaggi grazie alla miniaturizzazione, ed alla completa ammortizzazione del progetto originale (2900)...consentono ad ATI di offrire al mercato prodotti competitivi ad un costo industriale decisamente risibile. Economie di scala inarrivabili ed oggettivamente incontrastabili dalla concorrenza sotto il profilo prezzo/prestazioni...almeno per tutto il 2011.
Se Fermi a 28nm nel 2011 potrà essere concorrenziale sotto il profilo delle prestazioni con 6xxx (è tutto da vedere)...ad Ati sarà sufficiente abbassare il prezzo per ristabilire gli equilibri. Ed anche ad un prezzo più basso, ogni 6xxx che Ati piazzerà renderà il doppio, triplo o forse più...di ogni Fermi venduta.
Nel caso inverso...Nvidia comincerà a piangere e di brutto. Perchè se è vero che 6xxx sarà una semplice revision di 5xxx (dopo un risultato inferiore alle aspettative delle vendite di Fermi nel 2011)...ATI presenterà il vero antagonista di Fermi...e allora nel 2012...ne vedremo delle belle.
Oggi come oggi "il meglio" sarebbe una bella 5xxx di fascia alta per il rendering 3D ed una Fermi per l'accelerazione fisica e compagnia bella.
secondo il mio modesto parare Fermi è una ottima architettura infatti la gtx470 è una skeda che è ottima per un prezzo di 280-300€ il discorso cambia con la gtx480 e la gtx485 che consumano decisamente troppo ma cmq stare a vedere nel 2011 e nel 2012 cosa farenno ati e nvidia
kliffoth
22-06-2010, 16:38
secondo il mio modesto parare Fermi è una ottima architettura infatti la gtx470 è una skeda che è ottima per un prezzo di 280-300€ il discorso cambia con la gtx480 e la gtx485 che consumano decisamente troppo ma cmq stare a vedere nel 2011 e nel 2012 cosa farenno ati e nvidia
Anche io penso che Fermi sia interessantissimo.
Tuttavia la sua implementazione mi sembra terribile.
Migliorerà, verrà magari perfezionato in seguito e probabilmente servirà da base per generazioni future (se non erro l'attuale serie 5xxx di AMD è nipote della HD2900) insomma staremo a vedere.
Chiaramente oggi nVidia ha questo e questo vende, inutile dire "dovrebbe" o "non dovrebbe" fare...un progetto del genere costa moltissimo sia in termini di tempo sia in termini di denaro.
Le prime indiscrezioni sulla serie 6xxx di AMD parlano di una attenzione ancora maggiore ai consumi
chissà di che flop parlano i rossi, dato che le 470 e le 480 vanno via come il pane...
imo, è più probabile un nome tipo 490 per un modello a 521 sp, e viste le rese piuttosto basse costerà un occhio. Da attendere al prossimo die shrink però.
Le schede ATI costano meno e consumano meno, ma offrono meno in prestazioni e non hanno nessuna feature aggiuntiva degna di nota oltre a quella vaccata di eyeinfinity, niente 3D, niente physx, niente cuda, tassellatore nettamente inferiore, AA nettamente inferiore, sembrano vga di 10 anni fa solo più veloci.
kliffoth
22-06-2010, 16:49
chissà di che flop parlano i rossi, dato che le 470 e le 480 vanno via come il pane...
imo, è più probabile un nome tipo 490 per un modello a 521 sp, e viste le rese piuttosto basse costerà un occhio. Da attendere al prossimo die shrink però.
Le schede ATI costano meno e consumano meno, ma offrono meno in prestazioni e non hanno nessuna feature aggiuntiva degna di nota oltre a quella vaccata di eyeinfinity, niente 3D, niente physx, niente cuda, tassellatore nettamente inferiore, AA nettamente inferiore, sembrano vga di 10 anni fa solo più veloci.
tu si che sei un lettore attento ai dati e alle notizie
ma che razza di covo di fanboy è questo 3d?
solite battutine, insinuazioni..... andiam bene
la serie 4xx è un flop? :rolleyes:
Blackcat73
22-06-2010, 16:58
@Elrim Ati dagli ultimi dati (fa un po schifo da leggere) ha spedito 11milioni di schede dx11 nvidia sarà sulle centinaia di migliaia vedi un po' tu chi ha venduto come il pane...
AMD stà facendo molto poco perché da quando Intel s'è ripresa la corona delle CPU coi Core2 AMD vivacchia in ristrettezze.
I Core2Duo e tutte le famiglie di CPU a seguire...sono solo il frutto di pratiche commerciali scorrette. Ad Intel spetterebbe solo la corona di re delle prigioni.
Se Amd avesse avuto, in un clima sano, la possibilità di agire naturalmente con i successori dell'Athlon...Intel oggi, probabilmente, si chiamerebbe Amd.
[/QUOTE]Condivido, e non capisco perché anziché continuare a sviluppare un unico progetto polivalente (usabile come GPU e come GPGPU) che "perde" a causa dell'eccessiva flessibilità non separino i progetti e sviluppino GPGPU puramente "di calcolo" e GPU un po'meno altisonanti che però fanno onestamente il loro lavoro (come l'8800, un capolavoro che gli ha messo il pane in tavola per anni).[/QUOTE]
Torniamo indietro...
Sul finire del 2005...AMD era allo sfascio, tutti i suoi progetti distrutti...dai comportamenti mafiosi di altri grandi nomi. Si è trovata di fronte ad un bivio: chiudere subito...oppure continuare sperando che le commissioni di tutto il pianeta fermassero gli atteggiamenti scorretti di qualcuno, prima del fallimento...o perlomeno resistere...svendendo le FAB...tagliando posti di lavoro...elemosinando finanziamenti...a testa bassa. Arriva il principe azzurro...che crede in Amd...finanzia...e si riparte, addirittura...scalando ATI. Siamo esattamente a 4 anni fa.
Noi non lo sappiamo...i vertici Intel e Nvidia di allora...gli sciocchi, da un lato si sono fatti risate colossali...i tosti, dall'altro lato se la sono fatta sotto.
A quel punto...Intel aveva le mani legate, una fusione di questo tipo non era prevista...era convinta che Amd fosse sull'orlo del baratro. Intel era in un angolo...non poteva certo acquisire Nvidia, e altri brand di minor conto non potevano equilibrare il know-how di ATI. Non poteva neppure cambiare i progetti in corso...le strategie aziendali in colossi del genere, richiedono anni per essere materializzati (vedi Larrabee)...le cause cominciavano a infastidirla come il ronzio delle zanzare...ed anche Nvidia cominciò a rompere.
Quest'ultima era talmente crogiolata sugli allori...offesa da Intel per i chipset...che mancò si degnò di prendere in considerazione il FATTO.
Tutti speravano...che Amd affogasse. Intel avrebbe avuto il mercato CPU ed Nvidia il GPU...felici e contenti.
Nvidia...era l'unica che poteva rispondere ed adeguarsi...era forte, molto forte almeno quanto arrogante e presuntuosa. Pigramente...decise di continuare nella sua strada...a fare soldi...e GPU. Nvidia a distanza di qualche mese, si convinse...che il GPGPU...poteva fare le scarpe sia al polo AMD/ATI (all'epoca era alla frutta), sia allo strapotere Intel che pur con finanze mirabolanti, non era e ancora oggi non è, in grado di adeguarsi al know-how necessario per contrastare Amd e Nvidia stessa: sul finire del 2006 nasce il progetto GPGPU. Un progetto "nascosto"...che richiede notevoli investimenti...non quantificabili in fusioni aziendali, FAB o quant'altro di palpabile. Nel 2007 i giochi sono fatti e i percorsi segnati...Nvidia deve fare cassa per autoalimentare il GPGPU...e per creare un notevole risparmio: scorte che serviranno per rimanere in piedi qualche anno...perchè già allora, si sapeva che Fermi avrebbe potuto non rendere un centesimo per diverso tempo. Ecco allora, la giostra dei re-brand...l'uscita dal mercato dei chipset e da tutto ciò che non riguardi prettamente le GPGPU.
Nvidia ha scelto il percorso più scontato. Ovvero ciò che sà fare meglio.
Intel può e saprà difendersi bene per parecchio tempo.
Amd è strategicamente la migliore in campo, ma gode di scarse finanze.
Proiezione futura 2011-2015:
In caso il GPGPU prenderà piede Nvidia ne uscirà vittoriosa con Amd che l'inseguirà a debita distanza...ciao ciao ad Intel.
In caso contrario...Nvidia sparirà, ed Intel si ridimensionerà notevolmente...il tutto...a vantaggio del polo AMD/ATI. (chi lo sà...magari come risposta...assisteremo ad un connubio Intel/Nvidia)
La finestra temporale è forse troppo piccola per far si che abbiano luogo questi due scenari limite...ma rende bene l'idea ;) c'è solo un nome che a prescindere da ogni situazione, saprà difendersi e rimanere in piedi con sicurezza.
Bulldozer, Fusion, 6xxx...sono alle porte...
Intel...Nvidia...ognuna delle due, non può rispondere globalmente a tanto impeto...Punto.
Scusa lo sfogo :doh:
Secondo me voi state sbagliando tutto, semplicemente per un motivo: ATI, come ha annunciato più di una volta, punta a sfornare schede con consumi ridotti ed un prezzo umano, sacrificando le prestazioni; NVIDIA dei consumi e del prezzo non se ne frega nulla, perchè punta semplicemente alle prestazioni. Ora voi direte "ma cosa ci guadagna a fare così?", semplice! Ci guadagna il fatto che ci sarà sempre l'utente enthusiast disposto a cacciare fior di quattrini per fare sistemi sli, triple-sli e quad-sli.
Sono come due treni che viaggiono sugli stessi binari ma per mete differenti. Quindi è inutile fare tutti questi confronti e dire che un'architettura è migliore dell'altra ecc ecc... Sia ATI che NVIDIA hanno fatto delle belle schede, spetta solo all'utente saper scegliere quale è la migliore per le sue esigenze.
Blackcat73
22-06-2010, 17:16
Si certo kerlok una vende patatine e l'altra coca cola..
ConteZero
22-06-2010, 17:16
Siamo parecchio OT ma al di fuori di quello che combinano due multinazionali che in genere producono più soldi in una settimana (di fiacca) di quanti io non ne possa guadagnare in tutta la vita a me interessa quello che il mercato offre.
AMD s'è fatta sorpassare da Intel ai tempi del C2D 6600 e da allora è sempre rimasta indietro.
NVidia, ATi, fusioni, cazzabubuli ok... ma la storia quella è.
ATi, dopo un orribile 2xxx è riuscita, fra die shrink e marketing, a riguadagnare la fiducia del mercato, ma stà tirando avanti sempre la stessa tecnologia pure lei... e nonostante sia fikissima quando parla di Fusion e similia quell'architettura è buona per una cosa: la grafica.
Usarla per altro ha poco senso e questo lascia ATi decisamente "indietro" nei confronti di nVidia.
Sull'altro versante nVidia avrà tirato fuori (con notevole ritardo) un mostriciattolo, ma onestamente ci si aspettava di più (o di meno, se si parla di consumi).
Che NV sia capace di battere ATi coi modelli di punta è noto, il fatto è che beh... per i costi a cui viene questa "vittoria" non ne vale la pena...
...ma come nVidia dovrebbe iniziare a DIFFERENZIARE fra GPGPU e GPU ATi dovrebbe iniziare a progettarle proprio le GPGPU...
...o magari farsi licenziare un architettura adatta allo scopo (tipo SPE).
kliffoth
22-06-2010, 17:18
I Core2Duo ...
Sul finire del 2005...
Scusa lo sfogo :doh:
non dimenticare mai che AMD ha IBM alle spalle.
Certo le pratiche scorrette sono state una piaga, perchè pur essendo gli Athlon eccellenti, hanno venduto relativamente poco, certo la supervalutazione di ATI è stato un altro errore...ma alla fin fine è una società come le altre.
Non capisco perchè parlando di questa gente e di pezzi di silicio si tenda a fare discorsi morali.
Sia come sia, bisogna giocare con quello che c'è in tavola, ed oggi il comparto video di AMD è eccellente (soprattutto poi nel mobile dove hanno ampiamente superato nVidia), i chipset sono davvero buoni ...ma i processori non proprio (ottimo progetto ma pessima implementazione - molte soluzioni sono anche nei core i-x -...quello che ho detto prima per Fermi).
Poi ognuno si regola come vuole.
Un esempio: se dovessi scegliere un processore oltre chiaramente al core i7 penserei ad un phenom II x6 perchè uso molto i programmi di scacchi, e questo processore compensa l'architettura meno efficiente con 2 core in più (nello specifico con Fritz il Phenom II x6 rende meglio di un i5 750 e di un i3 930 http://en.inpai.com.cn/doc/enshowcont.asp?id=7653&pageid=7034 http://en.inpai.com.cn/doc/enshowcont.asp?id=7681&pageid=7198 ). Certo nei normali videogiochi e per latre cose è migliore la proposta intel, ma per questo uso specifico, per me prioritario, potrei risparmiare bei soldini
PeGaz_001
22-06-2010, 17:21
wow... 375w?? .... mi sa che si esagera .. e parlo da possessore di 2 gtx 480 .... :O
chissà di che flop parlano i rossi, dato che le 470 e le 480 vanno via come il pane...
imo, è più probabile un nome tipo 490 per un modello a 521 sp, e viste le rese piuttosto basse costerà un occhio. Da attendere al prossimo die shrink però.
Le schede ATI costano meno e consumano meno, ma offrono meno in prestazioni e non hanno nessuna feature aggiuntiva degna di nota oltre a quella vaccata di eyeinfinity, niente 3D, niente physx, niente cuda, tassellatore nettamente inferiore, AA nettamente inferiore, sembrano vga di 10 anni fa solo più veloci.
ecco il mio IMHO...
vanno come il pane...è naturale...considerato che Nvidia ha aumentato le proprie quote di mercato durante il primo trimestre 2010 con delle schede ciofeche...trovo ovvio che gli stessi utenti (per fortuna pochi) le abbiano buttate per acquistare il "pane" nuovo.
Ecco bravo...aspetta il die shrink...ma a partire dalla 470/480.
per sparare a caso...cerca almeno di consigliare il GF104, perlomeno, ti rendi più credibile.
Physx e Cuda se non diventano completamente OPEN...fra non molto saranno dimenticate...e sprofondate nell'oblio. Nel dubbio mi terrei una 275/285 ben stretta, prima di sprecare dei soldi.
Costano meno, consumano meno...ma si overcloccano parecchio di più...e raggiungono le Fermi.
Queste ultime, in tal senso, sono appannaggio degli amanti del brand...e ovviamente...a chi non si capisce di overclock "reference"...e pure poco di comfort, visto che solo un sordo può consigliarne l'acquisto per inserirlo in PC formato freezer.
Se uno poi...ha le disponibilità finanziarie per comprarsi una 480 e dotarla di raffreddamento a liquido o peggio...buon per lui. Ma qui si parla di marchi e di schede al TOP o giù di lì...dove si fanno numeri ben superiori che all'esiguo mercato di nicchia. Se avessi soldi da BUTTARE...si...comprerei la 470/480 a liquido...perchè ambisco al meglio assoluto :D
Il tessellatore? e cosa te ne fai?...per quando la tessellation verrà davvero implementata...5xxx e il primo Fermi, saranno dimenticati...ecco un movente sciocco per acquistarla.
AA superiore...si vero...per coglierne le squisitezze...bisogna scendere ad una risoluzione di 640x480...in effetti, uno come te...lo vedo ad acquistare una 470/80 da far girare su un monitor da 14" a tubo catodico...si si...sei il cliente Nvidia adatto. Altro movente sciocco per acquistarla.
Eyefinity può essere utile...non a tutti...e come tale, non è sciocco e non è un movente utile per l'acquisto a chi non ne fa uso...stessa cosa per CUDA.
o il "3D" che citi.
Physx come movente, non è un granchè...basta accoppiare una FIAMMANTE Ati con una vecchia scheda MULETTO Nvidia...30 euro al max.
Anzi...manco quelli...per il supporto che avrà in futuro, se Nvidia non cambia atteggiamento...oggi non ne vale nemmeno 3.
Alla fine ti sei tradito...e ne hai detta una giusta:
ad Ati è sufficiente una tecnologia vecchia di 10 anni...per essere competitiva con la tecnologia di OGGI di tanti altri brand...dico bene? :ciapet:
Ogni tanto mi domando...ma sono l'unico che ha visto nel web le slide che ridicolizzano le 470/480??? :D e quelle che si prendono gioco delle schede Ati invece dove sono? Probabilmente...avrò il monitor guasto! :rolleyes:
A distanza di quasi un anno dalla presentazione di 5xxx...puoi dire ciò che vuoi...in ogni caso...nel complesso non c'è ancora un "vero" paragone.
Vedremo questo GF104...l'unica alternativa reale...allora si, una 475...potrà essere avvicinata ad una 5850...e non si saprà quale scegliere.
Adone_1985
22-06-2010, 18:11
Mah... Tutto sto crollo nvidia non lo vedo, perlomeno non da me... Le 480 e 470 sono fin troppo vendute... Ci sono esaurite già sei volte
si si ma infatti digli di si, sono dei flop :asd: :asd:
Siamo parecchio OT ma al di fuori di quello che combinano due multinazionali che in genere producono più soldi in una settimana (di fiacca) di quanti io non ne possa guadagnare in tutta la vita a me interessa quello che il mercato offre.
AMD s'è fatta sorpassare da Intel ai tempi del C2D 6600 e da allora è sempre rimasta indietro.
NVidia, ATi, fusioni, cazzabubuli ok... ma la storia quella è.
ATi, dopo un orribile 2xxx è riuscita, fra die shrink e marketing, a riguadagnare la fiducia del mercato, ma stà tirando avanti sempre la stessa tecnologia pure lei... e nonostante sia fikissima quando parla di Fusion e similia quell'architettura è buona per una cosa: la grafica.
Usarla per altro ha poco senso e questo lascia ATi decisamente "indietro" nei confronti di nVidia.
Sull'altro versante nVidia avrà tirato fuori (con notevole ritardo) un mostriciattolo, ma onestamente ci si aspettava di più (o di meno, se si parla di consumi).
Che NV sia capace di battere ATi coi modelli di punta è noto, il fatto è che beh... per i costi a cui viene questa "vittoria" non ne vale la pena...
...ma come nVidia dovrebbe iniziare a DIFFERENZIARE fra GPGPU e GPU ATi dovrebbe iniziare a progettarle proprio le GPGPU...
...o magari farsi licenziare un architettura adatta allo scopo (tipo SPE).
Tutto ok...concordo su tutto...ma la questione che mi premeva far notare è un'altra.
Lasciamo perdere il passato...ciò che è stato nel bene o nel male è stato... Intel, Nvidia o Amd che sia.
Non sono a conoscenza bene della situazione...ma ATI ha in cantiere il GPGPU. La differenza con Nvidia (prestazioni a parte) è che quest'ultima ha SOLO il gpgpu...e cerca di sfruttarlo anche nel mercato consumer, FORSE alla lunga ce la farà...perchè le economie di scala della controparte "povera" di Ati, tenteranno di soffocarla...e con estrema facilità.
Considera che Amd sta sperperando tutto l'utile GPU per mantenere in piedi il mercato CPU ed essere un minimo competitiva con Intel, almeno fino all'arrivo di Bulldozer...dopodichè...ATI, adotterà una politica drastica nei confronti di Nvidia. Senza questi problemi di "gruppo"...una 5850 oggi, sarebbe venduta ben sotto i 200 euro...tanto per fare un esempio. Figuriamoci fra pochi mesi...quando AMD avrà colmato il gap con Intel...e quindi produrrà utile o perlomeno la sezione CPU non avrà bisogno della linfa di ATI (fino all'arrivo della nuova architettura di Intel)...e con l'aggravante che 6xxx potrà garantire il 50% in più delle prestazioni di oggi...praticamente allo stesso costo della generazione precedente...grazie al suo progetto modulare GIA' completamente ammortizzato. Nvidia migliorerà le rese, i consumi, le prestazioni...ma non può fare miracoli. Fermi a 28nm se anche venisse presentato con tutti i 512 SP funzionanti...non potrà rivaleggiare con una ATI dotata di 2400 SP...ovvero...di 3 4870 miniaturizzate a 28nm...per l'utilizzo come oggi noi lo conosciamo.
Nvidia inoltre, non ha una risposta per il mobile di fascia media e alta...rischia seriamente di perdere anche questo mercato. Se il GPGPU non "prende" su larga scala...diventerà una "super" matrox...si ridimensionerà nel mercato professionale e tanti saluti.
Negative_creep
22-06-2010, 18:38
Inutile districarsi in inutili battaglie...Nvidia è caduta, la peggior architettura dai tempi della serie FX è FERMI (è il primo anno che monto un'ATI, sempre avuto Nvidia dalla Geforce 2 MX 32MB), menomale che può contare su tanti polli AIA che sono ancora legati al marchio e non lo smollano finchè Nvidia fallisce.
Certo che siete proprio strani eh? In prestazioni/consumi e PREZZO...cioè ma dico PREZZO, le Nvidia sono la peggior scelta in questi ultimi 2 anni (dopo la serie 8800 Nvidia è crollata con tutti i suoi fanboy, secondo me la serie 8xxx di Nvidia è la miglior serie di sempre prodotta dalla casa, sono ottime schede ancora oggi) ma già dalle ATI 4xxx il marchio rosso ha messo il suo piede avanti e ora il divario è imbarazzante.
Nvidia è come tutte le altre aziende del settore, se non sei competitiva non vai avanti (ed è giusto che sia così) però ritengo inutile continuare a fare la carità ad un'azienda che non ne merita assolutamente in questo momento (vedi fake Fermi, rebranding, giochi ottimizzati solo per schede Nvidia, Physx come "innovazione" chiusa ecc..)
Contenti voi... http://www.youtube.com/watch?v=V0xX_FfeHmM
sertopica
22-06-2010, 18:47
Inutile districarsi in inutili battaglie...Nvidia è caduta, la peggior architettura dai tempi della serie FX è FERMI (è il primo anno che monto un'ATI, sempre avuto Nvidia dalla Geforce 2 MX 32MB), menomale che può contare su tanti polli AIA che sono ancora legati al marchio e non lo smollano finchè Nvidia fallisce.
Certo che siete proprio strani eh? In prestazioni/consumi e PREZZO...cioè ma dico PREZZO, le Nvidia sono la peggior scelta in questi ultimi 2 anni (dopo la serie 8800 Nvidia è crollata con tutti i suoi fanboy, secondo me la serie 8xxx di Nvidia è la miglior serie di sempre prodotta dalla casa, sono ottime schede ancora oggi) ma già dalle ATI 4xxx il marchio rosso ha messo il suo piede avanti e ora il divario è imbarazzante.
Nvidia è come tutte le altre aziende del settore, se non sei competitiva non vai avanti (ed è giusto che sia così) però ritengo inutile continuare a fare la carità ad un'azienda che non ne merita assolutamente in questo momento (vedi fake Fermi, rebranding, giochi ottimizzati solo per schede Nvidia, Physx come "innovazione" chiusa ecc..)
Contenti voi... http://www.youtube.com/watch?v=V0xX_FfeHmM
Veramente con la serie 4XXX è stata ATi a recuperare terreno nei confronti di nVidia, arrivando al pareggio, dopo un periodo in cui la serie 8 spopolava e vinceva su tutti i fronti. GT200 è stato un ottimo chip, anche se non ha introdotto novità sostaziose.
Come al solito in sezione news, quando si parla di nVidia, si comincia a vomitare bile senza sosta, fortunatamente ci sono anche interventi sensati e non da tifoseria, che considerano la situazione in un quadro più vasto.
Da possessore di una GTX470 non posso assolutamente lamentarmi, le temperature sono buone (più alte rispetto ad ATi sicuramente) e le prestazioni sono d'altissimo livello; inoltre, con i nuovi driver, arrivano quasi a quelle di una 5870, con un prezzo più basso. Io non parlerei tanto di flop. Molti di voi parlano e neanche le hanno provate...
Molto più semplicemente le SP "verdi" erano meno potenti ma più versatili degli "agglomerati" "rossi", e chi sviluppa i giochi (su PC) si preoccupa più di sbrigarsi prima che di ottimizzare (e poi ottimizzare per ATi voleva dire legare la resa ad una particolare piattaforma, al di fuori della quale il gioco avrebbe reso troppo poco).
Peraltro mi pare che il paradigma ATi sugli SP sia rimasto lo stesso (con tanto di "se fai un branch ed ogni ramo richiede 100T il tempo totale d'esecuzione è di 200T") e questa è un architettura buona per cose "basse" su codice a base di calcolo pesante e pochissimi branch, non certo una cosa adatta per fare accelerazioni serie.
Sono giorni (specie da quando ATi ha ritirato fuori Fusion) che dico che non è strada che spunta usare 'sti cosi per farci qualcosa di complesso, il top delle risposte è stato che sono meglio degli SPE che sono buoni solo per il calcolo vettoriale :doh:
Grazie della delucidazione...ricordavo a spanne che ATi era migliore in certi frangenti...Nvidia in altri. Comunque sia, il rapporto al lato pratico è 4 a 1 circa a favore della seconda.
Fusion...a mio parere...è stato parecchio gonfiato. L'unica prospettiva sicura che può vantare...è quella di stravolgere il mercato mobile.
Intel per quanto si sforzi...non può competere se non aggregando una scheda discreta che guardacaso, è sempre di Amd. Anche così facendo, i costi lieviterebbero a vantaggio della rivale.
In tutte le situazioni possibili...poco o tanto, Intel perderà notevoli quote di mercato nella fascia media e bassa.
Sul Fusion 2 che sicuramente...sarà "più fusion" dell'attuale...staremo a vedere...è tutto embrionale, inutile fare previsioni.
ConteZero
22-06-2010, 18:52
Spero che la soluzione GPGPU di AMD non sia Fusion, perché in quel caso ho una brutta notizia da darti... sembra proprio che siano gli stessi stream processor delle ATi "grafiche"... tant'è che al di fuori del vaporware se ne parla come di un modo per fare notebook più economici (non ci metti la scheda video).
Negative_creep
22-06-2010, 19:01
Veramente con la serie 4XXX è stata ATi a recuperare terreno nei confronti di nVidia, arrivando al pareggio, dopo un periodo in cui la serie 8 spopolava e vinceva su tutti i fronti. GT200 è stato un ottimo chip, anche se non ha introdotto novità sostaziose.
Ha recuperato e anche distaccato soprattuto la 4870 come rapporto qualità/prezzo. La migliore della serie allora era GTX295 ma non come prezzo...
Come al solito in sezione news, quando si parla di nVidia, si comincia a vomitare bile senza sosta, fortunatamente ci sono anche interventi sensati e non da tifoseria, che considerano la situazione in un quadro più vasto.
Da possessore di una GTX470 non posso assolutamente lamentarmi, le temperature sono buone (più alte rispetto ad ATi sicuramente) e le prestazioni sono d'altissimo livello; inoltre, con i nuovi driver, arrivano quasi a quelle di una 5870, con un prezzo più basso. Io non parlerei tanto di flop. Molti di voi parlano e neanche le hanno provate...
Vomita tu invece sulla scheda che hai comprato...Le temperature sono buone se hai il case aperto e abiti a 50 metri sottoterra.Me lo dicesse uno che ha un'ATI 5850/5870 posso anche capirlo, ma tu sei nettamente di parte.
Adone_1985
22-06-2010, 19:04
Ha recuperato e anche distaccato soprattuto la 4870 come rapporto qualità/prezzo. La migliore della serie allora era GTX295 ma non come prezzo...
Vomita tu invece sulla scheda che hai comprato...Le temperature sono buone se hai il case aperto e abiti a 50 metri sottoterra.Me lo dicesse uno che ha un'ATI 5850/5870 posso anche capirlo, ma tu sei nettamente di parte.
Ma a te chi te fa parlà....:rolleyes:
e poi che scheda video hai scusa?
sertopica
22-06-2010, 19:05
Ha recuperato e anche distaccato soprattuto la 4870 come rapporto qualità/prezzo. La migliore della serie allora era GTX295 ma non come prezzo...
Si parla di single GPU... La GTX285 te la sei scordata?
Vomita tu invece sulla scheda che hai comprato...Le temperature sono buone se hai il case aperto e abiti a 50 metri sottoterra.Me lo dicesse uno che ha un'ATI 5850/5870 posso anche capirlo, ma tu sei nettamente di parte.
Se vabbé... Te saluto!!
Neanche mi conosci e ti permetti di giudicare. Hai dimostrato su quale piano vuoi intavolare un discorso. Chiudo qui.
Sia come sia, bisogna giocare con quello che c'è in tavola, ed oggi il comparto video di AMD è eccellente (soprattutto poi nel mobile dove hanno ampiamente superato nVidia), i chipset sono davvero buoni ...ma i processori non proprio (ottimo progetto ma pessima implementazione - molte soluzioni sono anche nei core i-x -...quello che ho detto prima per Fermi).
Poi ognuno si regola come vuole.
Un esempio: se dovessi scegliere un processore oltre chiaramente al core i7 penserei ad un phenom II x6 perchè uso molto i programmi di scacchi, e questo processore compensa l'architettura meno efficiente con 2 core in più (nello specifico con Fritz il Phenom II x6 rende meglio di un i5 750 e di un i3 930 http://en.inpai.com.cn/doc/enshowcont.asp?id=7653&pageid=7034 http://en.inpai.com.cn/doc/enshowcont.asp?id=7681&pageid=7198 ). Certo nei normali videogiochi e per latre cose è migliore la proposta intel, ma per questo uso specifico, per me prioritario, potrei risparmiare bei soldini
esattamente...il denaro speso per un utilizzo ad hoc...è il miglior investimento possibile. Personalmente, per quanto possa essermi antipatica Intel...nel momento del bisogno...con 60 euro, all'epoca non esisteva niente di equamente comparabile in casa Amd.
Stesso discorso per Nvidia e Ati.
Le simpatie...IMHO hanno un senso solo per scegliere...a parità di spesa, offerta e potenziale.
Detto ciò...questa 485...non la consiglierei manco al mio peggior nemico :D
Spero che la soluzione GPGPU di AMD non sia Fusion, perché in quel caso ho una brutta notizia da darti... sembra proprio che siano gli stessi stream processor delle ATi "grafiche"... tant'è che al di fuori del vaporware se ne parla come di un modo per fare notebook più economici (non ci metti la scheda video).
In pratica...hai rivoluzionato le mie parole...dando il medesimo senso :D
Infatti è così...Fusion è un semplice Phenom II con accoppiata una "super" 3870...dai consumi irrisori...quanto basta per stracciare le controparti Intel.
E se tanto mi dà tanto...in un eventuale (non lo darei per scontato) ambito GPGPU...
sarà un vero fiasco...almeno fino a delle discrete ottimizzazioni...ma ne deve scorrere di acqua...sotto ai ponti.
Io direi che il layout "Fermi based" visto in questi giorni:
http://www.hardwareluxx.de/images/stories//galleries/news/astegmueller/2010/fbykj-gtx480-pcbneu-01/fbykj_gtx480_8_phasen-01.jpg
assomiglia più uno studio di Msi per una futura Lightning (quindi 2x 8pin e 2 fasi in più digitali di qualità) che un progetto reference Nvidia sulla GTX485 con 512SU.
Che poi quest'ultima possa uscire prima o poi, sarebbe anche ora.
io concordo pienamente con sertopica la gtx470 dispone di una potenza molto vicini alla 5870 (in alcuni gioki la supera anke) costa 30-40€ in meno e skalda come qualsiasi gpu di quel calibro, molti utenti che usano una gtx470 dichiarano che stà sui 75-78° con la ventola al 75-80% sotto crysis quindi io sinceramente credo molto di più a loro che hai test dove ci sparano 100° il discorso cambia per la gtx480 e la futura gtx485
per il resto staremo a vedere cosa farà nvidia e staremo a vedere cosa farà nvidia quando ati presenterà la serie 6xxx
sertopica
22-06-2010, 19:41
io concordo pienamente con sertopica la gtx470 dispone di una potenza molto vicini alla 5870 (in alcuni gioki la supera anke) costa 30-40€ in meno e skalda come qualsiasi gpu di quel calibro, molti utenti che usano una gtx470 dichiarano che stà sui 75-78° con la ventola al 75-80% sotto crysis quindi io sinceramente credo molto di più a loro che hai test dove ci sparano 100° il discorso cambia per la gtx480 e la futura gtx485
per il resto staremo a vedere cosa farà nvidia e staremo a vedere cosa farà nvidia quando ati presenterà la serie 6xxx
Occhio però... Ci sono esemplari fortunati dove non si superano praticamente mai gli 80° sotto OC (come nel mio caso, senza OC non supero i 76 neanche con Crysis), ed altri in cui la scheda scalda e consuma molto di più e si arriva tranquillamente ai 90° se non si regola la ventola manualmente. Avendo posseduto sia la scheda "sfortunata" che quella "fortunata" posso dire che tutto dipende dal pezzo di wafer in silicio che ti capita.
Adone_1985
22-06-2010, 19:44
Ecco le mie con SLI, overclock e overvolt....
http://img716.imageshack.us/img716/8554/immaginehw.th.png (http://img716.imageshack.us/i/immaginehw.png/)
ah dimenticavo, Case mediocre, e il case conta moltissimo
Io direi che il layout "Fermi based" visto in questi giorni assomiglia più uno studio di Msi per una futura Lightning (quindi 2x 8pin e 2 fasi in più digitali di qualità) che un progetto reference Nvidia sulla GTX485 con 512SU.
Che poi quest'ultima possa uscire prima o poi, sarebbe anche ora.
Tempo al tempo...arriverà anche la 512SP. Man mano che le rese miglioreranno, usciranno dagli stabilimenti anche più GPU con tutti i 512 SP funzionanti. Appena avranno un quantitativo sufficiente, la lanceranno sul mercato.
A mio parere...aspetterei comunque i 28nm. Se fossi nel bisogno, oggi acquisterei una 5xxx o una GF104...da rivendere al momento opportuno.
uhmmmm...Questo mostriciattolo di 485 prometterà molto bene :D
Luiprando
22-06-2010, 19:45
quasta guerra ATI vs nVidia assomiglia sempre di più alla console war tra Sony e Microsoft... la verità è che può parlare solo chi ha provato le schede in questione tutto il resto è solo sproloquio da fanboy.
io mi sono trovato bene sia con ATI che con nVidia, una pecca da un lato ed migliore in un'altro e viceversa... odio parlare per partito preso e sinceramente reputo chi lo fà solo figlio dell'ignoranza, questo vale per tutti i campi.
detto ciò io con la mia gtx 470 mi trovo benissimo sia per temperature che per rumore (anche perchè gioco esclusivamente con le cuffie 5.1) ma soprattuto per la facilità di OC che ha la scheda che la rende a mio parere estremamente versatile...
Adone_1985 la tua immagine si vede piccola
Ribadisco che è inutile parlare di queste cose, anche perchè, volente o nolente, i fan boy si sentono sempre feriti nell'orgoglio quando si parla male del loro marchio (sia ATI che NVIDIA)... Come ho già detto (con la risposta, direi alquanto stupida, da parte di un utente) sono due marchi che quando producono schede video puntano ad obiettivi differenti. Una cerca di dare le miglior prestazioni al prezzo più basso possibile, l'altra da prestazioni molto elevate a discapito del prezzo.
Tempo al tempo...arriverà anche la 512SP. Man mano che le rese miglioreranno, usciranno dagli stabilimenti anche più GPU con tutti i 512 SP funzionanti. Appena avranno un quantitativo sufficiente, la lanceranno sul mercato.
A mio parere...aspetterei comunque i 28nm. Se fossi nel bisogno, oggi acquisterei una 5xxx o una GF104...da rivendere al momento opportuno.
uhmmmm...Questo mostriciattolo di 485 prometterà molto bene :D
Io non nessuna fretta di upgrade: ho deciso da tempo di saltare in toto questi mediocri 40nm di TSMC.
Ai 28nm se ne riparla: Fermi 2 o NI poco importa ;)
sertopica
22-06-2010, 19:53
Adone_1985 la tua immagine si vede piccola
Forse ci devi cliccare sopra... :D
Ribadisco che è inutile parlare di queste cose, anche perchè, volente o nolente, i fan boy si sentono sempre feriti nell'orgoglio quando si parla male del loro marchio (sia ATI che NVIDIA)... Come ho già detto (con la risposta, direi alquanto stupida, da parte di un utente) sono due marchi che quando producono schede video puntano ad obiettivi differenti. Una cerca di dare le miglior prestazioni al prezzo più basso possibile, l'altra da prestazioni molto elevate a discapito del prezzo.
Quoto. Ognuno ha le proprie esigenze ed il proprio target di scheda.
Adone_1985
22-06-2010, 19:54
Adone_1985 la tua immagine si vede piccola
per zommare apri la pagina a tutto schermo, sennò non fa lo zoom;)
Adone_1985
22-06-2010, 19:56
Ribadisco che è inutile parlare di queste cose, anche perchè, volente o nolente, i fan boy si sentono sempre feriti nell'orgoglio quando si parla male del loro marchio (sia ATI che NVIDIA)... Come ho già detto (con la risposta, direi alquanto stupida, da parte di un utente) sono due marchi che quando producono schede video puntano ad obiettivi differenti. Una cerca di dare le miglior prestazioni al prezzo più basso possibile, l'altra da prestazioni molto elevate a discapito del prezzo.
hai detto tutto quoto
questo lo so, ma mi rimane piccola cmq amen
Adone_1985
22-06-2010, 20:02
questo lo so, ma mi rimane piccola cmq amen
azz aspetta un po' prima di cliccarci sopra a volte a me fa così;)
Adone_1985
22-06-2010, 20:03
(http://img716.imageshack.us/i/immaginehw.png/)
Negative_creep
22-06-2010, 20:10
Si parla di single GPU... La GTX285 te la sei scordata?
Che c'entra si parla di single gpu? Ho citato da GTX295 semplicemente perchè era il top al tempo, mentre le altre comunque non convenivano. La GTX285 (ossia GTX280 overcloccata) era un buona scheda, ma troppo costosa per le prestazioni che offriva.
Se vabbé... Te saluto!!
Neanche mi conosci e ti permetti di giudicare. Hai dimostrato su quale piano vuoi intavolare un discorso. Chiudo qui.
A già perchè tu invece che dice "quando si parla di nVidia, si comincia a vomitare bile senza sosta, fortunatamente ci sono anche interventi sensati e non da tifoseria, che considerano la situazione in un quadro più vasto." mi conosci? Chiudo qui.
Adone_1985
22-06-2010, 20:11
Che c'entra si parla di single gpu? Ho citato da GTX295 semplicemente perchè era il top al tempo, mentre le altre comunque non convenivano. La GTX285 (ossia GTX280 overcloccata) era un buona scheda, ma troppo costosa per le prestazioni che offriva.
A già perchè tu invece che dice "quando si parla di nVidia, si comincia a vomitare bile senza sosta, fortunatamente ci sono anche interventi sensati e non da tifoseria, che considerano la situazione in un quadro più vasto." mi conosci? Chiudo qui.
tu che scheda hai??
Adone_1985
22-06-2010, 20:12
quella integrata??
Blackcat73
22-06-2010, 20:46
io concordo pienamente con sertopica la gtx470 dispone di una potenza molto vicini alla 5870 (in alcuni gioki la supera anke) costa 30-40€ in meno e skalda come qualsiasi gpu di quel calibro, molti utenti che usano una gtx470 dichiarano che stà sui 75-78° con la ventola al 75-80% sotto crysis quindi io sinceramente credo molto di più a loro che hai test dove ci sparano 100° il discorso cambia per la gtx480 e la futura gtx485
per il resto staremo a vedere cosa farà nvidia e staremo a vedere cosa farà nvidia quando ati presenterà la serie 6xxx
A voi pare normale dover avere la ventola all'80% quando con la mia 5850 (non oc) quando gioco non va oltre il 30-40%?
Cioè si bello dire abbiamo temperature normali e poi scopri che c'è un elicottero sopra...
Adone_1985
22-06-2010, 20:49
A voi pare normale dover avere la ventola all'80% quando con la mia 5850 (non oc) quando gioco non va oltre il 30-40%?
Cioè si bello dire abbiamo temperature normali e poi scopri che c'è un elicottero sopra...
ma infatti chi è che ha detto che sono silenziose??
abbiamo detto che sono performanti, ed il prezzo e il rumore a me non interessano....poi ognuno può fare la sua scelta, sia ATI che Nvidia...
imho le Ati sono ottime schede, solo che mi sta più simpatica Nvidia e rispetta le mia esigenze (vedi 3D vision)...
siluro85
22-06-2010, 21:40
io non capisco..non ti va bene? fai come me..chiudi la pagina e basta..no bisogna fare flame..mah..:muro: :muro: :muro:
Ale55andr0
22-06-2010, 21:55
, sembrano vga di 10 anni fa solo più veloci.
see, vga che hanno una gpu con un terzo dei transitor e un bus da 256 bit e stanno dietro solo di un 10-15%, in gran parte recuperabile con un overclock e che comunque manterrebbe entro margini inferiori temperature e consumi....si, come no, tecnologia di 10 anni fa
CUDA: non mi serve, io col PC gioco
Schifiszxxxx: ho visto e francamente non perdo nulla di che, tra l'altro facilmente implementabile con motori fisici proprietari
3D: da grande appassionato di home theater ed autostruttore di sistemi di altoparlanti, che ha sempre puntato e sempre punterà alla qualità beh, il 3D sia nei giochi che nei film, lasciamelo dire, se lo ficchino dove dico io...i polli seguiranno questa nuova moda imposta, chi apprezza la qualità, quella vera, se ne impipperà alla grande come faccio io
PS: ho sempre pensato tu fossi un fanboy ma non mi sono mai preso la briga di commentare i tuoi post, ma le cacchiate che hai detto stavolta non le ho rette
Gallone83
22-06-2010, 22:14
E il fallimento continua..... NVIADIA Cambia Progetto!!!! Questa 485 lasciala "Fermi" ahahahah
Gallone83
22-06-2010, 22:22
Originariamente inviato da: ferro10
io concordo pienamente con sertopica la gtx470 dispone di una potenza molto vicini alla 5870 (in alcuni gioki la supera anke) costa 30-40€ in meno e skalda come qualsiasi gpu di quel calibro, molti utenti che usano una gtx470 dichiarano che stà sui 75-78° con la ventola al 75-80% sotto crysis quindi io sinceramente credo molto di più a loro che hai test dove ci sparano 100° il discorso cambia per la gtx480 e la futura gtx485
per il resto staremo a vedere cosa farà nvidia e staremo a vedere cosa farà nvidia quando ati presenterà la serie 6xxx
Mi sembra un pò grossa che la gtx 470 supera la 5870...
fà fatica la 480 a superarla,la distacca di un misero 10-20%.....
Adone_1985
22-06-2010, 22:25
Originariamente inviato da: ferro10
io concordo pienamente con sertopica la gtx470 dispone di una potenza molto vicini alla 5870 (in alcuni gioki la supera anke) costa 30-40€ in meno e skalda come qualsiasi gpu di quel calibro, molti utenti che usano una gtx470 dichiarano che stà sui 75-78° con la ventola al 75-80% sotto crysis quindi io sinceramente credo molto di più a loro che hai test dove ci sparano 100° il discorso cambia per la gtx480 e la futura gtx485
per il resto staremo a vedere cosa farà nvidia e staremo a vedere cosa farà nvidia quando ati presenterà la serie 6xxx
Mi sembra un pò grossa che la gtx 470 supera la 5870...
fà fatica la 480 a superarla,la distacca di un misero 10-20%.....
In questi test sono stai usati gli ultimi driver...
http://img16.imageshack.us/img16/4096/avpp.png (http://img16.imageshack.us/i/avpp.png/)
http://img824.imageshack.us/img824/1516/bbc2.png (http://img824.imageshack.us/i/bbc2.png/)
http://img37.imageshack.us/img37/2969/bforge.png (http://img37.imageshack.us/i/bforge.png/)
http://img39.imageshack.us/img39/9105/cod2h.png (http://img39.imageshack.us/i/cod2h.png/)
http://img208.imageshack.us/img208/6612/cwh.png (http://img208.imageshack.us/i/cwh.png/)
http://img132.imageshack.us/img132/6095/dirt2s.png (http://img132.imageshack.us/i/dirt2s.png/)
http://img17.imageshack.us/img17/6605/farcry2.png (http://img17.imageshack.us/i/farcry2.png/)
http://img4.imageshack.us/img4/7141/hawxj.png (http://img4.imageshack.us/i/hawxj.png/)
http://img641.imageshack.us/img641/9349/jc2g.png (http://img641.imageshack.us/i/jc2g.png/)
http://img171.imageshack.us/img171/6708/m2033.png (http://img171.imageshack.us/i/m2033.png/)
http://img145.imageshack.us/img145/3195/me2z.png (http://img145.imageshack.us/i/me2z.png/)
http://img268.imageshack.us/img268/8707/re5m.png (http://img268.imageshack.us/i/re5m.png/)
http://img683.imageshack.us/img683/703/scop.png (http://img683.imageshack.us/i/scop.png/)
http://img412.imageshack.us/img412/9458/sf4.png (http://img412.imageshack.us/i/sf4.png/)
http://img130.imageshack.us/img130/5189/wicsa.png (http://img130.imageshack.us/i/wicsa.png/)
http://img714.imageshack.us/img714/2711/wolfo.png (http://img714.imageshack.us/i/wolfo.png/)[/QUOTE]
chissà di che flop parlano i rossi, dato che le 470 e le 480 vanno via come il pane...
imo, è più probabile un nome tipo 490 per un modello a 521 sp, e viste le rese piuttosto basse costerà un occhio. Da attendere al prossimo die shrink però.
Le schede ATI costano meno e consumano meno, ma offrono meno in prestazioni e non hanno nessuna feature aggiuntiva degna di nota oltre a quella vaccata di eyeinfinity, niente 3D, niente physx, niente cuda, tassellatore nettamente inferiore, AA nettamente inferiore, sembrano vga di 10 anni fa solo più veloci.
Un post da paura. :eekk:
Vienici a trovare più spesso qui sulla Terra, invece di rimanere esiliato su Marte, rischi davvero di rimanere indietro e poco aggiornato.
Le 5800 di ATi certamente non raggiungono le prestazioni di una GTX400, ma si tratta di una manciata di FPS che non giustifica e colma tutte le altre problematiche che possiede l'architettura del chip GF100. Poi quando la manciata di FPS si traduce in un surplus sopra i canonici 60, addirittura il vantaggio pratico con il vsync attivo è annullato... il caso più frequente.
Non ti resta che trastrullarti con quei 4 titoli in croce che, dietro accordi con nvidia, ti implementano PhysX.
Cose dette e stradette in 1000000000000 recensioni.
Interviste e dicharazioni che fanno trasparire premura e sconcerto da parte di ATi per questo progetto entusiasmente ne hai lette?
Ti risulta ATi stia correndo ai ripari per Fermi?
senti non mi va di discutere io ti dico solo che guardano un insieme di test presi da vari siti si capisce che le 2 skede sn perfettamente sovrapponibili si come prestazioni e sia come consumi in più la gtx470 costa anke meno quindi......
http://www.bjorn3d.com/read.php?cID=1851&pageID=8909
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/30999-nvidia-geforce-gtx-470-sli-review-8.html
http://www.guru3d.com/article/geforce-gtx-470-2-3-way-sli-review/17
http://www.anandtech.com/show/2977/nvidia-s-geforce-gtx-480-and-gtx-470-6-months-late-was-it-worth-the-wait-/12
http://tpucdn.com/reviews/Palit/GeForce_GTX_470_Dual/images/perfrel.gif
senti non mi va di discutere io ti dico solo che guardano un insieme di test presi da vari siti si capisce che le 2 skede sn perfettamente sovrapponibili si come prestazioni e sia come consumi in più la gtx470 costa anke meno quindi......
http://www.bjorn3d.com/read.php?cID=1851&pageID=8909
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/30999-nvidia-geforce-gtx-470-sli-review-8.html
http://www.guru3d.com/article/geforce-gtx-470-2-3-way-sli-review/17
http://www.anandtech.com/show/2977/nvidia-s-geforce-gtx-480-and-gtx-470-6-months-late-was-it-worth-the-wait-/12
http://tpucdn.com/reviews/Palit/GeForce_GTX_470_Dual/images/perfrel.gif
Se non ti va di discutere perché posti?
Cosa sovrapponi? Leggi i consumi nei link che tu stesso posti. Leggi :read:
Non mi risulta io abbia detto il contrario.
Di grazia... a pieno carico una GTX dissipa più watt persino più di una Dual GPU ATi...
Ma scusa..... ora spuntano pure i tizi che dicono che ste schede consumano quanto le schede concorrenti? Ma dove in idle? :D
Ma ditelo se avete intenzioni di scrivere fesserie.
Poche settimane fa c'erano i tizi che dicevano che non raggiungevano assolutamente i 90°, ventole non più del 60% di rotazione mentre poi giocavano a vsync attivo con Bioshock 2; appena hanno sganciato il vsync, la ventola ha ingranato almeno di 2 marce in più.... chissà poi perché. :D
Ma a chi volete darla a bere?
longhorn7680
22-06-2010, 23:08
Ecco le mie con SLI, overclock e overvolt....
http://img716.imageshack.us/img716/8554/immaginehw.th.png (http://img716.imageshack.us/i/immaginehw.png/)
ah dimenticavo, Case mediocre, e il case conta moltissimo
MA LOL!!!!! Che senso ha postare uno screen delle VGA in idle con ventola al 52% (e gia si sente benissimo a quella velocita)????? :confused:
Ad oggi la 470 e la 5870 sono praticamente sullo stesso piano. Consiglierei di comprare quella che si riesce a trovare a piu buon mercato! Certo in FullHD la 5870 va meglio ma in praticamente tutti i giochi siamo oltre ai 60FPS percio non cambia molto! Certo e che dopo 9 mesi dal lancio delle 58XX solo adesso nVidia riesce a pareggiare la sfida. La 480 e vero che va di piu ma costa anche molto di piu! E SI e imminente percio credo che per settembre nVidia si becchera un'altra mazzata e almeno fino al 2 trimestre 2011 non sara in grado di replicare visto che il passaggio a 28nm prima di quel termine sicuramente non ci sara. Certo che un potenziale fermi a 768 cores e 28nm fa paura visto che SI single dovrebbe andare qualcosina in piu alla 5970 al max. nVidia e in ritardo e questi 7-8 mesi se li portera dietro almeno fino al 2012. Cmq se dovessi cambiare scheda oggi il dubbio ce l'avrei (tra 470 e 5870) e il prezzo farebbe da arbitro! Ma la mia 260 al momento mi basta e si cambia VGA dopo l'uscita di Sandy Bridge e Buldozzer assieme a tutto il resto!
Adone_1985
22-06-2010, 23:08
Se non ti va di discutere perché posti?
Cosa sovrapponi? Leggi i consumi nei link che tu stesso posti. Leggi :read:
Non mi risulta io abbia detto il contrario.
Di grazia... a pieno carico una GTX dissipa più watt persino più di una Dual GPU ATi...
Ma scusa..... ora spuntano pure i tizi che dicono che ste schede consumano quanto le schede concorrenti? Ma dove in idle? :D
Ma ditelo se avete intenzioni di scrivere fesserie.
Poche settimane fa c'erano i tizi che dicevano che non raggiungevano assolutamente i 90°, ventole non più del 60% di rotazione mentre poi giocavano a vsync attivo con Bioshock 2; appena hanno sganciato il vsync, la ventola ha ingranato almeno di 2 marce in più.... chissà poi perché. :D
Ma a chi volete darla a bere?
Ripeto, nessuno a detto che non consumano e che sono silenziose...
sono più performanti e danno delle cose che possono o non possono interesare come Physx, 3d vision.....a te non interessano hai preso Ati a me interessano ho preso Nvidia...
Poi a me è sembrato che da quando è cominciata questa discussione, si è parlato sempre dei soliti discorsi....è un flop, scalda, la controparte è più fredda, ha il chippone, si ricomincia sempre così.....mah
longhorn7680
22-06-2010, 23:11
Se posso intromettermi io direi che costa "infinitamente meno": il prezzo migliore della GTX470 è di 281€ mentre quello più basso della HD 5870 è di 330€ ... motivo per il quale le due schede non sono direttamente comparabili. Di sicuro ad oggi (dato il prezzo sproporzionato della "piccola" 5850, venduta a 260€) la scheda con il miglior rapporto prezzo/prestazioni è senza ombra di dubbio la GTX470.
Ovviamente la nota dolente sono i consumi maggiori, le temperature prossime a quelle della serie precedente (GTX 275 e 285) e la mancanza del supporto nativo al bitstream dei formati audio DTS-HD e Dolby True.
Scusate per l' OT, ma potresti spiegarmi che limitazioni potrei avere se volessi usare il PC anche come Home Theatre???
Adone_1985
22-06-2010, 23:12
MA LOL!!!!! Che senso ha postare uno screen delle VGA in idle con ventola al 52% (e gia si sente benissimo a quella velocita)????? :confused:
Ad oggi la 470 e la 5870 sono praticamente sullo stesso piano. Consiglierei di comprare quella che si riesce a trovare a piu buon mercato! Certo in FullHD la 5870 va meglio ma in praticamente tutti i giochi siamo oltre ai 60FPS percio non cambia molto! Certo e che dopo 9 mesi dal lancio delle 58XX solo adesso nVidia riesce a pareggiare la sfida. La 480 e vero che va di piu ma costa anche molto di piu! E SI e imminente percio credo che per settembre nVidia si becchera un'altra mazzata e almeno fino al 2 trimestre 2011 non sara in grado di replicare visto che il passaggio a 28nm prima di quel termine sicuramente non ci sara. Certo che un potenziale fermi a 768 cores e 28nm fa paura visto che SI single dovrebbe andare qualcosina in piu alla 5970 al max. nVidia e in ritardo e questi 7-8 mesi se li portera dietro almeno fino al 2012. Cmq se dovessi cambiare scheda oggi il dubbio ce l'avrei (tra 470 e 5870) e il prezzo farebbe da arbitro! Ma la mia 260 al momento mi basta e si cambia VGA dopo l'uscita di Sandy Bridge e Buldozzer assieme a tutto il resto!
Se vuoi te le posto sotto carico, era per fargli vedere le temp in idle che c'è di strano?? con OC e overvolt, con un case mediocre ed uno SLI...tuttoqui
longhorn7680
22-06-2010, 23:16
Se vuoi te le posto sotto carico, era per fargli vedere le temp in idle che c'è di strano?? con OC e overvolt, con un case mediocre ed uno SLI...tuttoqui
Calcolando che da BIOS la ventola dovrebbe stare al 36% con quelle temp e tu sei al 52% non credo che quello screen sia da sbandierare ai 4 venti :D
Poi non ho mai criticato Fermi per le temp i consumi e rumorosita (puoi vedere i miei post) Ovviamente sotto carico con vsync disattivato sarebbe piu utile.
longhorn7680
22-06-2010, 23:23
1) La prima limitazione è di carattere puramente visivo... ovvero non vedresti la scritta DTS-HD sul sintoamplificatore.
2) In secondo luogo non sentiresti l'audio HD ma semplicemente il suo downsampling inviato in PCM... praticamente un normale DTS 5.1.
Le uniche soluzioni ad oggi disponibili per fruire in modo completo dell'audio HD sono quelle fornite da Asus e Auzentech oppure quelle integrate nelle schede HD 5XXX di Ati (purtroppo aggiungo!).
Capito, grazie della delucidazione. Credi che sul B&W 803 sentirei tanta differenza??? Adesso ho una 260GTX.
1: io non parlo assolutamente con te
2: se 20w in più in full per te sn tanto allora non so che dirti... http://tpucdn.com/reviews/Palit/GeForce_GTX_470_Dual/images/power_maximum.gif
Ripeto, nessuno a detto che non consumano e che sono silenziose...
sono più performanti e danno delle cose che possono o non possono interesare come Physx, 3d vision.....a te non interessano hai preso Ati a me interessano ho preso Nvidia...
Poi a me è sembrato che da quando è cominciata questa discussione, si è parlato sempre dei soliti discorsi....è un flop, scalda, la controparte è più fredda, ha il chippone, si ricomincia sempre così.....mah
A me da parecchio fastidio passare per chi non capsice le cose o non sa leggere o ancora intende male.
Non so te, ma io mi ritengo abbastanza capace in fatto di comprensione della lingua italiana, giacchè qualcuno scrisse queste righe:
senti non mi va di discutere io ti dico solo che guardano un insieme di test presi da vari siti si capisce che le 2 skede sn perfettamente sovrapponibili si come prestazioni e sia come consumi in più la gtx470 costa anke meno quindi......
io penso di aver capito bene..... e che per qualcuno una GTX consuma quanto una HD5000.
Se non avessi letto questo, io non sarei mia intervenuto.
Mica posto a muzzo. :)
-
Poiché questa non è una discussione riservata a soltanto due persone, ti invito (anche per evitare poi di non raccapezzarci più fra noi stessi), a quotare direttamente l'utente a cui vuoi rivolgere il tuo punto di vista.
Perché se, nel più bello, mi introduco nel mezzo del Thread e vedo poi il tuo post comparire immediatamente dopo aver scritto il mio, finisco per interpretare il tuo intervento come una risposta al mio.
come ho già fatto notare sopra sn 20w in più non credo che sia una esagerazione...
come ho già fatto notare sopra sn 20w in più non credo che sia una esagerazione...
Poiché questa non è una discussione riservata a soltanto due persone, ti invito (anche per evitare poi di non raccapezzarci più fra noi stessi), a quotare direttamente l'utente a cui vuoi rivolgere il tuo punto di vista.
Perché se, nel più bello, mi introduco nel mezzo del Thread e vedo poi il tuo post comparire immediatamente dopo aver scritto il mio, finisco per interpretare il tuo intervento come una risposta al mio.
non c'è problema la prossima volta mi ricorderò di quotare, xò visto che sopra critichi il mio italiano oltre una "k" e un "sn" non vedo cosa ci sia di sbagliato O_o
e poi se dobbiamo essere precisi non ho mai detto che una GTX consuma quanto una HD5000 ma solo che sono sovrapponibili visto che sono 20w di differenza
Poiché questa non è una discussione riservata a soltanto due persone, ti invito (anche per evitare poi di non raccapezzarci più fra noi stessi), a quotare direttamente l'utente a cui vuoi rivolgere il tuo punto di vista.
Perché se, nel più bello, mi introduco nel mezzo del Thread e vedo poi il tuo post comparire immediatamente dopo aver scritto il mio, finisco per interpretare il tuo intervento come una risposta al mio.
non c'è problema la prossima volta mi ricorderò di quotare, xò visto che sopra critichi il mio italiano oltre una "k" e un "sn" non vedo cosa ci sia di sbagliato O_o
e poi se dobbiamo essere precisi non ho mai detto che una GTX consuma quanto una HD5000 ma solo che sono sovrapponibili visto che sono 20w di differenza
come ho già fatto notare sopra sn 20w in più non credo che sia una esagerazione...
A quale confronto ti riferisci ferro10?
Ai 20 W tra la 5970 e la GTX480 ?
Ma anche se fossero solo 10 di watt, stai confrontando una single GPU con una dual GPU.
Ti rendi conto che è un attimino strano il fatto che alimentando 2 chip serie 5000 insieme, per assurdo, si riesce a stare sotto la soglia massima raggiunta da un solo dei chip GF100?
Questo confronto, di solito, serve solo a umiliare il chip e ad evidenziare quanto nVidia, in sostanza, non abbia dedicato alcunchè delle proprie risorse per sviluppare quest'aspetto.
Ci fosse una dual GPU GF100 non sarebbero più solo 20 w.
Hai visto invece quanti diventano i watt tra single GPU e della stessa fascia?
Rimangono ancora 20?
Ale55andr0
23-06-2010, 00:24
tra parentesi: la 470 NON è superiore alla 5870
tra parentesi: la 470 NON è superiore alla 5870
Ah beh!!! nVidia, in tal caso, avrebbe fatto 13, come si suol dire!!! :D
Ci sarebbe un motivo in più per farci un pensierino... primo su tutti il prezzo.
La collocazione, come penso dovrebbe essere risaputo, è a metà strada fra la HD5850 e HD5870.
sbudellaman
23-06-2010, 00:42
A quale confronto ti riferisci ferro10?
Ai 20 W tra la 5970 e la GTX480 ?
A quanto ho capito si parla di 470vs5870.
come ho già fatto notare sopra sn 20w in più non credo che sia una esagerazione...
Se posso intromettermi... hai citato tante fonti. C'è ne solo una che parla di una differenza di solo 20 watt, tutte le altre parlano di differenze molto superiori. Posso chiederti come mai hai scelto proprio quella? :D
B3D: differenza di 108 watt
HardwareCanucs: differenza di 42 watt
Anandtech: differenza di 37 watt in crysis, 33 in furmark
Comunque, apparte questo, ho notato che le tutte quelle fonti indicano temp in full di 92 gradi per la 470, cosa che ho riscontrato anche in tantissime altre recensioni. Quindi direi che probabilmente la maggior parte delle 470 riscalda così, e chi dice di avere temp inferiori ad 80 gradi sono casi isolati. Senza contare poi che la 5870 è più silenziosa.
La 5870 vince in efficenza, temperature, consumo e rumore. Anche escludendo le prestazioni secondo me la differenza di prezzo fra la 5870 e 470 è giustificata :) Non contano solo gli fps macinati, bisogna vedere la scheda nell'insieme. Poi è ovvio, ognuno compra ciò che è adatto alle sue esigenze.
un altro flop :asd:
NVidia si ostina a volerci propinare questa architettura Fermi - praticamente si sono afossati da soli - :asd: (vincente solo sulla carta), ma fallimentare su tutti gli altri punti di vista rispetto alle più parsimoniose e graffianti ATI 5000 Series della casa canadese, con costi e consumi sensibilmente inferiori e quindi vincenti come architettura.
NVidia ha fatto un buco nell'acqua GIGANTESCO e nessuno ha il coraggio di ammetterlo. ;)
ATI e AMD meritano più rispetto. :O
Se vogliamo dire che le 4xx hanno colmato il gap prestazionale con le 5xxx ed in pochi mesi dal lancio...con l'aggravante di un nuovo progetto e tutto ciò che ne consegue...ok...onore ad Nvidia (Ati con 2900 non fu così efficiente).
Se vogliamo paragonare il rapporto pretsazioni/prezzo/features ORA tra 5870 e 470...ok...si può scegliere o una o l'altra...è arbitraria la scelta...che propende verso Nvidia seppur di poco.
E se è possibile questo paragone, è a causa di Ati e non certo per i meriti di Nvidia:
perchè se Ati si svegliasse domani...e decidesse di vendere un'ipotetica 5890 (ovvero una 5850/70 overcloccate)...a 250 euro e nel contempo, riposizionasse le vecchie schede...sarebbe comunque in notevole attivo (a differenza di Nvidia). E addio paragoni.
Per quanto mi riguarda...una 5850 acquistata a 230 euro...mod bios 5870@950/1300...CONTINUA DOPO QUASI UN ANNO...a non avere paragoni.
Decantatemi quello che volete...gpgpu...cuda...physx...ed altri amennicoli...
ma vi prego...
lasciate stare i consumi, il rumore, il comfort e soprattutto...il piacere di tenere un computer acceso.
Chi si accontenta di viaggiare in un carro per il bestiame, buon per lui, se è felice così. Ma che osi paragonarsi a chi è abituato a viaggiare in top class...è inaccettabile.
Avere una scheda video con prestazioni paragonabili alla 470gtx...con una ventola al 30%, una temperatura di 65° del core ed un consumo di 220 watts il tutto in FULL, (tralascio l'IDLE, i dati medi di esercizio ed il 2D, che è meglio)...significa vivere in un altro pianeta per il 90% degli utenti. Mi riferisco alle schede reference 5870 e 470...perchè se vogliamo confrontare le custom (a parità di fascia/prezzo)...le differenze...sarebbero ancora più marcate.
GF104 o 28nm...e ne riparliamo.
Imho il fatto che ati non abbassi i prezzi :muro: anche a fronte di miglioramenti delle performance delle 4xx vuol dire che suddette schede non è che vadano proprio a ruba...
Cà.aà.zà.aza
sertopica
23-06-2010, 08:04
Che c'entra si parla di single gpu? Ho citato da GTX295 semplicemente perchè era il top al tempo, mentre le altre comunque non convenivano. La GTX285 (ossia GTX280 overcloccata) era un buona scheda, ma troppo costosa per le prestazioni che offriva.
Sempre lo stesso discorso: diverse esigenze dell'utenza, diverse tipologie di acquisto. C'è chi spende più denaro per avere features che ritiene più o meno importanti e quella manciata di frames in più che fanno sempre comodo, e chi valuta anche altri aspetti come il prezzo ed i consumi, anche se nel confronto serie 200/serie 4000 stavamo là... Sono state entrambe due ottime famiglie di schede, mai detto il contrario.
A già perchè tu invece che dice "quando si parla di nVidia, si comincia a vomitare bile senza sosta, fortunatamente ci sono anche interventi sensati e non da tifoseria, che considerano la situazione in un quadro più vasto." mi conosci? Chiudo qui.
Ti senti chiamato in causa direttamente? Il mio era un pensiero generico e rivolto a varie situazioni che si sono create in sezione news, con commenti puerili. Anche il tuo modo di esprimere opinioni denota un certo accanimento da tifo, tant'è che appena ho scritto di essere possessore di una 470 sono stato accusato d'essere "nettamente di parte" (grazie per avermelo fatto scoprire, non lo sapevo! :fagiano: ).
Se qualcuno si azzarda a riferire la propria esperienza con queste schede si parte all'attacco accusando chi interviene di essere un cazzaro, beh, se questa è civiltà andiamo bene... Mi chiedo perché nei forum anglosassoni per esempio, spesso e volentieri, il "W ATi" o il "W nVidia" sia un concetto estraneo al dialogo costruttivo.
Nessuno ha mai detto che siano schede che consumano poco in full (in idle sì), che non siano rumorose (il volume dei giochi copre la ventola comunque) o che non scaldino affatto, ma fino a prova contraria quello che scrivo è vero, e se dico che con quasi tutti i giochi, Crysis escluso, non supero i 76°, sono in buona fede. Ah, e per inciso, la ventola al 50% non si sente, comincia ad essere fastidiosa al 75%, secondo i miei standard.
A questo giro nVidia ha sbagliato sotto vari punti di vista, nonostante questo la scheda che possiedo va alla grande e di certo non tornerei a quella che avevo prima. Io direi che se avete commenti che servano realmente a qualcosa, sia critici che non, postateli, ma se bisogna limitarsi a scrivere "Fermi Fail" e amenità del genere è meglio non consumare la tastiera, secondo me.
Ah inoltre nessuno ha mai detto che la 470 va meglio della 5870, è stato detto che gli ultimi driver hanno avvicinato molto la soluzione nVidia alla soluzione top ATi. I test postati da Adone parlano chiaro, e non ci vedo del verde in quei bench.
E ricordiamoci, l'amore vince sull'odio e sull'nVidia! :asd:
Catalyst 10.5 vs Forceware 257.15 beta la situazione è questa:
http://www.hardware.fr/articles/793-17/test-zotac-geforce-gtx-465.html
Faccio una riflessione molto semplice e molto meno tecnica che però magari rende l'idea di chi vive "normalmente".
Non abito da solo e sto in una casa "normale" non immensa ma nemmeno un mini-appartamento. Mi piace giocare ma non è che posso sbattermene di chi è con me.
Avere un PC che fra tutto fa un rumore devastante anche se io non lo sento perchè uso le cuffie non è accettabile. Idem a lavoro.... CUDA a lavoro mi sarebbe utile ma ci sono 8 postazioni e se tutte facessero un rumore terribile il tutto si somma e diventerebbe invivibile l'ambiente.
Certo le prestazioni sono importanti ma non sono tutto.... non mi va a genio i consumi di ATI che francamente sono già alti non parliamo di nVidia. I consumi di corrente son costi e forse non tutti si rendono conto che la bolletta arriva!!!
Ora a parte chi non ha problemi le persone hanno UN pc che viene utilizzato per download, per vedere film, ecc... ecc... e avere una scheda che mi permetta di tenerlo acceso 24/7 senza dover morire a ogni bolletta non è esattamente un dettaglio infinetesimale.
IMHO trovo ridicolo che ormai il trend di entrambi i maschi sia rivendere prodotti overclokkati di fabbrica come "nuovi" e/o propinare novità irrisorie. Almeno un tempo una scheda durava un po' di più e la scheda che prendevi dopo anche se costosa ti faceva dire "cavolo è un'altro pianeta".
Io son passato per esigenze di regalo (regalato vecchio pc) da una 4870X2 a una 5870 e la mia donna ha una nVidia 470...... dovessi dire che noto una reale differenza nei giochi direi francamente una bugia. L'unica differenza effettiva che si nota anche in confronto alla 4870 è bolletta e rumorosità poi se non avessi fatto il regalo avrei tenuto la 4870 e non avrei sentito la necessità di alcun upgrade.
A tutt'oggi non vedo (sarà un limite mio) un solo gioco che arrivi realmente al limite di una scheda come la 4870 o equivalente 2xx nVidia figuriamoci a che cavolo mi serve una scheda che mi fa X fps in più che con tutta probabilità sono oltre il limite che l'occhio umano nota.
Ale55andr0
23-06-2010, 10:59
Per quanto mi riguarda...una 5850 acquistata a 230 euro...mod bios 5870@950/1300...CONTINUA DOPO QUASI UN ANNO...a non avere paragoni.
.
ma la mod del bios sblocca le pipieline o è solo questione di frequenze?
Ale55andr0
23-06-2010, 11:03
Imho il fatto che ati non abbassi i prezzi :muro: anche a fronte di miglioramenti delle performance delle 4xx vuol dire che suddette schede non è che vadano proprio a ruba...
Cà.aà.zà.aza
secondo me è proprio l'opposto, appunto perchè vendono non hanno bisogno di abbassare i prezzi per attirare clienti, e sarebbero polli, come azienda che mira al profitto e non alla beneficienza, a farlo, perchè se ti siluro e te la accatti uguale io ne approfitto...praticamente è la politica nVidia :asd:
secondo me è proprio l'opposto, appunto perchè vendono non hanno bisogno di abbassare i prezzi per attirare clienti, e sarebbero polli, come azienda che mira al profitto e non alla beneficienza, a farlo, perchè se ti siluro e te la accatti uguale io ne approfitto...praticamente è la politica nVidia :asd:
ma infatti mi riferivo a fermi , che se andasse veramente a ruba avrebbe fatto calare i prezzi delle ati... come concorrenza vuole , invece nulla... :cry: :O
C;.a.;'z;'.a;'.za
Ma non se ne può più , veramente ... smettetela di macinare le sfere con i soliti commenti fail,scaffale,flop ecc... siete così contenti di avere un hd5xxx nel case ? vi soddisfa pienamente sotto ogni aspetto...bene buon per voi ,pensate a godervele senza per forza voler creare flame su flame ad ogni news riguardante nvidia/fermi. Io monto una GTX 470 , il rapporto prezzo/ prestazioni è ottimo , la differenza di consumo non mi cambia la vita , unica cosa di cui mi lamento è che effettivamente quando la ventola sta al 70% è piuttosto fastidiosa , anche se la maggior parte delle volte gioco con le cuffie , e in quel caso non la sento :p .Prima di cambiare la mia gloriosa 8800 gt con una vga DX11 ho aspettato le proposte nvidia (fortunatamente ho un amico che vende componenti HW) ho provato sia la 5870 che la 470 e siccome a prestazioni siamo li , ho preferito la soluzione nvidia per il discorso phisix .
Ognuno acquista il componente che + lo aggrada .
Bye bye
ma la mod del bios sblocca le pipieline o è solo questione di frequenze?
le pipes non sono sbloccabili.
Il bios 5870 serve esclusivamente ad aumentare il voltaggio sulla gpu (indifferente), ma soprattutto...ad aumentare i voltaggi delle memorie, che non sarebbe possibile incrementare senza una hardmod.
Con 3 semplici operazioni in RBE, i più fortunati con schede REFERENCE, raggiungono 1045/1350 nel 3D e grazie al downvolt...riescono pure a risparmiare circa un 10% dei consumi in tutte le altre situazioni rispetto alla scheda stock (che di per sè, è già un record).
A parità di frequenze una 5850 biosmod rispetto ad una 5870 standard perde un 2-5% in prestazioni (160SP).
Prima di cambiare la mia gloriosa 8800 gt con una vga DX11 ho aspettato le proposte nvidia (fortunatamente ho un amico che vende componenti HW) ho provato sia la 5870 che la 470 e siccome a prestazioni siamo li , ho preferito la soluzione nvidia per il discorso phisix .
Quindi fammi capire hai scelto una scheda che in generale ha prestazioni inferiori per phsix!?
In pratica per fare un esempio il discorso è come se dicessi io ho comprato una punto invece che una M5 perchè la punto ha una guarnizione più figa che non mi da alcun vantaggio ma è più figa.....
Scusa eh non voglio e non mi permetto di giudicarti ma vorrai perdonarmi se non capisco la tua scelta.... non discuto che possano esserci motivi per cui uno preferisce nVidia a ATI e/o viceversa ma tu hai citato una di quelle poche cose che proprio ormai non serve a una beata.
A riprova di ciò sfiderei chiunque a giocare per 10 minuti a qualsiasi gioco e stabilire se il pc monta 470 o 5870 e ci metterei la mano sul fuoco che indovinerebbero esattamente quanto uno che tira a caso senza nemmeno vedere un fotogramma per pura statistica.
Ora se mi dici che non ti frega dei consumi e della rumorosità e prendi una 470 perchè costa meno e la differenza di prestazioni ti lascia indifferente sono il primo a dire che hai fatto la scelta giusta e tutti dovrebbero fare come te e scegliere in base alle loro esigenze.
Se mi dici che la prendi per phsix scusa ma mi viene da ridere perchè è veramente una di quelle feature inutile come non mai. Ormai una qualsiasi scheda con emulatore software rende in maniera praticamente identica su un pc come si deve.
Il tutto IMHO e senza voler offendere nessuno.
A quanto ho capito si parla di 470vs5870.
Ah beh anche in questo caso non è che sia tanto azzeccata la comparazione; in fondo la 470 non va come una 5870.
Se vogliamo dire che le 4xx hanno colmato il gap prestazionale con le 5xxx ed in pochi mesi dal lancio...con l'aggravante di un nuovo progetto e tutto ciò che ne consegue...ok...onore ad Nvidia (Ati con 2900 non fu così efficiente).
Se vogliamo paragonare il rapporto pretsazioni/prezzo/features ORA tra 5870 e 470...ok...si può scegliere o una o l'altra...è arbitraria la scelta...che propende verso Nvidia seppur di poco.
E se è possibile questo paragone, è a causa di Ati e non certo per i meriti di Nvidia:
perchè se Ati si svegliasse domani...e decidesse di vendere un'ipotetica 5890 (ovvero una 5850/70 overcloccate)...a 250 euro e nel contempo, riposizionasse le vecchie schede...sarebbe comunque in notevole attivo (a differenza di Nvidia). E addio paragoni.
Per quanto mi riguarda...una 5850 acquistata a 230 euro...mod bios 5870@950/1300...CONTINUA DOPO QUASI UN ANNO...a non avere paragoni.
Decantatemi quello che volete...gpgpu...cuda...physx...ed altri amennicoli...
ma vi prego...
lasciate stare i consumi, il rumore, il comfort e soprattutto...il piacere di tenere un computer acceso.
Chi si accontenta di viaggiare in un carro per il bestiame, buon per lui, se è felice così. Ma che osi paragonarsi a chi è abituato a viaggiare in top class...è inaccettabile.
Avere una scheda video con prestazioni paragonabili alla 470gtx...con una ventola al 30%, una temperatura di 65° del core ed un consumo di 220 watts il tutto in FULL, (tralascio l'IDLE, i dati medi di esercizio ed il 2D, che è meglio)...significa vivere in un altro pianeta per il 90% degli utenti. Mi riferisco alle schede reference 5870 e 470...perchè se vogliamo confrontare le custom (a parità di fascia/prezzo)...le differenze...sarebbero ancora più marcate.
GF104 o 28nm...e ne riparliamo.
Quoto!
Trovare spunti polemici a questo post appare un'impresa.
Io, da nVidia, più che altro mi aspettavo un'introduzione che attaccasse a viso aperto ATi, e un'aspetto su tutti..... i prezzi (anche visto cosa ha combinato con l'hardware).
Evidentemente Fermi, al momento, non è in grado di fare venire giù la goccia di sudore all'azienda canadese; in AMD, mi sembrano fin troppo tranquilli. E in effetti... c'è movimento genuinamente poco competitivo nel mercato delle VGA. Qualcuno, secondo me, ha perso il treno e ha dovuto prendere quello dopo, arrivando in ritardo; ci doveva essere qualcuno a recitare la parte dell'aggressore.... ma l'attore implicato non ha mostrato l'entusiasmo che ci si aspettava e non ha fatto paura proprio a nessuno.... a nessuno.
Gabriyzf
23-06-2010, 13:11
Quindi fammi capire hai scelto una scheda che in generale ha prestazioni inferiori per phsix!?
In pratica per fare un esempio il discorso è come se dicessi io ho comprato una punto invece che una M5 perchè la punto ha una guarnizione più figa che non mi da alcun vantaggio ma è più figa.....
Scusa eh non voglio e non mi permetto di giudicarti ma vorrai perdonarmi se non capisco la tua scelta.... non discuto che possano esserci motivi per cui uno preferisce nVidia a ATI e/o viceversa ma tu hai citato una di quelle poche cose che proprio ormai non serve a una beata.
A riprova di ciò sfiderei chiunque a giocare per 10 minuti a qualsiasi gioco e stabilire se il pc monta 470 o 5870 e ci metterei la mano sul fuoco che indovinerebbero esattamente quanto uno che tira a caso senza nemmeno vedere un fotogramma per pura statistica.
Ora se mi dici che non ti frega dei consumi e della rumorosità e prendi una 470 perchè costa meno e la differenza di prestazioni ti lascia indifferente sono il primo a dire che hai fatto la scelta giusta e tutti dovrebbero fare come te e scegliere in base alle loro esigenze.
Se mi dici che la prendi per phsix scusa ma mi viene da ridere perchè è veramente una di quelle feature inutile come non mai. Ormai una qualsiasi scheda con emulatore software rende in maniera praticamente identica su un pc come si deve.
Il tutto IMHO e senza voler offendere nessuno.
il paragone tra M5 e punto non regge: semmai tra una M5 e una Mercedes AMG.
Prova a giocare a Batman AA COn una 5870 o con una 470 con Physx attivato
il paragone tra M5 e punto non regge: semmai tra una M5 e una Mercedes AMG.
Prova a giocare a Batman AA COn una 5870 o con una 470 con Physx attivato
Ho detto due modelli a caso.... ho pensato ai primi due che mi son venuti in mente.
Si ok.... batman a 1920 con AA al limite e compagnia bella.... già se giochi a 1680 (molto più realistico che la maggior parte dei player non ha monitor da 1920) la differenza è praticamente nulla.
E comunque guarda qua dentro probabilmente c'è chi nota le differenze ma nel mondo "reale" il 99% dell'utenza manco ha idea di cosa siano i filtri AA, phisix e tantomeno li attiva. Secondo me se potessero in qualche modo indagare su quanti giochi in cui non si attiva di default vengono giocati a impostazioni standard.
Insomma alla fine IMHO ovviamente phsix cambia qualcosa solo se spingi all'estremo la scheda con giochi particolarmente spinti ma se uno gioca normalmente su pc "normali" il più delle volte queste feature sono quanto di più inutile e bastano schede delle precedenti generazione (4*** o 2**) e non vengono nemmeno sfruttate al 100%.
IMHO tutt'ora devo capire a che serve fare 999 fps quando il limite dell'occhio umano se non erro è intorno a 40.
Quindi fammi capire hai scelto una scheda che in generale ha prestazioni inferiori per phsix!?
In pratica per fare un esempio il discorso è come se dicessi io ho comprato una punto invece che una M5 perchè la punto ha una guarnizione più figa che non mi da alcun vantaggio ma è più figa.....
Scusa eh non voglio e non mi permetto di giudicarti ma vorrai perdonarmi se non capisco la tua scelta.... non discuto che possano esserci motivi per cui uno preferisce nVidia a ATI e/o viceversa ma tu hai citato una di quelle poche cose che proprio ormai non serve a una beata.
A riprova di ciò sfiderei chiunque a giocare per 10 minuti a qualsiasi gioco e stabilire se il pc monta 470 o 5870 e ci metterei la mano sul fuoco che indovinerebbero esattamente quanto uno che tira a caso senza nemmeno vedere un fotogramma per pura statistica.
Ora se mi dici che non ti frega dei consumi e della rumorosità e prendi una 470 perchè costa meno e la differenza di prestazioni ti lascia indifferente sono il primo a dire che hai fatto la scelta giusta e tutti dovrebbero fare come te e scegliere in base alle loro esigenze.
Se mi dici che la prendi per phsix scusa ma mi viene da ridere perchè è veramente una di quelle feature inutile come non mai. Ormai una qualsiasi scheda con emulatore software rende in maniera praticamente identica su un pc come si deve.
Il tutto IMHO e senza voler offendere nessuno.
Dunque scusami tanto se non l'ho specificato in quella parte da te evidenziata, ma pensavo che fosse sott'inteso (trovaprezzi aiuta).Ricapitolando le motivazioni della mia scelta 470 vs 5870 ----> Prestazioni moooolto simili (come dici giustamente tu , in giochi che non supportano phisix la differenza non la noti certo ) ,prezzo inferiore di circa 50 euro a favore della 470 , ed in fine con quest'ultima ho in più phisix , per alcuni titoli come batman ed il futuro mafia2 ... quale tra le due avrei dovuto scegliere ?? forse la 5870 ?? l'avrei pagata di più e non avrei avuto il beneficio in certi giochi di phisix ???? :mbe:
Poi volendo essere pignoli con le Fermi hai pure Cuda e 3d vision.
Poi il tuo esempio mi sembra alquanto fuori tema :asd:
Ciaoz
Ho detto due modelli a caso.... ho pensato ai primi due che mi son venuti in mente.
Si ok.... batman a 1920 con AA al limite e compagnia bella.... già se giochi a 1680 (molto più realistico che la maggior parte dei player non ha monitor da 1920) la differenza è praticamente nulla.
E comunque guarda qua dentro probabilmente c'è chi nota le differenze ma nel mondo "reale" il 99% dell'utenza manco ha idea di cosa siano i filtri AA, phisix e tantomeno li attiva. Secondo me se potessero in qualche modo indagare su quanti giochi in cui non si attiva di default vengono giocati a impostazioni standard.
Insomma alla fine IMHO ovviamente phsix cambia qualcosa solo se spingi all'estremo la scheda con giochi particolarmente spinti ma se uno gioca normalmente su pc "normali" il più delle volte queste feature sono quanto di più inutile e bastano schede delle precedenti generazione (4*** o 2**) e non vengono nemmeno sfruttate al 100%.
IMHO tutt'ora devo capire a che serve fare 999 fps quando il limite dell'occhio umano se non erro è intorno a 40.
Guarda che lui dice che a giocare Batman con phisix attivo la differenza è bella e buona , graficamente cambia e parecchio...non intendeva dire che la 470 macina + fps della 5870 ;)
Gabriyzf
23-06-2010, 15:15
Guarda che lui dice che a giocare Batman con phisix attivo la differenza è bella e buona , graficamente cambia e parecchio...non intendeva dire che la 470 macina + fps della 5870 ;)
;)
però siamo un pò o.t.
;)
però siamo un pò o.t.
Hai ragione . Chiudo qui :D
Gallone83
23-06-2010, 19:16
@ Adone_1985
Come hanno gia detto altri la 470 non và piu della 5870... siamo realisti..
ps con i 10.6 la differenza c'è trovo il link e lo posto
Adone_1985
23-06-2010, 19:23
@ Adone_1985
Come hanno gia detto altri la 470 non và piu della 5870... siamo realisti..
ps con i 10.6 la differenza c'è trovo il link e lo posto
ma infatti nessuno ha detto che va più veloce, ho detto semplicemente che la 5870 è una gran scheda, ma la 470 a mio avviso rispecchia più le mie esigenze (3d vision e Physx) e secondo me con la tessellazione, soprattutto nei minimi va meglio....
e cmq posso garantirvi che Physx non è paragonabile agli altri motori come Havok e compagnia bella...ora non ricordo che motore usa Battelfield, però per esempio se ci fate caso quando esplode qualcosa i pezzi come per magia, una volta caduti a terra scompaiono....se guardate la fisica di metro è impressionante...poi è una cosa soggettiva...
poi è naturale che ogni volta che usciranno driver nuovi da entrambi le parti ci saranno migliorie...
palmaria64
23-06-2010, 19:49
IMHO tutt'ora devo capire a che serve fare 999 fps quando il limite dell'occhio umano se non erro è intorno a 40. è all'incirca 60-61;)
Adone_1985
23-06-2010, 19:59
è all'incirca 60-61;)
veramente un occhio ben allenato arriva anche a 120 fps;)
palmaria64
23-06-2010, 20:01
veramente un occhio ben allenato arriva anche a 120 fps;)
nn lo sapevo grazie x l'informazione :) :)
Adone_1985
23-06-2010, 20:05
nn lo sapevo grazie x l'informazione :) :)
di nulla, prova un monitor a 120hz e vedrai che "massaggio" per i occhi :D
kliffoth
23-06-2010, 22:03
edit
Adone_1985
23-06-2010, 22:05
:rotfl: non credo.
l'occhio umano si ferma molto prima (intorno ai 25)
Certo c'è poi il discorso del motion blur, ma in ogni caso puoi allenare quello che ti pare ma a 120 non ci arrivi.
i 120 servono per la stabilità dell'immagine
penso che sei fuori strada....il motion blur che centra:doh:
25fps :rotfl:
kliffoth
23-06-2010, 22:15
:rotfl:
penso che sei fuori strada....il motion blur che centra:doh:
25fps :rotfl:
avevo editato per non postare a lungo...amen
Il limite dell'occhio umano è sui 200Hz, ma non si tratta di allenare niente.
Tuttavia gli incrementi dopo i 60 fps sono trascurabili
Certo l'immagine a 120Hz è più stabile è più rilassante e annulla il flickering (dopo i 72 si parla di flicker-free).
La perfezione si avrebbe sui 200Hz, ma non è una questione di allenamento
Prima ho scritto malamente e me ne scuso: il motion blur era per dire come mai in un film a 24 frames vedi l'immagine fluida mentre lo stesso non accade per un videogioco.
blackshard
23-06-2010, 22:17
:rotfl:
penso che sei fuori strada....il motion blur che centra:doh:
25fps :rotfl:
Che ti ridi, il motion blur c'entra eccome.
Nei film si usa per dare l'impressione di fluidità.
-
-
Una volta ogni tanto questa storia esce fuori.
A parte che siamo decisamente OT, mi limito, per questo, a linkare un mio post che sono riuscito a recuperare.
http://www.hwupgrade.it/forum/showpost.php?p=30840411&postcount=38
I parametri in gioco sono parecchi... e a seconda delle circostanze il cervello si comporta in maniera differente.
kliffoth
23-06-2010, 22:27
Una volta ogni tanto questa storia esce fuori.
A parte che siamo decisamente OT, mi limito, per questo, a linkare un mio post che sono riuscito a recuperare.
http://www.hwupgrade.it/forum/showpost.php?p=30840411&postcount=38
I parametri in gioco sono parecchi... e a seconda delle circostanze il cervello si comporta in maniera differente.
Qui ci sono anche conclusioni relative alla fisica dell'occhio e alle periferiche
http://amo.net/NT/02-21-01FPS.html
http://amo.net/nt/05-24-01FPS.html
http://amo.net/NT/02-21-01FPS.html
comunque il limite fisico dell'occhio è sui 200Hz
Si dovrebbe considerare la persistenza dell'immagine sulla retina, a che velovità si muovono le immagini stesse...etc etc.
Considerare le periferiche è importante proprio per effetti di motion blur relativi alla singola tecnologia: mano mano che i pannelli sono maggiormente in grado di visualizzare i singoli frames a velocità maggiore (e le schede video di generarli), il limite di fluidità si alza.
Come tu hai detto i parametri da considerare sono una marea
Adone_1985
23-06-2010, 22:35
avevo editato per non postare a lungo...amen
Il limite dell'occhio umano è sui 200Hz, ma non si tratta di allenare niente.
Tuttavia gli incrementi dopo i 60 fps sono trascurabili
Certo l'immagine a 120Hz è più stabile è più rilassante e annulla il flickering, ma non è una questione di allenamento
Prima ho scritto malamente e me ne scuso: il motion blur era per dire come mai in un film a 24 frames vedi l'immagine fluida mentre lo stesso non accade per un videogioco.
sono tracurabili per te, vieni da me a giocare a 120hz poi mi dici se sono tracurabili :asd: hai un monitor a 120Hz??
Per allenamento, intendo dire una persona che è abituata al gaming, certo che se alla mia ragazza gli faccio vedere i 60hz e poi i 120hz per lei è uguale:rolleyes:
per me c'è una differenza abbissale tra 60 e 120 fps...
il motion blur serve a rendere le immgine più fluide e viene messo tra un fotogramma e l'altro (detto in maniera un po' rozza;) effetto blur) ecco perchè i film del cinema sembrano più fluidi anche se come hai detto sono a 24 fps....
nei videogame questo non può accadere perchè: il videogame genera immagini dove ogni oggetto occupa una posizione ESATTA... ovvero niente blur.
Non mette il blur per due ragioni: la prima puramente tecnica (ci vorrebbero troppi calcoli) e la seconda e' che se lo facesse succederebbe, prendiamo come esempio un first person shooter su uno schermo LCD, ovvero la visione appare molto piu' fluida (e qui si bastano 30 fps) ma ci risulterebbe molto piu' difficile mirare e sparare.
Il fatto di usare immagini ESATTE e non con blur fa si che il cervello
percepisca come "meglio" quei flussi che piu' si avvicinano alla visione del mondo reale che e' analogica...
Cmq ti posso garantire che tra 60 e 120 fps la differenza si nota tutta;)
infatti la diatriba è iniziata per un tuo post come da te detto scritto male per me va bene cosi :)
Adone_1985
23-06-2010, 22:36
Che ti ridi, il motion blur c'entra eccome.
Nei film si usa per dare l'impressione di fluidità.
si ma no nei giochi, informati
Adone_1985
23-06-2010, 22:41
Una volta ogni tanto questa storia esce fuori.A parte che siamo decisamente OT, mi limito, per questo, a linkare un mio post che sono riuscito a recuperare.
http://www.hwupgrade.it/forum/showpost.php?p=30840411&postcount=38
I parametri in gioco sono parecchi... e a seconda delle circostanze il cervello si comporta in maniera differente.
:D :D :D :D è vero!!!!!
kliffoth
23-06-2010, 22:42
s
il motion blur serve a rendere le immgine più fluide e viene messo tra un fotogramma e l'altro (detto in maniera un po' rozza;) effetto blur) ecco perchè i film del cinema sembrano più fluidi anche se come hai detto sono a 24 fps....
omissis
non ti cito tutto per risparmiare spazio.
Il blur lo mette anche il tuo cervello.
Comunque dai uno sguardo al mio post sopra e ai link.
Adone_1985
23-06-2010, 22:46
non ti cito tutto per risparmiare spazio.
Il blur lo mette anche il tuo cervello.
Comunque dai uno sguardo al mio post sopra e ai link.
si, sicuramente è come dici tu (non ti sto stuzzicando;) )
però il fatto è un altro, che non si può dire che c'è poca differenza tra 60 e 120 hz in game perchè i 120 hz in game sono un altro mondo.....provare per credere...
PS: non si vedono...
kliffoth
23-06-2010, 22:50
si, sicuramente è come dici tu (non ti sto stuzzicando;) )
però il fatto è un altro, che non si può dire che c'è poca differenza tra 60 e 120 hz in game perchè i 120 hz in game sono un altro mondo.....provare per credere...
certo, perchè c'è un unico salto da 60 a 120, però la cosa dipende anche dal fatto che ci sono pannelli che permettono di visualizzare in un certo modo e schede video adeguate.
effettivamente nel mio primo post sembrava ti stessi contraddicendo in toto mentre era solo una puntualizzazione.
Avevo scritto male (ma veramente male) ed infatti avevo editato per evitare una lunga serie di post come questi...ma tu hai risposto prima!
Comunque quegli articoli sono interessantissimi
qui c'è un sunto: http://whisper.ausgamers.com/wiki/index.php/How_many_FPS_human_eye_can_see
PS se li apri con FIREFOX oppure OPERA li vedi
http://amo.net/NT/02-21-01FPS.html
http://amo.net/nt/05-24-01FPS.html
http://amo.net/NT/02-21-01FPS.html
Adone_1985
23-06-2010, 22:55
certo, perchè c'è un unico salto da 60 a 120, però la cosa dipende anche dal fatto che ci sono pannelli che permettono di visualizzare in un certo modo e schede video adeguate.
effettivamente nel mio primo post sembrava ti stessi contraddicendo in toto mentre era solo una puntualizzazione.
Avevo scritto male (ma veramente male) ed infatti avevo editato per evitare una lunga serie di post come questi...ma tu hai risposto prima!
Comunque quegli articoli sono interessantissimi
qui c'è un sunto: http://whisper.ausgamers.com/wiki/index.php/How_many_FPS_human_eye_can_see
PS se li apri con FIREFOX oppure OPERA li vedi
http://amo.net/NT/02-21-01FPS.html
http://amo.net/nt/05-24-01FPS.html
http://amo.net/NT/02-21-01FPS.html
ok caro, Grazie e scusa per le risate di troppo;)
Queste cose mi interessano molto ci darò un occhiata ;)
non ti cito tutto per risparmiare spazio.
Il blur lo mette anche il tuo cervello.
Comunque dai uno sguardo al mio post sopra e ai link.
Il cervello non mette il motion-blur, è semplicemente una limitazione della retina alla quale arrivano, nello stesso istante, sequenze fotoniche più di quante ne potrebbe distinguere; in conseguenza di ciò e in presenza di scene in movimento al cervello gli vengono già inviate immagini già contenenti l'informazione di motion-blur o mosso.
Il cervello, a questo punto, deve solo interpretare.
blackshard
24-06-2010, 01:08
si ma no nei giochi, informati
Controlla meglio. Molti giochi (tipo hl2 ep2, crysis, dirt e altri giochi di corse tipo il vecchissimo MotoGP del 2002 che girava fluidamente già sulla mia ati radeon 8500LE :D ) permettono di attivare il motion blur che, tuttosommato, non è poi un effetto così pesante da calcolare.
Basta un accumulation buffer ed un paio di alpha blitting...
Adone_1985
24-06-2010, 05:46
Controlla meglio. Molti giochi (tipo hl2 ep2, crysis, dirt e altri giochi di corse tipo il vecchissimo MotoGP del 2002 che girava fluidamente già sulla mia ati radeon 8500LE :D ) permettono di attivare il motion blur che, tuttosommato, non è poi un effetto così pesante da calcolare.
Basta un accumulation buffer ed un paio di alpha blitting...
Si è vero infatti crysis a 30 fps è fluido...
longhorn7680
24-06-2010, 13:54
Si è vero infatti crysis a 30 fps è fluido...
Beh crysis gia appena sopra i 20-22 sembra abbastanza fluido (in realta non lo e ma la sensazione e questa) sicuramente molto piu di altri giochi!
Provate l'ultimo Splinter Cell e capirete di cosa parlo! Un gioco programmato veramente da cani!!!!!
Adone_1985
24-06-2010, 14:06
Beh crysis gia appena sopra i 20-22 sembra abbastanza fluido (in realta non lo e ma la sensazione e questa) sicuramente molto piu di altri giochi!
Provate l'ultimo Splinter Cell e capirete di cosa parlo! Un gioco programmato veramente da cani!!!!!
guarda caro, 22 fps fanno pena...credimi altro che fluido....;)
blackshard
24-06-2010, 14:14
Si è vero infatti crysis a 30 fps è fluido...
Se hai un framerate costante a 30fps il movimento del controller diventa predicibile.
In ogni caso non mi pare di aver affermato o negato che crysis a 30 fps sia fluido, io parlavo piuttosto di motion blur.
Comunque per tornare leggermente IT (non troppo perchè comunque non lo è :stordita: ) voglio dire solo una cosa. Parlate tanto di consumi elevati consumi bassi e ca**ate varie, e poi comprate alimentatori da almeno 850w (che anche quelli consumano se non lo sapete), fate sistemi multi-gpu (o cross o sli o semplicemente una ati e una nvidia per la fisica), 3001 ventole nel case, 10hd, led e chi più ne ha più ne metta... Secondo me voi non sapete cosa è la coerenza (adesso miliardi di fanboy mi linceranno :ciapet: ).
Adone_1985
24-06-2010, 14:30
Comunque per tornare leggermente IT (non troppo perchè comunque non lo è :stordita: ) voglio dire solo una cosa. Parlate tanto di consumi elevati consumi bassi e ca**ate varie, e poi comprate alimentatori da almeno 850w (che anche quelli consumano se non lo sapete), fate sistemi multi-gpu (o cross o sli o semplicemente una ati e una nvidia per la fisica), 3001 ventole nel case, 10hd, led e chi più ne ha più ne metta... Secondo me voi non sapete cosa è la coerenza (adesso miliardi di fanboy mi linceranno :ciapet: ).
a me dei consumi non me ne può fregar di meno....:D :D :D :D
a me dei consumi non me ne può fregar di meno....:D :D :D :D
Appunto per questo ho detto quello che ho scritto... Non possono fare tanto i moralisti sui consumi quando fanno sistemi che hanno bisogno di alimentatori abbastanza generosi.
Comunque per tornare leggermente IT (non troppo perchè comunque non lo è :stordita: ) voglio dire solo una cosa. Parlate tanto di consumi elevati consumi bassi e ca**ate varie, e poi comprate alimentatori da almeno 850w (che anche quelli consumano se non lo sapete), fate sistemi multi-gpu (o cross o sli o semplicemente una ati e una nvidia per la fisica), 3001 ventole nel case, 10hd, led e chi più ne ha più ne metta... Secondo me voi non sapete cosa è la coerenza (adesso miliardi di fanboy mi linceranno :ciapet: ).
Con quel "VOI" , sei venuto a controllarci di persona che tipo di alimentatore abbiamo dentro il case per caso? :rolleyes:
blackshard
24-06-2010, 16:58
a me dei consumi non me ne può fregar di meno....:D :D :D :D
E' sempre bello leggere questi commenti...
Appunto per questo ho detto quello che ho scritto... Non possono fare tanto i moralisti sui consumi quando fanno sistemi che hanno bisogno di alimentatori abbastanza generosi.
ma non ti poni il dubbio che chi mette l'accendo sui consumi sia coerente con cio' che dice ?
C''az.a
è logico che non è riferito a tutti (o almeno credevo che lo fosse), ma comunque c'è molta gente che ha sistemi da 800w e poi parla di consumi elevati delle schede video... io la ritengo incoerenza.
fendermexico
24-06-2010, 19:56
queste ultime schede nvidia sono proprio un cattivo esempio di ingegnerizzazione
si vede che sono buttate sul mercato solo per disperazione per non rimanere indietro...ma di fatto stanno indietro rispetto ad ati...sia come prestazioni che prezzi.
queste scaldano da morire...non oso immaginare quante torneranno in rma entro poco :rolleyes:
Adone_1985
24-06-2010, 20:06
queste ultime schede nvidia sono proprio un cattivo esempio di ingegnerizzazione
si vede che sono buttate sul mercato solo per disperazione per non rimanere indietro...ma di fatto stanno indietro rispetto ad ati...sia come prestazioni che prezzi.
queste scaldano da morire...non oso immaginare quante torneranno in rma entro poco :rolleyes:
Qlassico tentativo di flame.....fatto da una persona che non sa neanche di cosa parla....:rolleyes:
Ale55andr0
24-06-2010, 20:16
Parlate tanto di consumi elevati consumi bassi e ca**ate varie, e poi comprate alimentatori da almeno 850w (che anche quelli consumano se non lo sapete).
mi sa che sei tu a non sapere...
non è che se un'alimentatore eroga un potenza massima di 800w consuma 800w...dipende dal carico che deve sostenere...e dall'efficenza che ha...
Se ho un sistema che beve 300w e uso un'alimentatore da 600 col 60% di efficenza, e poi cambio usando uno da 1200w e 85% di efficienza, il consumo sara ben minore con l'alimentatore da 1200w....
Ale55andr0
24-06-2010, 20:19
Qlassico tentativo di flame.....fatto da una persona che non sa neanche di cosa parla....:rolleyes:
beh, se hai 3 miliardi di transistor ed un bus a 384bit vs 1 miliardo e 256bit e mi vai solo un 10-15% in più con temperature e consumi più elevati non è che mi fai smascellare....:mc:
o meglio, la mascella mi arriva a terra, ma non per l'entusiasmo...ipoteticamente visto di quanto possono salire le Ati con un leggero incremento di frequenza e bus più ampio la 5870 batterebbe tranquillamente la 480, sempre con calore e consumi più bassi, e gia' ora, con il solo overclock, è possibile assottigliare le già non eclatanti differenze senza scomodare fantasiose modifiche che comunque presto o tardi arriveranno...
fendermexico
24-06-2010, 20:25
Qlassico tentativo di flame.....fatto da una persona che non sa neanche di cosa parla....:rolleyes:
il tuo è classico tentativo di arrampicata con gli specchi per non ammettere che questa generazione nvidia sono dei termosifoni cari e poco prestanti
:)
Adone_1985
24-06-2010, 20:29
beh, se hai 3 miliardi di transistor ed un bus a 384bit vs 1 miliardo e 256bit e mi vai solo un 10-15% in più con temperature e consumi più elevati non è che mi fai smascellare....:mc:
o meglio, la mascella mi arriva a terra, ma non per l'entusiasmo...ipoteticamente visto di quanto possono salire le Ati con un leggero incremento di frequenza e bus più ampio la 5870 batterebbe tranquillamente la 480, sempre con calore e consumi più bassi, e gia' ora, con il solo overclock, e possibile assottigliare le già non eclatanti differenze senza scomodare fantasiose modifiche che comunque presto o tardi arriveranno...
cmq ha titolo informativo le 480 salgono benissimo (mio frat ha uno sli di 480) con un bel incremento circa 20 fps e le temp rimangono quasi uguali, l'unico fattore è la rumorosità, ma quella è soggettiva, però da qui a dire che la serie 400 di Nvidia è una bufala ce ne passa.....I problemi ci sono stati e è inutile sempre stare a dire le stesse cose...
cmq sono usciti adesso i nuovi driver, vedremo se la 470 si riavvicina alla 5870 visto che con i 10.5 la 470 stava alla pari ;)
Adone_1985
24-06-2010, 20:31
il tuo è classico tentativo di arrampicata con gli specchi per non ammettere che questa generazione nvidia sono dei termosifoni cari e poco prestanti
:)
è qui l'errore, io ho sempre detto che sono rumorose, calde rispetto ad ati, ma Nvidia ha sempre fatto Vga calde, come la 285, io l'avevo prima e non è più fredda della 470, quivdi è inutile che dici fesserie se neanche, ripeto, sai di cosa stai parlando:)
tu che scheda hai che parli tanto??
blackshard
24-06-2010, 20:53
è qui l'errore, io ho sempre detto che sono rumorose, calde rispetto ad ati, ma Nvidia ha sempre fatto Vga calde, come la 285, io l'avevo prima e non è più fredda della 470, quivdi è inutile che dici fesserie se neanche, ripeto, sai di cosa stai parlando:)
tu che scheda hai che parli tanto??
Quindi siccome nvidia ha sempre fatto vga calde (:asd:), è giusto che le sue nuove vga siano sempre calde...
Ma vabbè, ormai non stiamo parlando più del rapporto prezzo/prestazioni, stiamo parlando di un'altra cosa (fanboyaggine?)...
fendermexico
24-06-2010, 20:54
è qui l'errore, io ho sempre detto che sono rumorose, calde rispetto ad ati, ma Nvidia ha sempre fatto Vga calde, come la 285, io l'avevo prima e non è più fredda della 470, quivdi è inutile che dici fesserie se neanche, ripeto, sai di cosa stai parlando:)
tu che scheda hai che parli tanto??
Matrox Parhelia 512
Adone_1985
24-06-2010, 21:00
Quindi siccome nvidia ha sempre fatto vga calde (:asd:), è giusto che le sue nuove vga siano sempre calde...
Ma vabbè, ormai non stiamo parlando più del rapporto prezzo/prestazioni, stiamo parlando di un'altra cosa (fanboyaggine?)...
No, però della 285 nessuno parlava tanto, e invece della serie 400 si dice solo quanto consuma il prezzo è alto....ecc ecc..
Io appena uscita la 285 XFX la pagai 365 euro la 470 l'ho pagata 310 euro, ma di cosa stiamo parlando??
Forse non avete capito che per quanto mi riguarda, se Ati avesse fatto schede con supporto al 3D, e andavanp più forte delle Nvidia, io le avrei prese ha occhi chiusi, però questo ancora non accade...tutto qui, io non sono un Fanboy, compro solo quello che mi soddisfa pienamente...
mi sa che sei tu a non sapere...
non è che se un'alimentatore eroga un potenza massima di 800w consuma 800w...dipende dal carico che deve sostenere...e dall'efficenza che ha...
Se ho un sistema che beve 300w e uso un'alimentatore da 600 col 60% di efficenza, e poi cambio usando uno da 1200w e 85% di efficienza, il consumo sara ben minore con l'alimentatore da 1200w....
Mi sa che sei tu qui a non sapere... ma a non saper leggere! Non ho detto che un alimentatore da 800w consuma sempre 800w, questo lo hai detto tu. Io ho detto semplicemente che anche l'alimentatore consuma, perchè per funzionare avrà bisogno di qualche tipo di energia (o sbaglio?). Questa energia che l'alimentatore utilizza si andrà a sommare con il consumo del sistema, indipendentemente dall'efficienza dell'ali.
Se dovete parlare, cercate almeno di leggere attentamente ciò che viene scritto.
E comunque come avrò detto miliardi di volte, tirare in campo il fattore temperatura è una grandissima ca**ata, per il semplice motivo che queste schede sono progettate per lavorare a temperature più elevate dei classici 80° che si vedono, quindi significa che non si corre nessun rischio di rompere nulla.
E comunque la facoltà di scelta al momento dell'acquisto è data proprio dal libero mercato, quindi è inutile che cercate di demolire delle ottime vga solo per tirare acqua al proprio mulino. La serie 400 di nvidia sta vendendo molto e gli utenti che le acquistano sono pienamente soddisfatti. Più di questo cosa volete? Un caffè???
Gallone83
24-06-2010, 23:25
Catalyst 10.5 vs Forceware 257.15 beta la situazione è questa:
http://www.hardware.fr/articles/793-17/test-zotac-geforce-gtx-465.html
Non considerate i 10.5 che sono i driver più pietosi mai rilasciati (il voto di windows cala di 2 punti,anche se non è affidabile) fate il paragone con i 10.6
Gallone83
24-06-2010, 23:28
cmq ha titolo informativo le 480 salgono benissimo (mio frat ha uno sli di 480) con un bel incremento circa 20 fps e le temp rimangono quasi uguali, l'unico fattore è la rumorosità, ma quella è soggettiva, però da qui a dire che la serie 400 di Nvidia è una bufala ce ne passa.....I problemi ci sono stati e è inutile sempre stare a dire le stesse cose...
cmq sono usciti adesso i nuovi driver, vedremo se la 470 si riavvicina alla 5870 visto che con i 10.5 la 470 stava alla pari ;)
Certo anzi la risupera alla grande come ha sempre fatto Non considerate i 10.5 che sono i driver più pietosi mai rilasciati (il voto di windows cala 2 punti,anche se non è affidabile) fate il paragone con i 10.6
Gallone83
24-06-2010, 23:45
ma infatti mi riferivo a fermi , che se andasse veramente a ruba avrebbe fatto calare i prezzi delle ati... come concorrenza vuole , invece nulla... :cry: :O
C;.a.;'z;'.a;'.za
Infatti..
Nvidia propio non vende.. ora la 480 la trovi a 413 euro confronto i 500 dell' uscita
Adone_1985
24-06-2010, 23:45
Certo anzi la risupera alla grande come ha sempre fatto Non considerate i 10.5 che sono i driver più pietosi mai rilasciati (il voto di windows cala 2 punti,anche se non è affidabile) fate il paragone con i 10.6
Vedremo con i nuovi driver....cmq ripeto ha me non me ne frega niente se non arriva alla pari (forse questo concetto non ti è chiaro, per me si potrebbero anche unire le 2 società)...a me interessa il fatto che posso usare il 3d...cosa che ati non ha....spero che ora hai capito...
Gallone83
24-06-2010, 23:47
Vedremo con i nuovi driver....cmq ripeto ha me non me ne frega niente se non arriva alla pari (forse questo concetto non ti è chiaro, per me si potrebbero anche unire le 2 società)...a me interessa il fatto che posso usare il 3d...cosa che ati non ha....spero che ora hai capito...
Scusami era partita da un altra persona la storia dei driver
Questo non è vero..
Ati ha il 3d solo che lo sfrutti con software di terze parti...
http://www.amd.com/us/products/desktop/graphics/ati-radeon-hd-5000/hd-5970/Pages/ati-radeon-hd-5970-specifications.aspx
è scritto quasi alla fine
Adone_1985
24-06-2010, 23:51
Questo non è vero..
Ati ha il 3d solo che lo sfrutti con software di terze parti...
No con occhiali attivi...come i 3d vision...con le ati si possono usare solo gli occhiali passivi...
Gallone83
24-06-2010, 23:54
No con occhiali attivi...come i 3d vision...con le ati si possono usare solo gli occhiali passivi...
Questa cosa mi è nuova..
Cioè di 3D non sono informato...
Cosa cambierebbe?
Adone_1985
25-06-2010, 00:03
Questa cosa mi è nuova..
Cioè di 3D non sono informato...
Cosa cambierebbe?
Allora i 3d vision hanno lenti attive, ha cristalli liquidi, e hanno bisogno di un aggiornamento del monitor di 120hz...gli occhiali passivi hanno lenti normali polarizzate....g migliori sono quelli con lenti attive, non a caso tutti i produttori di tv3d ready, hanno scelto quest'ultima....anche al cinema la migliore tecnologia 3d è x-pand e ha lenti attive...;)
Gallone83
25-06-2010, 00:05
Allora i 3d vision hanno lenti attive, ha cristalli liquidi, e hanno bisogno di un aggiornamento del monitor di 120hz...gli occhiali passivi hanno lenti normali polarizzate....g migliori sono quelli con lenti attive, non a caso tutti i produttori di tv3d ready, hanno scelto quest'ultima....anche al cinema la migliore tecnologia 3d è x-pand e ha lenti attive...;)
Io sapevo solo dei monitor 120Hz 3d ready...
Ottimo Grazie Mille
Adone_1985
25-06-2010, 00:07
Spiegato un pò di corsa...ho aperto un topic a riguardo : OCCHIALI 3D VISION E ALTRE PERIFERICHE 3D...ati dopo 1 anno ancora non ha (penso per poco) tale tecnologia..
Allora i 3d vision hanno lenti attive, ha cristalli liquidi, e hanno bisogno di un aggiornamento del monitor di 120hz...gli occhiali passivi hanno lenti normali polarizzate....g migliori sono quelli con lenti attive, non a caso tutti i produttori di tv3d ready, hanno scelto quest'ultima....anche al cinema la migliore tecnologia 3d è x-pand e ha lenti attive...;)
E che c'entra con l'hardware sta storia?
Stai valutando l'azienda nVidia e le sue tecnologie proprietarie, o l'harware che ti vende? Non riesco a capire.
Secondo te quanto ci vuole a riprodurre una variante equivalente alla tecnologia 3d Vision ??? Sei convinto che hardware di altro produttore non possa, oppure debba farti una scheda video apposta?
Quanto vendono adesso i giochi corredati in più con la tecnologia 3D?
Siete 4 gatti inchiodati a muro, con tutto il rispetto.
Quando prende piede in massa poi ne riparliamo.
Adone_1985
25-06-2010, 00:20
E che c'entra con l'hardware sta storia?
Stai valutando l'azienda nVidia e le sue tecnologie proprietarie, o l'harware che ti vende? Non riesco a capire.
Secondo te quanto ci vuole a riprodurre una variante equivalente alla tecnologia 3d Vision ??? Sei convinto che hardware di altro produttore non possa, oppure debba farti una scheda video apposta?
Quanto vendono adesso i giochi corredati in più con la tecnologia 3D?
Siete 4 gatti inchiodati a muro, con tutto il rispetto.
Quando prende piede in massa poi ne riparliamo.
Ma che te frega a te quello che valuto io...con tutto ripetto...è un anno che uso gli occhiali 3d, con Nvidia mi trovo bene...adesso rispetta le mie ergenze...se lo fa con mezzi proprietari non me ne frega nulla...e ho anche detto che se esce una scheda ati o dei driver che supportano gli occhiali attivi valutero anche la controparte....e cmq se siamo 4 gatti, qual'è il problema? Se a te non piace non lo compri...nulla di più semplice.....
Ma che te frega a te quello che valuto io...con tutto ripetto...è un anno che uso gli occhiali 3d, con Nvidia mi trovo bene...adesso rispetta le mie ergenze...se lo fa con mezzi proprietari non me ne frega nulla...e ho anche detto che se esce una scheda ati o dei driver che supportano gli occhiali attivi valutero anche la controparte....e cmq se siamo 4 gatti, qual'è il problema? Se a te non piace non lo compri...nulla di più semplice.....
Fammi capire, è possibile discutere con gente adulta qua dentro o no?
Se mi si risponde con "che te frega" allora ciao, posta da solo e arrivederci.
Quando mai io mi feci gli affari tuoi, scusa?
Mica ti sto dicendo di cambiare scheda video!!!
Tu hai tirato fuori il discorso del 3D ed ora che vai cercando?
Ti ho detto solo che le capacità dell'hardware non hanno niente a che dividere col supporto 3D attivo, passivo o quello che è; tutta roba comunque implementabile tranquillamente in un secondo, terzo, quarto tempo.
E onestamente, quanti giochi hanno adesso il supporto 3D?
Ritengo decisamente più gravi, gli aspetti tecnici della scheda video e che appartengono alla scheda video.
Poi se ti offendi quando ti si dice queste cose, mi dispiace.
blackshard
25-06-2010, 00:48
No, però della 285 nessuno parlava tanto, e invece della serie 400 si dice solo quanto consuma il prezzo è alto....ecc ecc..
Perchè la gtx285, nonostante costasse di più, aveva ancora consumi umani e prestazioni migliori nell'ambito delle schede a singolo chip.
Io appena uscita la 285 XFX la pagai 365 euro la 470 l'ho pagata 310 euro, ma di cosa stiamo parlando??
Che vuoi che ti dica? Io non mi sognerei mai di BUTTARE 365 euro (o 310 euro) per una scheda video che dopo un anno vale si e no la metà.
Tralaltro i prezzi delle nuove gtx sono ritoccati in basso perchè nvidia pratica sconti. Non so fino a che punto potrà praticare questi sconti.
Forse non avete capito che per quanto mi riguarda, se Ati avesse fatto schede con supporto al 3D, e andavanp più forte delle Nvidia, io le avrei prese ha occhi chiusi, però questo ancora non accade...tutto qui, io non sono un Fanboy, compro solo quello che mi soddisfa pienamente...
Se ati avesse fatto schede con il supporto al 3D, ho idea che avresti trovato qualche altro pelucco per dire che le ati non vanno bene. Tralaltro il supporto al 3D non è niente di eccezionale, basta un software e un monitor a 120Hz. E, sottinteso, il 3D così com'è ora è una gran cagata.
Adone_1985
25-06-2010, 07:14
I giochi sono una miriade...nel sito Nvidia c'è una bella lista con le varie importazioni...cmq è vero che ati lo potrebbe fare tranquillamente, ma ancora non si decide...
Adone_1985
25-06-2010, 07:36
Perchè la gtx285, nonostante costasse di più, aveva ancora consumi umani e prestazioni migliori nell'ambito delle schede a singolo chip.
Che vuoi che ti dica? Io non mi sognerei mai di BUTTARE 365 euro (o 310 euro) per una scheda video che dopo un anno vale si e no la metà.
Tralaltro i prezzi delle nuove gtx sono ritoccati in basso perchè nvidia pratica sconti. Non so fino a che punto potrà praticare questi sconti.
Se ati avesse fatto schede con il supporto al 3D, ho idea che avresti trovato qualche altro pelucco per dire che le ati non vanno bene. Tralaltro il supporto al 3D non è niente di eccezionale, basta un software e un monitor a 120Hz. E, sottinteso, il 3D così com'è ora è una gran cagata.
una cagata...un esempio di chi parla senza essere informato sulla Stereoscopia...cmq se tu non vuoi spendere soldi ogni anno sei libero di farlo....io non la penso così, punti di vista....
Fammi capire, è possibile discutere con gente adulta qua dentro o no?
Se mi si risponde con "che te frega" allora ciao, posta da solo e arrivederci.
Quando mai io mi feci gli affari tuoi, scusa?
Mica ti sto dicendo di cambiare scheda video!!!
Tu hai tirato fuori il discorso del 3D ed ora che vai cercando?
Ti ho detto solo che le capacità dell'hardware non hanno niente a che dividere col supporto 3D attivo, passivo o quello che è; tutta roba comunque implementabile tranquillamente in un secondo, terzo, quarto tempo.
E onestamente, quanti giochi hanno adesso il supporto 3D?
Ritengo decisamente più gravi, gli aspetti tecnici della scheda video e che appartengono alla scheda video.
Poi se ti offendi quando ti si dice queste cose, mi dispiace.
Lui stava spiegando del perchè ha scelto nvidia al posto di ati , specialmente per il 3d...probabilmente di quello che fa la massa ad uno non glie ne frega un'emerita cippa , e sceglie in base alle proprie esigenze , che dici ? :rolleyes:
Ale55andr0
25-06-2010, 10:03
Lui stava spiegando del perchè ha scelto nvidia al posto di ati , specialmente per il 3d...probabilmente di quello che fa la massa ad uno non glie ne frega un'emerita cippa , e sceglie in base alle proprie esigenze , che dici ? :rolleyes:
Io dico che la tua risposta è scontata avendo un 470 in sign...e viceversa per chi ha una 5850-70
ad ogni modo per quel che mi riguarda, per i motivi detti qualche post fa, l'architettura nVidia non mi pare granchè, è un po' come se mettessimo a confronto un 3000 V6 ed un 6000 V12 con quest'ultimo che batte di poco il 3000 e con consumi molto più elevati, poi se uno ha un minimo di onestà intellettuale lo ammette: nVidia ha un gpu che ha il triplo dei transitor ed un bus di memoria di 384 bit, con quei numeri dovrebbe subbissarla una 5870, cosa che invece non fa, insomma, Ati ha molti più CV/l :D
Io aspetto le 6xxx :O
Gallone83
25-06-2010, 10:12
Fammi capire, è possibile discutere con gente adulta qua dentro o no?
Se mi si risponde con "che te frega" allora ciao, posta da solo e arrivederci.
Quando mai io mi feci gli affari tuoi, scusa?
Mica ti sto dicendo di cambiare scheda video!!!
Tu hai tirato fuori il discorso del 3D ed ora che vai cercando?
Ti ho detto solo che le capacità dell'hardware non hanno niente a che dividere col supporto 3D attivo, passivo o quello che è; tutta roba comunque implementabile tranquillamente in un secondo, terzo, quarto tempo.
E onestamente, quanti giochi hanno adesso il supporto 3D?
Ritengo decisamente più gravi, gli aspetti tecnici della scheda video e che appartengono alla scheda video.
Poi se ti offendi quando ti si dice queste cose, mi dispiace.
Non capisco tutto questo casino..
Ho fatto una domanda ad Adone e lui mi ha risposto..... giusto adone?
Adone_1985
25-06-2010, 10:37
Non capisco tutto questo casino..
Ho fatto una domanda ad Adone e lui mi ha risposto..... giusto adone?
;)
Io dico che la tua risposta è scontata avendo un 470 in sign...e viceversa per chi ha una 5850-70
ad ogni modo per quel che mi riguarda, per i motivi detti qualche post fa, l'architettura nVidia non mi pare granchè, è un po' come se mettessimo a confronto un 3000 V6 ed un 6000 V12 con quest'ultimo che batte di poco il 3000 e con consumi molto più elevati, poi se uno ha un minimo di onestà intellettuale lo ammette: nVidia ha un gpu che ha il triplo dei transitor ed un bus di memoria di 384 bit, con quei numeri dovrebbe subbissarla una 5870, cosa che invece non fa, insomma, Ati ha molti più CV/l :D
Io aspetto le 6xxx :O
Ma risposta scontata de che ? ma li leggi i post che uno scrive ? Ho forse detto è meglio Nvidia perchè ha cip & ciop più qui,quo, e qua ? non mi pare ... ho solo fatto notare che Adone ha scelto in base alle sue esigenze , come ogni altra persona che sia in grado di decidere con la propria testa,senza dover per forza seguire la massa...Spiegami cosa c'entra che ho una 470 in firma :mbe:
Ma risposta scontata de che ? ma li leggi i post che uno scrive ? Ho forse detto è meglio Nvidia perchè ha cip & ciop più qui,quo, e qua ? non mi pare ... ho solo fatto notare che Adone ha scelto in base alle sue esigenze , come ogni altra persona che sia in grado di decidere con la propria testa,senza dover per forza seguire la massa...Spiegami cosa c'entra che ho una 470 in firma :mbe:
È inutile che ti accanisci... io ormai c'ho fatto il callo. Qui la maggior parte della gente che commenta questi thread sono fan boy (e guarda caso tutti di ATI che devono spu**anare NVIDIA). Non ragioniam di loro, ma guarda e passa!
Non capisco tutto questo casino..
Ho fatto una domanda ad Adone e lui mi ha risposto..... giusto adone?
Ma guarda che non ho fatto casino! Se leggi, sono soltanto intervenuto a dire la mia sul 3D; se qualcuno è suscettibile che ci posso fare?
Parlate del 3D in pubblico e poi rispondete "che ve frega" ?.
Ma andatevene in PVT se non volte essere disturbati.
Abbiate pazienza.
Poi.... mica ho detto che non dovete usare il 3D!!! Bah!
Che c'entra rispondere "che te frega"; mi pare palese che non me ne puo' fregare niente di ciò che fa la gente con i suoi soldi. Stiamo soltanto dicendo le nostre opinioni.
Appena ho detto "che siete 4 gatti inchiodati a muro" che utilizzate il 3D subito si diventa permalosi.
È inutile che ti accanisci... io ormai c'ho fatto il callo. Qui la maggior parte della gente che commenta questi thread sono fan boy (e guarda caso tutti di ATI che devono spu**anare NVIDIA). Non ragioniam di loro, ma guarda e passa!
Ma infatti tu non devi dare ascolto a chi è di partito preso, o eventualmente fanboy; dovresti invece dare ascolto a dati più oggettivi e fonti più affidabili... se ti va poi di avere opinioni più robuste.
Leggi le recensioni su Fermi; ti risultano più i giudizi positivi o quelli negativi?
Non è poi così complicato.
E' chiaro che per non esserlo (complicato intendo) non bisogna avere attenzioni particolari verso un marchio o l'altro; altrimenti poi certamente risulta più difficile venirne a capo.
Adone_1985
25-06-2010, 14:47
E che c'entra con l'hardware sta storia?
Stai valutando l'azienda nVidia e le sue tecnologie proprietarie, o l'harware che ti vende? Non riesco a capire.
Secondo te quanto ci vuole a riprodurre una variante equivalente alla tecnologia 3d Vision ??? Sei convinto che hardware di altro produttore non possa, oppure debba farti una scheda video apposta?
Quanto vendono adesso i giochi corredati in più con la tecnologia 3D?
Siete 4 gatti inchiodati a muro, con tutto il rispetto.
Quando prende piede in massa poi ne riparliamo.
Come che centra l'hardware, io valuto l'hardware che mi vende, Nvidia oggi fa schede video che supportano il 3d, cosa che da un anno a questa parte non fa Ati, no perchè le sue schede non ce la facciano(mai pensato), ma perchè evidentemente il 3D al momento non gli interessa...
Sicuramente non ci vuole niente a fare altri occhiali 3D con lenti attive, li hanno fatti tutti...solamente che nell'ambito gaming Nvidia, da un anno a questa parte (ripeto) è l'unica che adotta questa tecnologia che a me piace particolarmente....
Non vedo nulla di sbagliato.
Cmq i giochi che supportano il 3D sono moltissimi...c'è una lista dei giochi nel sito Nvidia...
e ti posso assicurare che molti ora stanno comprando il Kit....certo un anno fa li avevo solo io nel forum....però ti posso garantire che sono una figata....tu li hai provati nei giochi?
Ale55andr0
25-06-2010, 18:38
È inutile che ti accanisci... io ormai c'ho fatto il callo. Qui la maggior parte della gente che commenta questi thread sono fan boy (e guarda caso tutti di ATI che devono spu**anare NVIDIA). Non ragioniam di loro, ma guarda e passa!
forse dovresti girare un po' per la rete, e vedere quanti "improvvisamente" siano diventati "fanboy" Ati...
forse dovresti girare un po' per la rete, e vedere quanti "improvvisamente" siano diventati "fanboy" Ati...
Ma mi vuoi spiegare che cavolo ci guadagnate a tifare x una o per l'altra ??? A me che sia ati o nvidia non me ne può fregar di meno , scelgo quello che al momento mi soddisfa di più secondo le mie esigenze , ma poi non vado di certo a nerdare sui post che riguardano la marca che non ho preso.. Vi piace così tanto creare flame ? :mbe:
longhorn7680
25-06-2010, 21:05
No, però della 285 nessuno parlava tanto, e invece della serie 400 si dice solo quanto consuma il prezzo è alto....ecc ecc..
Io appena uscita la 285 XFX la pagai 365 euro la 470 l'ho pagata 310 euro, ma di cosa stiamo parlando??
Forse non avete capito che per quanto mi riguarda, se Ati avesse fatto schede con supporto al 3D, e andavanp più forte delle Nvidia, io le avrei prese ha occhi chiusi, però questo ancora non accade...tutto qui, io non sono un Fanboy, compro solo quello che mi soddisfa pienamente...
Forse perche la 285 obiettivamente non aveva concorrenza ;) Ma la finiamo con la cavolata del mancato supporto al 3d di Ati??? Potresti dimostrare la mancanza di questa feature???
alexcrystal
25-06-2010, 21:17
io sono fanboy di nvidia ma so giudicare e personalmente io una scheda video ati me la comprerei tipo la 5670 comunque è vero che molti sono fanboy e nn fanno altro che rompere le pa**e a quelli che tifano opposto ma siete invidiosi o cosa? sapete almeno le specifiche delle varie gpu? prima di giudicare? o x lo - le avete provate?
io sono fanboy di nvidia ma so giudicare e personalmente io una scheda video ati me la comprerei tipo la 5670 comunque è vero che molti sono fanboy e nn fanno altro che rompere le pa**e a quelli che tifano opposto ma siete invidiosi o cosa? sapete almeno le specifiche delle varie gpu? prima di giudicare? o x lo - le avete provate?
Tu però esci dall'uovo di pasqua.... e dire che siamo a fine giugno.
Le recensioni cosa le fanno a fare? Più specifiche di quelle cos'altro vorresti? Che te lo venga a dire il Papa? :rolleyes:
P.S.: Di fanboy che ritiengono di sapere giudicare e nel frattempo sostenere un marchio non mi pare di averne mai visti. Prova a infiliare il piede in due scarpe, vediamo se ci riesci. Come caspio fai a ragionare se sei fanboy? :confused:
Adone_1985
25-06-2010, 22:21
Forse perche la 285 obiettivamente non aveva concorrenza ;) Ma la finiamo con la cavolata del mancato supporto al 3d di Ati??? Potresti dimostrare la mancanza di questa feature???
Non devo dimostrare niente a nessuno, è così e basta, purtroppo non ci sono in commercio kit di occhiali attivi per schede Ati...il supporto Ati c'è ed è stato anche annunciato ma di concreto attualmente chi ha ati non gioca in stereoscopia attiva...si possono utilizzare solo gli iZ3d e gli Zalman tutti passivi e funzionano anche con nvidia, il supporto ati in questo caso nemmeno centra...
alexcrystal
26-06-2010, 11:08
Tu però esci dall'uovo di pasqua.... e dire che siamo a fine giugno.
Le recensioni cosa le fanno a fare? Più specifiche di quelle cos'altro vorresti? Che te lo venga a dire il Papa? :rolleyes:
P.S.: Di fanboy che ritiengono di sapere giudicare e nel frattempo sostenere un marchio non mi pare di averne mai visti. Prova a infiliare il piede in due scarpe, vediamo se ci riesci. Come caspio fai a ragionare se sei fanboy? :confused:
io so giudicare e sostenere un marchio
per le specifiche intendo dire che molta gente dice lnvidia fa schifo poi pero invece non sa niente intendo questo non so cosa tu abbia capito
io so giudicare e sostenere un marchio
per le specifiche intendo dire che molta gente dice lnvidia fa schifo poi pero invece non sa niente intendo questo non so cosa tu abbia capito
Sì ok, ti credo sulla parola. :sofico:
C'è tanta gente a cui fa schifo ATi a prescindere, AMD, Intel, le fragole, le banane e le pesche!!!
Ma ripeto il giudizio non globalmente positivo e inferiore del GF100 sovviene dalle recensioni.
Visto che dici di essere fanboy, spera che nvidia non metta in circolazione ste GTX485, e si concentri invece sulla revisione del chip.
Perché una GTX485, ora come ora, è inutile persino per la più alta fascia Enthusiast; parliamoci chiaro, solo i fanboy potrebbero acquistare una scheda del genere; e qua ci vuole poca materia grigia per capirlo.
netcrusher
26-06-2010, 13:37
Per me i fanboy non sono altro che una massa di ignoranti che si aggrappano ai soliti luoghi comuni e seminano inutili flames, invece al posto di essere tali si può utilizzare un metro di valutazione diverso ovvero fare domande e chiedere le dovute risposte, in piena trasparenza, questo decreta quanto una persona sia realmente preparata, intelligente e soprattutto non di parte, io posseggo una scheda video Ati e sono pienamente soddisfatto e naturalmente mi sono fatto delle mie idee su Nvidia che sono tutt'altro che lusinghiere, se vogliono essere i leader sul mercato delle vga devono anche dimostrare in maniera leale che le loro schede video vanno più forte delle Ati a parità di condizioni e senza le solite ottimizzazioni di cui Nvidia gode ed Ati invece no, considerando che attualmente i giochi sia ottimizzati Nvidia (la maggioranza) che non girano in tutto e per tutto meglio sulla top di gamma Ati la 5970 che è la scheda video in assoluto più performante, ci sono i dati a supporto quindi è inutile continuare con queste stupide diatribe che denotano solo una stupidità di fondo, per quanto riguarda il 3D anche Ati lo supporta (il supporto è pieno a partire dalle ultime release dei Catalyst) quindi non facciamo falsa informazione, non c'è fanboyismo che tenga di fronte ad un dato sperimentale che dice veramente le cose come stanno.......ciao
Adone_1985
26-06-2010, 13:42
Per me i fanboy non sono altro che una massa di ignoranti che si aggrappano ai soliti luoghi comuni e seminano inutili flames, invece al posto di essere tali si può utilizzare un metro di valutazione diverso ovvero fare domande e chiedere le dovute risposte, in piena trasparenza, questo decreta quanto una persona sia realmente preparata, intelligente e soprattutto non di parte, io posseggo una scheda video Ati e sono pienamente soddisfatto e naturalmente mi sono fatto delle mie idee su Nvidia che sono tutt'altro che lusinghiere, se vogliono essere i leader sul mercato delle vga devono anche dimostrare in maniera leale che le loro schede video vanno più forte delle Ati a parità di condizioni e senza le solite ottimizzazioni di cui Nvidia gode ed Ati invece no, considerando che attualmente i giochi sia ottimizzati Nvidia (la maggioranza) che non girano in tutto e per tutto meglio sulla top di gamma Ati la 5970 che è la scheda video in assoluto più performante, ci sono i dati a supporto quindi è inutile continuare con queste stupide diatribe che denotano solo una stupidità di fondo, per quanto riguarda il 3D anche Ati lo supporta (il supporto è pieno a partire dalle ultime release dei Catalyst) quindi non facciamo falsa informazione, non c'è fanboyismo che tenga di fronte ad un dato sperimentale che dice veramente le cose come stanno.......ciao
Forse non hai capito il post che ho scritto sopra.....e cmq se dici che esiste un kit con lenti attive per le schede Ati dimostramelo....non puoi, perchè ancora non c'è...tutto qui....
ho già detto che con Ati ADESSO si può solamente usare il 3D con lenti passive e non con lenti attive, ma capisci quando leggi o sei de cocco??
dai aspetto postami un link di occhiali attivi per ATI tanto che ti piace fare il moralista....
PS: il software te lo sbatti se non hai le periferiche
netcrusher
26-06-2010, 13:47
Forse non hai capito il post che ho scritto sopra.....e cmq se dici che esiste un kit con lenti attive per le schede Ati dimostramelo....non puoi, perchè ancora non c'è...tutto qui....
ho già detto che con Ati ADESSO si può solamente usare il 3D con lenti passive e non con lenti attive, ma capisci quando leggi o sei de cocco??
dai aspetto postami un link di occhiali attivi per ATI tanto che ti piace fare il moralista....
PS: il software te lo sbatti se non hai le periferiche
Da come ti poni posso solo dirti che sei uno sbruffone ed un presuntuoso, meglio essere moralisti che porsi con dei modi arroganti e saccenti come i tuoi......
Adone_1985
26-06-2010, 13:50
Da come ti poni posso solo dirti che sei uno sbruffone ed un presuntuoso, meglio essere moralisti che porsi con dei modi arroganti e saccenti come i tuoi......
Mi hai risposto, non sai che dire perchè hai torto marcio....io non voglio la ragione, ma tu mi accusi di essere un fanboy, quando parli senza cognizione di causa e dici solo tu delle cose non inerenti alla realtà dei fatti....
quindi informati prima di dare disinformazione ok?
PS: Aspetto il link degli occhiali Attivi per ATI
Adone_1985
26-06-2010, 13:52
Per me i fanboy non sono altro che una massa di ignoranti che si aggrappano ai soliti luoghi comuni e seminano inutili flames, invece al posto di essere tali si può utilizzare un metro di valutazione diverso ovvero fare domande e chiedere le dovute risposte, in piena trasparenza, questo decreta quanto una persona sia realmente preparata, intelligente e soprattutto non di parte, io posseggo una scheda video Ati e sono pienamente soddisfatto e naturalmente mi sono fatto delle mie idee su Nvidia che sono tutt'altro che lusinghiere, se vogliono essere i leader sul mercato delle vga devono anche dimostrare in maniera leale che le loro schede video vanno più forte delle Ati a parità di condizioni e senza le solite ottimizzazioni di cui Nvidia gode ed Ati invece no, considerando che attualmente i giochi sia ottimizzati Nvidia (la maggioranza) che non girano in tutto e per tutto meglio sulla top di gamma Ati la 5970 che è la scheda video in assoluto più performante, ci sono i dati a supporto quindi è inutile continuare con queste stupide diatribe che denotano solo una stupidità di fondo, per quanto riguarda il 3D anche Ati lo supporta (il supporto è pieno a partire dalle ultime release dei Catalyst) quindi non facciamo falsa informazione, non c'è fanboyismo che tenga di fronte ad un dato sperimentale che dice veramente le cose come stanno.......ciao
Ecco le tue parole, poi sono io il saccente e presuntuoso, ma perfavore:rolleyes:
Ecco le mie parole nei post precedenti: Forse non avete capito che per quanto mi riguarda, se Ati avesse fatto schede con supporto al 3D, e andavanp più forte delle Nvidia, io le avrei prese ha occhi chiusi, però questo ancora non accade...tutto qui, io non sono un Fanboy, compro solo quello che mi soddisfa pienamente...
netcrusher
26-06-2010, 13:57
Ecco le tue parole, poi sono io il saccente e presuntuoso, ma perfavore:rolleyes:
Ma quanti anni hai, ti rendi conto di come ti comporti???? Io ho parlato di periferiche occhialini e caxxi vari???? Ho detto che nei catalyst viene offerto supporto pieno al 3D, non si può equivocare assolutamente, che ne so poi che non ci sono gli occhiali by Ati e altre amenità varie..........comunque non si vince nulla alla fine ti stai accanendo come una iena..........
p.s.
Non aspettarti foto perchè come hai detto tu stesso non ci sono occhiali attivi Ati per il 3D......sei contento adesso ????? Sono stato chiaro ????
Adone_1985
26-06-2010, 14:10
Ma quanti anni hai, ti rendi conto di come ti comporti???? Io ho parlato di periferiche occhialini e caxxi vari???? Ho detto che nei catalyst viene offerto supporto pieno al 3D, non si può equivocare assolutamente, che ne so poi che non ci sono gli occhiali by Ati e altre amenità varie..........comunque non si vince nulla alla fine ti stai accanendo come una iena..........
p.s.
Non aspettarti foto perchè come hai detto tu stesso non ci sono occhiali attivi Ati per il 3D......sei contento adesso ????? Sono stato chiaro ????
vabbè mo rigiri pure la frittata....allora siamo freschi....prima accusi la gente di fanboysmo e falsa informazione e poi....mi vieni a dire che non ci sono occhiali attivi per ati, questo cosa vuol dire?
Che ancora ATi non ha la stereoscopia attiva...punto, quindi quella frase da moralista te la potevi pure risparmiare....
alexcrystal
26-06-2010, 14:33
Sì ok, ti credo sulla parola. :sofico:
C'è tanta gente a cui fa schifo ATi a prescindere, AMD, Intel, le fragole, le banane e le pesche!!!
Ma ripeto il giudizio non globalmente positivo e inferiore del GF100 sovviene dalle recensioni.
Visto che dici di essere fanboy, spera che nvidia non metta in circolazione ste GTX485, e si concentri invece sulla revisione del chip.
Perché una GTX485, ora come ora, è inutile persino per la più alta fascia Enthusiast; parliamoci chiaro, solo i fanboy potrebbero acquistare una scheda del genere; e qua ci vuole poca materia grigia per capirlo.
ti do ragione x carità ma neanche io comprerei una 480/485 tanto tanto una 460 si ma quelle 2 no i consumi sono eccessivi tanto nessuna configurazione esistente adesso è perfetta
netcrusher
26-06-2010, 16:57
vabbè mo rigiri pure la frittata....allora siamo freschi....prima accusi la gente di fanboysmo e falsa informazione e poi....mi vieni a dire che non ci sono occhiali attivi per ati, questo cosa vuol dire?
Che ancora ATi non ha la stereoscopia attiva...punto, quindi quella frase da moralista te la potevi pure risparmiare....
Zì Badrone sgusa badrone io non dire biù...........
Adone_1985
26-06-2010, 20:22
Zì Badrone sgusa badrone io non dire biù...........
Ah ecco perchè non capivi, dalle tue parti non è ancora arrivata questa tecnologia......:O
netcrusher
26-06-2010, 20:46
Ah ecco perchè non capivi, dalle tue parti non è ancora arrivata questa tecnologia......:O
ehhh....e che vuoi fare verrà il momento anche qui presto o tardi........:rolleyes:
blackshard
26-06-2010, 22:30
Giusto per il gusto di... :asd: :asd:
http://www.appuntidigitali.it/10893/%E2%80%9Cil-3d-e-una-stron%E2%80%9D-parola-di-john-carpenter/
Il 3D ancora è troppo costoso e una tecnologia poco stabilizzata; Nintendo ha fatto un passo importante togliendo di mezzo gli occhiali scendendo comunque ad un compromesso che ci sta e facendo capire che ancora c'è da lavorarci per perfezionarla a dovere.
Se si mette in conto che per tale supporto, nella maggior parte dei casi, bisogna munirsi di un nuovo monitor/TV e di un paio di occhiali che costano più del monitor, la cosa, se permettete, ritengo sia riservata solo agli appassionati che hanno particolare attenzione per le innovazioni e che non badano a spese.
Sia chiaro il 3D è una cosa tanto bella, ma altrettanto inaccessibile per le tasche del comune utente a cui piacciono i videogiochi.
Se prima ero scettico rispetto al 3D e agli occhiali (passivi o attivi), adesso dopo che Nintendo ha introdotto il 3DS con tecnologia senza lenti alzo ancor di più il livello di attenzione e mi guardo bene prima di inoltrarmi in questa strada con ancora a vista i cartelli "Lavori in corso".
Tra PhysX che richiede schede specifiche, quando nella pratica ci sarebbe la possibilità di estenderlo, lasciando così tutto l'onere delle prestazioni alle potenzialità della propria scheda e dell'hw in possesso.... tra il 3D che per farlo andare richiede nuove periferiche che certamente debbono essere acquistate.... io, volentieri e finchè posso, mi tengo alla larga da questo scempio di business dove l'utente deve fare solo una cosa: pagare, pagare e ancora pagare uno sproposito.
Quando troverò, io come tanti altri, un pretesto ragionevole per cambiare monitor o TV, apporfitterò anch'io del 3D; ma a farlo apposta non se ne parla proprio.
Adone_1985
27-06-2010, 14:34
Il 3D ancora è troppo costoso e una tecnologia poco stabilizzata; Nintendo ha fatto un passo importante togliendo di mezzo gli occhiali scendendo comunque ad un compromesso che ci sta e facendo capire che ancora c'è da lavorarci per perfezionarla a dovere.
Se si mette in conto che per tale supporto, nella maggior parte dei casi, bisogna munirsi di un nuovo monitor/TV e di un paio di occhiali che costano più del monitor, la cosa, se permettete, ritengo sia riservata solo agli appassionati che hanno particolare attenzione per le innovazioni e che non badano a spese.
Sia chiaro il 3D è una cosa tanto bella, ma altrettanto inaccessibile per le tasche del comune utente a cui piacciono i videogiochi.
Se prima ero scettico rispetto al 3D e agli occhiali (passivi o attivi), adesso dopo che Nintendo ha introdotto il 3DS con tecnologia senza lenti alzo ancor di più il livello di attenzione e mi guardo bene prima di inoltrarmi in questa strada con ancora a vista i cartelli "Lavori in corso".
Tra PhysX che richiede schede specifiche, quando nella pratica ci sarebbe la possibilità di estenderlo, lasciando così tutto l'onere delle prestazioni alle potenzialità della propria scheda e dell'hw in possesso.... tra il 3D che per farlo andare richiede nuove periferiche che certamente debbono essere acquistate.... io, volentieri e finchè posso, mi tengo alla larga da questo scempio di business dove l'utente deve fare solo una cosa: pagare, pagare e ancora pagare uno sproposito.
Quando troverò, io come tanti altri, un pretesto ragionevole per cambiare monitor o TV, apporfitterò anch'io del 3D; ma a farlo apposta non se ne parla proprio.
quoto il tuo pensiero...i costi sono alti e non per tutti ma tra dire una cosa del genere e dire che non serve a nulla (non è il tuo caso) ce ne passa..per quanto riguarda nintendo e il suo 3DS è sicuramente una buona cosa ma di fatto non ha fatto nessun passo importante...il 3ds per creare l'effetto stereoscopico sfrutta la parallax barrier (che non è altro che un filtro davanti lo schermo) già esistente da tempo e presentata in diverse fiere mostrando tutti i suoi limiti su schermi di medi e grandi dimensioni. Infatti la risoluzione viene dimezzata in quanto la barriera di parallasse non fa altro che indirizzare metà delle colonne all'occhio destro e l'altra all'occhio sinistro...inoltre l'effetto di profondità è nettamente inferiore agli occhiali (di qualunque tipo) nonché limitato dalla posizione dell'osservatore che deve stare perfettamente al centro dello schermo pena la perdita del 3d...per tutti questi motivi viene utilizzata solo su schermi piccoli, inoltre ha costi contenuti e non grava sulle prestazioni...ma di fatto attualmente chi vuole il 3d alla max qualità (non perfezione) deve andare su un kit di occhiali attivi e sarà così per almeno altri 4-5 anni...quindi mettetevi l'anima in pace ;)
quoto il tuo pensiero...i costi sono alti e non per tutti ma tra dire una cosa del genere e dire che non serve a nulla (non è il tuo caso) ce ne passa..per quanto riguarda nintendo e il suo 3DS è sicuramente una buona cosa ma di fatto non ha fatto nessun passo importante...il 3ds per creare l'effetto stereoscopico sfrutta la parallax barrier (che non è altro che un filtro davanti lo schermo) già esistente da tempo e presentata in diverse fiere mostrando tutti i suoi limiti su schermi di medi e grandi dimensioni. Infatti la risoluzione viene dimezzata in quanto la barriera di parallasse non fa altro che indirizzare metà delle colonne all'occhio destro e l'altra all'occhio sinistro...inoltre l'effetto di profondità è nettamente inferiore agli occhiali (di qualunque tipo) nonché limitato dalla posizione dell'osservatore che deve stare perfettamente al centro dello schermo pena la perdita del 3d...per tutti questi motivi viene utilizzata solo su schermi piccoli, inoltre ha costi contenuti e non grava sulle prestazioni...ma di fatto attualmente chi vuole il 3d alla max qualità (non perfezione) deve andare su un kit di occhiali attivi e sarà così per almeno altri 4-5 anni...quindi mettetevi l'anima in pace ;)
Il passo più importante del 3DS sta proprio nell'evitare di mettere gli occhiali.
A mio parere la strada intrapresa da Nintendo, sotto questo punto di vista, è più degna di nota rispetto a quella di nvidia, che di fatto non ha innovato un accidenti di concreto; la tecnologia l'ha potenziata, ma i disagi e le limitazioni all'uso sono rimaste.
Bisogna dare atto che alla Nintendo e negli ultimi anni in fatto di tecnologie innovative è quella che s'è mossa meglio, e col 3DS la zuppa non cambia.
Per quel che riguarda la parte in grassetto, il 3D, adesso come adesso e per il sottoscritto non rappresenta un obiettivo nel breve termine; potranno passare anche 20 anni, ma 200 euro per il 3D per ora non ci sono; e nemmeno sono così stupido da acquistare una scheda video solo per il 3D. Nonostante ritengo di essere competente in queste cose, economicamente parlando, non rientro nella fascia Enthusiast, per cui il prezzo elevato è sufficiente per escluderla dai miei desideri.
blackshard
27-06-2010, 15:18
Tralaltro anche la scelta di nintendo non è esente da difetti, leggi frequenti mal di testa dopo alcune dozzine di minuti.
Adone_1985
27-06-2010, 15:27
Il passo più importante del 3DS sta proprio nell'evitare di mettere gli occhiali.
A mio parere la strada intrapresa da Nintendo, sotto questo punto di vista, è più degna di nota rispetto a quella di nvidia, che di fatto non ha innovato un accidenti di concreto; la tecnologia l'ha potenziata, ma i disagi e le limitazioni all'uso sono rimaste.
Bisogna dare atto che alla Nintendo e negli ultimi anni in fatto di tecnologie innovative è quella che s'è mossa meglio, e col 3DS la zuppa non cambia.
Per quel che riguarda la parte in grassetto, il 3D, adesso come adesso e per il sottoscritto non rappresenta un obiettivo nel breve termine; potranno passare anche 20 anni, ma 200 euro per il 3D per ora non ci sono; e nemmeno sono così stupido da acquistare una scheda video solo per il 3D. Nonostante ritengo di essere competente in queste cose, economicamente parlando, non rientro nella fascia Enthusiast, per cui il prezzo elevato è sufficiente per escluderla dai miei desideri.
non lo so forse mi spiego male io...intanto la parallax barrier non appartiene a nintendo ma è di sharp o toshiba (non ricordo di preciso) inoltre non c'è nessuna nota degna nella strada di nintendo poiché ha potuto optare per la parallax barrier solo perché stiamo parlando di uno schermo da 7-10 pollici..non vedrai mai una wii o qualunque altro prodotto nintendo su un tv di 24 o 40 pollici perché la tecnologia non è adatta, preferisco indossare degli occhiali che avere la risoluzione dimezzata e un'effetto stereoscopico di infima qualità...infatti la vedrai solo 3ds, smartphone, navigatori...cmq solo su dispositivi portatili...poi ripeto ognuno compra in base alle proprie possibilità e esigenze ma il dato di fatto è che per vedere gli autostereoscopici sul mercato bisognerà attendere altri 5 anni, poi c'è chi vuole aspettare e chi no, nulla da recriminare...io intanto mi sfrutto il mio hw visto che anche senza 3d sarebbe rimasto invariato....
alexcrystal
30-06-2010, 00:21
Tralaltro anche la scelta di nintendo non è esente da difetti, leggi frequenti mal di testa dopo alcune dozzine di minuti.
xk c'è ancora gente che gioca al nds?
blackshard
30-06-2010, 00:28
xk c'è ancora gente che gioca al nds?
Forse non ci giocano, ma di certo se lo comprano.
alexcrystal
30-06-2010, 00:29
Forse non ci giocano, ma di certo se lo comprano.
il nds era bello all'inizio adesso non ci sono + neanche i giochi pokemon è uno skifo
blackshard
30-06-2010, 00:33
il nds era bello all'inizio adesso non ci sono + neanche i giochi pokemon è uno skifo
http://www.etnatuningclub.it/forum/images/smilies/sticazzi.gif
alexcrystal
30-06-2010, 00:34
http://www.etnatuningclub.it/forum/images/smilies/sticazzi.gif
cosa?
blackshard
30-06-2010, 00:35
cosa?
Cioè dico... ok, ma che mi importa? Se se lo comprano avranno i loro motivi...
alexcrystal
30-06-2010, 00:38
Cioè dico... ok, ma che mi importa? Se se lo comprano avranno i loro motivi...
sono tutti tra i 7 e 14 anni + grandi ne ho visti pokissimi
sono tutti tra i 7 e 14 anni + grandi ne ho visti pokissimi
si certo come no...
C;.,a;.,;.,a
alexcrystal
30-06-2010, 10:54
si certo come no...
C;.,a;.,;.,a
:muro:
:muro:
Io forse non me lo comprerò perché, adesso come adesso, non fa per me. Ma per chi viaggia spesso potrebbe essere un bel sostituto del solito iPod.
Non credo proprio che il 3DS sarà bersaglio solo dei ragazzini o degli adolescenti; sono testimone di un graduale cambiamento avvenuto negli anni per quel che riguarda i videogiochi; il baricentro d'interesse si è senz'altro spostato verso fasce d'età più mature.
alexcrystal
02-07-2010, 10:48
Io forse non me lo comprerò perché, adesso come adesso, non fa per me. Ma per chi viaggia spesso potrebbe essere un bel sostituto del solito iPod.
Non credo proprio che il 3DS sarà bersaglio solo dei ragazzini o degli adolescenti; sono testimone di un graduale cambiamento avvenuto negli anni per quel che riguarda i videogiochi; il baricentro d'interesse si è senz'altro spostato verso fasce d'età più mature.
in effetti si il 3ds è un bel aggeggio magari ci si potesse andare sl web o fare qualche video call sarebbe il massimo anche se l'ipod touch è migliore
Ma questo era una news riguardante la GTX 485 oppure il Nintendo ds ? :rolleyes:
Ritorniamo in topic pls
alexcrystal
02-07-2010, 17:57
Ma questo era una news riguardante la GTX 485 oppure il Nintendo ds ? :rolleyes:
Ritorniamo in topic pls
GTX 485
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.