View Full Version : NVIDIA GeForce GTX 280: oltre G80 e G92
Buona scheda....tutto come previsto prestazioni pari alla GX2 o poco più ma senza i problemi intrinsechi alle dual gpu...cmq sono sicuro che il prezzo calerà velocemente soprattutto se le nuove AMD manterranno le premesse.
non ho letto tutte ste pagine di commenti, ma nelle prime 3 è pieno di gente che parla di flop:
non mi pare porprio!!! misurate le prestazioni della scheda guardando i fps di crisys? non fatelo, dovreste aver capito ormai che quel gioco non funziona come dovrebbe.
ottime prestazioni, buone migliorie in fatto di consumi (sono anche saliti poco in relazione all'aumento di prestazioni), sulla carta grandi passi avanti anche per gpgpu. la versione a 45nm, se la fanno e la migliorano un poco, sarà una cannonata.
il prezzo è ASSURDO, ma è sempre così con le nvidia. calerà.
ottimo lavoro
spero che amd sappia fare altrettanto bene, anzi meglio! forza amd che voglio la 3870 a 80€ :D
omar8792
16-06-2008, 20:18
Il 30% di boost prestazionale a parità di qualità grafica per te è una ricca stronzata. Ok, ne prendiamo tutti atto.
Il fatto che costi 200€ in più per andare in molti altri casi meno, e quindi globalmente uguale, forse?
Peccato che è una singola gpu quindi il paragone va fatto anche di prezzo con le singole gpu...secondo me e altri è una gran bella scheda oltre al prezzo che è alto ma giustuficato visto che è la top di gamma:rolleyes:
MenageZero
16-06-2008, 20:19
gente, imho se proprio si vuole insistere sul dibattito flop o non flop, buona o non buona scheda etc., si dovrebbe scindere il discorso almeno in 2 parti:
l'aspetto di convenienza per l'utente in termini di rapporto prezzo/prestazioni/consumo
(personalmente tenderei però a dubitare che il prezzo rimanga immutato per tutto il tempo che le gtx 280/260 rimarranno al vertice della gamma nv)
l'aspeto tecnologico e prestazionale
Lud von Pipper
16-06-2008, 20:21
La domanda te la puoi girare quanto vuoi ma la risposta ancora me la da nessuno però.
Credo che i riferimento fosse all'implementazione sulle attuali schede video e non sul progetto del software.
Parliamoci chiaro: la stragrande maggioranza dei videogame in progettazione per PC è un porting da XboX e/o Ps3 e in futuro la cosa credo peggiorerà ancora.
E' un dato di fatto che nessuna consolle supporta la DX10, quindi per i giochi con le ultime Direct X mi sa che possiamo aspettare tranquillamente le nuove generazioni di hardware (e magari le DX11 ;))
zerothehero
16-06-2008, 20:23
Il 30% di boost prestazionale a parità di qualità grafica per te è una ricca stronzata. Ok, ne prendiamo tutti atto.
Il fatto che costi 200€ in più per andare in molti altri casi meno, e quindi globalmente uguale, forse?
Ma da quando in qua una top di gamma ha un prezzo/prestazioni equilibrato?
E poi cosa ti impedisce di prenderti una gx2, con tutti i casini dello sli?
Fallo. :D
Anche la 7950x2 più o meno era al livello della 8800gtx..anche in quel caso si può parlare di flop?
Boh, non capisco cosa si pretende..
Scrambler77
16-06-2008, 20:23
gente, imho se proprio si vuole insistere sul dibattito flop o non flop, buona o non buona scheda etc., si dovrebbe scindere il discorso almeno in 2 parti:
l'aspetto di convenienza per l'utente in termini di rapporto prezzo/prestazioni/consumo
(personalmente tenderei però a dubitare che il prezzo rimanga immutato per tutto il tempo che le gtx 280/260 rimarranno al vertice della gamma nv)
l'aspeto tecnologico e prestazionale
Esatto, ma visto che il primo è soggetto a forti oscillazioni mentre il secondo resta costante (apparte gli aggiornamenti software e dei drivers), direi che è più sensato soffermarsi a valutare la scheda in funzione del secondo punto.
zerothehero
16-06-2008, 20:25
La domanda te la puoi girare quanto vuoi ma la risposta ancora me la da nessuno però.
A stento escono giochi dx10...chissene del 10.1...oramai il mercato è in mano alle console.
Scrambler77
16-06-2008, 20:25
Boh, non capisco cosa si pretende..
Si pretende di dire che GT200 è un flop. D'altronde se non lo si fa ora, dopo G80 (che fu tutt'altro che un flop) quando si avrà l'opportunità di farlo di nuovo? ;)
sdjhgafkqwihaskldds
16-06-2008, 20:26
oh my god... richiede 40a
casomai decida di acquistarla forse dovrei cambiare il mio buonissimo trust da 370w
Credo che i riferimento fosse all'implementazione sulle attuali schede video e non sul progetto del software.
Parliamoci chiaro: la stragrande maggioranza dei videogame in progettazione per PC è un porting da XboX e/o Ps3 e in futuro la cosa credo peggiorerà ancora.
E' un dato di fatto che nessuna consolle supporta la DX10, quindi per i giochi con le ultime Direct X mi sa che possiamo aspettare tranquillamente le nuove generazioni di hardware (e magari le DX11 ;))
Si ma continui a non rispondermi. Io ho chiesto perchè le DirectX 10.1 sono "totalmente inutili". E non mi sto riferendo nè alle console nè che a uno non gliene possa fregare niente.
+Benito+
16-06-2008, 20:27
intanto vediamo di moderare i termini, altrimenti si scatena l'inferno e finisce solo quando tutti sono sospesi :rolleyes:
Infine..il flop detto da molti è detto riguardo alla scheda nel suo complesso, non esclusivamente riguardo alle prestazioni. Quindi in rapporto prezzo/prestazioni è un flop. E' un flop pure dal pdv tecnologico IMHO poiché non integra sostanziali novità da g80 che è vecchio di anni. Alla nvidia hanno giocato al raddoppio..è come se avessero unito i 2 g92 che formano la 9800gtx in un'unica gpu. Ok, bene, bravi, ma nulla di ecclatante visto che l'architettura è sempre quella (ma invece doveva gridare al miracolo). Si è fatto un hype assurdo per una scheda che imho sarebbe valida per la fascia dei 350€, ma ovviamente visto che nvidia ha problemi con gli yelds dei chip, sicuramente non potrà venderla a quel prezzo.
Poi se si guardano solo le prestazioni, ok, è una buona scheda, ma non ha distanziato tutti gli avversari con un buon margine, ed è per questo che in molti sono rimasti delusi. :doh:
se vuoi ripeto la frase, perchè è così. Allora tutti i processori dual core sono dei flop? Tutti i chip video sfornati dalla prima geforce all'ultima sono dei flop perchè raddoppiavano le pipeline? Va bene i miglioramenti architetturali per sopportare nuove funzioni, ma questo non vuol dire che una scheda che al momento non ha eguali (e non per pochi punti percentuali!) possa essere definita un flop, oltretutto che hanno fatto un chip veramente ENORME, che quindi giustifica il prezzo abbastanza clamorosamente (è quattro volte una cpu dual core!) in meri termini di "silicio", mantenendo i consumi in pochi watt in più della versione ammezzata. Al momento ATi è indietro, nVidia non ha interesse a spingere sull'acceleratore della tecnologia, ma ha tutto il tempo di lavorarci su per progetti futuri perchè intanto con questo prodotto è sul mercato con una carta validissima a livello prestazionale, mentre ATi ha prodotti vecchi e con prestazioni troppo altalenanti tra i vari titoli, e il nuovo chi sa come renderà alla prova dei fatti.
E' uno schifo che dieci anni fa l'informatica la seguisse un popolo col cervello collegato e che ora la maggior parte è gente che farebbe meglio a non avere la tastiera.
Fatto sta che non ho capito se supporta Hybrid Power oppure no.
ciccio357
16-06-2008, 20:32
Sento dire che questa e' una scheda valida allora gli dico alcune cose.
Se e' cosi valida perche' nessuno del forum se le e' presa? (nn ho chiesto a delly a cui mo mando un mex ma se pure lui nn se le e' presa che all'usicta della 9800GX2 se ne e' prese 2 sara' tutto dire)
Se io ritengo un prodotto VALIDO me lo compro come ho fatto per lo SLI di 88GT
Questa nuova VGA costa bene 550€ una 9800GTX della asus costa 225€ quindi con 450€ te ne prendi 2 e avanzi 100€ che nn sono pochi e visto che 2 9800GTX vanno d+ di una 9800GX2 e la 280GTX a volte va pure meno della 9800GX2:sofico: ... quindi o si abbassa al costo MAX di 2 9800GTX o nn vale nulla sta VGA.
Infine il fatto che Nvidia ritiri dal mercato la 9800GX2 SOLO perche' da FSTIDIO alla nuova 280GTX e' davvero ridicolo, una 9800GX2 con drive ben fatti a 360€ avrebbe dato 10 a 0 a sta GTX280 come prestazioni/prezzo
Infine dico che nn si parla di flop ma di DELUSIONE visto tutti rumurs che davano sta VGA a 36FPS con crysis a VERY HIGH a 1920 e altrettando delusi dal fatto che Nvidia continua con sta politica VECCHIA di VGA da 600€ ormai sono passati quasi 2 anni dalla ultra e' ora di cambiare strada su tutti i fronti di cui il primo e' quello dei prezzi, ammiro molto d+ ATI che sta facendo VGA che costano 170€(vedi futura 4850) e vanno quanto bastano per far girare TUTTO, cioe' e' un politica + giusta perche'(per esemoio) se per far girare crysis ci vogliono CMQ 2 VGA meglio farle pagare poco visto che manco con la nuova GTX280 gira, in pratica quello che voglio dire e':
Perche' bisognerebbe prendere sta VGA?_? e' paradossale ma se con crysis adava a 1920 di sicuro avrebbe venduto.
condivido in pieno;)
Ma a cosa servono ???
Costano tanto e alla fine non credo ci si diverta di piu' di quando si gioca con una Xbox360.
Alla fine sono prodotti di marketing, fatti apposta per alimentare il mercato e accontentare qualche consumatore Entusiast del mondo ludico dei pc e soprattutto benchmark.
Credo che allo stato attuale una 8800GT sia una vga soddisfacente, ad un prezzo onesto e direi forse quella piu' alla portata della gente e tutti coloro che ogni tanto vogliono farsi una giocatina col proprio pc.
Lud von Pipper
16-06-2008, 20:40
Si ma continui a non rispondermi. Io ho chiesto perchè le DirectX 10.1 sono "totalmente inutili". E non mi sto riferendo nè alle console nè che a uno non gliene possa fregare niente.
Le 10.1 secondo me sono inutili perché quando si decideranno a progettare per le API nuove lo faranno su quelle successive (Dx11?). Nel frattempo se proprio qualche mosca bianca decide di sviluppare per queste API lo farà direttamente sulle 10.0 per non tagliar fuori gli utenti nVidia, un buon 50% del mercato in quella fascia.
Su tutto aleggia il fantasma di Vista che non piace ai videogiocatori per pesantezza e scarsa retrocompatibilità
ciccio357
16-06-2008, 20:40
Temo che sarai segnalato... :stordita:
non dormo la notte....................
AnonimoVeneziano
16-06-2008, 20:41
:doh: questa poi....
Stavi dicendo "questa è la verità" immagino :asd:
E' un dato di fatto che , all'uscita di un HW nuovo, quando le prestazioni negli altri giochi aumentano del 20% in crysis aumentano del 3-4% ...
Il gioco scala male e non si può negare.
Ciao
gianni1879
16-06-2008, 20:46
Queste nuove nvidia fanno cacare a spruzzo: sono delle "muscle car" che alla prima curva sbandano.
A questi punti molto più interessanti le future ATI 4800; qualcuno sa quando scade il NDA?
Inoltre si sa nulla quando usciranno le 9800GT a 55nm? A questi punti, se devo comprare un'architettura di 2 anni fa... almeno risparmio.
no pure tu che disprezzi gt200??
ma che succede?? il caldo da alla testa a tutti??
dopo HAL pure tu??
:boh:
il prezzo sarà alto questo è vero (non è adeguato alle prestazioni), ma la scheda va come +- una con due gpu sopra, dai non proprio male come cosa considerando che è una singola gpu (ed è la + potente mai prodotta ovviamente).
Certo costasse 350€ spopolerebbe, considerando anche i consumi ottimi soprattutto in idle...
Lud von Pipper
16-06-2008, 20:46
se vuoi ripeto la frase, perchè è così. Allora tutti i processori dual core sono dei flop?
no: non lo sono.
Non lo sono perchè raddoppiarono le prestazioni, offrirono il multithread reale e soprattutto dimezzarono i consumi e il calore prodotto rispetto alla precedente generazione.
Da quando è uscito il core duo il mio Pc è tornato ad essere silenzioso, cosa che non ricordavo più cosa significasse per le mie povere orecchie.
Queste schede invece offrono solo un discreto aumento di prestazioni ma costano un botto, non offrono nuove feature consumano un assurdità e nonostante tutto non permettono di giocare al massimo giochi di oltre un anno fa.
Meglio aspettare la nuova generazione tenendo d'occhio anche AMD nel frattempo, che se sforna un altro bidone si giocherà la fiducia degli affezionati
Le 10.1 secondo me sono inutili perché quando si decideranno a progettare per le API nuove lo faranno su quelle successive (Dx11?). Nel frattempo se proprio qualche mosca bianca decide di sviluppare per queste API lo farà direttamente sulle 10.0 per non tagliar fuori gli utenti nVidia, un buon 50% del mercato in quella fascia.
Su tutto aleggia il fantasma di Vista che non piace ai videogiocatori per pesantezza e scarsa retrocompatibilità
continuate a non rispondergli. Dovete spiegargli, conoscendo ovviamente il "changelog" tra Directx 10 e Directx 10.1, e sopratutto considerando che Directx =! Direct3D, perchè sia inutile sfruttare le DX10.1 ;)
bYeZ!
Stavi dicendo "questa è la verità" immagino :asd:
E' un dato di fatto che , all'uscita di un HW nuovo, quando le prestazioni negli altri giochi aumentano del 20% in crysis aumentano del 3-4% ...
Il gioco scala male e non si può negare.
Ciao
Scala malissimo. Ad oggi poi non è ancora in grado di usare il multicore in modo decente. Un gioco che è stato una delusione sotto tutti i punti di vista, soprattutto lato tecnico.
uhm si tutto molto interessante:asd:
http://www.tomshw.it/news.php?newsid=13797 mi sa che sei rimasto un po indietro...
Anandtech , uno dei più importanti siti del settore, ha tirato tutt'altre conclusioni:
Nvidia ha fatto pressioni su Ubisoft per togliere il supporto Dx10.1 dal gioco, supporto che incrementava le performance di Ati nettamente. Questo è una azione vergognosa e ignobile da parte di Nvidia. :)
Lud von Pipper
16-06-2008, 20:51
continuate a non rispondergli. Dovete spiegargli, conoscendo ovviamente il "changelog" tra Directx 10 e Directx 10.1, e sopratutto considerando che Directx =! Direct3D, perchè sia inutile sfruttare le DX10.1 ;)
bYeZ!
guarda che io non devo rispondere proprio a nessuno: l'affermazione non è neppure mia, ma ciò non toglie che nel mondo reale le DX10.1 siano destinate a restare sulla carta. Per fatti contingenti e indipendentemente dai loro meriti intrinseci se volete, ma affermare il contrario è ignorare la realtà!
Futura12
16-06-2008, 20:54
Anandtech , uno dei più importanti siti del settore, ha tirato tutt'altre conclusioni:
Nvidia ha fatto pressioni su Ubisoft per togliere il supporto Dx10.1 dal gioco, supporto che incrementava le performance di Ati nettamente. Questo è una azione vergognosa e ignobile da parte di Nvidia. :)
da dove escono queste dichiarazioni dalle figurine della panini?
Per favore almeno sulle cose sicuro...evitate di spalare merda,con delle dichiarazioni a dir poco assurde.
guarda che io non devo rispondere proprio a nessuno: l'affermazione non è neppure mia, ma ciò non toglie che nel mondo reale le DX10.1 siano destinate a restare sulla carta. Per fatti contingenti e indipendentemente dai loro meriti intrinseci se volete, ma affermare il contrario è ignorare la realtà!
quindi, visto che non ci possiamo scopare le varie Denise Milani & Eva Wryval, ne decantiamo la loro inutilità? :)
bYeZ!
da dove escono queste dichiarazioni dalle figurine della panini?
Per favore almeno sulle cose sicuro...evitate di spalare merda,con delle dichiarazioni a dir poco assurde.
eccoti servito (visto che non sei manco andato su anandtech a verificare di persona):
http://www.anandtech.com/video/showdoc.aspx?i=3320&p=6
bYeZ!
Futura12
16-06-2008, 20:57
quindi, visto che non ci possiamo scopare le varie Denise Milani & Eva Wryval, ne decantiamo la loro inutilità? :)
bYeZ!
si,perchè le scopa solo una persona su 2 miliardi.
quindi, visto che non ci possiamo scopare le varie Denise Milani & Eva Wryval, ne decantiamo la loro inutilità? :)
bYeZ!
Io proprio qui volevo arrivare. Tutti dicono che sono inutili ma nessuno sa perchè.
sniperspa
16-06-2008, 20:58
oltretutto che hanno fatto un chip veramente ENORME, che quindi giustifica il prezzo abbastanza clamorosamente (è quattro volte una cpu dual core!) in meri termini di "silicio", mantenendo i consumi in pochi watt in più della versione ammezzata.
Sinceramente se facevano un chip più piccolo di questo,con le stesse prestazioni e lo facevano pagare meno non sarebbe stata una cosa proprio disonorevole...
mentre ATi ha prodotti vecchi e con prestazioni troppo altalenanti tra i vari titoli, e il nuovo chi sa come renderà alla prova dei fatti.
Sei proprio certo che i prodotti ati siano indietro in quanto tecnologia?!?!:mbe:
E cmq sono già apparsi molti test in rete riguardo le 4850 e quindi si sa già abbastanza...;)
Fatto sta che non ho capito se supporta Hybrid Power oppure no.
Non ne sono certo ma ho seri dubbi lo supporti visto l'utilità che avrebbe in una scheda di questa fascia...
da dove escono queste dichiarazioni dalle figurine della panini?
Per favore almeno sulle cose sicuro...evitate di spalare merda,con delle dichiarazioni a dir poco assurde.
Io non spalo merda su nessuno. Non ho voglia di cercare il link, te lo posterà qualcun'altro, ma questo sito ha fatto vari test evidenziando come la qualità d'immagine fosse la medesima prima e dopo la patch che ha tolto il supporto Dx 10.1 e di come le performance sulle schede Ati siano diminuite del 20-30%. Anche su Beyond3D sono tutti convinti che Nvidia abbia fatto pressioni su Ubisoft per eliminare il supporto e per far peggiore la perfomance di Ati.
ciccio357
16-06-2008, 20:59
da dove escono queste dichiarazioni dalle figurine della panini?
Per favore almeno sulle cose sicuro...evitate di spalare merda,con delle dichiarazioni a dir poco assurde.
Peccato che è la pura verità informarsi no è..........................:doh:
da dove escono queste dichiarazioni dalle figurine della panini?
Per favore almeno sulle cose sicuro...evitate di spalare merda,con delle dichiarazioni a dir poco assurde.
Infatti e' un rumurs tutt'altro che falso AC doveva essere 10.1 ma nn lo e' stato hihihi.
Cmq cosa sta uscendo nei vari THREAD delle VGA sta GTX280 ha davvero nel bene o nel male mosso le acque ahahahaha
si,perchè le scopa solo una persona su 2 miliardi.
Non credo siano cosi pudiche... :asd:
Futura12
16-06-2008, 20:59
eccoti servito (visto che non sei manco andato su anandtech a verificare di persona):
http://www.anandtech.com/video/showdoc.aspx?i=3320&p=6
bYeZ!
per me è una stronzata. Fra l'altro tutti i siti riportano chiaramente che in DX10.1 la scheda video tralasciava un passaggio nel rendering....di fatto rendendo il gioco più fluido.
Poi non le conferma nessuno quelle voci...un sito fra 100 non è un buon pronostico.
Almeno per me IHMO.
Futura12
16-06-2008, 21:01
Non credo siano cosi pudiche... :asd:
vabbè almeno spero per loro uno per volta:sofico: magari ultra-cinquantenne:sob:
Posto nel thread dei flame... :D
Allora, la mia idea è che se un'azienda "si fa valere" di più di un'altra (discorso delle dx 10.1 in ac), io la preferisco...Tanto alla fina contano i giochi, e le ottimizzazioni che essi hanno, se nVidia ha più intrallazzamenti e i giochi vanno meglio prendo quella, indipendentemente dal fatto che ati abbia fatto una vga POTENZIALMENTE migliore... Per la serie conta il risultato...
Poi, tutti a dire flop... Ma che volevate, una vga che vada meglio di 2 della generazione precedente in sli??? Ma questo non succede mica sempre... E poi questa è una "prima versione", a 65nm, e consuma pure di meno!! :read:
La tecnologia secondo me è valida, aumentare il parallelismo, ora che nVidia integrerà anche le librerie physx nei drivers, i 240sp si faranno sentire... E poi questo punteggio TRIPLO in vantage come lo spiegate??? Aspettate un pò che escano nuovi titoli e nuovi driver... E vedremo!!
Xkè quelli che gridano al flop o:
1) si aspettavano il raddoppio delle performance rispetto ad una dual-gpu quale la 9800gx2
2) sono fanboy ati che escono fuori da un periodo di 2 anni di mazziatoni e batoste culminato con il *successo* della 3870x2
3) credevano che questa vga costasse 200€ come le attuali gts g92.
per me è un flop ma non rientro in nessuna di queste categorie . perche?
mi aspettavo un aumento del 30-40% delle performance.
dai su PER IL PREZZO che ha, questa scheda fa schifo. e schifo (dal mio punto di vista sottolineo) è la parola che la definisce. oltre 500 euro per poco piu di una 9800gx2.
no comment. ho aspettato per poter cambiare la mia 8800 gtx ma a questo punto prendo ati pure se vanno uguali. almeno mi gioco il mio crossfire con l'x38
se sara necessario. mi fa schifo la politica di nvidia, è chiaro che ora ha intenzione di far cambiare spesso schede video ai gamers. ma per me si attacca. io a questo punto i soldi non glieli do.
caccola581
16-06-2008, 21:14
Questa scheda se la meritano quelli che tiravano merda sulla 9800GX2 e ora, non vedendo questo grande divario (per altro quasi nullo) la elogiano.
Io mi tengo stretta la mia XFX 9800GX2 BLACK EDITION occata di fabbrica
Kharonte85
16-06-2008, 21:17
ma che succede?? il caldo da alla testa a tutti??
Quoto...pero' è divertente...:asd:
Le Dx10.1 sono inutili perche' lo ha deciso nvidia non inserendole nella nuova generazione (altrimenti avrebbe segato le gambe alla serie 8 e 9 a favore di AMD/ATI) e mio modestissimo parere: sono superflue, dato che manco in dx10 abbiamo visto un gioco intero...
Lo SLi dalle prime implementazioni ne ha fatti di passi in avanti, in effetti, ma considera che la nuova nata nVidia ha frequenze inferiori sugli shaders (1296MHz contro i 1500MHz della 9800GX2) e quindi qualcosina paga. Vedremo la comparativa tra le varie GTX280 a cosa porterà ;)
Permettimi un leggero commento OT ma, per come la vedo io, il CF di AMD-ATi scala meglio ed infatti AMD-ATi si è data al multi GPU.
Per la questione prezzo sappiano sempre come va agli inizi, diamogli tempo è la scheda si troverà al giusto prezzo (per chi ha i soldi per comprarla :D).
Tra i due approcci multi GPU, anche io apprezzo di più quello ATI...
E' cmq vero quello che affermi, nonostante il "raddoppio" le differenti frequenze fanno un po "pagare" le GTX280... in ogni caso ribadisco la bontà della scheda (allo stato delle cose).
Se non sballo completamente le previsioni, questa scheda farà capitalizzare molto, in termini monetari Nvidia, e se la politica ATI di schede competitive dai prezzi aggressivi "spaventerà" la concorrente, allora si avranno cali repentini e immediati dei prezzi.
Ma se l'alternativa di mercato non si domostrerà all'altezza, allora rimarranno dei balocchi costosi per diverso tempo queste GTX280...
Ps: ho paura che prima di questo fine settimana me ne ritroverò un paio tra le mani... ma lo dico subito, NON SONO MIA! :asd:
Immortal
16-06-2008, 21:19
se vuoi ripeto la frase, perchè è così. Allora tutti i processori dual core sono dei flop? Tutti i chip video sfornati dalla prima geforce all'ultima sono dei flop perchè raddoppiavano le pipeline? Va bene i miglioramenti architetturali per sopportare nuove funzioni, ma questo non vuol dire che una scheda che al momento non ha eguali (e non per pochi punti percentuali!) possa essere definita un flop, oltretutto che hanno fatto un chip veramente ENORME, che quindi giustifica il prezzo abbastanza clamorosamente (è quattro volte una cpu dual core!) in meri termini di "silicio", mantenendo i consumi in pochi watt in più della versione ammezzata. Al momento ATi è indietro, nVidia non ha interesse a spingere sull'acceleratore della tecnologia, ma ha tutto il tempo di lavorarci su per progetti futuri perchè intanto con questo prodotto è sul mercato con una carta validissima a livello prestazionale, mentre ATi ha prodotti vecchi e con prestazioni troppo altalenanti tra i vari titoli, e il nuovo chi sa come renderà alla prova dei fatti.
E' uno schifo che dieci anni fa l'informatica la seguisse un popolo col cervello collegato e che ora la maggior parte è gente che farebbe meglio a non avere la tastiera.
Fatto sta che non ho capito se supporta Hybrid Power oppure no.
concordo con la parte in grassetto.
Per la parte in verde, ma che c'entra? Qui il discorso è proprio al contrario. Hanno fatto un "single core" che va poco meno di un dual core già presente sul mercato, investendo una marea in ricerca e vendendolo a prezzi molto più elevati. te lo ripeto, per me non è un flop a livello prestazionale in termini assoluti, ma è un flop assoluto in termini di prezzo/prestazioni, di gap rispetto alla precedente top gamma nvidia (9800gx2), e soprattutto è un flop dopo tutto l'hype che si era creato (qualcuno ha detto 60fps con crysis in full hd very high? :asd:).
Per la parte sottolineata, che dire, qui pare che il disinformato sei tu. :rolleyes:
Gddr5, dx 10.1, processo produttivo a 55nm (queste ultime 2 già disponibili sulla serie 3800) sono tecnologie impiegate da ati nelle sue nuove schede video, cosa che nvidia per ora si sogna e che adotterà solo tra qualche mese (parlo solo per i 55nm e le gddr5 da abbinare al bus a 256bit, così da diminuire la complessità e il costo della scheda). Ma mi sa che il tuo era un discorso solo di parte, altrimenti sapresti che tra 10 giorni le cose cambieranno notevolmente ;)
PS. il chip ENORME non è una cosa di cui vantarsi, anzi, fa vedere come nvidia per cercare di mantenere la leadership sia ricorsa a qualcosa ai limiti della progettazione, tanto che per 10 chip prodotti, solo uno viene destinato alla gtx280 (3 vanno alla gtx260 e i rimanenti 6 vanno scartati).
Kharonte85
16-06-2008, 21:22
per me è un flop ma non rientro in nessuna di queste categorie . perche?
mi aspettavo un aumento del 30-40% delle performance.
dai su PER IL PREZZO che ha, questa scheda fa schifo. e schifo (dal mio punto di vista sottolineo) è la parola che la definisce. oltre 500 euro per poco piu di una 9800gx2.
no comment. ho aspettato per poter cambiare la mia 8800 gtx ma a questo punto prendo ati pure se vanno uguali. almeno mi gioco il mio crossfire con l'x38
se sara necessario.
Infatti, sei deluso...ma la scheda non puo' essere chiamata Flop, secondo il tuo metro di giudizio anche una ferrari sarebbe un flop...:asd:
sniperspa
16-06-2008, 21:23
Per la parte sottolineata, che dire, qui pare che il disinformato sei tu. :rolleyes:
Gddr5, dx 10.1, processo produttivo a 55nm (queste ultime 2 già disponibili sulla serie 3800) sono tecnologie impiegate da ati nelle sue nuove schede video, cosa che nvidia per ora si sogna e che adotterà solo tra qualche mese (parlo solo per i 55nm e le gddr5 da abbinare al bus a 256bit, così da diminuire la complessità e il costo della scheda). Ma mi sa che il tuo era un discorso solo di parte, altrimenti sapresti che tra 10 giorni le cose cambieranno notevolmente ;)
PS. il chip ENORME non è una cosa di cui vantarsi, anzi, fa vedere come nvidia per cercare di mantenere la leadership sia ricorsa a qualcosa ai limiti della progettazione, tanto che per 10 chip prodotti, solo uno viene destinato alla gtx280 (3 vanno alla gtx260 e i rimanenti 6 vanno scartati).
Vedo che la pensiamo allo stesso modo...;)
ThePunisher
16-06-2008, 21:23
Si sa allora quando esce la GTX 260?
Infatti, sei deluso...ma la scheda non puo' essere chiamata Flop, secondo il tuo metro di giudizio anche una ferrari sarebbe un flop...:asd:
ovviamente. è un "flop" in relazione al prezzo e alla politica di nvidia.
poi ogniuno la vede dal suo punto di vista...
Immortal
16-06-2008, 21:24
Si sa allora quando esce la GTX 260?
tra 7 giorni (no, non è The Ring :sofico: )
sniperspa
16-06-2008, 21:27
Bè già che si stia discutendo se definirla un flop oppure no non è un bel segno...:asd:
ovviamente è solo una battuta...:D
gianni1879
16-06-2008, 21:29
tra 7 giorni (no, non è The Ring :sofico: )
Non Cliccare (http://www.geocities.com/ghiaccioinside/Cinema/TheRing2.jpg)
MenageZero
16-06-2008, 21:30
se vuoi ripeto la frase, perchè è così. Allora tutti i processori dual core sono dei flop? Tutti i chip video sfornati dalla prima geforce all'ultima sono dei flop perchè raddoppiavano le pipeline? Va bene i miglioramenti architetturali per sopportare nuove funzioni, ma questo non vuol dire che una scheda che al momento non ha eguali (e non per pochi punti percentuali!) possa essere definita un flop, oltretutto che hanno fatto un chip veramente ENORME, che quindi giustifica il prezzo abbastanza clamorosamente (è quattro volte una cpu dual core!) in meri termini di "silicio", mantenendo i consumi in pochi watt in più della versione ammezzata. Al momento ATi è indietro, nVidia non ha interesse a spingere sull'acceleratore della tecnologia, ma ha tutto il tempo di lavorarci su per progetti futuri perchè intanto con questo prodotto è sul mercato con una carta validissima a livello prestazionale, mentre ATi ha prodotti vecchi e con prestazioni troppo altalenanti tra i vari titoli, e il nuovo chi sa come renderà alla prova dei fatti.
E' uno schifo che dieci anni fa l'informatica la seguisse un popolo col cervello collegato e che ora la maggior parte è gente che farebbe meglio a non avere la tastiera.
Fatto sta che non ho capito se supporta Hybrid Power oppure no.
da quello che si disse a suo tempo hybrid power dovrebbe essere utilizzabile, con l'opportuno chipset nv, almeno con le schede marchiate 9xxx, quindi in teoria, per logica ci si aspetterebbe anche con ueste nuove
ma soprattutto:
ti avevo già chiesto di essere più rispettoso, il fatto di scrivere in termini generici non può essere una scappatoia,
ammonito.
non forzare la sospensione plz
tra 7 giorni (no, non è The Ring :sofico: )
Si da quando leggi la rece sulal GTX280 passano 7 giorni e poi :lamer:
per me è un flop ma non rientro in nessuna di queste categorie . perche?
mi aspettavo un aumento del 30-40% delle performance.
dai su PER IL PREZZO che ha, questa scheda fa schifo. e schifo (dal mio punto di vista sottolineo) è la parola che la definisce. oltre 500 euro per poco piu di una 9800gx2.
no comment. ho aspettato per poter cambiare la mia 8800 gtx ma a questo punto prendo ati pure se vanno uguali. almeno mi gioco il mio crossfire con l'x38
se sara necessario. mi fa schifo la politica di nvidia, è chiaro che ora ha intenzione di far cambiare spesso schede video ai gamers. ma per me si attacca. io a questo punto i soldi non glieli do.
magari andasse un pò più di una 9800gx2! :mbe: ...il problema confrontando i vari risultati in giro (meglio non fidarsi di una testa sola) è che va COME o MENO di una 9800gx2...e tecnologicamente non hanno fatto nessun salto avanti, scalda, consuma e fa più rumore di un trattore in picchiata. Ancora non ci siamo proprio...di questo passo nvidia finirà per fare schede pregiate per sceicchi spacciandole per oro...ancora ancora la gtx260...ma dovrebbero piazzarla subito a 200 euro...altrimeni amd sta volta ha la strada spianata con la sua politica di prezzi aggressivi...:rolleyes:
Tra i due approcci multi GPU, anche io apprezzo di più quello ATI...
E' cmq vero quello che affermi, nonostante il "raddoppio" le differenti frequenze fanno un po "pagare" le GTX280... in ogni caso ribadisco la bontà della scheda (allo stato delle cose).
Se non sballo completamente le previsioni, questa scheda farà capitalizzare molto, in termini monetari Nvidia, e se la politica ATI di schede competitive dai prezzi aggressivi "spaventerà" la concorrente, allora si avranno cali repentini e immediati dei prezzi.
Ma se l'alternativa di mercato non si domostrerà all'altezza, allora rimarranno dei balocchi costosi per diverso tempo queste GTX280...
Ps: ho paura che prima di questo fine settimana me ne ritroverò un paio tra le mani... ma lo dico subito, NON SONO MIA! :asd:
Sicuramente AMD-ATi non deluderà questo giro, considerando il target delle sue future schede e si avrà nuovamente un interessante mercato VGA.
Per le tre GTX280, beato te che puoi provarle.
Tornando al discorso, leggermente OT, sulle DX10.1 e DX10 sapevo che, per sentito dire, su Assassin's Creed le AMD-ATi andavano meglio non perché con le DX10.1 saltassero un passaggio ma perché in DX10.1 erano necessari, rispetto alle DX10, meno passaggi per ottenere lo stesso risultato grazie alla differente e migliore implementazione di qualcosa.
per me è una stronzata. Fra l'altro tutti i siti riportano chiaramente che in DX10.1 la scheda video tralasciava un passaggio nel rendering....di fatto rendendo il gioco più fluido.
Poi non le conferma nessuno quelle voci...un sito fra 100 non è un buon pronostico.
Almeno per me IHMO.
per me è una stronzata quella che hai appena scritto, che tra l'altro denota la tua ignoranza sull'argomento: le DX10.1 PERMETTONO di eseguire un passaggio di rendering in meno, quando alla scena è applicato l'antialiasing.
Cosa ne sai che quelle voci non le conferma nessuno? Non credo che sfogliando i siti dei pornazzi avresti potuto trovare informazioni in merito... :asd:
bYeZ!
Si sa allora quando esce la GTX 260?
Domani
Futura12
16-06-2008, 21:42
per me è una stronzata quella che hai appena scritto, che tra l'altro denota la tua ignoranza sull'argomento: le DX10.1 PERMETTONO di eseguire un passaggio di rendering in meno, quando alla scena è applicato l'antialiasing.
Cosa ne sai che quelle voci non le conferma nessuno? Non credo che sfogliando i siti dei pornazzi avresti potuto trovare informazioni in merito... :asd:
bYeZ!
modera i termini. Non sono tutti sapientoni qui dentro,quindi se qualcosa non me la ricordo o mi sfugge...non me ne posso fare una colpa,anche perchè a fine post ho messo un bel IHMO!.
Poi questa presunta vaccata la diceva Tom's HW.....e non io,visto che non lo potrei sapere da solo...non studio questo tipo di tecnologie.
bonzuccio
16-06-2008, 21:44
Mi ha colpito molto la storia dell'uno su 2 miliardi..
sono sconvolto
modera i termini. Non sono tutti sapientoni qui dentro,quindi se qualcosa non me la ricordo o mi sfugge...non me ne posso fare una colpa,anche perchè a fine post ho messo un bel IHMO!.
Poi questa presunta vaccata la diceva Tom's HW.....e non io,visto che non lo potrei sapere da solo...non studio questo tipo di tecnologie.
e allora occhio prima di sbandierare inutilità su argomenti che non conosci, perchè lì rischi la figuraccia ;)
peace and love
bYeZ!
Futura12
16-06-2008, 21:49
Mi ha colpito molto la storia dell'uno su 2 miliardi..
sono sconvolto
vabbè saranno 30 pure 100:asd: resta sempre il fatto che sono lo 0.001% su scala mondiale.
E l'utilizzo in ambito grafico al momento delle DX10.1 è tale.
se non fosse per il prezzo imho, sarebbe una buona scheda...
personalmente aspetto il prossimo step..consumi troppo elevati per ora!!!
Lud von Pipper
16-06-2008, 21:58
se non fosse per il prezzo imho, sarebbe una buona scheda...
personalmente aspetto il prossimo step..consumi troppo elevati per ora!!!
TOMBOLA!!!!!!! ;)
Mi sa che mi terrò la mia 8800gt ancora per molto, MA MOOOLTO tempo;:cool: :D
Per carità, la 260-280 sarà + potente ma non vedo il motivo di cambiarla se posso ancora giocare con tutto al max (tranne crysis scontato, anche se dettagli high con una buona risoluzione è giocabilissimo tranquillamente), senza contare che in caso di bisogno, abbassare un po i dettagli non è reato... :)
Anche se fosse sinceramente non mi prenderei nessuna delle 2...
speriamo in un buon prodotto da parte di ATI in modo da ravvivare la concorrenza (con conseguenti guadagni per noi consumatori, si pensi al calo di prezzo che hanno visto ottime schede come la 8800gt o gts, oppure l'uscita della 9600gt):rolleyes:
PS: con crysis più che un gioco sembra uscito un programma di bench, magari ci son persone che lo usano solo per quello e non l'hanno giocato mai :D
personalmente aspetto il prossimo step..consumi troppo elevati per ora!!!
Secondo me, 35W in più della 9800GTX ma con un quasi raddoppio dei transistor non mi sembra un brutto risultato, tutt'altro.
appleroof
16-06-2008, 22:08
Secondo me, 35W in più della 9800GTX ma con un quasi raddoppio dei transistor non mi sembra un brutto risultato, tutt'altro.
cinquina? :stordita:
blackshard
16-06-2008, 22:09
uhm si tutto molto interessante:asd:
http://www.tomshw.it/news.php?newsid=13797 mi sa che sei rimasto un po indietro...
Se ne è discusso già in un altro thread, ma le parole dello sviluppatore non sono esattamente quelle riportate e tradotte da tomshw.it.
Il testo originale, opportunamente tagliato, è:
"The performance gains seen by players who are currently playing AC with a DX10.1 graphics card are in large part due to the fact that our implementation removes a render pass during post-effect which is costly."
Ora, dove quelli di tomshw.it leggono che c'è scritto "errore" non lo so.
Addirittura poi hanno lo sfrontato coraggio di mettere anche il link alla sorgente dell'informazione, il forum ufficiale di ubisoft!
Se invece vai su un sito più serio, hai questo articolo:
http://www.anandtech.com/video/showdoc.aspx?i=3320&p=6
Dove più o meno verso la fine della pagina si legge che l'autore ha contattato Ubisoft, Nvidia e AMD riguardo alla questione DX10.1. AMD ha risposto, Ubisoft e nvidia hanno fatto orecchie da mercante.
Se vogliamo continuare a credere agli asini che volano, alle intercettazioni che ledono la privacy dei cittadini e a ubisoft che rimuove il supporto dx10.1 da AC perchè "funziona male", beh... ben arrivati nel paese delle meraviglie!
cinquina? :stordita:
E' una battuta? Se si, è poco felice :stordita:
per me è una stronzata quella che hai appena scritto, che tra l'altro denota la tua ignoranza sull'argomento: le DX10.1 PERMETTONO di eseguire un passaggio di rendering in meno, quando alla scena è applicato l'antialiasing.
Cosa ne sai che quelle voci non le conferma nessuno? Non credo che sfogliando i siti dei pornazzi avresti potuto trovare informazioni in merito... :asd:
bYeZ!
Comunque la questione l'ha sollevata uno sviluppatore UBISoft proprio sul forum ufficiale, dicendo lui stesso che era un bug dovuto al gioco e che sarebbe stato fixato alla prima patch. Nella patch, poi, al posto di fixare il problema, hanno rimosso il supporto giustificandosi dicendo che il supporto alle DirectX 10.1 in Assassin's Creed era ancora immaturo.
appleroof
16-06-2008, 22:12
E' una battuta? Se si, è poco felice :stordita:
e vabbè, me ne faccio una ragione :)
cmq era per dire che sono completamente d'accordo con quello che dici ;)
e vabbè, me ne faccio una ragione :)
cmq era per dire che sono completamente d'accordo con quello che dici ;)
Si, avevo intuito che eri d'accordo ma sai com'è, qui dentro, alla prima incomprensione via di flames.
ABCcletta
16-06-2008, 22:18
beh dal pdv "crysis + 1920 x 1200(o 1080)" si sapeva da un pezzo che bisogna "accontentarsi"(virgolette in quanto non ho al momento presenti gli fps per crysis a quelle risoluzioni) e che così sarà ancora per un po' :sofico:
(secondo tutti i "pronostici" anche da amd non uscirà nulla di più veloce di gt200 anche a questo giro)
dubito quindi che possa essere quello il metro per "porre forti dubbi" sulla bontà di un specifica gpu, sia essa nv o ati ;)
Ovvio, bisogna accontentarsi perchè il mercato delle vga si è adagiato mentre i mercati di contorno hanno continuato la loro evoluzione. Faccio presente che il motore di Crysis è al momento lo stato dell'arte, ha gia quasi un anno sulle spalle e non c'è hardware capace di metterlo a dura prova. Una situazione del genere sinceramente non mi pare sia mai capitata in tutta la storia dei videogames e ciò è indicativo della situazione...
Senza contare che potrebbero uscire motori grafici ancora più evoluti fra non molto.
Non pongo dubbi sulla bonta del prodotto nel senso qualitativo del termine. Pongo dubbi sulla sua effettiva utilità.
Queste nuove nvidia fanno cacare a spruzzo: sono delle "muscle car" che alla prima curva sbandano.
A questi punti molto più interessanti le future ATI 4800; qualcuno sa quando scade il NDA?
Inoltre si sa nulla quando usciranno le 9800GT a 55nm? A questi punti, se devo comprare un'architettura di 2 anni fa... almeno risparmio.
:D ROTFL sulla prima riga e concordo pienamente sull'ultima affermazione. Quando saranno a pieno regime probabilmente si riusciranno a prendere delle 9800 GTX a 180 euro qui sul mercatino...
appleroof
16-06-2008, 22:21
Si, avevo intuito che eri d'accordo ma sai com'è, qui dentro, alla prima incomprensione via di flames.
ok ;)
Non ci siamo per niente, costano tanto, troppo direi! :mbe:
Ma mi prendono per il :ciapet: quelli di Nvidia? :confused: Spero in una diminuizione dei prezzi per le vga di punta,550€ per una top sono troppi.
300€ sarebbero l'ideale, come ai tempi delle TNT2Ultra G400Max.
Oddio ragazzi.... ancora qui a rimurginare e a litigare sulle stesse argomenazioni sterili? :mbe:
Suvvia, il risltato finale mi pare lampante:
La GTX280 è una scheda superba, dato che offre un boost prestazionale del 90-100% rispetto alla seconda miglior Scheda video a singola GPU esistente, ovvero la 9800GTX... paticamente il doppio delle prestazioni, praticamente uguale a un Sli di 9800GTX.
Tuttavia dato che è stata appena lanciata oggi e in anticipo di una settimana sulla risposta di Ati, essa è proposta ad un prezzo spropositato per specularci su il più possibile come ha SEMPRE fatto Nividia dall'inizio dei tempi, rendendolo in data odierna (16 giugno 2008) una proposta d'acquisto molto al di là dei limiti della convenienza... proprio come due anni fa era al di la di ogni convenienza comprare una 8800GTX a 700€...
Tra un paio di mesi la scheda scenderà sui 350-400€ e allora se avete i soldi starete a farvi tutti il vostro bell'Sli con due GTX280... proprio come al tempo ve lo siete fatto con le 8800GTX.
Invece state ancora qui a battibeccare in due fazioni... c'è chi dice che è un FLOP perchè al quel prezzo ci fai altro e chi fa notare che è comunque la scheda a singola GPU più potente e di parecchio... ma in realtà state dicendo due aspetti della stessa cosa. Ovviamente il tutto IMHO :Prrr:
sdjhgafkqwihaskldds
16-06-2008, 22:28
E' una battuta? Se si, è poco felice :stordita:
forse voleva dire che abita a cinquina (un quartiere romano) :D
Ovvio, bisogna accontentarsi perchè il mercato delle vga si è adagiato mentre i mercati di contorno hanno continuato la loro evoluzione. Faccio presente che il motore di Crysis è al momento lo stato dell'arte
Stato dell'arte un gioco che non sfrutta nemmeno il multicore... :asd:
blackshard
16-06-2008, 22:32
Ovvio, bisogna accontentarsi perchè il mercato delle vga si è adagiato mentre i mercati di contorno hanno continuato la loro evoluzione. Faccio presente che il motore di Crysis è al momento lo stato dell'arte, ha gia quasi un anno sulle spalle e non c'è hardware capace di metterlo a dura prova. Una situazione del genere sinceramente non mi pare sia mai capitata in tutta la storia dei videogames e ciò è indicativo della situazione...
Senza contare che potrebbero uscire motori grafici ancora più evoluti fra non molto.
Non saprei... se ho un algoritmo con complessità esponenziale, esso scalerà malissimo al crescere della potenza elaborativa. Però non lo chiamo un algoritmo "allo stato dell'arte" o "evoluto"...
Riguardo alla scheda, non mi sembra tutto questa grande rivoluzione che si prospettava dall'inizio. Alla fine sembra che abbiano preso due G92 e li abbiano più o meno fusi assieme, sia come prestazioni che come consumi che come tecnologia, per ottenere una pseudo-GX2 in un solo package. Sa' un po' di minestra riscaldata per l'ennesima volta.
sdjhgafkqwihaskldds
16-06-2008, 22:34
Sa' un po' di minestra riscaldata per l'ennesima volta.
sto contando quante volte viene usata quest'affermazione ogni volta che esce una vga nuova, quando arrivo a 1.000 apro un topic per assegnare i :tapiro:
scusate ragazzi....ma mi spiegate che senzo hanno in questo periodo queste schede? oltre ai numeri del lotto del 3d merd? ragazzi le novità in ambito video games su pc saranno sempre meno...e tutti porting da consoles.....e per questi games basta e avanza una qualsiasi 8800...da qui fino a che le lonsoles attuali verranno rimpiazzate...perchè,parliamoci chiaro...in questo momento chi è il pazzo programmatore (oltre crytek fino a un mese fa....ora neanche loro...)che si mette a programmare un'esclusiva solo per pc? NESSUNA o quasi...e quall'è questo altrettanto pazzo che programma PER INTERO un game prima per consoles e poi per pc usando le DX10?? NESSUNO...tanto ci rifilano lo stesso software DX9 e lo spacciano per DX10 semplicemente DISABILITANDO fetures grafiche sulla versione DX9...che saranno attive sulla versione DX10...inutile che vi cito i giochi che tanto li conoscete...
....ci sono in programma giochi FULL DX10 per pc? NO
i giochi che ci sono hanno bisogno di questa potenza per essere girati al max? NO se proprio si deve sborroneggiare si prende una 9800GTX per 250€ oramai...
...mi ricordo quando io stavo apresso alle vga e mi divertivo per carità...ma perchè alla fine tra una generazione e l'altra la necessità di potenza era abbastanza utile...ma adesso?
...le consoles stanno mangiando letteralmente il mercato dei video game...io non avrei mai comprato una cosnoles 2 anni fa...e invece eccomi qui...possessore di wii e forse di ps3/360...
l'ho sempre detto dal primo giorno dopo l'uscita delle cosnoles next gen che noi giocatori per pc saremmo stati pian piano convertiti alle cosnoles...
fine grosso semi OT....
inizio IT
pensate che nvidia vi faccia uscire vga megapotenti per mettersi in difficoltà da sola?(progettare una vga piu potente quando ha spremuto tuti i tuoi ingegneri al max c'è ne vuole...)e poi quale concorrenza deve battere nvidia?ati su queste fasce di prezzo non si vede seriamente da troppo tempo...dubito che siano superiori le nuove ati...costeranno meno questo è sicuro...
che peccato tutte queste cose stanno cambiando la faccia del mondo dei pc e degli appassionati...
cmq venderanno ugualmente sti mostri tanto ci son semrpe quelli che le comprano ma non ci giocano...LOL io dico...
non so rimpiango il periodo delle 9800XT ati...quando solo a vederla sbavavo...forse è anche l'età che avanza...^^ma questo è un'altro discorso scusate l'intervento eccessivamente lungo^^
blackshard
16-06-2008, 22:39
sto contando quante volte viene usata quest'affermazione ogni volta che esce una vga nuova, quando arrivo a 1.000 apro un topic per assegnare i :tapiro:
Non è un caso che abbia scritto "per l'ennesima volta" ;)
E comunque se non ti piace minestra riscaldata, possiamo dire che c'è puzza di aria fritta.
Oppure che non c'è niente di nuovo sul fronte occidentale...
Non saprei... se ho un algoritmo con complessità esponenziale, esso scalerà malissimo al crescere della potenza elaborativa. Però non lo chiamo un algoritmo "allo stato dell'arte" o "evoluto"...
A parte che per molti problemi "un'algoritmo esponenziale" è l'unica soluzione, quindi è sbagliato considerare questo concetto come se fosse merda, perchè molti algoritmi super polinomiali sono lo stato dell'arte eccome, lo scalare di un'algoritmo non ha un cavolo a che vedere con la potenza elaborativa ma a che vedere con la dimensione dell'input.
Insomma, il concetto si è capito ma il concetto che usi per esprimerlo è sbagliato proprio.
sniperspa
16-06-2008, 22:42
Stato dell'arte un gioco che non sfrutta nemmeno il multicore... :asd:
Bè ma il single lo sfrutta bene!ecco!:O :ciapet:
sniperspa
16-06-2008, 22:45
Riguardo alla scheda, non mi sembra tutto questa grande rivoluzione che si prospettava dall'inizio. Alla fine sembra che abbiano preso due G92 e li abbiano più o meno fusi assieme, sia come prestazioni che come consumi che come tecnologia, per ottenere una pseudo-GX2 in un solo package. Sa' un po' di minestra riscaldata per l'ennesima volta.
Quello che penso esattamente ankio...
zephyr83
16-06-2008, 22:50
A me come risultato nn sembra male, va come due schede video della precedente generazione in sli.....nn mi sembra sia successa spesso una cosa del genere!! Se nn ci fosse stata la 9800gx2 sarebbero rimasti tutti sbalorditi!! Inoltre consuma e scalda quasi come una singola scheda sempre delal precedente generazione!! A me sembrano un ottimo risultato......il problema è il prezzo perché tanto vale comprarsi una gx2 che costa meno e fa praticamente uguale! però chissà quali saranno i risultati di due gtx280 in sli o di una gtx280x2!! Speriamo che anche ATI riesca a tirare fuori una scheda video che va il doppio di una 3870!!! Detto questo me ne frego di schede video del genere, per i miei utilizzi sn esagerate, troppo ingombranti e consumano troppo.....mi sa che a breve comprerò una nvidia 8500gt in passivo a 40 euro :sofico: però sn curioso di vedere le schede video di nuova generazione nella fascia media
Piccolo commentino un pò OT...ma con questi consumi da PAURA mi prendo una qualsiasi consolle next-gen e stò tranquillo. Soprattutto non impazzisco a cambiare ogni volta la scheda video & co:rolleyes:
Commento in terza persona, perchè felice possessore di una XBOX360 e prossimamente anche di una PS3 per avere il lettore Blue-Ray :sofico:
blackshard
16-06-2008, 22:55
A parte che per molti problemi "un'algoritmo esponenziale" è l'unica soluzione, quindi è sbagliato considerare questo concetto come se fosse merda, perchè molti algoritmi super polinomiali sono lo stato dell'arte eccome, lo scalare di un'algoritmo non ha un cavolo a che vedere con la potenza elaborativa ma a che vedere con la dimensione dell'input.
Insomma, il concetto si è capito ma il concetto che usi per esprimerlo è sbagliato proprio.
Si ok, era per dirlo in quattro parole. Se il problema è NP c'è poco da fare e ti devi beccare l'algoritmo esponenziale, ma non è una bella condizione. Quello che volevo dire, e lo dico a numeri e con un esempio, è che se tale algoritmo ci mette 150 anni per essere eseguito su una cpu, pure se ho una cpu doppiamente potente ne impiegherò 75 di anni, il che è un interessante risultato in termini assoluti, ma non è granchè in termini pratici.
Ecco, era questo che volevo dire :D
dopo essermi letto tutta la recension nn posso che fare i complimenti alla redazione per la recensione anche se nella sezione "consumi" c'è un po' di ambiguità nei grafici :sofico:
cmq concordo con MiKeLezZ visto che a detta di molti rumor dovevano esserci ben altre prestazioni, ma è anche vedo che ultimamente in molti avevano detto che il nuovo confronto tra nvidia e ati nn sarebbe stato come g80 vs r600.... ;)
cmq cito la conclusione di Tweaktown
The other thing I have to say before I wrap this all up is that I’ve tested the HD 4850, and I’ve tested it in Crossfire. Now, if I hadn’t tested those cards I may have been more impressed with the GTX 280, but I have. I’ve seen the performance figures the cards put out. We also know the price on a pair of HD 4850s is going to be under $600 AUD, while the new GTX 280 in stock form seems to be launching at the absolute cheapest in Australia in the low $700 AUD area. Ouch.
chi ha orecchie per intendere intenda ;)
Queste nuove nvidia fanno cacare a spruzzo: sono delle "muscle car" che alla prima curva sbandano.
A questi punti molto più interessanti le future ATI 4800; qualcuno sa quando scade il NDA?
Inoltre si sa nulla quando usciranno le 9800GT a 55nm? A questi punti, se devo comprare un'architettura di 2 anni fa... almeno risparmio.
ripeto quoto in toto!!!!!!!!!!!
ps: l'nda scade il 25 ;)
edit: scusate ho l'adsl che va male....
armenico11
16-06-2008, 23:00
scusate ragazzi....ma mi spiegate che senzo hanno in questo periodo queste schede? oltre ai numeri del lotto del 3d merd? ragazzi le novità in ambito video games su pc saranno sempre meno...e tutti porting da consoles.....e per questi games basta e avanza una qualsiasi 8800...da qui fino a che le lonsoles attuali verranno rimpiazzate...perchè,parliamoci chiaro...in questo momento chi è il pazzo programmatore (oltre crytek fino a un mese fa....ora neanche loro...)che si mette a programmare un'esclusiva solo per pc? NESSUNA o quasi...e quall'è questo altrettanto pazzo che programma PER INTERO un game prima per consoles e poi per pc usando le DX10?? NESSUNO...tanto ci rifilano lo stesso software DX9 e lo spacciano per DX10 semplicemente DISABILITANDO fetures grafiche sulla versione DX9...che saranno attive sulla versione DX10...inutile che vi cito i giochi che tanto li conoscete...
....ci sono in programma giochi FULL DX10 per pc? NO
i giochi che ci sono hanno bisogno di questa potenza per essere girati al max? NO se proprio si deve sborroneggiare si prende una 9800GTX per 250€ oramai...
...mi ricordo quando io stavo apresso alle vga e mi divertivo per carità...ma perchè alla fine tra una generazione e l'altra la necessità di potenza era abbastanza utile...ma adesso?
...le consoles stanno mangiando letteralmente il mercato dei video game...io non avrei mai comprato una cosnoles 2 anni fa...e invece eccomi qui...possessore di wii e forse di ps3/360...
l'ho sempre detto dal primo giorno dopo l'uscita delle cosnoles next gen che noi giocatori per pc saremmo stati pian piano convertiti alle cosnoles...
fine grosso semi OT....
inizio IT
pensate che nvidia vi faccia uscire vga megapotenti per mettersi in difficoltà da sola?(progettare una vga piu potente quando ha spremuto tuti i tuoi ingegneri al max c'è ne vuole...)e poi quale concorrenza deve battere nvidia?ati su queste fasce di prezzo non si vede seriamente da troppo tempo...dubito che siano superiori le nuove ati...costeranno meno questo è sicuro...
che peccato tutte queste cose stanno cambiando la faccia del mondo dei pc e degli appassionati...
cmq venderanno ugualmente sti mostri tanto ci son semrpe quelli che le comprano ma non ci giocano...LOL io dico...
non so rimpiango il periodo delle 9800XT ati...quando solo a vederla sbavavo...forse è anche l'età che avanza...^^ma questo è un'altro discorso scusate l'intervento eccessivamente lungo^^
il celholunghismo e il complesso della volpe e l'uva la fanno sempre da padrone .......
volgio essere onesto ,se c'avessi 1000 euro da sp*ttanare in allegria ,senza rimpianti uno sli di gtx 280 me lo farei,siccome che non ce li ho e che ancora 3 8800gtx vanno più di una gtx280 ,non me la compro....però rosico
ABCcletta
16-06-2008, 23:01
Non saprei... se ho un algoritmo con complessità esponenziale, esso scalerà malissimo al crescere della potenza elaborativa. Però non lo chiamo un algoritmo "allo stato dell'arte" o "evoluto"...
Riguardo alla scheda, non mi sembra tutto questa grande rivoluzione che si prospettava dall'inizio. Alla fine sembra che abbiano preso due G92 e li abbiano più o meno fusi assieme, sia come prestazioni che come consumi che come tecnologia, per ottenere una pseudo-GX2 in un solo package. Sa' un po' di minestra riscaldata per l'ennesima volta.
Stato dell'arte un gioco che non sfrutta nemmeno il multicore... :asd:
Potete vederla come volete, non siamo qui per fare retorica o lezioni di algoritmi dato che per quello c'è l'università. A livello grafico IO non ho visto di meglio. E con "allo stato dell'arte" non intendo certo l'aspetto tecnico, ma quello visivo...
Futura12
16-06-2008, 23:04
Potete vederla come volete, non siamo qui per fare retorica o lezioni di algoritmi dato che per quello c'è l'università. A livello grafico IO non ho visto di meglio. E con "allo stato dell'arte" non intendo certo l'aspetto tecnico, ma quello visivo...
però poi non lamentatevi se non gira neanche con una GTX280 tale bellezza;)
Rugginofago
16-06-2008, 23:09
Mah, io non capisco proprio il 90% della gente che posta qui. Avete insultato le soluzioni X2 sia di Nvidia che di Ati definendole una palese ammissione di incapacita` di sviluppare nuove architetture. Ora che nvidia porta una scheda nuova, dalle prestazioni sostanzialmente migliorate rispetto alla precedente scheda di punta non SLI vi lamentate ancora, elogiando le tanto criticate soluzioni X2.
Il prezzo lascia un po' il tempo che trova su una scheda del genere, e` palese che sia destinato a scendere un po' nel medio-breve periodo... (per altro per chi ha un po' di coerenza dovrebbe ricordare i 600 e passa euro per le prime 8800gtx/ultra che fossero, e tutt'oggi elogiate chi ha speso a quel tempo quei prezzi perche` se la puo' ancora godere).
Nvidia ha segnato un ottimo punto secondo me, altro che flop...ha fatto un passo in avanti non da poco, che si fara` sentire ancor di piu`quando lavoreranno su un SLI con queste nuove gpu. Una buona semina insomma che gia` mostra dei buoni frutti, alla faccia di chi vede solo 3 numeri di benchmark senza saper leggerli con un minimo di raziocinio.
Mike_MTB
16-06-2008, 23:14
...le consoles stanno mangiando letteralmente il mercato dei video game...io non avrei mai comprato una cosnoles 2 anni fa...e invece eccomi qui...possessore di wii e forse di ps3/360...
l'ho sempre detto dal primo giorno dopo l'uscita delle cosnoles next gen che noi giocatori per pc saremmo stati pian piano convertiti alle cosnoles...
We ! se sei contento di possedere una wii , buon per tè , ma personalmente mi son sentito un pò stupido a fare i gestacci verso la televisione quando ci ho giocato.
Ho quasi 40nni e magari non ho la mentalità per la console , personalmente preferisco giocare nel mio studio seduto comodamente in poltrona con il PC da "battaglia" e magari usando il classico joystick.
Sgt.Pepper89
16-06-2008, 23:17
Ridi perchè secondo te il tempo determina il flop di qualcosa? G80 è una gpu ancora attuale (basta guardare i bench). Più che altro sono stati tutti gli altri a fare flop, visto che dopo 2 anni si parla ancora di G80. ;)
No, ovviamente il tempo non determina nulla, sono passati due anni pieni in cui tutto il resto del mondo informatico si è (chi più chi meno) evoluto; in due anni Nvidia non ha fatto altro che mettere assieme due processori della precedente generazione, aggiungendo qualche piccolo accorgimento per ridurre le frequenze in Idle.
Ora sono tutti gli altri ad aver fatto flop, quindi anche nvidia.
Insomma, se Nvidia non è riuscita a sfornare un bel prodotto, allora è perchè era stata troppo brava 2 anni fa; cerchi di girare il discorso per fare in modo che sia sempre lei ad aver fatto la cosa giusta.
Altro errore di chi non ha seguito da vicino quel periodo. Apparte che il progetto R600 non è durato 6 mesi ma è in cantiere dai primi del 2006, la 2900xt doveva essere la scheda G80-killer, ma fu riposizionata sui listini poco prima del lancio, con contorno di dichiarazione ufficiale di AMD sulle reali pretese della scheda, ossia di competere con la GTS anzichè con la GTX e conseguente clamore di tutta l'utenza (fanboy e non).
Eh si perchè invece la GTX 280 non doveva essere la scheda che permetteva di giocare a crysis very high a risoluzioni alte, no?
Inotlre, seguendo la tual logica, possiamo chiamare qualsiasi scheda non top gamma, come ad esempio la 8800gt, una ciofeca perchè è più lenta di un CF di hd3870X2.
Sono i prezzi, a fare la fascia di mercato e la convenienza di una scheda, non le aspettative dei vari Fanboy.
A questo punto mi pare che tu abbia letto un'altra recensione. Su tutti i bench (coi filtri attivi - perchè voglio vedere chi spende 550 euro di scheda per giocare senza AA e AF) GTX280 da la paga alla GX2. Ad oggi, normalizzando le prestazioni, è la scheda + veloce del pianeta.
Per non parlare poi delle prestazioni di GT200 in sli.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/
Non voglio dire che non sia la scheda SINGOLA più beloce sul mercato, non si può negare, ma mi sembra che per vederla come successo sia necessario introdurre troppe limitiazioni, e sempre ignorando il prezzo di acquisto.
Fino a prova contraria, GTX280, pur sviluppando tutta la sua potenza, ha il valore idle più basso di tutte le altre schede sul mercato, e consuma meno della GX2 in full.
http://www.hwupgrade.it/articoli/skvideo/1988/consumi.png
Se sono solo queste le argomentazioni per cui sostieni che GT200 sia un flop, fai pure, ma non starò quì a perder tempo nel tentativo di convincerti del contrario.
Si, parliamo dei 20 watt di differenza, sono valori che cambiano da una release dei driver all'altra, all'incirca, non si tratta di una rivoluzione ma di una piccolissima evoluzione.
Possiamo poi parlare della rumorosità, magari? O ti sei dimenticato misteriosamente questo parametro?
Se sono queste le argomentazioni con cui sostieni che GTX280 non sia un FLOP, allora cosa possiamo definire tale?
Di sicuro, non si può parlare di un successo; c'è solo da aspettare RV770 per quantificare meglio la natura di questo mancato salto generazionale e prestazionale.
Comunque non vi pare manchi una persona all'appello? Su, i frequentatori anche del forum Schede Video facciano l'appello e vedano perchè è assente ingiustificato.
SuperMater
16-06-2008, 23:20
We ! se sei contento di possedere una wii , buon per tè , ma personalmente mi son sentito un pò stupido a fare i gestacci verso la televisione quando ci ho giocato.
Ho quasi 40nni e magari non ho la mentalità per la console , personalmente preferisco giocare nel mio studio seduto comodamente in poltrona con il PC da "battaglia" e magari usando il classico joystick.
http://cache.kotaku.com/images/2006/05/wii_standard_controller.jpg
ThePunisher
16-06-2008, 23:24
Domani
C'è qualche fonte affidabile?
sdjhgafkqwihaskldds
16-06-2008, 23:26
però poi non lamentatevi se non gira neanche con una GTX280 tale bellezza;)
non girerà mai bene su nessuna vga perchè è un gioco troppo perfetto, è il gioco ideale progettato per farsi desiderare sempre. ;)
io personalmente trovo scandaloso giocare a 2500x1600 con qualsiasi titolo, 1280x1024 è il max che dedico ad un gioco.
sniperspa
16-06-2008, 23:29
Comunque non vi pare manchi una persona all'appello? Su, i frequentatori anche del forum Schede Video facciano l'appello e vedano perchè è assente ingiustificato.
Emh...di che thread precisamente???:fagiano:
leoneazzurro
16-06-2008, 23:30
G:doh: ià che ci sei cambiati anche il cervello
Stiamo calmini, eh? Ammonizione
Vedo ancora un pò di gente che si accalora un pò troppo. Mi raccomando, con questo caldo, non c'è bisogno di alzarel a temperatura, nevvero ? ;)
We ! se sei contento di possedere una wii , buon per tè , ma personalmente mi son sentito un pò stupido a fare i gestacci verso la televisione quando ci ho giocato.
Ho quasi 40nni e magari non ho la mentalità per la console , personalmente preferisco giocare nel mio studio seduto comodamente in poltrona con il PC da "battaglia" e magari usando il classico joystick.
Non vorrei dirtelo ma il Wii e il DS sono le console + vendute al mondo, quando e' uscita la wii in 8 giorni solo in america ha veduto 600 mila console, circa una al secondo, e meglio nn sminuire nintendo o nn dire nulla contro perche' tutti i dati sono pro nintendo ^^
Cmq io sono possessore di console dalla atari 2600 fino alla ultima PS3 (ho avuto tutte le console tranne la X360 nn presa per tutti i problemi che ha a lvl hardware)e posso dire che cmq gli FPS in genere sono mille volte meglio su PC, e poi se ti prendi un gioco su PC e scatta un po ti arrangi coi settaggi ecc... se scatta su PS3 o altre console cosi te lo tieni.
Per i prezzi troppo alti basta NON comprare questi prodotti quando escono a queste cifre esorbitanti e vedrete che in futuro ci penseranno 2 volte a fare di nuovo sto giochino gia' fatto con la 9800GX2 di buttare fuori una VGA a sti prezzi....
Emh...di che thread precisamente???:fagiano:
Tutti quelli Nvidia ovviamente. Comincia per N :D
però poi non lamentatevi se non gira neanche con una GTX280 tale bellezza;)
Non gira a 1920, forse. Anzi, non gira a 1920 in DirectX10, che è ben diverso (e - nota personale - mi chiedo quanto influisca la pesantezza di Vista).
Non capisco proprio tutto questo astio nei confronti di Crysis. Chi ci voleva giocare l'ha già fatto con una qualsiasi scheda tra la 3870 e la 9800x2 (e magari l'ha anche accantonato), e chi non vuole giocarci passerà oltre tenendosi felicemente la sua scheda qualsiasi.
Restano solo i fanatici (pardon, enthusiast) che odiano Crysis perché non concepiscono altro che il full HD e i filtri a manetta, ma pur odiandolo non possono fare a meno di nominarlo in ogni post. Dite che è programmato male? Ok, allora non vedo il problema: ignoratelo e aspettate i fantastici giochi del futuro che senza alcun dubbio voleranno con queste schede.
Riguardo la GTX280: come prestazioni secondo me è accettabile. Credo che il "flop" che citano alcuni sia naturale conseguenza delle aspettative esagerate che circondavano questa scheda, e naturalmente del rapporto prestazioni/prezzo insoddisfacente (destinato a migliorare in fretta... ovviamente chi compra adesso non fa certo un affare).
Comunque, io non cambierò scheda finché non ne uscirà una con qualche evidente progresso in termini di consumo, rumorosità e temperatura. E in questo senso la GTX280, se non è un flop, poco ci manca.
Mister Tarpone
16-06-2008, 23:34
Tutti quelli Nvidia ovviamente. Comincia per N :D
e chi è?? :confused: sono curioso.. :confused:
non girerà mai bene su nessuna vga perchè è un gioco troppo perfetto, è il gioco ideale progettato per farsi desiderare sempre. ;)
io personalmente trovo scandaloso giocare a 2500x1600 con qualsiasi titolo, 1280x1024 è il max che dedico ad un gioco.
Gira male per alcuni motivi e te ne elenco solo 2
1. nn e' ottimizzato pe ri proci multi core
2.sotto DX10 in very high an fatto una porcheria e lo si vede benissimo moddando la DX9 e giocando con gli stessi effetti a FPS + che decenti
Poi io gioco a 1920 con tutto PS3 e PC, ti assicuro che c'e' una bella differenza da 1440 o il classico 720p.
Se fa 10fps con una 8800gtx, come fa a farne 35 con il gx280? :D
E poi si parla di dx10, quindi.
Ci speravo quantomeno, peccato, sarà per la prossima volta.
Ripeto nuovamente il mio parere, è una gran scheda ma al momento un po' inutile dato che si gioca alla grande anche con le 8800.
Se avesse fatto faville con Crysis sarebbe stato diverso ma così non ha molto senso.
Mister Tarpone
16-06-2008, 23:41
Ripeto nuovamente il mio parere, è una gran scheda ma al momento un po' inutile dato che si gioca alla grande anche con le 8800.
.
concordo... pure a me sembra una bella scheda... però per adesso costa troppo...
e poi si... tranne quella ca22ata di Crysis si gioca già bene con tutto con schede decisamente + economiche.....
Ci speravo quantomeno, peccato, sarà per la prossima volta.
Ripeto nuovamente il mio parere, è una gran scheda ma al momento un po' inutile dato che si gioca alla grande anche con le 8800.
Se avesse fatto faville con Crysis sarebbe stato diverso ma così non ha molto senso.
E le tue speranze erano anche ben riposte visto che in teoria una VGA che costa + di due 9800GTX sarebbe dovuta andare a rigor di logica essendo pure single VGA almeno il doppio ma cosi nn e', finche nn scende di prezzo nn serve, e cmq credo che vedera' davvero davvero poco sta GTX280 anche perhce' nn ne vedo l'utilita' alemo per ora.
concordo... pure a me sembra una bella scheda... però per adesso costa troppo...
e poi si... tranne quella ca22ata di Crysis si gioca già bene con tutto con schede decisamente + economiche.....
Giusto e' in pratica quello che intende io, peoro' sta GTX280 doveva essere idirizzata ad un pubblico enthusiast e avere prezzo=prestazioni e' nata per questo invece sembra che sia nata per mandare in pesnione la 9800GX2 e basta.
Futura12
17-06-2008, 00:04
Continuo la discussione via PM che non è pertinente.
ho svuotato i PM:Perfido:
E le tue speranze erano anche ben riposte visto che in teoria una VGA che costa + di due 9800GTX sarebbe dovuta andare a rigor di logica essendo pure single VGA almeno il doppio ma cosi nn e', finche nn scende di prezzo nn serve, e cmq credo che vedera' davvero davvero poco sta GTX280 anche perhce' nn ne vedo l'utilita' alemo per ora.
Le mie uniche speranze per il futuro delle schede video sono queste:
1) ATI/AMD e Nvidia morirebbero insieme alla fine del gaming su PC (certo produrrebbero i chip video delle console ma non sarebbe la stessa cosa) oltre al ridimensionamento di Intel (nessuno cambierebbe più procio solo per navigare/vedere film).
2) Per questo spero che in un futuro, magari anche non proprio prossimo, usciranno giochi per PC con grafica simil Crysis (ma con prestazioni migliori) che non saranno in grado di girare sulle attuali console.
L'unica cosa positiva è che non si cambia la scheda video ogni 6 mesi :D
Mister Tarpone
17-06-2008, 00:11
L'unica cosa positiva è che non si cambia la scheda video ogni 6 mesi :D
infatti. meglio così :tie: :tie: :tie: :asd:
Momento, quel boost prestazionale era dovuto a un bug che faceva fare alla scheda un rendering pass di meno sotto DirectX 10.1, non era una caratteristica di DirectX 10.1 ... In ogni caso con la nuova patch, in Assassin's Creed il supporto alle DirectX 10.1 è stato rimosso. E poi come si pretendeva di sfruttarne le caratteristiche se non c'è l'hardware?
per me è una stronzata. Fra l'altro tutti i siti riportano chiaramente che in DX10.1 la scheda video tralasciava un passaggio nel rendering....di fatto rendendo il gioco più fluido.
Poi non le conferma nessuno quelle voci...un sito fra 100 non è un buon pronostico.
Almeno per me IHMO.
BRRRRRRRRRR quante cavolate. Innanzitutto imparare l'inglese!
Ma chi ha mai detto che faceva un passo di rendering in meno??????????? :mc:
Con le dx10.1 avevano a disposizione la possibilità di renderizzare alcune cosette (come le ombre) usando una caratteristica propria delle dx10.1 che evitava alla GPU un passo di rendering. Evitava di fare un passaggio in più!!!!! Non che l'IQ del frame fosse minore per mancanza di un layer di effetti.
E' incredibile che qua dentro ci sia ancora sta credenza, è stato persino detto da uno sviluppatore di AC.... dx10.1 facevano fare la stessa cosa, fatta meglio (l'AA applicato anche alle intersezioni dei poligoni) e come meno computo da parte della GPU, quindi più velocemente!!!!!!!!
E si vede in presenza di AA un incremento di un bel 30% circa costante alle varie risoluzioni!!!!
"An additional render pass is certainly a costly function; what the above statement doesn't clearly state is that DirectX 10.1 allows one fewer rendering pass when running anti-aliasing, and this is a good thing. "
Stavi dicendo "questa è la verità" immagino :asd:
E' un dato di fatto che , all'uscita di un HW nuovo, quando le prestazioni negli altri giochi aumentano del 20% in crysis aumentano del 3-4% ...
Il gioco scala male e non si può negare.
Ciao
Scala malissimo. Ad oggi poi non è ancora in grado di usare il multicore in modo decente. Un gioco che è stato una delusione sotto tutti i punti di vista, soprattutto lato tecnico.
Il gioco non scala male, se il motore grafico ha un difetto è quello di sfruttare poco la presenza di più core nella CPU.
E' evidente che qua sono pochi quelli che si cimentano con il sandbox 2 e l'sdk di crysis... avrebbero NOTATO quale è il FOTTIO IMMENSO di roba che muove quell'engine.
Nessuno si è andato vede i tri/sec che ci sono nei frame di crysis in alcuni momenti? o quanta ram grafica è occupata da assets e shaders? No eh?
E allora prima di denigrare la qualità di quello che per molti (www.crymod.com) è la più bella cosa uscita negli ultimi 2 anni..è meglio informarsi...
...e aspettare un'altra generazione di schede video per giocare a crysis in very high con le dx10 a 1920 con AA4x.....
infatti. meglio così :tie: :tie: :tie: :asd:
E comunque si giocano i porting da console a 1680x1050 con filtri attivati a più di 30 fps :D
Le mie uniche speranze per il futuro delle schede video sono queste:
1) ATI/AMD e Nvidia morirebbero insieme alla fine del gaming su PC (certo produrrebbero i chip video delle console ma non sarebbe la stessa cosa) oltre al ridimensionamento di Intel (nessuno cambierebbe più procio solo per navigare/vedere film).
2) Per questo spero che in un futuro, magari anche non proprio prossimo, usciranno giochi per PC con grafica simil Crysis (ma con prestazioni migliori) che non saranno in grado di girare sulle attuali console.
L'unica cosa positiva è che non si cambia la scheda video ogni 6 mesi :D
A proposito di consollllllle ho ancora il metal gear 4 sigillato, essi che mi sono sbattuto per averlo immediatamente, tutta colpa del pc:muro:
Cmq spero che Nvidia cambi politica con le sue prossime VGA altrimenti sono azzi loro, ATI/AMD ha dormito un po' durante la fase di vendita/acquisizione del marchio ma ora pare essersi svegliata, "il dormiente si e' svegliato"
BRRRRRRRRRR quante cavolate. Innanzitutto imparare l'inglese!
Ma chi ha mai detto che faceva un passo di rendering in meno??????????? :mc:
Con le dx10.1 avevano a disposizione la possibilità di renderizzare alcune cosette (come le ombre) usando una caratteristica propria delle dx10.1 che evitava alla GPU un passo di rendering. Evitava di fare un passaggio in più!!!!! Non che l'IQ del frame fosse minore per mancanza di un layer di effetti.
E' incredibile che qua dentro ci sia ancora sta credenza, è stato persino detto da uno sviluppatore di AC.... dx10.1 facevano fare la stessa cosa, fatta meglio (l'AA applicato anche alle intersezioni dei poligoni) e come meno computo da parte della GPU, quindi più velocemente!!!!!!!!
E si vede in presenza di AA un incremento di un bel 30% circa costante alle varie risoluzioni!!!!
"An additional render pass is certainly a costly function; what the above statement doesn't clearly state is that DirectX 10.1 allows one fewer rendering pass when running anti-aliasing, and this is a good thing. "
Il gioco non scala male, se il motore grafico ha un difetto è quello di sfruttare poco la presenza di più core nella CPU.
E' evidente che qua sono pochi quelli che si cimentano con il sandbox 2 e l'sdk di crysis... avrebbero NOTATO quale è il FOTTIO IMMENSO di roba che muove quell'engine.
Nessuno si è andato vede i tri/sec che ci sono nei frame di crysis in alcuni momenti? o quanta ram grafica è occupata da assets e shaders? No eh?
E allora prima di denigrare la qualità di quello che per molti (www.crymod.com) è la più bella cosa uscita negli ultimi 2 anni..è meglio informarsi...
...e aspettare un'altra generazione di schede video per giocare a crysis in very high con le dx10 a 1920 con AA4x.....
Quoto tutto tranne una cosa, se crysis fosse cosi bello come dovrebbe essere nn avrebbe venduto cosi poco, e poi e' stata propio crytek a lamentarsi delle scarse vendite, forse loro il game se lo sono giocati con un TRI sli di 8800ULTRA ma la gente normale no e quindi il game ha floppato in dati di vendite, un game esce e va giocato almeno a risoluzioni umane bene, che poi a 1920 faccia fatica e anche molta mi sta bene ma che a 1440 sia gia' pesante non mi sta bene, se sapevano che il game era cosi pesante potevano aspettare a farlo uscire, il fatto è aspettare quanto????? visto che manco questa GTX280 lo fa girare come si deve hehehehe
BRRRRRRRRRR quante cavolate. Innanzitutto imparare l'inglese!
Ma chi ha mai detto che faceva un passo di rendering in meno??????????? :mc:
Con le dx10.1 avevano a disposizione la possibilità di renderizzare alcune cosette (come le ombre) usando una caratteristica propria delle dx10.1 che evitava alla GPU un passo di rendering. Evitava di fare un passaggio in più!!!!! Non che l'IQ del frame fosse minore per mancanza di un layer di effetti.
E' incredibile che qua dentro ci sia ancora sta credenza, è stato persino detto da uno sviluppatore di AC.... dx10.1 facevano fare la stessa cosa, fatta meglio (l'AA applicato anche alle intersezioni dei poligoni) e come meno computo da parte della GPU, quindi più velocemente!!!!!!!!
E si vede in presenza di AA un incremento di un bel 30% circa costante alle varie risoluzioni!!!!
"An additional render pass is certainly a costly function; what the above statement doesn't clearly state is that DirectX 10.1 allows one fewer rendering pass when running anti-aliasing, and this is a good thing. "
Senti, io il post dello sviluppatore Ubisoft l'ho letto sul forum ufficiale, l'inglese lo parlo sicuramente meglio di te e questo è quello che ha detto. Saranno sicuramente motivazioni politiche dettate da collaborazioni con nVidia, ma lo sviluppatore Ubisoft ha proprio detto che era un bug dell'engine. Che poi non sia vero lo sappiamo tutti, ma poichè non ci sono evidenze tecniche del fatto che non lo sia, ci dobbiamo attenere alle fonti ufficiali. Lo sviluppatore quello ha detto e quello hanno riportato i siti.
Il gioco non scala male, se il motore grafico ha un difetto è quello di sfruttare poco la presenza di più core nella CPU.
E che differenza c'è fra "scalare male" e "avere difetti di sfruttare poco la presenza di piu' core?"
Questo è proprio quello che si intende per scalare male. Inutile avere schede grafiche iper potenti se il processore non gliela fa a stargli dietro... :rolleyes:
E' evidente che qua sono pochi quelli che si cimentano con il sandbox 2 e l'sdk di crysis... avrebbero NOTATO quale è il FOTTIO IMMENSO di roba che muove quell'engine.
Nessuno si è andato vede i tri/sec che ci sono nei frame di crysis in alcuni momenti? o quanta ram grafica è occupata da assets e shaders? No eh?
E allora prima di denigrare la qualità di quello che per molti (www.crymod.com) è la più bella cosa uscita negli ultimi 2 anni..è meglio informarsi...
:rotfl:
E questo cosa starebbe a significare, che è buono per forza? Se è per questo basta prendere un cubo, applicare 10 volte una suddivisione per ottenere un oggetto con milioni di triangoli e schiattare letteralmente una qualsiasi configurazione. Significa forse che è iper tecnologia? No, è sempre un cubo. Casomai sei tu che dai adito di non capirci nulla con quei mod. La modellazione discreta con pochi poligoni e la realizzazione di modelli che siano decenti e idonei al gaming pur mantendendo una geometria sobria è un processo che richiede anni e anni di esperienza e grandi doti artistiche. I cessi, quando iniziano a modellare, sono capaci di distruggere una scheda grafica con 2GB di ram anche solo per modellare un vaso. Questo non è indice di tecnologia. E' indice di poca sobrietà nella realizzazione. Mettere texture e modelli ingestibili dalla corrente generazione per ottenere "il graficone" sono capaci tutti. Fare un gioco che invece è modesto nell'elaborazione pur mantenendo un'ottima qualità grafica sono capaci un po in meno. Fai l'esperto, parli arrogante e tutto quello che sai guardare sono i tris/sec? :asd:
L'ottimizzazione parte anche dalla geometria dei modelli, dalla topologia delle mesh, da un rigging minimale e nello stesso tempo funzionale e dalla scelta delle texture, non soltanto dagli algoritmi in codice. Un videogioco è anche un forte lavoro da parte degli artisti, non solo dei programmatori. Altrimenti si abbandonava del tutto il concetto di normal e bump map, usavamo direttamente il displacemente mapping e dichiaravamo di avere una tecnologia aliena in mano, tanto per far felici i polli.
Se 10 anni fa i videogiochi usavano le environment map per le riflessioni anziche le moderne tecniche di rendering non è perchè erano meno tecnologici. E' perchè dovevano fare videogiochi che giravano sui computer del momento.
...e aspettare un'altra generazione di schede video per giocare a crysis in very high con le dx10 a 1920 con AA4x.....
Aspetta aspetta. :asd:
Che poi ti raggiungiamo.
Magari quando le nuove generazioni saranno in grado di muovere Crysis, avrà pure una grafica obsoleta... :asd:
E intanto vi hanno preso pure per il sedere interrompendo il supporto e lasciando irrisolti i vari bug che lo affliggono. Magari quando muoverai Crysis, i quad core escono dai fustini Dixan, anche le utility piu' stupide li sfrutteranno e Crysis starà ancora a inseguire l'hardware grafico di nuova generazione (funzionando con un solo core :asd: )
Se questo non è essere polli ditemi cosa lo è.
sdjhgafkqwihaskldds
17-06-2008, 00:35
Gira male per alcuni motivi e te ne elenco solo 2
1. nn e' ottimizzato pe ri proci multi core
2.sotto DX10 in very high an fatto una porcheria e lo si vede benissimo moddando la DX9 e giocando con gli stessi effetti a FPS + che decenti
Poi io gioco a 1920 con tutto PS3 e PC, ti assicuro che c'e' una bella differenza da 1440 o il classico 720p.
grazie per le info ;)
[piccolo ot]
ma per giocare a 1920 bisogna spendere troppo, nuova vga, ali e monitor :(
diciamo che non fa per me
int main ()
17-06-2008, 00:50
grazie per le info ;)
[piccolo ot]
ma per giocare a 1920 bisogna spendere troppo, nuova vga, ali e monitor :(
diciamo che non fa per me
be con meno di mille euro giochi tranqui a tutto a 1680 cm me
Tirando le somme nella discussione flame, come lo è ogni articolo che parla di una scheda top di gamma, le % sono circa queste:
50% commenti del tipo: meglio una 8800 gt (Realtà ->non ho 500 euro per una scheda video)
25% Commenti tecnici (Gli unici non OT)
25% Analisi sensate del rapporto prezzo prestazioni, di persone che quantomeno riflettono prima di sparare sentenze.
Risultato:
Come sempre ci sarà chi le compra e tra 4 mesi all'uscita della serie 300 o quel che sarà, le nuove critiche saranno sulla 300 o come caspita si chiamerà.
Tirando le somme nella discussione flame, come lo è ogni articolo che parla di una scheda top di gamma, le % sono circa queste:
50% commenti del tipo: meglio una 8800 gt (Realtà ->non ho 500 euro per una scheda video)
25% Commenti tecnici (Gli unici non OT)
25% Analisi sensate del rapporto prezzo prestazioni, di persone che quantomeno riflettono prima di sparare sentenze.
Risultato:
Come sempre ci sarà chi le compra e tra 4 mesi all'uscita della serie 300 o quel che sarà, le nuove critiche saranno sulla 300 o come caspita si chiamerà.
Ti sbagli alla uscita del G80 che era la top di gamma tutti ne furono entusiasti pur avendo un prezzo molto alto, nn e' che ogni rece di una top di gamma si dicano ste cose, si dicono solo quando e' cosi :)
Tirando le somme nella discussione flame, come lo è ogni articolo che parla di una scheda top di gamma, le % sono circa queste:
50% commenti del tipo: meglio una 8800 gt (Realtà ->non ho 500 euro per una scheda video)
25% Commenti tecnici (Gli unici non OT)
25% Analisi sensate del rapporto prezzo prestazioni, di persone che quantomeno riflettono prima di sparare sentenze.
Risultato:
Come sempre ci sarà chi le compra e tra 4 mesi all'uscita della serie 300 o quel che sarà, le nuove critiche saranno sulla 300 o come caspita si chiamerà.
Direi che sono d'accordo sulle percentuali ma non sulla motivazione del punto sulle 8800GT. Chi le possiede guadagnerebbe qualche fps in più ma non così tanto da giustificare un esborso pur sempre considerevole (con quella cifra oltra alla 8800GT ti assembli un PC desktop intero).
Se avesse fatto andare Crysis a palla a 60 fps allora avresti ragione ma dato che in DX10 resta ingiocabile (come sulle 8800) allora tanto vale tenersi strette le varie 8800.
COSTA il doppio e NON VA il doppio della mia 9800gtx...
ma a che servono diecimillimila fps se oltre i 60(e anche meno) non si nota alcuna differenza?!
buona solo per chi bencha pesante e niente più!
dico solo: beato chi nei prossimi tempi comprerà una "vecchia" e "inutile" 8800gt o 9800gtx(o altre...),perchè si prevedono crolli dei prezzi!!
MiKeLezZ
17-06-2008, 01:08
Mah, io non capisco proprio il 90% della gente che posta qui. Avete insultato le soluzioni X2 sia di Nvidia che di Ati definendole una palese ammissione di incapacita` di sviluppare nuove architetture. Ora che nvidia porta una scheda nuova, dalle prestazioni sostanzialmente migliorate rispetto alla precedente scheda di punta non SLI vi lamentate ancora, elogiando le tanto criticate soluzioni X2.
Nvidia ha segnato un ottimo punto secondo me, altro che flop...ha fatto un passo in avanti non da poco, che si fara` sentire ancor di piu`quando lavoreranno su un SLI con queste nuove gpu. Una buona semina insomma che gia` mostra dei buoni frutti, alla faccia di chi vede solo 3 numeri di benchmark senza saper leggerli con un minimo di raziocinio.questa di scheda di "singola", c'ha solo il nome... mi pare tanto una 9800gtx X2 fusa in un solo pcb, con due transistor in più per giustificare il nuovo nome, e i vari chip che come al solito strabordano dal pcb perchè son troppi e non ci stanno tutti.
bello anche il risparmio energetico che manda tutto a 100MHz, pure meno del chippettino dei cellulari. se potessero, per risparmiare quei 2W in modo barbino metterebbero pure un puffo in ogni scatolo, che si posiziona dentro al case e ti stacca la corrente alla vga quando finisci di giocare
aspettiamo il 25 che è meglio, va
Free Gordon
17-06-2008, 01:12
E perchè "no filtri"? Compro 550 euro di scheda per "no filtri"?
Guarda un po' 2560x1600 8xAA/16xAF...
...No filtri? No party. ;)
L'8X pare che lo digerisca molto meglio del G92.. su questo sono daccordo.
Il fatto è che bisogna vedere i frames effettivi a quelle res con quei filtri... :p
Cmq vedremo nei giochi futuri..
I rapporti TEX/ALU sono leggermente cambiati da G92 a G200, a vantaggio delle ALU. Questo potrebbe comportare che, i futuri giochi più shader dipendenti, gireranno meglio sulla GTX280 rispetto alla GX2...
Ora aspettiamo di vedere ATI e la 4870X2 per vedere prezzi e performance...
sniperspa
17-06-2008, 01:22
questa di scheda di "singola", c'ha solo il nome... mi pare tanto una 9800gtx X2 fusa in un solo pcb, con due transistor in più per giustificare il nuovo nome, e i vari chip che come al solito strabordano dal pcb perchè son troppi e non ci stanno tutti.
bello anche il risparmio energetico che manda tutto a 100MHz, pure meno del chippettino dei cellulari. se potessero, per risparmiare quei 2W in modo barbino metterebbero pure un puffo in ogni scatolo, che si posiziona dentro al case e ti stacca la corrente alla vga quando finisci di giocare
aspettiamo il 25 che è meglio, va
Quoto...e aggiungo che dopo aver visto questa vga nel valutare una vga sta perdendo di significato il fattore single gpu o multi...
questa di scheda di "singola", c'ha solo il nome... mi pare tanto una 9800gtx X2 fusa in un solo pcb, con due transistor in più per giustificare il nuovo nome, e i vari chip che come al solito strabordano dal pcb perchè son troppi e non ci stanno tutti.
bello anche il risparmio energetico che manda tutto a 100MHz, pure meno del chippettino dei cellulari. se potessero, per risparmiare quei 2W in modo barbino metterebbero pure un puffo in ogni scatolo, che si posiziona dentro al case e ti stacca la corrente alla vga quando finisci di giocare
aspettiamo il 25 che è meglio, va
concordo nuovamente ;)
cmq bella la battuta sul risparmio energetico :sofico: ;)
al 25 :D
Iantikas
17-06-2008, 01:32
la gpu si posiziona esattamente dove me l'aspettavo...gridare al FLOP mi sembra un tantino esagerato xò di certo nn'è un lancio tutto rosa e fiori...
...come prevedevo l'ultra nel case ci rimarrà ancora a lungo...xò questo GT200 imho ha del potenziale e a 55nm con freq + pompate, costi inferiori e qualke piccola ottimizzazione interna potrebbe rivelarsi un buon aquisto...
...x ki già possiede un G80 o successivo imho la cosa migliore è aspettare (nn solo RV770 e R700 ma i successivi refresh d'entrambe le aziende...inoltre dai rumor in giro quello di GT200 pare quasi alle porte...3/4 mesi)...ki ha bisogno urgente di una nuova gpu farebbe cmq bene ad attendere almeno le nuove gpu di casa ati x poi decidere il da farsi con prezzi assestati e maggiori info sul'uscita dei successivi refresh...
...ciao
p.s.: qui http://www.anandtech.com/video/showdoc.aspx?i=3334&p=4 ...una pag interessante x ki, come me, ancora nn aveva ben compreso il caso della MUL mancante...
Tirando le somme nella discussione flame, come lo è ogni articolo che parla di una scheda top di gamma, le % sono circa queste:
50% commenti del tipo: meglio una 8800 gt (Realtà ->non ho 500 euro per una scheda video)
25% Commenti tecnici (Gli unici non OT)
25% Analisi sensate del rapporto prezzo prestazioni, di persone che quantomeno riflettono prima di sparare sentenze.
Risultato:
Come sempre ci sarà chi le compra e tra 4 mesi all'uscita della serie 300 o quel che sarà, le nuove critiche saranno sulla 300 o come caspita si chiamerà.
Mi inserisco nella categoria del "meglio una 8800GT"
Ora se vuoi venire a farmi i conti in tasca va benissimo, ma almeno cerca di vedere un motivo un po' più lontano di quello meramente economico. (visto che a spendere sono capaci tutti i "ricchi", il problema si pone a spendere in maniera INTELLIGENTE),
Nessuno sta ponendo sullo stesso piano una 8800GT con una GT200, semplicemente si cerca di guardare, come sempre, al rapporto tra prestazioni e prezzo.
Cerco di prenderla da molto distante:
Ora il problema è che la 9800GX2 c'e chi la considera "una scheda" e chi la considera "due schede", il vedere le performance della gtx280 porta quindi la gente a 2 giudizi: quelli che giudicano la 9800gx2 "UNA" scheda dicono "non vale i soldi che costa (e considerato che la GX2 overrida buona parte delle necessità di una configurazione SLI) può dimostrarsi una affermazione sensata.
Chi guarda alla GX2 come una somma di schede, prende come riferimento la 9800 GTX (che imho non sarebbe nemmeno da considerare, si potrebbe prendere, a propria volta una 8800 GTS 512 - parlando sempre di scheda singola-) e dichiara "URCA CHE SCHEDA"(però tutti sembrano essere d'accordo sul costo fuori misura rapportato al salto prestazionale).
Ora la 8800GT considerata la "fascia media" fa egregiamente il suo lavoro su tanti titoli, ma sopratutto se guardi a uno SLI di 8800GT il rapporto prezzo/prestazioni sale VERTIGINOSAMENTE, considerato che con 280€ hai una configurazione che può dare tranquillamente MOLTE soddisfazioni a volte molto vicine a configurazioni più costose :)
Ecco il motivo delle considerazioni come "son contento di aver comprato la 8800GT", fino a che Ati non tirerà fuori nuovamente le palle mettendo il fiato sul collo a nvidia (e spero che per esempio nel mercato portatile con la XGP sia una cosa rapida), nvidia continuerà a proporre "mezze" novità, per questo si spera nella concorrenza spietata, che da un lato fa male alle nostre tasche, ma dall'altro da MOLTE più soddisfazioni.
Tutto chiaramente IMHO
MiKeLezZ
17-06-2008, 01:33
http://www.unleashonetera.com/
ROTFL
http://madpixelz.net/nv/
http://www.unleashonetera.com/
ROTFL
http://madpixelz.net/nv/
:D :rotfl:
zephyr83
17-06-2008, 01:53
http://www.unleashonetera.com/
ROTFL
http://madpixelz.net/nv/
:D :D :D
Speriamo però che nn succeda la stessa cosa delle ati hd2900!! :sofico: 55 nm, gddr5, directx 10.1 ma se poi vanno meno delle nvidia, consumano di piùe fanno più casino diventa ancora più pesante come cosa :D
Severnaya
17-06-2008, 02:00
Scusate nn ho trovato nulla riguardo Eva Wryval, mi sa che il nome è sbagliato qualcuno sa essere più preciso?
ah magari aspettare dei benchmark con le ati e poi tirare le conclusioni?
no xkè mo anche la discussione sul rendering delle 10.1 mi pare abbastanza ridicolo, nn capisco tutto questo accanimento da una parte e dall'altra
Kharonte85
17-06-2008, 02:02
Scusate nn ho trovato nulla riguardo Eva Wryval, mi sa che il nome è sbagliato qualcuno sa essere più preciso?
:confused: e chi sarebbe?
:D :D :D
Speriamo però che nn succeda la stessa cosa delle ati hd2900!! :sofico: 55 nm, gddr5, directx 10.1 ma se poi vanno meno delle nvidia, consumano di piùe fanno più casino diventa ancora più pesante come cosa :D
da i dati che si hanno oggi rv770 nn sarà quello che era r600, anzi nella versione 4850 (quindi pro) avrà prestazioni uguali o di poco superiori alla 9800 gtx, consumando meno (sia in ful che in idle), costando meno.
e siccome alcuni recensori affermano che un cf di 4850 (da 300€) fuma una gtx280 da 550€ la dice lunga su cosa avvrà nel mondo delle vga nell'immediato futuro ;)
La vera occasione sarà quella di potersi permettere la 9800gx2 ad un prezzo molto più accessibile.. Questa gtx 280 garantisce qualche fps in più (e nemmeno sempre) rispetto alla 9800gx2 per la "modica" spesa di 550euro.. Il rapporto prezzo/prestazioni è completamente sballato..ma si sa le nuove nate vengono sempre sparate ad oltre 500euro anche se vanno 2fps in più..:rolleyes:
Vediamo almeno con le nuove ati che succede..
Mister Tarpone
17-06-2008, 02:24
Dubito che GT200b uscirà in 4 mesi, stiamo ancora aspettando il G92b che doveva/dovrebbe essere la piattaforma di test del processo.
e quando uscirà... :confused: ??? (:sob:)
zephyr83
17-06-2008, 02:30
da i dati che si hanno oggi rv770 nn sarà quello che era r600, anzi nella versione 4850 (quindi pro) avrà prestazioni uguali o di poco superiori alla 9800 gtx, consumando meno (sia in ful che in idle), costando meno.
e siccome alcuni recensori affermano che un cf di 4850 (da 300€) fuma una gtx280 da 550€ la dice lunga su cosa avvrà nel mondo delle vga nell'immediato futuro ;)
mha, ci credo poco! si dicevano le stesse cose anche per le hd2900 e invece.....mi sembra strano che amd se ne esca fuori cn una scheda del genere così all'improvviso....e mi sembra ancora più strano che nvidia cn tutto il vantaggio che aveva se ne rimanga a guardare senza rispondere subito cn qualcosa di migliore o di simile (a livello di prezzo)
ABCcletta
17-06-2008, 02:42
però poi non lamentatevi se non gira neanche con una GTX280 tale bellezza;)
Mi lamento eccome, non faccio altro da 5 o 6 post a questa parte. Mi lamento e continuerò a lamentarmi finchè nVidia metterà da parte quest'architettura per passare oltre...
zephyr83
17-06-2008, 02:50
Mi lamento eccome, non faccio altro da 5 o 6 post a questa parte. Mi lamento e continuerò a lamentarmi finchè nVidia metterà da parte quest'architettura per passare oltre...
è colpa di nvidia se quel gioco è fatto per computer della nasa???? :sofico:
brigate emule
17-06-2008, 03:00
che schifo di scheda.....menomale che doveva andare il doppio della 9800gtx2:Prrr: :Prrr: :Prrr: :Prrr:
ma come si fa ad assere soddisfatti di sta scheda???????????????
sempre peggio per i pc
zephyr83
17-06-2008, 03:05
che schifo di scheda.....menomale che doveva andare il doppio della 9800gtx2
sempre peggio per i pc
il doppio di una tgx2? quindi quasi quattro volte più di una 9800??? :sofico: sti caxxi!!! Mi dici quante e quali schede video vanno almeno doppio delle corrispondenti della generazione precedente???
blackshard
17-06-2008, 03:09
Mi dici quante e quali schede video vanno almeno doppio delle corrispondenti della generazione precedente???
Come? Vuoi mettere le voodoo2 al confronto con le vecchie voodoo? :D
zephyr83
17-06-2008, 03:26
Come? Vuoi mettere le voodoo2 al confronto con le vecchie voodoo? :D
la mia memoria nn va così indietro nel tempo!! Ero un ragazzino in piena pubertà quando comprai la mia creative voodoo banshee PCI :D Ma quelli erano altri tempi e i giochi erano tutta un'altra cosa!
dfruggeri
17-06-2008, 04:15
Ottima scheda ma costa una cifra esorbitante ma soprattutto mi chiedo io: MA CHI LA COMPRA HA UN CINEMA O UN MONITOR????????!!!!! se per utilizzare una risoluzione di 1680x1050 ci vuole un 22 pollici questa scheda di cosa ha bisogno?????!!!.
Altra cosa che mi lascia sempre a bocca aperta è vedere come le schede video da 150€ ti fanno giocare tutto al massimo o quasi a tranne la risoluzione e un pò di filtri in meno a parte il solito Crysis dove nemmeno una scheda video da 500/600€ te lo fa godere al massimo e sinceramente una parte di me inizia a pensare che sia programmato col culo altro che!!!.
Per ora mi tengo la mia ottima 9800gtx stra overclokkata poi vedremo.......quello che mi fa sorridere concludendo è leggere i benchmark e vedere "+30 +50 +60% ecc.. di prestazioni"...peccato che il valore di partenza sia spesso 50/60fps, voglio vedere io chi si accorge se un gioco va a 50fps o 100fps!!!!!!!
Raga cambio schede video da 10 anni e il vero godimento rimarrà sempre nella mia memoria ed è stato quando abbinai alla mia Cirrus Logic pci da 4mb una 3Dfx....quello si che fu un vero avanzamento della tecnlogia!!!!!!!!!!!!
CraigMarduk
17-06-2008, 05:13
C'è una considerazione che non mi sembra nessuno abbia fatto finora.
Tempo addietro mi lamentai sul forum delle prestazioni della mia 9800 GX2 a 1680x1050 con AA 8X e Anistropico 16X.
Con filtri così elevati, anche a risoluzioni non altissime, la scheda soffre per la carenza di memoria dando risultati poco entusiasmanti.
La GTX 280, in virtù dell'elevata quantità di memoria, non perde quasi nulla in framerate attivando i filtri al massimo, il che non è da sottovalutare.
Se è vero, infatti, che una GX2 è ancora superiore a 1024x768 senza AA o con AA 2X, diverso è il discorso con filtri al massimo, dove la GTX 280 la massacra letteralmente.
Ovvio che si tratta di un lusso, non credo che in molti siano disposti a pagare centinaia di euro per non vedere scalettature, ma sotto alcuni punti di vista obbiettivamente non si può negarne la superiorità rispetto ai vecchi modelli.
Inoltre ricordiamo che la GX2 è una scheda SLI, un confronto onesto sarebbe tra la GX2 e 2 GTX 280 in SLI, situazione in cui dalle prime prove che ho letto in giro per il web sembrerebbe che le 2 GTX spazzassero il pavimento son la GX2...
halduemilauno
17-06-2008, 07:40
torno sull'argomento facendo notare questa rece...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/#abschnitt_performancerating_qualitaet
alla pagina del riepilogo si vede la gtx280 andare + della 9800gx2 a 1600x1200 4/16 del 12% mentre a 2560x1600 4/16 del 21% in +.
mentre alle stesse impostazioni rispetto alla 9800gtx è rispettivamente + 56% e + 94%(peccato che manchi la risoluzione intermedia 1920x1200 ma i risultati sarebbero cmq facilmente intuibili).
quindi sono risultati di tutto rispetto e che chiaramente fanno di questa scheda la + potente attualmente al mondo. ma come detto personalmente mi aspettavo di +.
pertanto il suo prezzo attuale di 550€ è troppo elevato rispetto alla 9800gx2 che si trova oggi a 370/380€.
;)
Scusate nn ho trovato nulla riguardo Eva Wryval, mi sa che il nome è sbagliato qualcuno sa essere più preciso?
:confused: e chi sarebbe?
:rotfl:
Gugola un po' che ne vale la pena Kharò! :sbav: :asd:
Scrambler77
17-06-2008, 09:10
alla pagina del riepilogo si vede la gtx280 andare + della 9800gx2 a 1600x1200 4/16 del 12% mentre a 2560x1600 4/16 del 21% in +.
mentre alle stesse impostazioni rispetto alla 9800gtx è rispettivamente + 56% e + 94%(peccato che manchi la risoluzione intermedia 1920x1200 ma i risultati sarebbero cmq facilmente intuibili).
;)
[Paracul mode ON]No! Gli espertoni quì dicono che è un flop! :asd: Quelle recensioni sono frutto dell'immaginario collettivo! Siccome GTX280 va appena appena quasi quanto DUE schede di generazione precedente (consumando meno) è un flop! Meglio un accrocchio multi-gpu simil-SLI che una soluzione integrata e più efficiente! [Paracul mode OFF] :asd:
Il prezzo è destinato a scendere rapidamente. Sui 450€ "ok, il prezzo è giusto". ;)
Scrambler77
17-06-2008, 09:15
:rotfl:
Gugola un po' che ne vale la pena Kharò! :sbav: :asd:
:eek: 'mmazza che tettona la Milani!
Severnaya
17-06-2008, 09:19
scusate a chi diceva della risoluzione 1680x1050, ormai gli schermi da 20, 22" 16:10 "te li tirano dietro" già da qualche anno, è abb normale passare a quelle risoluzioni, poi gli appassionati possono spendere un 100\200€ in più e portarsi a casa un 24" ma cmq ormai le risoluzioni sono quelle
e cmq io su Google nn la trovo Eva Wryval :(
gianni1879
17-06-2008, 09:27
scusate a chi diceva della risoluzione 1680x1050, ormai gli schermi da 20, 22" 16:10 "te li tirano dietro" già da qualche anno, è abb normale passare a quelle risoluzioni, poi gli appassionati possono spendere un 100\200€ in più e portarsi a casa un 24" ma cmq ormai le risoluzioni sono quelle
e cmq io su Google nn la trovo Eva Wryval :(
ho trovato un paio di pagine di cui una è quella di hwup che ne parla, l'altra beh nulla di che
C'è una considerazione che non mi sembra nessuno abbia fatto finora.
Tempo addietro mi lamentai sul forum delle prestazioni della mia 9800 GX2 a 1680x1050 con AA 8X e Anistropico 16X.
Con filtri così elevati, anche a risoluzioni non altissime, la scheda soffre per la carenza di memoria dando risultati poco entusiasmanti.
La GTX 280, in virtù dell'elevata quantità di memoria, non perde quasi nulla in framerate attivando i filtri al massimo, il che non è da sottovalutare.
Se è vero, infatti, che una GX2 è ancora superiore a 1024x768 senza AA o con AA 2X, diverso è il discorso con filtri al massimo, dove la GTX 280 la massacra letteralmente.
Ovvio che si tratta di un lusso, non credo che in molti siano disposti a pagare centinaia di euro per non vedere scalettature, ma sotto alcuni punti di vista obbiettivamente non si può negarne la superiorità rispetto ai vecchi modelli.
Inoltre ricordiamo che la GX2 è una scheda SLI, un confronto onesto sarebbe tra la GX2 e 2 GTX 280 in SLI, situazione in cui dalle prime prove che ho letto in giro per il web sembrerebbe che le 2 GTX spazzassero il pavimento son la GX2...
[Paracul mode ON]No! Gli espertoni quì dicono che è un flop! Quelle recensioni sono frutto dell'immaginario collettivo! Siccome GTX280 va appena appena quasi quanto DUE schede di generazione precedente (consumando meno) è un flop! Meglio un accrocchio multi-gpu simil-SLI che una soluzione integrata e più efficiente! [Paracul mode OFF]
quoto in pieno :D
tutti che stanno a confrontare la GTX280 con la 9800Gx2...è come mettere a confronto un motorino e un'auto...e poi la GTX sta anche sopra alla gx2 quindi....si ok, il prezzo è alto ma è uscita da pochissimo, quindi, aspettiamo almeno un mesetto poi i prezzi scenderanno, eccome se scenderanno... (io ho comprato la mia POV 8800GT a 250 e passa euri mentre adesso ne costa si e no 130...sono passati 6 mesi. ora, contando che anche ATI butterà fuori le sue schede che sembrano essere competitive soprattutto in ambito prezzo, penso proprio che a breve ci saranno i primi ribassamenti di prezzo di questa mostruosa GTX280 :D
MenageZero
17-06-2008, 10:10
questa di scheda di "singola", c'ha solo il nome... mi pare tanto una 9800gtx X2 fusa in un solo pcb, con due transistor in più per giustificare il nuovo nome, e i vari chip che come al solito strabordano dal pcb perchè son troppi e non ci stanno tutti.
bello anche il risparmio energetico che manda tutto a 100MHz, pure meno del chippettino dei cellulari. se potessero, per risparmiare quei 2W in modo barbino metterebbero pure un puffo in ogni scatolo, che si posiziona dentro al case e ti stacca la corrente alla vga quando finisci di giocare
aspettiamo il 25 che è meglio, va
può piacere o meno questo chip, ma sinceramente non capisco bene questo tipo di interpretazione :D
"una volta" era la norma (su entrambi i fronti) che una nuova top aprente una nuova "serie"(o famiglia o generazione o cmq la si vuole chiamare) avesse il raddoppio o cmq un grosso aumento delle unità di calcolo (indipendentemente dal fatto di essere una arch. ex novo o uno step evolutivo)
personalmente da appassionato di queste (ed altre) tecnologie preferisco un lavoro(nella norma direi) come quello fatto con gt200 che il presentare nuove top di gamma cambaindo il nome ad un chip pre-esistente o mettendone due su un pcb (o 2 pcb in una scatola), anche perché il singolo chip mantiene ancora innegabili punti di forza rispetto a configurazioni sli/cf
(non significa che sia una scheda che comprerei, ma non per un giudzio complessivamente negativo sul chip ma perché cmq per scelta personale non andrei oltre certi livelli di prezzo e consumi, che mantanegono fuori dal mio range anche altri modelli)
certo se nv riuscisse in "breve" a proporre uno shrink e qualche altra "ottmizzazione" di processo per abbassare i consumi e contestualmente alzare i clock e anche sfornare qualche fratellino minore del gt200, avrebbe una nuova gamma derivata dalla "nuova" arch. molto più appetibile per una maggior base di utenza.
io a suo tempo pensavo che avrebbero riproposto al 100% il design interno g8x/g9x con un mero aumento dei blocchi di sp
(e non ero il solo), quind dal pdv dello step evolutivo, con le varie novità, sebbene "di dettaglio", è andata anche meglio di come pensavo (sarebeb stato meglio se avessero anche implementato le spec dx10.1, ma a quanto pare nv non ha proprio intenzione di investirci)
detto grossolanamente, forse un gt200 può stare ad un g80 come la serie 7 stava alla 6 (ok, forse tra serie 6 e 7 c'erano più differenze architetturali o forse no, non mi ricordo, ma è per dire che in entrambi i casi si tratta di evoluzione piuttosto "lineare" e non rivoluzione)
riguardo al rispermio energetico, direi meno male che che almeno ce l'hanno messo nel reference design il downclock :D
(ok, sicramente modalità di risparmio molto "rozze", ma se nojn sbaglio attualmente nelle gpu questo abbiamo, downclock e al limite downvolt)
sul fronte ati, forse sono rimasto indietro, ma da quel che sapevo per rv770 si attende(va) un lavoro "del tutto analogo" a quello fatto su gt200, ovvero caratteristica porincipale un importante aumento delle alu insieme eventualmente a qualche novità/ottimizzazione ma nulla di radicale; non che sia in qualche modo una critica eh, magari debutterà con miglioramento rispetto al predecessore maggiore di quanto ottenuto con gt200, non saprei.
da quello che avevo letto rv770 è anche atteso con un consumo e prezzo di lancio nettamente inferiore a gt200; così come però anche con prestazioni inferiori.
certo dovesse rv770 rivaleggiare in performance con gt200, sarebbe una bella sorpresa e la rottura degli equilibri del settore degli ultimi 20 mesi circa :sofico:
Incredibile non si riesce ancora a giocare a Crysis decentemente in DX 10.
ThePunisher
17-06-2008, 10:22
Incredibile non si riesce ancora a giocare a Crysis decentemente in DX 10.
Forse perchè programmato con le chiappe? Suvvia dai... con la potenza elaborativa di questi mostri davvero non è possibile.
Scrambler77
17-06-2008, 10:28
[cut]
Cristallino. ;)
E' stata recensita solo la GTX280, ma io ritengo assai più interessante la GTX 260.
La prima, essendo scheda top, come tutti suoi predecessori viene pagata più del dovuto, così come lo era la 8800GTX rispetto alla 8800GTS 640Mb.
La GTX 260, invece, pur andando dal 10 al 20% più lenta, costa 150-200 euro in meno, offrendo un ottimo rapporto prezzo/prestazioni e consumi in confronto alle 9800 GX2 ed HD3870 X2, col vantaggio di non soffrire del micro shuttering del rendering AFR (che chissà perchè, viene bellamente ignorato dai più).
In più, la GTX 280 non calerà molto di prezzo fino all'arrivo della HD4870 X2 (quindi un'altro paio di mesi), invece la GTX 260, essendo più vicina alla competizione della HD4870, è più soggetta alla "guerra dei prezzi", già da fine mese.
Fabio7586
17-06-2008, 10:43
Ma xkè in anteprima dicono che verrà venduta a 499 dollari (circa 350 euro) e poi ti fottono facendotela pagare 570 (euro)? è uno skifo...
MenageZero
17-06-2008, 10:51
xché come per tutto il resto, non c'è una legge (né in questo caso una quelche forma di contratto che fissi il prezzo tra il produttore ed il resto della catena distributiva) che fissa il massimo di un prezzo, ergo ogni rivenditore ti può chidere quanto vuole per la sua merce, nessuno ti "fotte" se parliamo di beni assolutamente fuori dalla sfera della necessità, sta a te decidere se e dove comprare :D
xché come per tutto il resto, non c'è una legge (né in questo caso una quelche forma di contratto che fissi il prezzo tra il produttore ed il resto della catena distributiva) che fissa il massimo di un prezzo, ergo ogni rivenditore ti può chidere quanto vuole per la sua merce, nessuno ti "fotte" se parliamo di beni assolutamente fuori dalla sfera della necessità, sta a te decidere se e dove comprare :D
a me non sembra un comportamento tanto corretto... :rolleyes:
comunque siamo OT :)
ma io non sono del tutto deluso dalla scheda, mi aspettavo di più, ma cmq siamo ancora agli inizi, io credo che con driver nuovi magari si riesce a spingerla un po di più, poi nn si è parlato del fattore OC, magari sta scheda ti sale un casino ^^
Cmq per ora le 8800 rimangono le migliori per rapporto qualità prezzo
ThePunisher
17-06-2008, 11:01
E' stata recensita solo la GTX280, ma io ritengo assai più interessante la GTX 260.
La prima, essendo scheda top, come tutti suoi predecessori viene pagata più del dovuto, così come lo era la 8800GTX rispetto alla 8800GTS 640Mb.
La GTX 260, invece, pur andando dal 10 al 20% più lenta, costa 150-200 euro in meno, offrendo un ottimo rapporto prezzo/prestazioni e consumi in confronto alle 9800 GX2 ed HD3870 X2, col vantaggio di non soffrire del micro shuttering del rendering AFR (che chissà perchè, viene bellamente ignorato dai più).
In più, la GTX 280 non calerà molto di prezzo fino all'arrivo della HD4870 X2 (quindi un'altro paio di mesi), invece la GTX 260, essendo più vicina alla competizione della HD4870, è più soggetta alla "guerra dei prezzi", già da fine mese.
Quoto in tutto e per tutto!
Sicuramente AMD-ATi non deluderà questo giro, considerando il target delle sue future schede e si avrà nuovamente un interessante mercato VGA.
Per le tre GTX280, beato te che puoi provarle.
Tornando al discorso, leggermente OT, sulle DX10.1 e DX10 sapevo che, per sentito dire, su Assassin's Creed le AMD-ATi andavano meglio non perché con le DX10.1 saltassero un passaggio ma perché in DX10.1 erano necessari, rispetto alle DX10, meno passaggi per ottenere lo stesso risultato grazie alla differente e migliore implementazione di qualcosa.
Spero proprio che ATI/AMD si ricollochi in una posizione di competizione reale e fattiva su tutte le fasce di mercato, la mancanza di concorrenza ci danneggia ferocemente (consumutenti),e a mio avviso questo prezzo di uscita è proprio frutto di una mancanza di concorrenza su quella fascia di mercato.
Al momento aspetto il via libera dell'enità superiore... ma credo che aspetterà la settimana prossima per prendere le bambine (due credo)...
Per quanto riguarda le Dx10/10.1 ... mah, secondo me son tutte cassate, nel senso, mosse di marketing, più o meno fondate su dati oggettive... insomma, ognuna delle due aziende tirerà sempre l'acqua al suo mulino...
OT on: Rileggo, sempre in maniera inquietante, degli accostamenti tra "consolle e pc da gioco", premetto la mia avversione per il pad, ma fare questi accostamenti è come paragonare una ciclette (si scrive così?) con una bicicletta, e non voglio essere offensivo per nessuno, ma veramente... bisogna avere un po i paraocchi per non capire che un mercato consolle, dominato da tre competitor, tre oggetti diversi, giochi di formato diverso ASSOLUTA non compatibilità tra i formati (e vorrei vedere) è un mercato destinato al massacro... (tra tutti i soggetti).
Il pc è uno, qualsiasi marca di scheda video ho, qualsiasi processore ci ho messo sopra, a parità di requisiti, il gioco ci girerà sopra... non è che se ho una ATI Assassin Creed non è compatibile... OT off
MenageZero
17-06-2008, 11:10
a me non sembra un comportamento tanto corretto... :rolleyes:
comunque siamo OT :)
mai detto che lo sia :D
fine OT ;)
torno sull'argomento facendo notare questa rece...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/#abschnitt_performancerating_qualitaet
alla pagina del riepilogo si vede la gtx280 andare + della 9800gx2 a 1600x1200 4/16 del 12% mentre a 2560x1600 4/16 del 21% in +.
mentre alle stesse impostazioni rispetto alla 9800gtx è rispettivamente + 56% e + 94%(peccato che manchi la risoluzione intermedia 1920x1200 ma i risultati sarebbero cmq facilmente intuibili).
quindi sono risultati di tutto rispetto e che chiaramente fanno di questa scheda la + potente attualmente al mondo. ma come detto personalmente mi aspettavo di +.
pertanto il suo prezzo attuale di 550€ è troppo elevato rispetto alla 9800gx2 che si trova oggi a 370/380€.
;)
peccato che computerbase, non aggiorni i test, in quanto sia per la 9800gx2 che per la 3870x2 i driver usati nei test sono vecchi di 3 mesi, e per queste schede usare driver nuovi avrebbe sicuramente dato risultati migliori..basta vedere le altre recensioni
sniperspa
17-06-2008, 11:19
Il tutto sta sul vedere quanto nvidia riesce a megliorare questa architettura in fatto di dimensioni e di conseguenza ank temperature consumi...ma la vedo più dura del solito sta volta...poi è solo un mio presentimento ttt quà...
Dark_Wolf
17-06-2008, 11:20
Credo che il grande vantaggio di questa nuova serie sia solamente il drastico calo del prezzo di quelle precedente (o almeno così si spera!).
Il problema è che nel giro di circa 1-2 anni sono uscite tre serie di fila di schede ultrapotenti, ma il risultato finale non è stato poi così eccellente.
Questo perché piuttosto che migliorare la compatibilità software (driver, ottimizzazione dei giochi, ecc...) si sono concentrati per vendere la soluzione più estrema possibile che poi diviene letteralmente uno spreco di soldi e proporzionalmente poco conveniente (che senso ha avere un aumento prestazionale anche di 10 fps quando il nostro occhio alla soglia del 30 fps non distingue e a 60 abbiamo la massima fluidità?).
Da notare che questo discorso funziona perfettamente anche con i processori: quest'ultimi hanno stanno aumentando esponenzialmente il numero di core, ma dobbiamo dire grazie se si riesce a sfruttarne 1 solo di questi!
Io comprendo che dietro può esserci una grande passione, ma con un pò di attenzione si può spendere davvero poco e portarsi a casa un pc al top che regga per tantissimo tempo.
MenageZero
17-06-2008, 11:22
Spero proprio che ATI/AMD si ricollochi in una posizione di competizione reale e fattiva su tutte le fasce di mercato, la mancanza di concorrenza ci danneggia ferocemente (consumutenti),e a mio avviso questo prezzo di uscita è proprio frutto di una mancanza di concorrenza su quella fascia di mercato.
Al momento aspetto il via libera dell'enità superiore... ma credo che aspetterà la settimana prossima per prendere le bambine (due credo)...
Per quanto riguarda le Dx10/10.1 ... mah, secondo me son tutte cassate, nel senso, mosse di marketing, più o meno fondate su dati oggettive... insomma, ognuna delle due aziende tirerà sempre l'acqua al suo mulino...
OT on: Rileggo, sempre in maniera inquietante, degli accostamenti tra "consolle e pc da gioco", premetto la mia avversione per il pad, ma fare questi accostamenti è come paragonare una ciclette (si scrive così?) con una bicicletta, e non voglio essere offensivo per nessuno, ma veramente... bisogna avere un po i paraocchi per non capire che un mercato consolle, dominato da tre competitor, tre oggetti diversi, giochi di formato diverso ASSOLUTA non compatibilità tra i formati (e vorrei vedere) è un mercato destinato al massacro... (tra tutti i soggetti).
Il pc è uno, qualsiasi marca di scheda video ho, qualsiasi processore ci ho messo sopra, a parità di requisiti, il gioco ci girerà sopra... non è che se ho una ATI Assassin Creed non è compatibile... OT off
sicuramente il prezzo di uscita del gt200 è molto alto(con ogni probabilità troppo per rendere subito la schdeda appetibile alla maggioranza della nicchia che compra la fascia alta) rispetto a quanto c'è in giro ora proprio xché al momento nv può permettersi di voler mantenere probabilmente i soliti margini di guadagno anche sulla nuova top, ed essendo questa basata su nuvo "chippone" di produzione relativamente costosa anziché, come ultimamente, su un chip già in commercio e ridenominato o su una versione più economica da produrre del predecessore, ha deciso di sparare alto il prezzo ;)
ma, ironia della sorte, su entrambi i fronti, se ci facciamo caso, il drastico calo dei prezzi delle schede video top c'è stato solo dopo la stagnazione architettuirale post g80 ...
... quando la lotta tra nv ed ati era serrata anche per chi avesse il chip e/o la scheda più veloce sul mercato, per ogni nuova top sia "verde" che "rossa" volevano sempre più di 500€
:D
sicuramente il prezzo di uscita del gt200 è molto alto(con ogni probabilità troppo per rendere subito la schdeda appetibile alla maggioranza della nicchia che compra la fascia alta) rispetto a quanto c'è in giro ora proprio xché al momento nv può permettersi di voler mantenere probabilmente i soliti margini di guadagno anche sulla nuova top, ed essendo questa basata su nuvo "chippone" di produzione relativamente costosa anziché, come ultimamente, su un chip già in commercio e ridenominato o su una versione più economica da produrre del predecessore, ha deciso di sparare alto il prezzo ;)
ma, ironia della sorte, su entrambi i fronti, se ci facciamo caso, il drastico calo dei prezzi delle schede video top c'è stato solo dopo la stagnazione architettuirale post g80 ...
... quando la lotta tra nv ed ati era serrata anche per chi avesse il chip e/o la scheda più veloce sul mercato, per ogni nuova top sia "verde" che "rossa" volevano sempre più di 500€
:D
Oddio anche questo è vero, ma forse perche i costi di produzione e progettazione erano alti, ogni nuova Top d gamma (apparte rielaborazioni stile 9700pro/9800pro/9800xt et similia), erano architetture -completamente- nuove, e quindi costosissime.
Sono completamente d'accordo con te, sulla prima parte del tuo intervento, con l'unica differenza che, a mio avviso, questo GTX280, non è costato così tanto a Nvidia, non sicuramente quanto gli costò il passaggio dalla serie 7XXX alla 8XXX. Stesso layout di Pcb, stesso Dissipatore, alcune componenti in comune con la vecchia generazione, un architettura modulare che si presta "facilmente" ad un "raddoppio" delle architetture interne...
Se ci riflettete, al di là della bontà del prodotto, con questo prezzo di lancio, nVidia, capitalizzerà moltissimo.
Ps: non che Ati sia da meno, dalle immagini che si sono viste in rete, non pare correrci molto tra il pcb delle 38xx e quello 48xx.... sempre che sia un buon indice...
Secondo voi quanto ci mette nVidia a rilasciare le versioni mobili di queste GPU? :D
leoneazzurro
17-06-2008, 12:11
I risultati non sono così male, considerando che si tratta di una soluzione single chip..... ora rimango in attesa del pezzo sul GPU Computing, parte veramente interessante.
A questo link ne parlano un po':
Lo spam non è bene accetto qui. Ban.
sniperspa
17-06-2008, 12:19
Secondo voi quanto ci mette nVidia a rilasciare le versioni mobili di queste GPU? :D
:asd:
:asd:
Guarda che la mia domanda era seria :sofico:
ninja750
17-06-2008, 12:40
Incredibile non si riesce ancora a giocare a Crysis decentemente in DX 10.
domanda: se uso vista e installo crysis posso scegliere se giocare DX10 e DX9 a mio piacimento oppure si è costretti a usare DX10? perchè se si può giocare in DX9 con quei 15-20fps in più non sarebbe male tanto quel paio di effetti che hanno in più -per ora- non fanno valere la differenza imho
MenageZero
17-06-2008, 12:42
Guarda che la mia domanda era seria :sofico:
eccoti servito: http://www.hwupgrade.it/news/portatili/nuovo-toshiba-qosmio-x305-per-i-gamer_25648.html
:D
... va be', il note in questione non è che sia proprio il max del "mobile" ... :asd:
Free Gordon
17-06-2008, 12:50
Queste nuove nvidia fanno cacare a spruzzo: sono delle "muscle car" che alla prima curva sbandano.
A questi punti molto più interessanti le future ATI 4800; qualcuno sa quando scade il NDA?
Inoltre si sa nulla quando usciranno le 9800GT a 55nm? A questi punti, se devo comprare un'architettura di 2 anni fa... almeno risparmio.
Un commento pacato eh... :asd:
Nvidia ha scelto la sua strada, il superchippone (l'ha già fatto con g80 a dire il vero, con 490mm2 di chip..), ATI invece ha deciso per una direzione diversa..
Così c'è scelta, credo.. no? :)
Free Gordon
17-06-2008, 12:53
(a vedere lo schema blocchi e leggerne la descrizione, mi rimane il dubbi sulla motivazione che ha portato il rapporto tra num. di sp e di texture units ad aumentare da 2:1 a 3:1; cioè mi sarei aspettato almeno 120 t.u. nel gt200 "al completo"; non vorrei che fosse per "economicità" di progetto, comportando il nuovo rapporto situazioni di minore efficenza, efficenza interna, non prestazioni assolute eh.
Nvidia segue la scelta di ATI, di aumentare i rapporti ALU/TEX. :)
Da G70 ad oggi, son saliti meno che per il competitor, ma sono saliti da 1:1 a 3:1.
Ora c'è da vedere se Rv770 resterà 4:1 come R600 (forse sarebbe meglio..) oppure andrà ad un esotico 5:1.. :p
bonzuccio
17-06-2008, 12:55
..il supercippone ..
:eek: :banned: :doh:
Free Gordon
17-06-2008, 12:58
Come si fa a dire che è un flop quando in molti casi va più di una gx2, per me è un mistero. :D
Effettivamente è impossibile parlare di FLOP! :D
Il risultato doppio nei giochi attuali, rispetto alla gen precedente (G80) c'è.. ed è quello che ha sempre cercato nVidia con le sue timeline per le GPU. :)
Dal mio pdv delude in senso architetturale (anche se "chapeau per il chippone" :eek: ), ma Nvidia ha fatto un salto talmente grosso con G80 (rispetto alle sue scelte filosofiche passate) che era difficile aspettarsi un altro cambio radicale con GT200...
MenageZero
17-06-2008, 13:06
Nvidia segue la scelta di ATI, di aumentare i rapporti ALU/TEX. :)
Da G70 ad oggi, son saliti meno che per il competitor, ma sono saliti da 1:1 a 3:1.
Ora c'è da vedere se Rv770 resterà 4:1 come R600 (forse sarebbe meglio..) oppure andrà ad un esotico 5:1.. :p
ah ok, infatti non sapevo che aumentare tale rapporto fosse cmq, mediamente, sempre vantaggioso in generale, tnx per il chairimento :)
avevo il dubbio che, una volta stabilita l'arch. di base, non incrementare anche le tu dello stesso fattore degli sp potesse essere meno vantaggioso che invece farlo
ma quindi, per assurdo, se a parità di sp aumentassero le tu, sarebbe del tutto ininfluente o addirittura svantaggioso ?
Free Gordon
17-06-2008, 13:07
per me è una stronzata. Fra l'altro tutti i siti riportano chiaramente che in DX10.1 la scheda video tralasciava un passaggio nel rendering....di fatto rendendo il gioco più fluido.
Poi non le conferma nessuno quelle voci...un sito fra 100 non è un buon pronostico.
Almeno per me IHMO.
Può anche scegliere di non ascoltare e di non vedere, ma la realtà è che tutto ciò è accaduto realmente. :)
Nvidia ha giocato sporco (ma anche Valve insieme ad ATI, in passato l'ha fatto...anche se quel trucchetto era un pò meno eclatante :asd: path 16bit negato alle Nvidia, per chi ha la memoria corta) ma soprattutto non è la pima volta che succede. ;)
MenageZero
17-06-2008, 13:12
Effettivamente è impossibile parlare di FLOP! :D
Il risultato doppio nei giochi attuali, rispetto alla gen precedente (G80) c'è.. ed è quello che ha sempre cercato nVidia con le sue timeline per le GPU. :)
Dal mio pdv delude in senso architetturale (anche se "chapeau per il chippone" :eek: ), ma Nvidia ha fatto un salto talmente grosso con G80 (rispetto alle sue scelte filosofiche passate) che era difficile aspettarsi un altro cambio radicale con GT200...
quoto in toto :)
l'unica cosa è che io non "soffro" di "delusione architetturale" xché, visto quello che nv (non) ha fatto ultimamente, personalmente mi aspettavo addirttura proprio zero modifiche a parte l'aumento del num di tcp e di moduli di moduli di mem. ctrl & rops :D
Free Gordon
17-06-2008, 13:20
ah ok, infatti non sapevo che aumentare tale rapporto fosse cmq, mediamente, sempre vantaggioso in generale, tnx per il chairimento :)
avevo il dubbio che, una volta stabilita l'arch. di base, non incrementare anche le tu dello stesso fattore degli sp potesse essere meno vantaggioso che invece farlo
ma quindi, per assurdo, se a parità di sp aumentassero le tu, sarebbe del tutto ininfluente o addirittura svantaggioso ?
La cosa che mi fa sempre ridere è che mi parli come se fossi io a doverti spiegare delle cose... :asd:
Per quello c'è Yoss (quando passa :cry: ) io posso solo fare delle ipotesi (sbagliate! :rotfl: )
Tornando a noi, certamente dovranno evolvere un "pochino" i driver per GT200, rispetto a G80...(ma non sarà una cosa radicale...sarà un lieve aggiustamento generale nel compiler).
Per come la vedo io, non c'è alcun motivo SLEGATO DAI GIOCHI per cui in un hw, sia più o meno vantaggioso cambiare quei rapporti.
I rapporti cambiano perchè la tendenza media del codice nei giochi moderni è di usare shader che hanno sempre più alu ops che tex ops.
Il motivo è semplice: nel pixel (e vertex essendo unificati :p ) shader, si possono fare un fantastigliardo di cose sfiziose, con le TU e le ROPs svolgi le funzioni di manovalanza "classica". :D
+Benito+
17-06-2008, 13:35
Non ne sono certo ma ho seri dubbi lo supporti visto l'utilità che avrebbe in una scheda di questa fascia...
MA come?! E' proprio in questa fascia che avere Hybrid Power porta i maggiori vantaggi!:doh:
MenageZero
17-06-2008, 14:03
..il supercippone ..
:eek: :banned: :doh:
ha semplicemente italianizzato :O
:D
Spero proprio che ATI/AMD si ricollochi in una posizione di competizione reale e fattiva su tutte le fasce di mercato, la mancanza di concorrenza ci danneggia ferocemente (consumutenti),e a mio avviso questo prezzo di uscita è proprio frutto di una mancanza di concorrenza su quella fascia di mercato.
Al momento aspetto il via libera dell'enità superiore... ma credo che aspetterà la settimana prossima per prendere le bambine (due credo)...
Per quanto riguarda le Dx10/10.1 ... mah, secondo me son tutte cassate, nel senso, mosse di marketing, più o meno fondate su dati oggettive... insomma, ognuna delle due aziende tirerà sempre l'acqua al suo mulino...
Personalmente credo che la AMD-ATi si sia ripresa con le 38x0 e che, grazie a loro, si sia avuto quel calo di prezzi che c'è stato nell'ultimo periodo tant'è che con meno di 300euro o meno ti portavi (porti) a casa una scheda di fascia alta (ora medio-alta) in grado di farti giocare a praticamente tutto. Ricordo benissimo che per una 6600GT, fascia media di diversi anni fa, spesi circa 200euro ed ovviamente non aveva prestazioni tali da garantire fremarate adeguati con impostazioni massime nei giochi, dovevi, invece, trovare il giusto compromesso.
Free Gordon
17-06-2008, 14:48
:eek: :banned: :doh:
Io l'ho scritto con l'h eh... :D
Non so tu come hai fatto a copincollarlo senza... :p
Secondo me cmq, non è un supercippone. ;)
bonzuccio
17-06-2008, 14:49
Io l'ho scritto con l'h eh... :D
Non so tu come hai fatto a copincollarlo senza... :p
Secondo me cmq, non è un supercippone. ;)
Scusa mi ero scordato di segnalare con il [bqa].. :muro:
edito subito
leddlazarus
17-06-2008, 15:01
il problema non sono le prestazioni ma il prezzo.
perchè devo spendere il 50% in + per avere il 10% in + di prestazioni?
se la gx2 costasse 50 euro in meno allora potrebbe anche andare bene, ma cosi' è un po costosetta.
I consumi... I consumi... Bisogna lavorare sui consumi...
sniperspa
17-06-2008, 15:32
MA come?! E' proprio in questa fascia che avere Hybrid Power porta i maggiori vantaggi!:doh:
Si ma l'Hybrid Power è una tecnologia sviluppata per quegl'ambiti dove è molto importate aver un basso consumo mentr queste schede puntano solo alle alte prestazioni...
Poi IMHO di solito uno che compra una scheda di questa fascia non si preoccupa dei 50w in più o in meno...visto che cmq in idle consuma pochetto...
Si ma l'Hybrid Power è una tecnologia sviluppata per quegl'ambiti dove è molto importate aver un basso consumo mentr queste schede puntano solo alle alte prestazioni...
Poi IMHO di solito uno che compra una scheda di questa fascia non si preoccupa dei 50w in più o in meno...visto che cmq in idle consuma pochetto...
Be ma se devo spendere tanti soldi voglio un prodotto il + completo possibile e cioe' hybrid power, DX10.1 e qualsiasi altra miglioria possibile.
dantes76
17-06-2008, 16:48
:asd:
http://madpixelz.net/nv/
Per dovere di cronaca, sono usciti i primi test sulla HD4850 in CF. Sta abbondantemente (20-30%) sopra alla GTX280 in CoD4, Crysis,CoJ tutto a 1920x1200@4xAA/16xAF al max dettaglio. Uno shop italiano vende già da oggi le HD4850 per 178€ spedite. Praticamente per 350€ vi portate a casa una soluzione più veloce di una GTX280 e che per assurdo consuma pure meno (110W ciascuna, contro i 236 di GTX280)..
Se fossero confermati, Nvidia dovrà iniziare a rivedere velocemente i suoi piani.
ma com' è che solo qui si mostra soddisfazione nelle nuove schede, mentre in tutti gli altri siti sono state criticate ?
Taurus19-T-Rex2
17-06-2008, 18:36
ma com' è che solo qui si mostra soddisfazione nelle nuove schede, mentre in tutti gli altri siti sono state criticate ?
non mi sembra che nessuno abbia mostrato soddisfazione per queste schede:stordita:
MenageZero
17-06-2008, 18:36
Per dovere di cronaca, sono usciti i primi test sulla HD4850 in CF. Sta abbondantemente (20-30%) sopra alla GTX280 in CoD4, Crysis,CoJ tutto a 1920x1200@4xAA/16xAF al max dettaglio. Uno shop italiano vende già da oggi le HD4850 per 178€ spedite. Praticamente per 350€ vi portate a casa una soluzione più veloce di una GTX280 e che per assurdo consuma pure meno (110W ciascuna, contro i 236 di GTX280)..
Se fossero confermati, Nvidia dovrà iniziare a rivedere velocemente i suoi piani.
se tutto ciò fosse confermato, farebbe anche pensare ad una hd4870 molto vicina in peformance al gt200 pur consumando molto di meno, imho sarebbe quella la vera sorpresa. (:sperem:, ogni tanto uno scossone ci vuole)
per il resto, non credo sarà il cf a togliere il sonno a nv, penso aggiusteranno i prezzi di uno o più modelli con gt200 o anche della 9800 in modo da essere competitivi con le config. sli; e al limite faranno in modo di tirare fuori una nuova gx2 poco prima o poco dopo una nuova x2 di amd, se potranno, per tenersi l'etichetta di scheda più veloce
MiKeLezZ
17-06-2008, 18:38
Per dovere di cronaca, sono usciti i primi test sulla HD4850 in CF. Sta abbondantemente (20-30%) sopra alla GTX280 in CoD4, Crysis,CoJ tutto a 1920x1200@4xAA/16xAF al max dettaglio. Uno shop italiano vende già da oggi le HD4850 per 178€ spedite. Praticamente per 350€ vi portate a casa una soluzione più veloce di una GTX280 e che per assurdo consuma pure meno (110W ciascuna, contro i 236 di GTX280)..
Se fossero confermati, Nvidia dovrà iniziare a rivedere velocemente i suoi piani.
link a rece e shop
oggi colpaccio ;P
quello che mi fà sorridere è vedere quani fps fanno ste pseudo schede in Dx10....ok che sono risluzioni alte, ma vedere 35 fps a 1900 o ddirittura 23 a 2000 e rotti...fà sorridere...
per ilr esto mi pare identica alla 9800GTXx2 come prestazioni....bah!!
blade9722
17-06-2008, 18:44
E' stata recensita solo la GTX280, ma io ritengo assai più interessante la GTX 260.
La prima, essendo scheda top, come tutti suoi predecessori viene pagata più del dovuto, così come lo era la 8800GTX rispetto alla 8800GTS 640Mb.
La GTX 260, invece, pur andando dal 10 al 20% più lenta, costa 150-200 euro in meno, offrendo un ottimo rapporto prezzo/prestazioni e consumi in confronto alle 9800 GX2 ed HD3870 X2, col vantaggio di non soffrire del micro shuttering del rendering AFR (che chissà perchè, viene bellamente ignorato dai più).
In più, la GTX 280 non calerà molto di prezzo fino all'arrivo della HD4870 X2 (quindi un'altro paio di mesi), invece la GTX 260, essendo più vicina alla competizione della HD4870, è più soggetta alla "guerra dei prezzi", già da fine mese.
Ciao,
mi spieghi cos'é questo micro-shuttering? Ho cercato su google, e non ho trovato nulla.
Forse intendi micro-stuttering?
E nel qual caso, premesso che non capisco ancora cosa sia, quanto é "micro"? E' qualcosa che un essere umano é in grado di percepire?
blackshard
17-06-2008, 18:45
Per dovere di cronaca, sono usciti i primi test sulla HD4850 in CF. Sta abbondantemente (20-30%) sopra alla GTX280 in CoD4, Crysis,CoJ tutto a 1920x1200@4xAA/16xAF al max dettaglio. Uno shop italiano vende già da oggi le HD4850 per 178€ spedite. Praticamente per 350€ vi portate a casa una soluzione più veloce di una GTX280 e che per assurdo consuma pure meno (110W ciascuna, contro i 236 di GTX280)..
Se fossero confermati, Nvidia dovrà iniziare a rivedere velocemente i suoi piani.
A quanto pare dagli screenshot sembra che gli 800 SP siano stati confermati. :eek: Mi domando come abbiano fatto ad infilare 800 SP dove prima ce ne stavano 320 e a non trasbordare sui consumi.
Se veramente un crossfire di 4850 supera la GTX280, l'idea della 4870x2 con memoria condivisa sembra molto interessante.
non mi sembra che nessuno abbia mostrato soddisfazione per queste schede:stordita:
parlavo dell' articolo.
MenageZero
17-06-2008, 19:02
ma com' è che solo qui si mostra soddisfazione nelle nuove schede, mentre in tutti gli altri siti sono state criticate ?
non so se in queto thread gt200 sia mediamente più criticato o apprezzato, ma forse la risposta al tuo interrogativo è semplicemente perché non dappertutto si critica a priori o sommariamente anche per un singolo aspetto negativo o solo nell'ottica se comprarselo o meno, l'oggetto in questione, e quindi dando inevitabilmente peso principalmente al prezzo di uscita anche nel formare un giudizio a 360° su un oggetto tecnologico e complesso come una gpu
ma come quando usci R600 tuttti i fan nvidia a dare addosso ai fan ATI che dicevano deid river immaturi(ed era indubbiamernte vero, ancvhe se la scheda era un mezzo disastro)...ora leggo tutti qui a dare la colpa ai driver...ma come mmaaaaahhh come?? ahahahah
zephyr83
17-06-2008, 19:07
Per dovere di cronaca, sono usciti i primi test sulla HD4850 in CF. Sta abbondantemente (20-30%) sopra alla GTX280 in CoD4, Crysis,CoJ tutto a 1920x1200@4xAA/16xAF al max dettaglio. Uno shop italiano vende già da oggi le HD4850 per 178€ spedite. Praticamente per 350€ vi portate a casa una soluzione più veloce di una GTX280 e che per assurdo consuma pure meno (110W ciascuna, contro i 236 di GTX280)..
Se fossero confermati, Nvidia dovrà iniziare a rivedere velocemente i suoi piani.
in crossfire? cioè ci vogliono due ati top gamma per andare circa il 20% in più della singola tom gamma di nvidia? E sto risultato strabiliante cn le gddr5, 55 nm e tutte le belle novità dette??? Bhe complimentoni ad ATI :sofico: Se il problema è solo il prezzo appena usciranno ste schede nvidia sicuramente ritoccherà i prezzi oppure tirerà fuori una gtx280 leggermente castrata che va poco più della hd4850 allo stesso prezzo!!!
Futura12
17-06-2008, 19:08
in crossfire? cioè ci vogliono due ati top gamma per andare circa il 20% in più della singola tom gamma di nvidia? E sto risultato strabiliante cn le gddr5, 55 nm e tutte le belle novità dette??? Bhe complimentoni ad ATI :sofico: Se il problema è solo il prezzo appena usciranno ste schede nvidia sicuramente ritoccherà i prezzi oppure tirerà fuori una gtx280 leggermente castrata che va poco più della hd4850 allo stesso prezzo!!!
impara a leggere bene prima di postare;)
zephyr83
17-06-2008, 19:09
ma come quando usci R600 tuttti i fan nvidia a dare addosso ai fan ATI che dicevano deid river immaturi(ed era indubbiamernte vero, ancvhe se la scheda era un mezzo disastro)...ora leggo tutti qui a dare la colpa ai driver...ma come mmaaaaahhh come?? ahahahah
era ben diversa la cosa! Cn ati i risultati erano pietosi e alcuni dicevano che cn i driver la situazione si sarebbe ribaldata :sofico: invece questa nvidia va già tanto e cn i driver può andare ancora un po' meglio ma nessuno parla di miracolo come facevano molti estimatori ati! La cosa è mostruosametne diversa :D inoltre la cosa peggiore di questa scheda video è il prezzo perché come prestazioni è ottima, va il doppio della generazione precedente!!!
Per dovere di cronaca, sono usciti i primi test sulla HD4850 in CF. Sta abbondantemente (20-30%) sopra alla GTX280 in CoD4, Crysis,CoJ tutto a 1920x1200@4xAA/16xAF al max dettaglio. Uno shop italiano vende già da oggi le HD4850 per 178€ spedite. Praticamente per 350€ vi portate a casa una soluzione più veloce di una GTX280 e che per assurdo consuma pure meno (110W ciascuna, contro i 236 di GTX280)..
Se fossero confermati, Nvidia dovrà iniziare a rivedere velocemente i suoi piani.
link hai test???si sa niente della 4870???
zephyr83
17-06-2008, 19:10
impara a leggere bene prima di postare;)
perché? da quello che ho quotato si parla di CF e infatti ho chiesto conferma!!! che ho sbagliato?
MenageZero
17-06-2008, 19:15
A quanto pare dagli screenshot sembra che gli 800 SP siano stati confermati. :eek: Mi domando come abbiano fatto ad infilare 800 SP dove prima ce ne stavano 320 e a non trasbordare sui consumi.
Se veramente un crossfire di 4850 supera la GTX280, l'idea della 4870x2 con memoria condivisa sembra molto interessante.
sì, è(sarebbe) veramente sorpendente, soprattutto se pensi che da quello che si è sempre detto ciò doverbbe avvenire senza shrink, con sp identici a quelli del predecessore e senza una pesante riprogettazione dell'architettura, talmente sorprendente che sembrerebbe esserci qualcosa che non torna o qualcosa che in realtà ancora non sappiamo :D (anche perché i primi tempi si parlava "solo" di +50% per il num. degli gli sp)
... dopo attese di questo tipo l'r600 passò da "nv-killer" a quello che tutti sappiamo :stordita:, speriamo che invece questa sia la volta buona che questa arch. passi da "brutto anatroccolo" a cigno :sperem:
sniperspa
17-06-2008, 19:16
impara a leggere bene prima di postare;)
Supermega quotone...d'altronde è una cosa talmente strana che probabilmente ha fatto subito il collegamento alle 4870...:p
zephyr83
17-06-2008, 19:18
Supermega quotone...d'altronde è una cosa talmente strana che probabilmente ha fatto subito il collegamento alle 4870...:p
esatto :stordita: :banned:
MenageZero
17-06-2008, 19:20
ma come quando usci R600 tuttti i fan nvidia a dare addosso ai fan ATI che dicevano deid river immaturi(ed era indubbiamernte vero, ancvhe se la scheda era un mezzo disastro)...ora leggo tutti qui a dare la colpa ai driver...ma come mmaaaaahhh come?? ahahahah
fermo restando che il tono polemico lo puoi assolutamente evitare a prescindere dal contenuto del tuo post,
personalmente questo "tutti" che qui nel therad lamenta problemi di drv per gt200 non l'ho notato; ma soprattutto imho(e forse non solo) non c'è nulla di sovrapponibile tra il debutto di r600 e quello di gt200, anzi credo che in ati sarebbero stati felicissimi di avere per r600 gli esiti ottenuti da gt200 rispetto a quanto presente sul mercato al momento del lancio ;)
MenageZero
17-06-2008, 19:22
in crossfire? cioè ci vogliono due ati top gamma per andare circa il 20% in più della singola tom gamma di nvidia? E sto risultato strabiliante cn le gddr5, 55 nm e tutte le belle novità dette??? Bhe complimentoni ad ATI :sofico: Se il problema è solo il prezzo appena usciranno ste schede nvidia sicuramente ritoccherà i prezzi oppure tirerà fuori una gtx280 leggermente castrata che va poco più della hd4850 allo stesso prezzo!!!
impara a leggere bene prima di postare;)
state boooni ...
Futura12
17-06-2008, 19:25
no...vabbè ma io ero ironico,giusto per fargli capire che aveva fatto un po di confusione:p
zephyr83
17-06-2008, 19:26
no...vabbè ma io ero ironico,giusto per fargli capire che aveva fatto un po di confusione:p
bhe anche io sn calmo, ho ammesso il mio errore :)
sniperspa
17-06-2008, 19:26
esatto :stordita: :banned:
Sempre detto che dovrei fare il psicologo...:D
MenageZero
17-06-2008, 19:40
no...vabbè ma io ero ironico,giusto per fargli capire che aveva fatto un po di confusione:p
beh il fatto è che cmq espressioni come "impara a leggere bene" e simili sono molto ricorrenti e solitamente usate in maniera dura, ma in effettinon è che tra voi ci fosse già una polemica in corso e non avevo notato la faccina "attenuatrice" (non è che l'hai messa dopo ? :Perfido: ... :D)
bhe anche io sn calmo, ho ammesso il mio errore :)
poi ho visto ;)
cmq tarnquilli, se vi dovevo sospendere per quello lo avevo fatto al primo colpo :cool:
(scherzo, di solito, tarnne casi in cui è proprio inevitabile, non sanziono mai "a freddo" :D )
zephyr83
17-06-2008, 19:53
beh il fatto è che cmq espressioni come "impara a leggere bene" e simili sono molto ricorrenti e solitamente usate in maniera dura, ma in effettinon è che tra voi ci fosse già una polemica in corso e non avevo notato la faccina "attenuatrice" (non è che l'hai messa dopo ? :Perfido: ... :D)
poi ho visto ;)
cmq tarnquilli, se vi dovevo sospendere per quello lo avevo fatto al primo colpo :cool:
(scherzo, di solito, tarnne casi in cui è proprio inevitabile, non sanziono mai "a freddo" :D )
nessun problema :)
Se le cose stanno così allora ati ha sicuramente vinto lo scontro delle fasce basse: Serie 38X0 vs 9600XX e lo scontro delle fasce medie 4850 vs 9800GTX. questo è un dato di fatto.
Ora bisognerà vedere come si concluderò lo scontro nei settori favorevoli a nividia ovvero quello medio-alto con 4870 vs. GTX 260 e quello alto con 4870X2 vs GTX 280.
C'è da dire però che essendo gia la 4870X2 una scheda doppia, anche se nividia perdesse le restanti 2 dispute potrebbe riuscire comunque a ritagliarsi una fascia di nicchia super-alta sfornando una GTX 280X2 dove non avrebbe rivali.
zephyr83
17-06-2008, 20:33
Se le cose stanno così allora ati ha sicuramente vinto lo scontro delle fasce basse: Serie 38X0 vs 9600XX e lo scontro delle fasce medie 4850 vs 9800GTX. questo è un dato di fatto.
Ora bisognerà vedere come si concluderò lo scontro nei settori favorevoli a nividia ovvero quello medio-alto con 4870 vs. GTX 260 e quello alto con 4870X2 vs GTX 280.
C'è da dire però che essendo gia la 4870X2 una scheda doppia, anche se nividia perdesse le restanti 2 dispute potrebbe riuscire comunque a ritagliarsi una fascia di nicchia super-alta sfornando una GTX 280X2 dove non avrebbe rivali.
io per fascia bassa intendo le 8600 e per bassissima tipo 8400. Anche qui nvidia va meglio (è sempre andata meglio)·
link hai test???si sa niente della 4870???
http://www.forumdeluxx.de/forum/showthread.php?t=500923
La HD4870 sarà disponibile a partire dall'8 luglio, a quanto pare (fonte AMD). :)
blackshard
17-06-2008, 21:49
Sempre detto che dovrei fare il psicologo...:D
LO PSicologo! :D
blackshard
17-06-2008, 21:51
io per fascia bassa intendo le 8600 e per bassissima tipo 8400. Anche qui nvidia va meglio (è sempre andata meglio)·
Mah insomma. Per la fascia bassissima gradisco molto di più le HD3400, alle 8600GT anche preferisco le HD3650 in virtù dei prezzi interessantissimi di queste ultime.
Le 8600GTS sono un po' fuori mercato.
zephyr83
17-06-2008, 22:02
Mah insomma. Per la fascia bassissima gradisco molto di più le HD3400, alle 8600GT anche preferisco le HD3650 in virtù dei prezzi interessantissimi di queste ultime.
Le 8600GTS sono un po' fuori mercato.
qualcosina meglio come przzi ma un 8600gt è leggermente meglio di una hd3650
Un commento pacato eh... :asd:
Nvidia ha scelto la sua strada, il superchippone (l'ha già fatto con g80 a dire il vero, con 490mm2 di chip..), ATI invece ha deciso per una direzione diversa..
Così c'è scelta, credo.. no? :)
ciao :)
cmq rende l'idea però ;)
in crossfire? cioè ci vogliono due ati top gamma per andare circa il 20% in più della singola tom gamma di nvidia? E sto risultato strabiliante cn le gddr5, 55 nm e tutte le belle novità dette??? Bhe complimentoni ad ATI :sofico: Se il problema è solo il prezzo appena usciranno ste schede nvidia sicuramente ritoccherà i prezzi oppure tirerà fuori una gtx280 leggermente castrata che va poco più della hd4850 allo stesso prezzo!!!
fatti un giro nelle ultime pagine del 3d aspettando rv770 ;)
in crossfire? cioè ci vogliono due ati top gamma per andare circa il 20% in più della singola tom gamma di nvidia? E sto risultato strabiliante cn le gddr5, 55 nm e tutte le belle novità dette??? Bhe complimentoni ad ATI :sofico: Se il problema è solo il prezzo appena usciranno ste schede nvidia sicuramente ritoccherà i prezzi oppure tirerà fuori una gtx280 leggermente castrata che va poco più della hd4850 allo stesso prezzo!!!
Ci vogliono 340€ per andare d+ o uguale delle 550€ di Nvidia con consumi + bassi e VGA MOOLTO piccole questo e' il succo tutto qua.
PS. si parla d 4850 in CF, della 4870 ancora si sa poco e la 4850 ha DDR3 e 512MB
zephyr83
17-06-2008, 23:32
Ci vogliono 340€ per andare d+ o uguale delle 550€ di Nvidia con consumi + bassi e VGA MOOLTO piccole questo e' il succo tutto qua.
PS. si parla d 4850 in CF, della 4870 ancora si sa poco e la 4850 ha DDR3 e 512MB
consumi minori cn due schede in crossfire? e nn è come prendersi una 9800gx2? bisogna vedere anche quale sarà la risposta di nvidia per competere cn le amd hd4850. è normale che una tom di gamma che va più della concorrenza (perché così dovrebbe essere) che esce anche per prima abbia un prezzo più alto del dovuto....finora è sempre stato così! vedremo le proposte di amd e a quanto usciranno!! Spero davvero che consumino poco perché nn è una gran cosa che schede di nuova generazione vadano quasi come quelle della generazione precedente della concorrenza nonostante tutte le novità introdotte!! A sto punto si può criticare nvidia SOLO per il prezzo
consumi minori cn due schede in crossfire? e nn è come prendersi una 9800gx2? bisogna vedere anche quale sarà la risposta di nvidia per competere cn le amd hd4850. è normale che una tom di gamma che va più della concorrenza (perché così dovrebbe essere) che esce anche per prima abbia un prezzo più alto del dovuto....finora è sempre stato così! vedremo le proposte di amd e a quanto usciranno!! Spero davvero che consumino poco perché nn è una gran cosa che schede di nuova generazione vadano quasi come quelle della generazione precedente della concorrenza nonostante tutte le novità introdotte!! A sto punto si può criticare nvidia SOLO per il prezzo
il prezzo e' questo 2 utenti del forum se la sono gia' presa http://www.trovaprezzi.it/categoria.aspx?libera=ati+4850&id=28&prezzoMin=&prezzoMax=&sbox=sb
I consumi sono minori se vuoi info + dettagliate chiedi nel thread della RV700
Per i test ci sono molti screen di uteni stranieri di altri forum che si sono presi le 4850 della powercolor e hanno posttao i vari test.
il prezzo e' questo 2 utenti del forum se la sono gia' presa http://www.trovaprezzi.it/categoria.aspx?libera=ati+4850&id=28&prezzoMin=&prezzoMax=&sbox=sb
I consumi sono minori se vuoi info + dettagliate chiedi nel thread della RV700
Per i test ci sono molti screen di uteni stranieri di altri forum che si sono presi le 4850 della powercolor e hanno posttao i vari test.
ma delle 4870 non si sa niente???
sniperspa
17-06-2008, 23:56
LO PSicologo! :D
Hi hi speravo di averla fatta franca ormai!!non avevo voglia di editare...:D
sniperspa
18-06-2008, 00:13
consumi minori cn due schede in crossfire? e nn è come prendersi una 9800gx2? bisogna vedere anche quale sarà la risposta di nvidia per competere cn le amd hd4850. è normale che una tom di gamma che va più della concorrenza (perché così dovrebbe essere) che esce anche per prima abbia un prezzo più alto del dovuto....finora è sempre stato così! vedremo le proposte di amd e a quanto usciranno!! Spero davvero che consumino poco perché nn è una gran cosa che schede di nuova generazione vadano quasi come quelle della generazione precedente della concorrenza nonostante tutte le novità introdotte!! A sto punto si può criticare nvidia SOLO per il prezzo
Ma cmq credo che ank ati avrebbe tutte le capacità tecniche di creare il fantomatico "super chippone" ai livelli di nvidia ma semplicemente non lo fa perchè non gli conviene penso...semplicemente sta attuando una politica diversa che sembra stia portando pure i suoi frutti...quindi alla fine non c'è da criticare niente di nessuno(c'è a chi può piacere di più la politica ati chi nvidia)
Però personalmente mi sento di dire che a questo giro ati sembra aver lavorato un pò meglio di nvidia(ed era ank necessario se voleva riprendersi un pò)...
Ma cmq credo che ank ati avrebbe tutte le
Però personalmente mi sento di dire che a questo giro ati sembra aver lavorato un pò meglio di nvidia(ed era ank necessario se voleva riprendersi un pò)...
Quoto.
Anche a me da questa impressione e parlo da imparziale possessore sia di schede ati che nividia. Pare che alla lunga la controversa e vacillante politica intrapresa da ati con la serie HD3xxx,dopo la batosta presa con la serie HD2xxx, stia iniziando a dare i suoi primi frutti davvero competitivi con questa nuova serie 4 ancora tutta da scoprire.
ma delle 4870 non si sa niente???
Sono usicti degli pseudo test, nn so quanto attendibili, dove risulta un 30% sempre migliore della 4850 e ad alte risoluzioni con filtri attivi arriva fino a 60% in + ma di certo nn ci sta nulla, manco se esce subito la verisone da 1GB o solo quella 512 per iniziare.
Questo e' un primo esempio di CF di 4850
http://www.forumdeluxx.de/forum/showpost.php?p=9315604&postcount=617
Notate sulla GTX280 e' usato un E8500 pompato a 4Ghz sul CF di 4850 un phenom a 3Ghz.
zephyr83
18-06-2008, 02:13
Questo e' un primo esempio di CF di 4850
http://www.forumdeluxx.de/forum/show...&postcount=617
Notate sulla GTX280 e' usato un E8500 pompato a 4Ghz sul CF di 4850 un phenom a 3Ghz.
controlla meglio nn hai copiato il link vero ma quello mostrato a video cn i puntini puntini.... :)
controlla meglio nn hai copiato il link vero ma quello mostrato a video cn i puntini puntini.... :)
ok ora va thx dell'accorgimento;)
halduemilauno
18-06-2008, 06:43
Se le cose stanno così allora ati ha sicuramente vinto lo scontro delle fasce basse: Serie 38X0 vs 9600XX e lo scontro delle fasce medie 4850 vs 9800GTX. questo è un dato di fatto.
Ora bisognerà vedere come si concluderò lo scontro nei settori favorevoli a nividia ovvero quello medio-alto con 4870 vs. GTX 260 e quello alto con 4870X2 vs GTX 280.
C'è da dire però che essendo gia la 4870X2 una scheda doppia, anche se nividia perdesse le restanti 2 dispute potrebbe riuscire comunque a ritagliarsi una fascia di nicchia super-alta sfornando una GTX 280X2 dove non avrebbe rivali.
9600gt vs 3850 e 9800gt(attuale 8800gt)vs 3870 vince nvidia a mani basse.
per il resto aspetterei le rece del 25/26 per vedere i confronti 4850 vs 9800gtx e 4870 vs gtx260. in quanto alla gtx280 la sua avversaria sarà la 4870x2 aspetterei anch'essa, si parla di agosto/settembre.
allo stato attuale la gtx280x2 è impossibile come minimo ci vuole il pp a 55nm e credo che al massimo si potrebbe fare una gtx260x2.
halduemilauno
18-06-2008, 08:14
Pare che a 55nm sarebbe anche impossibile riuscire ad infilarci i 512bit di bus, quindi è proprio necessario un redesign del chip per riuscire a crearlo a 55nm, riducendo contemporaneamente il bus.
Ovviamente con tutti i problemi del caso dovuti alla riduzione di banda su un chip così potente (lo stesso G92 è bw limited con i 256bit).
Quindi è anche possibile che invece di vedere un G200@55nm vedremo direttamente un chip nuovo, con quel pp.
Comunque è presto per dirlo, aspettiamo prima G92b, per vedere quali sorprese possa riservare, sia in ambito prestazionale (ma non credo, dovrebbe essere uguale, solo un risparmio per nVidia nel produrlo e poterlo anche proporre a prezzi più bassi sul mercato), sia funzionale, visto che è questo chip quello scelto da nVidia come test di mass production per il nuovo pp.
per questo ho detto gtx260 che ha il bus a 448bit. cmq come ho detto in altre occasioni nvidia sta pensando anche al bus a 384bit con le gddr5.
aspettiamo il g92b.
TheScient1st!
18-06-2008, 11:57
Ma quanti bravi intelligentoni che commentano sta rece...praticamente tutti a infamare, se siete tanto bravi perchè non la costruite voi una vga che faccia girare quel mattone di crysis VH a 60fps?
Prima di fiondarsi a commentare vi invito a riflettere un attimo...i driver sono sicuramente migliorabili, è una vga a chip singolo che ha raddoppiato (o quasi) le prestazioni rispetto alle 9800 e la gente ci spala merda perchè se la gioca alla pari con la versione X2...sinceramente non capisco...è uno SLi...i conti tornano...ok che in linea generale la x2 viene venduta a meno, ma cosa vi aspettavate? E' sempre stato così, le vecchie gen si svalutano, e oltretutto io non mi sentirei di consigliare una vga che essendo una sorta di SLi ha problemi con una valanga di titoli...
Può invece essere discutibile la scelta di commercializzare un'altra vga (la 260) che ha prestazioni non moltissimo inferiori alla 280 ma con un prezzo estremamente inferiore...
Ma quanti bravi intelligentoni che commentano sta rece...praticamente tutti a infamare, se siete tanto bravi perchè non la costruite voi una vga che faccia girare quel mattone di crysis VH a 60fps?
Prima di fiondarsi a commentare vi invito a riflettere un attimo...i driver sono sicuramente migliorabili, è una vga a chip singolo che ha raddoppiato (o quasi) le prestazioni rispetto alle 9800 e la gente ci spala merda perchè se la gioca alla pari con la versione X2...sinceramente non capisco...è uno SLi...i conti tornano...ok che in linea generale la x2 viene venduta a meno, ma cosa vi aspettavate? E' sempre stato così, le vecchie gen si svalutano, e oltretutto io non mi sentirei di consigliare una vga che essendo una sorta di SLi ha problemi con una valanga di titoli...
Può invece essere discutibile la scelta di commercializzare un'altra vga (la 260) che ha prestazioni non moltissimo inferiori alla 280 ma con un prezzo estremamente inferiore...
Guada io ho semrpe avuto lo sli di 8800GT mai un problema se nn per il chipset Nvidia, cosa che appunto ti risparmi di avere con la 9800GX2 che la monti su qualsiasi chipset.
Cmq nn hai capito bene il perche' si sia cosi dato contro a sta VGA, nn si criticano le prestazioni ma altre cose.
sniperspa
18-06-2008, 12:24
Ma quanti bravi intelligentoni che commentano sta rece...praticamente tutti a infamare, se siete tanto bravi perchè non la costruite voi una vga che faccia girare quel mattone di crysis VH a 60fps?
Prima di fiondarsi a commentare vi invito a riflettere un attimo...i driver sono sicuramente migliorabili, è una vga a chip singolo che ha raddoppiato (o quasi) le prestazioni rispetto alle 9800 e la gente ci spala merda perchè se la gioca alla pari con la versione X2...sinceramente non capisco...è uno SLi...i conti tornano...ok che in linea generale la x2 viene venduta a meno, ma cosa vi aspettavate? E' sempre stato così, le vecchie gen si svalutano, e oltretutto io non mi sentirei di consigliare una vga che essendo una sorta di SLi ha problemi con una valanga di titoli...
Può invece essere discutibile la scelta di commercializzare un'altra vga (la 260) che ha prestazioni non moltissimo inferiori alla 280 ma con un prezzo estremamente inferiore...
L'hai provato un sli per dire ciò?:mbe:
+Benito+
18-06-2008, 13:23
Si ma l'Hybrid Power è una tecnologia sviluppata per quegl'ambiti dove è molto importate aver un basso consumo mentr queste schede puntano solo alle alte prestazioni...
Poi IMHO di solito uno che compra una scheda di questa fascia non si preoccupa dei 50w in più o in meno...visto che cmq in idle consuma pochetto...
Non sono dell'avviso. HP su una scheda che consuma 30W è quasi inutile, su una scheda che ne consuma 300 è utile. Il fatto è che mi sembra che abbiano puntato sul downclock spinto per queste schede, forse per problemi di sviluppo di HP, e che quindi effettivamente non so se sia stato abbandonato.
gianni1879
18-06-2008, 13:56
9600gt vs 3850 e 9800gt(attuale 8800gt)vs 3870 vince nvidia a mani basse.
per il resto aspetterei le rece del 25/26 per vedere i confronti 4850 vs 9800gtx e 4870 vs gtx260. in quanto alla gtx280 la sua avversaria sarà la 4870x2 aspetterei anch'essa, si parla di agosto/settembre.
allo stato attuale la gtx280x2 è impossibile come minimo ci vuole il pp a 55nm e credo che al massimo si potrebbe fare una gtx260x2.
e da quando la 3870 Vs 8800gt?
se permetti la hd3870 va confrontata sia come prezzo sia come prestazioni alla 9600gt .
La 8800gt costa di più ed ha prestazioni superiori alla hd3870, quindi collocata su uno scalino superiore, quindi non ha avversaria.
la hd3850 sta sotto la hd3870 sia come prezzo che come prestazioni ed anche in questo caso manca l'avversaria.
marchigiano
18-06-2008, 14:00
ma anche sul sito tedesco la gtx280 ha qualche frame in più col phenom rispetto a, per es., HWU che con l'intel 4 core... è un caso? :confused:
blackshard
18-06-2008, 14:08
Ma quanti bravi intelligentoni che commentano sta rece...praticamente tutti a infamare, se siete tanto bravi perchè non la costruite voi una vga che faccia girare quel mattone di crysis VH a 60fps?
Infamare forse no, criticare probabilmente si.
Prima di fiondarsi a commentare vi invito a riflettere un attimo...i driver sono sicuramente migliorabili, è una vga a chip singolo che ha raddoppiato (o quasi) le prestazioni rispetto alle 9800 e la gente ci spala merda perchè se la gioca alla pari con la versione X2...sinceramente non capisco...è uno SLi...i conti tornano...ok che in linea generale la x2 viene venduta a meno, ma cosa vi aspettavate? E' sempre stato così, le vecchie gen si svalutano, e oltretutto io non mi sentirei di consigliare una vga che essendo una sorta di SLi ha problemi con una valanga di titoli...
Si ma se leggi bene le critiche non si riferiscono solamente alle prestazioni. C'è chi critica giustamente il prezzo di lancio, e c'è chi risponde che al lancio la novità si paga.
C'è invece chi critica il super-chippone, che di fatto sembra rendere il chip delle gtx una sorta di sli integrato, con un chip enorme che consuma un pacco di energia.
Non ne sono entusiasta nemmeno i vari giornalisti che l'hanno recensita su internet.
Può invece essere discutibile la scelta di commercializzare un'altra vga (la 260) che ha prestazioni non moltissimo inferiori alla 280 ma con un prezzo estremamente inferiore...
Beh insomma, le prestazioni sono abbastanza sotto la gtx280 (ad occhio direi 1/4 in meno, o forse anche un po' di più), ma nessuno vieta che la migliore come rapporto qualità/prezzo sia proprio la gtx260!
halduemilauno
18-06-2008, 14:08
e da quando la 3870 Vs 8800gt?
se permetti la hd3870 va confrontata sia come prezzo sia come prestazioni alla 9600gt .
La 8800gt costa di più ed ha prestazioni superiori alla hd3870, quindi collocata su uno scalino superiore, quindi non ha avversaria.
la hd3850 sta sotto la hd3870 sia come prezzo che come prestazioni ed anche in questo caso manca l'avversaria.
da quando sono uscite. la 9600gt è uscita quasi tre mesi dopo come concorrente della 3850.
sniperspa
18-06-2008, 14:21
Non sono dell'avviso. HP su una scheda che consuma 30W è quasi inutile, su una scheda che ne consuma 300 è utile. Il fatto è che mi sembra che abbiano puntato sul downclock spinto per queste schede, forse per problemi di sviluppo di HP, e che quindi effettivamente non so se sia stato abbandonato.
Ma la scheda non consuma 300w in idle!!e la presenza dell'hp non fa differenza in full...
E poi un discorso sono i portatili dove ank i 20w fanno la differenza ma per uno che compra una scheda simile non gli fanno differenza i 50w(perchè non consuma di certo più di 100w in idle imho)
il menne
18-06-2008, 15:05
Bella VGA.... ma il prezzo....mi sa che per ora mi tengo stretta la mia 8800 ultra ancora per un po'..... :fagiano:
Sgt.Pepper89
18-06-2008, 17:07
9600gt vs 3850 e 9800gt(attuale 8800gt)vs 3870 vince nvidia a mani basse.
per il resto aspetterei le rece del 25/26 per vedere i confronti 4850 vs 9800gtx e 4870 vs gtx260. in quanto alla gtx280 la sua avversaria sarà la 4870x2 aspetterei anch'essa, si parla di agosto/settembre.
allo stato attuale la gtx280x2 è impossibile come minimo ci vuole il pp a 55nm e credo che al massimo si potrebbe fare una gtx260x2.
Mi piace parlare di vincita a mani basse su schede che hanno differenze prestazionali del dieci percento e che si differenziano di conseguenza nel prezzo.
Devo dire che un utente bilanciato nei giudizi come te non esiste.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.