View Full Version : Xavenon: questo il possibile nome di R520?
Redazione di Hardware Upg
19-05-2005, 08:49
Link alla notizia: http://www.hwupgrade.it/news/skvideo/14655.html
Mancano informazioni ufficiali, ma le indiscrezioni sulla nuova generazione di schede video ATI non scarseggiano di certo
Click sul link per visualizzare la notizia.
Dumah Brazorf
19-05-2005, 08:52
Il nome è abbastanza orrido.
Ciao.
Il nome è abbastanza orrido.
Ciao.
Infatti :D
halduemilauno
19-05-2005, 08:58
Link alla notizia: http://www.hwupgrade.it/news/skvideo/14655.html
Mancano informazioni ufficiali, ma le indiscrezioni sulla nuova generazione di schede video ATI non scarseggiano di certo
Click sul link per visualizzare la notizia.
Xaveon.
;)
wailander
19-05-2005, 08:59
Non ho mai considerato importanti i nomi rispetto alle prestazioni.
Qualcuno potrebbe gia azzardare un paragone G70-R520?
shrubber
19-05-2005, 09:00
1.8Ghz per le GDDR3? e perchè mai alla nvidia dovrebbero usare quelle da 1.4Ghz? secondo me c'è qualcosa che non quadra. Che la Gpu stia a 700Mhz ci posso anche credere. Ma le GDDR non le producono certo Ati o Nvidia quindi non vedo perchè quest'ultima dovrebbe utilizzarne di pi ù lente... mah...
aceto876
19-05-2005, 09:06
Concordo che sia improbabile cambiare un nome storico e di successo come Radeon. Specie dai grandi risultati di R300
milliput
19-05-2005, 09:07
Beh anche Radeon non è che sia bello come nome.. è che adesso ci siamo abituati.. il fatto è che secondo me sarebbe l'ora di smettere di spammare "rumors";
Quelle specifiche di r520 sono comparse dal nulla mesi fa sul forum di xtremesystems in occasione dell'evento ATI, scritte da un utente che non ne riportò la fonte... :rolleyes:
Il giorno dopo erano dappertutto, adesso sono persino le informazioni più attendibili.. :asd:
Qualcuno ha voglia di inventarsi la prossima Matrox? :D
halduemilauno
19-05-2005, 09:07
1.8Ghz per le GDDR3? e perchè mai alla nvidia dovrebbero usare quelle da 1.4Ghz? secondo me c'è qualcosa che non quadra. Che la Gpu stia a 700Mhz ci posso anche credere. Ma le GDDR non le producono certo Ati o Nvidia quindi non vedo perchè quest'ultima dovrebbe utilizzarne di pi ù lente... mah...
ultime info dicono 650 di core in quanto alla ram lessi di 1600. sul resto tu hai o avresti ragione.
;)
aceto876
19-05-2005, 09:08
I numeri vanno presi con le molle. Anche secondo me 1800MHz sono troppi e anche se ci fossero dubito che possano essere un'esclusiva ATI.
Possono chiamarlo anche pippo, quello che conta è che faccia bene il suo lavoro (dopo quello che ho visto su ps3 e xbox360) ;)
Max Power
19-05-2005, 09:31
Ogni 5 anni cambiano nome RAGE/RADEON/XAVENON
Il Prob è ke non c'è stato un cambio generazionale!!!
RAGE > ACC. 3D
RADEON > TCL
XAVENON > ?? SM3?? sai ke cambio!!!!
Jedi_Master
19-05-2005, 09:46
Possono chiamarlo anche pippo, quello che conta è che faccia bene il suo lavoro (dopo quello che ho visto su ps3 e xbox360) ;)
Secondo me cambiare un nome cosi' affermato adesso
è una scelta di marketing errata, cmq vedremo.
ps: complimenti per l'avatar :oink:
Io non credo se non vedo :O
poi i numeri delle specifice dicono tutto e niente ... le prestazioni si vedono con le applicazione reali ... non con i mhz :rolleyes:
JohnPetrucci
19-05-2005, 10:05
Possono chiamarlo anche pippo, quello che conta è che faccia bene il suo lavoro (dopo quello che ho visto su ps3 e xbox360) ;)
Quoto.
Allroa prima vi lamentavate che ogni skeda che usciva era la solita zuppa riscaldatga. Per forza, erano tutet radeon! Ora si cambia nome quindi forse si cambia radicalmente architettura. NOn siete ancora contenti?
halduemilauno
19-05-2005, 10:09
http://www.vr-zone.com/?i=2213&s=1
si parla di agosto.
;)
Ehehe vi avevo anticipato di ben due settimane :)
La notizia (presunta tale ovviamente) io l'ho data il 5 Maggio :)
http://www.hwupgrade.it/forum/showthread.php?p=8302168#post8302168 :read: :read:
Ati Pippo...
troppo figo !
Ciminiera
19-05-2005, 11:11
Mi sono sempre sembrati dati sparati un pò a c@zo!
Comunque se va tre volte di più della X800XT lo compro.
Ci si abituerà amche a xaveon.
Sentendolo ripetere già mi suona meglio... lol
lucifaro
19-05-2005, 11:18
Xaveon, mi sa tanto che il nome si avvicini molto alla grafica di Longhorn.
Beh anche Radeon non è che sia bello come nome.. è che adesso ci siamo abituati.. il fatto è che secondo me sarebbe l'ora di smettere di spammare "rumors";
Quelle specifiche di r520 sono comparse dal nulla mesi fa sul forum di xtremesystems in occasione dell'evento ATI, scritte da un utente che non ne riportò la fonte... :rolleyes:
Il giorno dopo erano dappertutto, adesso sono persino le informazioni più attendibili.. :asd:
Qualcuno ha voglia di inventarsi la prossima Matrox? :D
Quoto al 3000 per 1000.
Ma solo i rumours? E che dire delle "fonti non ufficiali" e delle "Indiscrezioni"? :D :sofico:
Ma Xaveon o Xavenon non ho capito :confused:
OverClocK79®
19-05-2005, 12:56
nVidia le chiama G70 Ati si è inventato lo Xaveon (+ che Xavenon che suona ankora peggio)
sempre che verranno confermate
per le DDR trovo + fattibile siano
1.4Ghz
che forse starebbe meglio con i 700mhz sempre se confermati :D
cmq la solita Aria fritta per creare hype.....
attendiamo info ufficiali
BYEZZZZZZZZZZZZZZ
nome a parte che sinceramente mi fa :Puke: molto meglio RADEON...il fatto della memoria a 1.8ghz mi suona stranissimo :rolleyes: soprattutto se nvidia sembra che userà le 1.4ghz dato che si riforniscono entrambe da samsung.
magari poi il chip nvidia è nettamente inferiore (e non sfrutterebbe la banda passante) così per risparmiare hanno pensato di usare memorie meno veloci.
misteri dell'IT.
attendiamo prime prove (credo verso settembre)
Muscy_87
19-05-2005, 14:01
a questo punto potevano chiamarlo Ravenholm
a buon intenditor...
nome a parte..se confermano queste specifike tecnike l'R520 deve essere una bestiaccia rispetto a G70!!!
Cmq aspettiamo..
nonikname
19-05-2005, 21:59
300-350 Mil. di Transistor a 90 nanometri che gira a 700Mhz .... Finchè non lo vedo non ci credo ;)
La roadmap di Samsung è chiara : le ram GDDR3 a 1.8 Ghz saranno disponibili dalla seconda metà del 2006... ;)
In poche parole : specifiche "trafugate" da un appassionato che probabilmente ha visto l'R520 ultra overclokkata alla manifestazione di ATI ... (da qui il famoso score a 3dMark2k5 di 14K e rotti...)
andreamarra
19-05-2005, 22:52
nome a parte..se confermano queste specifike tecnike l'R520 deve essere una bestiaccia rispetto a G70!!!
Cmq aspettiamo..
ma non credo sai?
Per me a sto giro le prestazioni delle due schede saranno molto simili, una andrà meglio in un tipo di gioco e una andrà meglio in altra applicazione.
il nome cmq non mi dispiace, è che siamo abituati a sentire "radeon".
davestas
20-05-2005, 00:05
ma scusate a questo punt R600 cioè le schede con directx10 le avremo tra ben due anni visto il ritrdo di R520?
R520 sarà molto piu' potente di una x800xl che mi accingo a comprare visto che sto senza scheda video...
nonikname
20-05-2005, 01:10
ma scusate a questo punt R600 cioè le schede con directx10 le avremo tra ben due anni visto il ritrdo di R520?
R520 sarà molto piu' potente di una x800xl che mi accingo a comprare visto che sto senza scheda video...
Io credo che in questo forum si tenga in scarsa considerazione lo SM3.0 : comprare una scheda come la X800xl (che non è proprio gratis) , con il supporto allo SM2.0+ , ti permetterà di giocare decentemente fino all'arrivo di WGF , ma non potrai abilitare tutti gli effetti che i programmatori mettono a disposizione (aka Splinter Cell 3)...
Con il debutto di "Fudo" , R520 , anche ati sarà SM3.0 compliant ( o quasi :p ) in tutte le fasce di utenza , come la serie 6 di nVIDIA , quindi tutti gli studios che fanno game da tripla A , metteranno a disposizione tali feature ..
N.B.
A parte l'HDR che per questa generazione di GPU è troppo pesante , tutte le altre istruzioni DX9c , sono una manna dal celo per i programmatori di VG : una volta assimilate a dovere permetteranno boost prestazionali uniti a una semplicità di utilizzo del codice senza paragoni....e i prossimi due anni saranno tutti a disposizione dei developers per creare engine SM3.0
Adesso manca solo una Killer-App che suffraghi la mia tesi , ma una volta usciti Stalker - B & W 2 e co. , mi sa che qualcuno si mangerà il cappello !! :D
Nippolandia
20-05-2005, 08:13
Ma io molti di voi non li capisco,vi mangiate il cervello per notizie non ufficiali e per i nomi dei prodotti. :muro:
Secondo me e giusto che si cambi nome almeno ogni 6/7 anni mica devono fare come la sony che Ps lo sta adottanto per l'eternita,sempron che favoriscono in publicita' la polizia di stato. :sofico:
Poi il nome non ha importanza quello che conta è la sostanza,mica la chiamano CACCARON. :ciapet:
(aka Splinter Cell 3)...
Lo sai vero che in Splinter Cell i due o tre effetti (me ne ricordo due) che si attivano con lo SM3 con lo SM3 non c'entrano un tubo? Il Parallax Mapping lo fa anche la R300 e l'HDR non è una specifica dello SM3, in quanto è fatto sfruttando l' alpha belnding in FP che NV40 ha ma che non è una specifica necessaria per lo SM3 :)
In pratica è tutto marketing.
Su BW2 Fek (che credo sia abbastanza autorevole in questo ambito) ha detto che la X800XL va benissimo e Stalker... bhè di questo passo lo vedremo quando saremo pensionati quindi non mi preoccupa :D
Con questo non sto dicendo che si debba preferire la GT alla XL, la prima è un'ottima scheda la seconda pure. Ma tutte queste argomentazioni non sono valide per sceglierla :)
davestas
20-05-2005, 11:21
E quindi scegliereste una 6800gt ora per hci deve acquistare un pc ?
Vantaggi di Longhorn rispetto a XP:
- Possibilità di far funzionare fino a 15 applicazioni grafiche contemporaneamente rispetto alle 2 attuali
- Controllo completo per ottimizzare le risorse del sistema
- Ogni finestra di Longhorn utilizzerà un'interfaccia 3D
- Possibilità di dividere il monitor in quattro parti, permettendoti di realizzare quattro cose in contemporanea, sentire musica, andare su internet, vedere un video etc.
- Longhorn supporta fino a 160 finestre aperte nello stesso tempo
- Ci saranno quattro differenti modìalità grafiche per Longhorn (2GB/256MB/128MB/64MB texture)
- I nuovi BIOS delle motherboard saranno integrati con Longhorn
- Alcuni dei paramentri del BIOS potranno essere modicati da Windows senza neppure effettuare il reboot del sistema.
- Maggiore versatilità rispetto a XP
Alcune indicazioni riguardo Longhorn e i giochi:
- Nessuna differenza grafica tra le schede di ATi e nVIDIA se non la differenza di velocità
- WGF 2.0 permette di processare alla GPU senza l'intervento della CPU
- Xbox 360 usa alcune tecnologie di Longhorn che permetterà l'uso su PC dei giochi per Xbox 360 (su questo punto siamo molto dubbiosi)
Quando verrà lanciato un gioco Longhorn si occuperà di disabilitare ogni componente non necessario, non caricando il desktop (come i giochi in MSDOS).
Raccomandazioni:
- Non pensate di comprare ora un computer per l'utilizzo in piena tranquillità di Longhorn
- La memoria fisica e grafica sarà molto importante in futuro.
Requisiti minimi:
1.6 GHz processor
512 MB memory
64 MB videocard
7200 RPM HD 16 MB cache
Migliore configurazione per Longhorn:
4 GHz processor
3 GB memory
1 GB videocard with WFG 2.0 support
15000 RPM HD 1 GB flash memory
CIOE', DOVREMO CAMBIARE TUTTI PC TRA UN ANNO ?? :eek:
Anche chi come me, sta per comprare un A64 3200@3500,1TB DI RAM E SCHEDA VIDEO ANCORA D SCEGLIERE???
andreamarra
20-05-2005, 13:33
e che cazzo... sempre na cosa...
a davestas.. ma secondo te uno PER FORZA DEVE CAMBIARE pc per un sistema operativo??
Io ho un processore 32 bit, una scheda video AGP, 512 mega di ram.
Eppure c'è windows 64 bit da un bel pò e a bvrevissimo si avranno dei reali vantaggi.
Ho cambiato pc per windows 64? No.
Esce Longhorn? Sti gran cazzi, quando mi servirà se ne avrò voglia lo prenderò e cambierò con oculatezza sistema. Ma non è che se non lo prendo il giorno stesso in cui esce non potrò accendere più il pc.
nonikname
20-05-2005, 16:46
Su BW2 Fek (che credo sia abbastanza autorevole in questo ambito) ha detto che la X800XL va benissimo e Stalker... bhè di questo passo lo vedremo quando saremo pensionati quindi non mi preoccupa
Ma fek ha anche detto che che l'engine supporta in modo nativo lo SM3.0 , che è una bella differenza dall'unreal Engine 2.0 modificato di Splinter Cell 3 ...
Quindi , finchè non ci sarà un gioco a testimoniare la mia tesi , ti do ragione , ma ti ripeto che giudicare gli SM3.0 con un titolo come SplCell CT è come giudicare gli SM 2.0 prendendo come esempio il primo titolo con queste feature : se non vado errato , Tomb Raider the Angel of Darkness.. ;)
Ma fek ha anche detto che che l'engine supporta in modo nativo lo SM3.0 , che è una bella differenza dall'unreal Engine 2.0 modificato di Splinter Cell 3 ...
Quindi , finchè non ci sarà un gioco a testimoniare la mia tesi , ti do ragione , ma ti ripeto che giudicare gli SM3.0 con un titolo come SplCell CT è come giudicare gli SM 2.0 prendendo come esempio il primo titolo con queste feature : se non vado errato , Tomb Raider the Angel of Darkness.. ;)
La mia correzione riguardava solo a Splinter Cell 3, era velatamente una critica agli sviluppatori del gioco che si sono "fregiati" della dicitura SM3 per degli effetti che non hanno niente a che vedere con lo SM3 ma, nel caso del blending, solo con NV40.
Non era una critica sullo SM3 che come dici tu dobbiamo ancora vedere. Su traod mi sa che hai ragione, era il primo titolo a fregiarsi (inutilmente visto che era programmato con i piedi e orrendo) di supporto allo SM2. Però non ci metterei la mano sul fuoco :stordita:
Oltretutto Traod è stato anche il primo gioco TWIMTBP a mettere in ginocchio la 5900, era talmente programmato bene per quella scheda video che R300 andava pure il doppio in alcuni casi :) Un plauso agli sviluppatori :winner:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.