PDA

View Full Version : R520 e RV5x0: frequenze di clock e specifiche tecniche


Pagine : 1 [2]

DjLode
15-09-2005, 16:51
Non vorrei dire una cazzata ma mi pare di aver letto in queste ultime settimane che ci sarebbero 10 samples di r520 a 32 pipe. Questo, assieme alla grandezza del core, confermerebbe le voci, mai smentite da ATi, che la scheda era stata inizialmente progettata a 32 pipe.

Oltre a questo sono sicuro di aver anche letto che la percentuale di riuscita di una scheda a 24 pipe non superava il 25%...


Per quel che riguarda i comunicati ufficiali, sono d'accordo con chi dice che sarà molto difficile trovare un'azienda che ammetta in un comunicato ufficiale le difficoltà incontrate nella produzione di un articolo che ancora deve essere messo in commercio. Anzi, nella realtà le aziende pompano volutamente per creare hype e non menzionano mai problemi di sorta, per ovvie ragioni di marketing.
In ultima istanza non sarei così sorpreso di scoprire che i vari rumors sulla scheda li abbia fatti uscire ATi volutamente. Non è illogico pensare che siccome nvidia si stava appropriando della fascia alta, siccome ATi non aveva schede da contrapporre ad un prezzo conveniente, Ati sia stata costretta a spargere in giro voci infondate su 32 pipe, 15000 al 3dmark, ecc ecc per cercare di insinuare il dubbio almeno nei suoi più vicini sostenitori.
A conferma di ciò, tutti i vari fan boy ATi in aria di cambiare vga hanno aspettato fino ad oggi, ed aspetteranno fino all'uscita reale della scheda, prima di fare l'acquisto.
Sono sicuro che la metà di questi si sarebbe preso una g70 se avessero saputo che il progetto r520 in realtà non "sembra" essere cosi performante come si pensava.

Ti assicuro che al 99% i rumors non sono mai fatti uscire volontariamente. Altrimenti metti la tua concorrente nella situazione di sapere su cosa stai lavorando. Il che è controproducente al massimo.
Sul fatto che esistano sample di R520 a 32pipelines non ci piove (sono stati mostrati in funzione decenni fa), ma non esiste (ed è cosa ben diversa) ufficialità da parte di Ati di voler commercializzare da subito tale prodotto. Considera che prima delle Dx10 sicuramente si vedrà un R580 (che a quanto pare ha già fatto tape out, ma è un rumors) e un nuovo step di G70. Considera che Ati per R580 è partita da R520. Considera che R520 è un progetto da 32 pipelines e allo stato attuale pare essere più lento di quello a 16, per il fatto delle frequenze e che non esiste probabilmente un sistema adatto a spingerlo. Si parla di 3d mark 2005 di default. Rumors ovviamente.
Trai le tue conclusioni. Con un unico progetto Ati ha di fatto costruito 2 gpu, Nvidia dal canto suo avendo previsto solo e soltanto 24 pipelines su G70 è costretta ad un progetto nuovo.
Sul fatto che R520 "sembra" non essere così prestante, francamente mi chiedo dove qualcuno lo abbia capito/letto. Ah sì, hai ragione. E' perchè 24 è sempre meglio di 16 ;)

fek
15-09-2005, 16:56
Trai le tue conclusioni. Con un unico progetto Ati ha di fatto costruito 2 gpu, Nvidia dal canto suo avendo previsto solo e soltanto 24 pipelines su G70 è costretta ad un progetto nuovo.

Ma parte da una posizione sicuramente avvantaggiata, visto che ha a disposizione una GPU perfettamente stabile e molto performante e, soprattutto, testata sul campo. Non e' un vantaggio da poco. Da un certo punto di vista le basta affinare ancora il progetto, e farlo salire in frequenza, per rimanere al passo dal punto di vista tecnologico.
E poi il marketing fara' il resto dove si fanno i soldi nei settori mid e entry level.

In via del tutto personale, fino alle soluzioni DX10, io vedo un vantaggio di NVIDIA.

Jimmy3Dita
15-09-2005, 16:56
Beh me le sono inventate. Anche Andrea allora si e' inventato che la scheda poteva uscire molto prima di queste settimane:
http://www.hwupgrade.it/news/skvideo/13464.html
Mettiamo anche lui tra i pazzi visionari che hanno scelleratamente creduto di vedere R520 nei negozi in primavera?
Se vuoi ne ho un altro po':
http://www.hwupgrade.it/search.php?q=r520&action=Search&action=search&w=0
Contesti quello che scrive Hardware Upgrade? Diamo un colpo di spugna e condanniamo il lavoro di tutto un settore editoriale, dicendogli "usa comunicati ufficiali"?

Aggiungo. Dici che la metto sul personale. E parli di troll. E di schieramento. E che mi invento favole senza portare "prove".
Stai criticando ME, non le mie idee. Mi hai solo detto "Si', aspettative inventate da te. ATI non ha mai fornito una data di rilascio. Fattene una ragione.".
Me ne faro' una ragione, ma vorrei sapere su quali basi puoi controbattere quello che sto affermando. Ti sto dicendo che i comunicati ufficiali in questo frangente non valgono nulla, e tu continui a nasconderti dietro.

Sei abile a nascondere la tua vena di "so tutto io", ti bulli del fatto che programmi per una software house (te lo porti in sign), e fai il saccente "minacciando di mettermi in ignore list".
Fek, mettimi pure in ignore, campo benissimo uguale. Ma gradirei (e forse non sono l'unico) un pizzico d'umilta' in piu'.
LE mie sono illazioni che potrebbero facilmente rivelarsi false, punti di vista.
Solo che anziche' smentirle come fanno le persone normali, hai prima attaccato la persona (screditandola) e poi le sue idee (senza molto successo, visto che sei al punto di partenza).

Concludo:

Capisco che vi dia fastidio, ma e' una realta' che dovete accettare.

tranquillo, nessun fastidio. HAi ragione. Ma nascondi un elefante dietro a un dito. Cerco di dirlo in tutti i modi, ma continui a dire che non capisco nulla e scrivo tutte ca**ate.
Ciao!!

halduemilauno
15-09-2005, 16:57
Già, ma niente di niente su date ufficiali, pipelines e prestazioni. Come ha detto Fek. Da ore.

non ho parlato di date. ho soltato voluto sapere l'opinione personale della causa di questo ritardo.
tutto qui.

davestas
15-09-2005, 16:59
MA VI RENDETE CONTO che Ati è COINVOLTA nel PROGETTO XBOX360, e sta impegnando quasi tuttele sue forze a far arrivare per Novembre le xbox360 sugli scaffali di tutto ilmondo, e non ha tempo e risorse da dedicare ad un mercato che darà infinitamente piu' ridotto a quel che puo rapprsentare l'uscita di un OGGETTO COME XBOX360?
SECONDO voi il gamer medio, anche l'hardcore gamer che vuole una grafica spacca mascelle, dedicheràle sue attenzioni ad xbox360 CON UN GHOSTRECON3 O PERFECT DARK IN USCITA o a R520 con del software che girerà bene anche su una 6600gt o al massimo una 6800gt visto che appunto ghostrecon3,oblivion, cod2,e tutti i giochi di punta NUOVI PER PC SARANNO SVILUPPATI IN PARALLELO PER LE CONSOLES DI VECCHIA GENERAZIONE? :doh:

DjLode
15-09-2005, 16:59
Ma parte da una posizione sicuramente avvantaggiata, visto che ha a disposizione una GPU perfettamente stabile e molto performante e, soprattutto, testata sul campo. Non e' un vantaggio da poco. Da un certo punto di vista le basta affinare ancora il progetto, e farlo salire in frequenza, per rimanere al passo dal punto di vista tecnologico.
E poi il marketing fara' il resto dove si fanno i soldi nei settori mid e entry level.

In via del tutto personale, fino alle soluzioni DX10, io vedo un vantaggio di NVIDIA.

Certo, di sicuro G70 è una ottima gpu. Ragionavo dal solo punto di vista delle caratteristiche. Sicuramente basta affinare il processo e salire di frequenza, ma se si vuole integrare qualcosa di nuovo bisogna pur partire da un progetto derivato ma cmq nuovo. E' anche vero che Ati è costretta ad usare quello che ha. Poichè dubito si possa permettere (non a livello economico) di rifare una gpu di nuovo. Visto che praticamente questa non è stata sfruttata.

DjLode
15-09-2005, 17:02
non ho parlato di date. ho soltato voluto sapere l'opinione personale della causa di questo ritardo.
tutto qui.

Mi sembrava un discorso ad hoc a traino di quello che è stato detto in questo thread da tante gente. Ma effettivamente hai quotato Fek cuttando tutto il messaggio quindi ben poco si capiva di quello che volevi dire :)
L'opinione personale sul ritardo non esiste, esiste la spiegazione data da Ati. Altrimenti potrei dire, opinione personale, che hanno rifatto tape out perchè la gpu l'hanno fatta triangolare ma poi non piaceva e sono tornati sul quadrato perchè slancia di più.

DjLode
15-09-2005, 17:03
MA VI RENDETE CONTO che Ati è COINVOLTA nel PROGETTO XBOX360, e sta impegnando quasi tuttele sue forze a far arrivare per Novembre le xbox360 sugli scaffali di tutto ilmondo, e non ha tempo e risorse da dedicare ad un mercato che darà infinitamente piu' ridotto a quel che puo rapprsentare l'uscita di un OGGETTO COME XBOX360?
SECONDO voi il gamer medio, anche l'hardcore gamer che vuole una grafica spacca mascelle, dedicheràle sue attenzioni ad xbox360 CON UN GHOSTRECON3 O PERFECT DARK IN USCITA o a R520 con del software che girerà bene anche su una 6600gt o al massimo una 6800gt visto che appunto ghostrecon3,oblivion, cod2,e tutti i giochi di punta NUOVI PER PC SARANNO SVILUPPATI IN PARALLELO PER LE CONSOLES DI VECCHIA GENERAZIONE? :doh:

Ati ha progettato l'x-gpu con un team diverso da quello che ha progettato R520. Ati ha venduto il progetto a Ms. Ati non è impegnata in niente visto che non ha fonderie.
R500 non è una scusante o un alibi o altro.

(§) The Avatar (§)
15-09-2005, 17:07
Credo che R580 sarà quello che avrebbe dovuto essere R520. Secondo me è così. Anche se questo R520 eguaglierà o batterà G70 soltanto di poco, in realtà credo che nei piani di ATI avrebbe dovuto schiacciare qualunque GPU che NVIDIA avesse in mente, ma così molto probabilmente non sarà. Sono dispiaciuto più che deluso, perchè sempre di esseri umani si tratta, e hanno a che fare con la TECNOLOGIA, cosa che richiede sperimentazioni in primis, e poi eventualmente si impara dagli errori. Come fece NVIDIA per NV30. E stavolta è toccato ad ATI, pazienza. Ne riparleremo tra qualche mese, quando il VERO R520 sarà (finalmente) tra noi.

fek
15-09-2005, 17:14
Sei abile a nascondere la tua vena di "so tutto io", ti bulli del fatto che programmi per una software house (te lo porti in sign), e fai il saccente "minacciando di mettermi in ignore list".
Fek, mettimi pure in ignore, campo benissimo uguale. Ma gradirei (e forse non sono l'unico) un pizzico d'umilta' in piu'.
LE mie sono illazioni che potrebbero facilmente rivelarsi false, punti di vista.
Solo che anziche' smentirle come fanno le persone normali, hai prima attaccato la persona (screditandola) e poi le sue idee (senza molto successo, visto che sei al punto di partenza).


Hai oltrepassato il segno :)

Quota dove ho attaccato la tua persona.

Tu mi hai dato del fanatico ATI in maniera esplicita.
Tu hai tirato in ballo il mio lavoro che io non ho mai citato.
Tu mi hai insultato dandomi della persona non normale.
Tu mi hai dato del bullo.

Hai semplicemente scritto delle cose inesatte, e cercato di far passare delle tue speculazioni per verita' assolute. Te l'ho fatto notare ed hai iniziato questa triste crociata nei miei confronti, scottato dal tuo errore.

Ora ti invito caldamente a smetterla e se hai ulteriori problemi nei miei confronti puoi comunicarmeli in PM, oppure ne andiamo a parlare con chi di dovere, che sara' felice di sapere che un moderatore si permette di insultare un utente qualunque sul forum solo perche' non gli ha dato ragione.

Ved di calmarti, e fallo subito. Perche' non ho intenzione di alimentare ulterioremente questa tua ridicola scenata.

johnson
15-09-2005, 17:17
Ti assicuro che al 99% i rumors non sono mai fatti uscire volontariamente. Altrimenti metti la tua concorrente nella situazione di sapere su cosa stai lavorando. Il che è controproducente al massimo.

Non hai mai pensato al fatto di far uscire volutamente dati falsi? Far uscire informazioni esagerate sulle specifiche potrebbe far correre ai ripari l'azienda rivale, mentre far uscire informazioni volutamente ridimensionate potrebbe far credere alla rivale di poter dormire sonni tranquilli e di non aver bisogno di fare un restyle a ULTRA del loro ultimo prodotto ;)


Sul fatto che esistano sample di R520 a 32pipelines non ci piove (sono stati mostrati in funzione decenni fa), ma non esiste (ed è cosa ben diversa) ufficialità da parte di Ati di voler commercializzare da subito tale prodotto.

Scusami ma fammi capire che senso ha far vedere in funzione dei sample di r520 a 32 pipe se poi non sei in grado di produrli o commercializzarli.
Le cose sono 2:
1. Ati credeva di riuscire ad avere una resa nettamente superiore però ha sbagliato i calcoli.
2. Ati già sapeva che la resa sarebbe stata ridicola ma ha deciso per ragioni di marketing di mostrare cmq questi samples.
In tutti e due i casi si evince che Ati è partita con un progetto molto ambizioso che non è riuscita a portare a termine come avrebbe voluto.


Considera che prima delle Dx10 sicuramente si vedrà un R580 (che a quanto pare ha già fatto tape out, ma è un rumors) e un nuovo step di G70. Considera che Ati per R580 è partita da R520. Considera che R520 è un progetto da 32 pipelines e allo stato attuale pare essere più lento di quello a 16, per il fatto delle frequenze e che non esiste probabilmente un sistema adatto a spingerlo. Si parla di 3d mark 2005 di default. Rumors ovviamente.
Trai le tue conclusioni. Con un unico progetto Ati ha di fatto costruito 2 gpu, Nvidia dal canto suo avendo previsto solo e soltanto 24 pipelines su G70 è costretta ad un progetto nuovo.

Non mi pare che Ati sia partita da r520 per fare r580. Infatti si tratta di 2 teams di sviluppo differenti (per fortuna).

Sul fatto che R520 "sembra" non essere così prestante, francamente mi chiedo dove qualcuno lo abbia capito/letto. Ah sì, hai ragione. E' perchè 24 è sempre meglio di 16 ;)

Diciamo che lo si è capito dall'ultima intervista ufficiale al ceo di ati che ti invito a rileggere.

Giusto per puntualizzare domani mi arriva un bellissima x800xt pe su agp a 248 € (sborone mode on) e me ne sbatto se ATI affossa nvidia o il contrario. Però la logica mi porta a queste conclusioni...

ThePunisher
15-09-2005, 17:25
Sicuramente non e' detto che un cambiamento architetturale porti ad una migliore efficienza, ho semplicemente fatto notare come assumere che le due pipeline siano molto simili e' errato.

Ti faccio notare che io non ho affermato che l'R520 sara' molto veloce, piu' veloce, o meno veloce. Per quanto ne sappiamo, qualunque di queste conclusioni sarebbe valida. Infatti non ho affermato e basta, perche' mancano gli elementi.

Mentre sembra che qui qualcuno conosca gia' i profili prestazionali dell'R520 con grande precisione, dimenticando che per conoscere i profili dell'NV3X c'e' voluto quasi un anno dall'uscita.

Allora ti sei fregato da solo, escludendo la mia ipotesi. Se non conosci R520 non puoi dire che quanto ho detto non è plausibile, neanche come parere personale, altrimenti sei incoerente.

fek
15-09-2005, 17:30
Allora ti sei fregato da solo, escludendo la mia ipotesi. Se non conosci R520 non puoi dire che quanto ho detto non è plausibile, neanche come parere personale, altrimenti sei incoerente.

La tua ipotesi che siano molto simili non e' plausibile, visto che implementa uno shader model fondamentalmente diverso (questo si sa'). Si sa' che il dynamic branching impone una configrazione parzialmente MIMD alle pipeline contro una configurazione SIMD della pipeline classica. Non serve sapere altro per concludere che saranno certamente non simili. Non si sa al momento se piu' o meno efficiente.

ThePunisher
15-09-2005, 17:33
La tua ipotesi che siano molto simili non e' plausibile, visto che implementa uno shader model fondamentalmente diverso (questo si sa'). Si sa' che il dynamic branching impone una configrazione parzialmente MIMD alle pipeline contro una configurazione SIMD della pipeline classica. Non serve sapere altro per concludere che saranno certamente non simili. Non si sa al momento se piu' o meno efficiente.
Bene, non hai fatto altro che darmi una riprova di quanto ho detto sopra.
Tecnologicamente sono diverse ma a livello di efficienza potrebbero essere benissimo simili (e anzi è probabile), quindi la mia ipotesi è quella che imho si avvicinerà di più alla realtà dei fatti. Logicamente potrò essere smentito, ma qualcosa mi dice che non sarà così.

fek
15-09-2005, 17:35
Bene, non hai fatto altro che darmi una riprova di quanto ho detto sopra.
Tecnologicamente sono diverse ma a livello di efficienza potrebbero essere benissimo simili (e anzi è probabile), quindi la mia ipotesi è quella che imho si avvicinerà di più alla realtà dei fatti. Logicamente potrò essere smentito, ma qualcosa mi dice che non sarà così.

Ho detto, il contrario. Che a livello di efficienza non si sa se saranno simili o meno. Si sa che architetturalmente saranno differenti, quindi cade la tua ipotesi che saranno simili, da cui deduci che saranno necessariamente simili anche dal punto di vista prestazionale.

ThePunisher
15-09-2005, 17:38
Ho detto, il contrario. Che a livello di efficienza non si sa se saranno simili o meno. Si sa che architetturalmente saranno differenti, quindi cade la tua ipotesi che saranno simili, da cui deduci che saranno necessariamente simili anche dal punto di vista prestazionale.
LOL, ancora? Lo hai ribadito un'altra volta.

Architetturalmente saranno differenti per i nuovi supporti tecnologici e questo l'ho detto anch'io, MA DA QUESTO NON C'E' ALCUNA IMPLICAZIONE nell'efficienza, che potrebbe essere benissimo simile (N.B.: POTREBBE). Quindi la mia ipotesi non cade affatto. Quello che dà forza alla mia ipotesi è l'evoluzione storica dei chip video, che tu non vedi, ma che non deve essere trascurata perchè a livello teorico molte più cose che a livello pratico sono possibili e la storia dà un buon metro di misura per formulare ipotesi plausibili a livello pratico.

Io per "simili" intendevo prestazionalmente, infatti ho specificato anche alcune delle novità tecnologiche introdotte.

fek
15-09-2005, 17:41
LOL, ancora? Lo hai ribadito un'altra volta.

Architetturalmente saranno differenti per i nuovi supporti tecnologici e questo l'ho detto anch'io, MA DA QUESTO NON C'E' ALCUNA IMPLICAZIONE nell'efficienza, che potrebbe essere benissimo simile (N.B.: POTREBBE). Quindi la mia ipotesi non cade affatto.

Io per "simili" intendevo prestazionalmente, infatti ho specificato anche alcune delle novità tecnologiche introdotte.

Questo e' cio' che hai scritto:

quindi, io DEDUCO, pur non sapendolo, che l'R520 avrà un'architettura SIMILE alle X850, solo con processo produttivo diverso che permette clock maggiore e qualche modifica tecnologica volta al supporto PS 3.0, il ring bus a 512 bit e così via E CHE QUINDI come nel caso del G70 a COSTITUIRE UN FATTORE IMPORTANTE (NON L'UNICO NOTA BENE) ci sia il numero delle pipeline. Fino a qua non penso tu possa discordare da me.


Caduta la prima ipotesi, la tua deduzione che le pipeline costituiranno un fattore importante cade. Ovvero non si puo' sapere a partire dal presunto numero di pipeline quali saranno le caratteristiche prestazionali dell'R520.
Ovvero quello che dissi all'inizio.

halduemilauno
15-09-2005, 17:42
Mi sembrava un discorso ad hoc a traino di quello che è stato detto in questo thread da tante gente. Ma effettivamente hai quotato Fek cuttando tutto il messaggio quindi ben poco si capiva di quello che volevi dire :)
L'opinione personale sul ritardo non esiste, esiste la spiegazione data da Ati. Altrimenti potrei dire, opinione personale, che hanno rifatto tape out perchè la gpu l'hanno fatta triangolare ma poi non piaceva e sono tornati sul quadrato perchè slancia di più.

il messaggio era rivolto soprattutto a lui. e quindi ho preso il primo dei suoi messaggi solo per il quote del suo nick.
cmq slancia di più il triangolare.

OverClocK79®
15-09-2005, 17:43
Scusa ma che ha detto di cosi' trolleggiante?
All'epoca della 9700 non si e' scritto ovunque "nVidia soccombe - Ati rulez"? Rispondo io: certo, era vero!

certo
ma è un commento costruttivo????
andiamo avanti a riempire commenti con Ati Rulez nVidia sux
o viceversa???
poi arriva il tifoso della controparte e scrive il contrario e così via.....

mi sembrano le makkinette che ripetono sempre le stesse cose all'infinito....


X tutti quelli che mi hanno insultato

Xkè vi scaldate tanto se vi considerate così superiori? Se non simpatizzate per l'una o per l'altra marca perchè vi arrabbiate con me? Non ho scritto: coglione chi compra ati!! Anzi tutt'altro, con le miriadi di schede e di prezzi che si trovano in giro è sicuramente possibile fare un'affare prendendo una Ati anzichè una nvidia.

La realtà è che siete ipocriti, dite di essere sopra le parti però appena si preme un po' sul tasto dolente (senza insultare nessuno) vi incendiate dicendo a me di vergognarmi e di sdraiarmi in mezzo la strada ecc ecc... . Questo perchè siete più tifosi di me(vi mascherate da saggi) e appena provocati scoppiate. Meditate gente meditate

Ati rulez
Nvidia soccombe

guarda.....personalmente nn mi attacco al brand
avrò cambiato altrettante nVidia di quante Ati.....
probabilmente la prossima skeda sarà una 7800GTX ma ho sempre voluto vedere prima cosa mi offriva il mercato senza buttarmi a capofitto su un prodotto solo perchè era verde o rosso.....

di certo riempire il TH di
Ati rulez
Nvidia soccombe

nn è altro che un comportamento da tifoso.....
che nn si addice ad un forum come questo...
se poi tu hai i poster nVidia in camera è una tua scelta
basta che nn impesti il TH di queste frasi....
prima che arrivino i troll Ati a rispondere a tono......

BYEZZZZZZZZZZZZZZ

P.S. imho potete discutere quanto volete su pipe mhz ecc ecc
però io lo farei dati alla mano.....con specifiche ufficiali....tutto qui ;)
poi si fa sempre tempo ad andare nei neg a prendere la 7800 o la X1800 che sia.....

ThePunisher
15-09-2005, 17:43
Questo e' cio' che hai scritto:



Caduta la prima ipotesi, la tua deduzione che le pipeline costituiranno un fattore importante cade. Ovvero non si puo' sapere a partire dal presunto numero di pipeline quali saranno le caratteristiche prestazionali dell'R520.
Ovvero quello che dissi all'inizio.

Fai finta di non capire... ti ho specificato sopra cosa intendevo anche se appare chiaro anche dal tuo quote, o meglio, apparirebbe chiaro a chiunque fosse predisposto ad aprirsi leggermente.

fek
15-09-2005, 17:46
Fai finta di non capire... ti ho specificato sopra cosa intendevo anche se appare chiaro anche dal tuo quote, o meglio, apparirebbe chiaro a chiunque fosse predisposto ad aprirsi leggermente.

Ho capito molto bene invece. E il tuo quote e' chiarissimo a riguardo. E la tua deduzione e' errata. Il fatto che non accetti la mia risposta perche' non e' cio' che vuoi sentirti rispondere e' un altro discorso.

ThePunisher
15-09-2005, 17:48
Ho capito molto bene invece. E il tuo quote e' chiarissimo a riguardo. E la tua deduzione e' errata. Il fatto che non accetti la mia risposta perche' non e' cio' che vuoi sentirti rispondere e' un altro discorso.
Ma non è vero lol... te l'ho rispiegato 3 volte. Sei tu che non accetti il fatto di aver peccato di eccesso di sicurezza senza congnizione di causa.

quindi, io DEDUCO, pur non sapendolo, che l'R520 avrà un'architettura SIMILE alle X850, solo con processo produttivo diverso che permette clock maggiore e qualche modifica tecnologica volta al supporto PS 3.0, il ring bus a 512 bit e così via E CHE QUINDI come nel caso del G70 a COSTITUIRE UN FATTORE IMPORTANTE (NON L'UNICO NOTA BENE) ci sia il numero delle pipeline. Fino a qua non penso tu possa discordare da me.

Questo l'hai saltato perchè non ti faceva comodo? :mc:

fek
15-09-2005, 17:53
Ma non è vero lol... te l'ho rispiegato 3 volte. Sei tu che non accetti il fatto di aver peccato di eccesso di sicurezza senza congnizione di causa.

Questo l'hai saltato perchè non ti faceva comodo? :mc:

Quello l'ho saltato perche' l'ho gia' dimostrato falso. Non si tratta solo di un cambiamento di processo e "qualche" modifica tecnologica.
Una pipeline MIMD e' sostanzialmente diversa da una pipeline SIMD.

Non c'e' alcun eccesso di sicurezza. Hai scritto una cosa errata, inutile continuare all'infinito a difendere un errore marchiano.

Le due architetture NON sono simili, quindi le caratteristiche prestazionali NON sono necessariamente simili, quindi NON e' possibile comparare le due architetture in base al numero di pipeline. Molto semplicemente non conosci le architetture delle pipeline e trai conclusioni errate, accusando me di parlare senza cognizione di causa. Credo che sia vero il contrario :)

Fattene una ragione.

ThePunisher
15-09-2005, 17:57
Le due architetture NON sono simili, quindi le caratteristiche prestazionali NON sono necessariamente simili, quindi NON e' possibile comparare le due architetture in base al numero di pipeline.

Fattene una ragione :)

MA NEANCHE NECESSARIAMENTE DIVERSE! Fattene tu una ragione!

Ah no? E come mai fin'ora la comparazione delle generazioni di schede video poteva essere fatta sommariamente anche solo partendo dal numero di pipe a parità di bus delle memorie? Solo una pura coincidenza scommetto. Le tecnologie non si rivoluzionano da un momento all'altro. C'è sempre una certa continuità di generazione in generazione. Sì chiama appunto evoluzione, non rivoluzione e come ho detto prima gli elementi da considerare sono:
- architettura (che evolve, non si rivoluziona)
- pipeline (che si modificano e che storicamente AUMENTANO di quantità)
- clock

Vado a preparare la cena! :D

halduemilauno
15-09-2005, 17:57
http://www.vr-zone.com/?i=2693&s=1

NVIDIA plans to introduce GeForce 7800 Standard using the G70 core which makes it the third line-up for the 7800 series. It will have 16 pixel pipelines and 6 vertex shader. The core clock is at 375MHz and the memory is at 1Ghz. GeForce 7800 will be replacing GeForce 6800GT and Ultra but NVIDIA is not in the hurry to launch 7800 Standard but will wait for ATi R520 to be launched first. Card makers revealed that the 90nm G71 has higher than 50% yield which is looking good.

a mo' d'esempio visto che si parla di resa produttiva a 90nm.
;)

fek
15-09-2005, 18:00
MA NEANCHE NECESSARIAMENTE DIVERSE! Fattene tu una ragione!

Non ho mai affermato che debbano essere necessariamente diverse. Ho affermato che non hai elementi per concludere che siano uguali, come deducevi erroneamente dal tuo quote. In altre parole, non lo sappiamo. Ho sempre e solo detto questo.


Ah no? E come mai fin'ora la comparazione delle generazioni di schede video poteva essere fatta sommariamente anche solo partendo dal numero di pipe? Solo una pura coincidenza scommetto. Le tecnologie non si rivoluzionano da un momento all'altro. C'è sempre una certa continuità di generazione in generazione. Sì chiama appunto evoluzione, non rivoluzione.


Comparare partendo dal numero di pipeline e' sempre stato un errore.
Non hai mai risposto alla mia domanda, l'R500 e' due volte piu' veloce del G70 perche' ha 48 pipeline invece di 24?

Se le tecnologie delle GPU si evolvono soltanto, allora l'NV40 e' solo un'evoluzione dell'NV30? L'R500 e' solo un'evoluzione dell'R420? L'NV30 e' solo un'evoluzione dell'NV2X?

johnson
15-09-2005, 18:10
Scusate se mi intrometto nel vostro "match" ma fatemi capire una cosa.
Secondo voi questo nuovo tipo di pipeline "più efficente" sarebbe stato adottato assieme a freq più elevate del previsto a causa della mancata riuscita di una scheda con almeno 24 pipe (del tipo di nv70) funzionanti?

Oppure Ati stava già progettando la sua scheda a 32pipe di tipo MIMD? Perchè se fosse vera l'ultima ipotesi, sarebbe altrettanto vero che le speranze di ATI erano nettamente differenti all'inizio visto che alla fine si sono ritrovati con una vga da 16 pipe.

Insomma io non mi butto nei tecnicismi ma secondo me in questo momento alla ATI staranno saltando culi mentre in casa nvidia si staranno scaccolando leggendo il forum di hwupgrade :D

ulk
15-09-2005, 18:11
Comparare partendo dal numero di pipeline e' sempre stato un errore.
Non hai mai risposto alla mia domanda, l'R500 e' due volte piu' veloce del G70 perche' ha 48 pipeline invece di 24?

Perchè? E' il fill rate della scheda ovvero sia la sua forza. Si parla ovviamente a parità di frequenza, mentre sembrerebbe che ATI per compensare il gap abbia agito sulle frequenze , implementando una specie di overclock di fabbrica.


Se le tecnologie delle GPU si evolvono soltanto, allora l'NV40 e' solo un'evoluzione dell'NV30? L'R500 e' solo un'evoluzione dell'R420? L'NV30 e' solo un'evoluzione dell'NV2X?

Per quanto riguarda nVIDia è stato solo un aggiornamento, come già detto.. non solo ma più che altro.

Per quanto riguarda ATI è un progetto completamente nuovo, ame è sempre sembrato chiaro in questi mesi.

:mbe:

ThePunisher
15-09-2005, 18:12
Non ho mai affermato che debbano essere necessariamente diverse. Ho affermato che non hai elementi per concludere che siano uguali, come deducevi erroneamente dal tuo quote. In altre parole, non lo sappiamo. Ho sempre e solo detto questo.



Comparare partendo dal numero di pipeline e' sempre stato un errore.
Non hai mai risposto alla mia domanda, l'R500 e' due volte piu' veloce del G70 perche' ha 48 pipeline invece di 24?

Se le tecnologie delle GPU si evolvono soltanto, allora l'NV40 e' solo un'evoluzione dell'NV30? L'R500 e' solo un'evoluzione dell'R420? L'NV30 e' solo un'evoluzione dell'NV2X?

Tecnicamente si può assumere di no. Storicamente potrebbe essere così.

Tu consideri solo l'aspetto tecnico ed è uno sbaglio.

CENA!!!

ForeverBlue
15-09-2005, 18:15
la situazione è questa:
noi sappiamo con relativa certezza che il numero delle pixel pipelines di R520xt sarà 16. Non ufficialmente, forse, ma questo possiamo dire di saperlo.
non sappiamo quanto efficiente sarà l'architettura.
probabilmente conosciamo con la solita relativa certezza le frequenze.

tutta via manca un tassello, che impedisce di completare il calcolo.
a voi le conclusioni

fek
15-09-2005, 18:17
Tecnicamente si può assumere di no. Storicamente potrebbe essere così.
Tu consideri solo l'aspetto tecnico ed è uno sbaglio.


Storicamente puoi anche concludere che sia due volte piu' veloce, o due volte piu' lento.

Conta solo l'aspetto tecnico, e da quel punto di vista non abbiamo elementi.

L'R500 con 48 pipeline e' due volte piu' veloce del G70 con 24? Rispondi con comodo dopo cena :)

Jimmy3Dita
15-09-2005, 18:18
Ti ricordo come hai esordito:


Rifare il tape out non vuol dire neppure lontamente rifare il progetto daccapo. Anzi.

riferendoti ad una frase fraintendendone il contenuto (e che ti ho anche chiesto cortesemente di "rileggere correttamente" qui (http://www.hwupgrade.it/forum/showpost.php?p=9486216&postcount=182))

- Alla mia OPINIONE " Resto dell'idea che R520 sulla carta era un Geforce Killer, ma il progetto e' troppo ambizioso e fatto male." Anche qui ti sei abilmente destreggiato sul filo del fraintendimento. Bravo!

Immagino che per fare quest'affermazione tu abbia testato a fondo un R520 ed abbia accesso ai documenti che descrivono il progetto. Dico bene?
In tal caso mi saprai certamente anche dire che cosa avrebbero potuto cambiare nel progetto per "farlo bene".



- Poi senza attendere il mio reply di spiegazioni te ne esci con un

Credo perche' non ha detto nulla di sensato.
senza spiegare perche'...

- Fai finta di non leggere questo reply (http://www.hwupgrade.it/forum/showpost.php?p=9486157&postcount=181) che rispecchia un po' quello che volevo dire (ha cercato di spiegartelo, ma evidentemente non ti interessava questa parte del discorso)

- qui (http://www.hwupgrade.it/forum/showpost.php?p=9486300&postcount=185) continui sulla strada del "90% del progetto" quando gia' ti avevo spiegato (leggi sopra) che il "daccapo" e' riferito alle valutazioni sulla resa produttiva/prezzo/mhz
Aggiungo che i "progetti" di R520 dubito che li vedro' mai (mentre tu sai come sono fatti, li vedi spesso, vero?)

- Mi affibbi elucubrazioni su pipelines non mie: http://www.hwupgrade.it/forum/showpost.php?p=9486324&postcount=187
e quando ti replico "non c'entrano le pipelines" riferendomi al discorso tu fraintendi cercando di dire che il mio "non c'entra" e' riferito all'importanza delle pipelines in un progetto... :rolleyes: (qui (http://www.hwupgrade.it/forum/showpost.php?p=9486440&postcount=190))

- sali in cattedra spiegandomi "l'abc dell'hardware" qui (http://www.hwupgrade.it/forum/showpost.php?p=9486440&postcount=190)

- mi dai del bugiardo/ignorante qui (http://www.hwupgrade.it/forum/showpost.php?p=9486449&postcount=191)

- cerco nuovamente di tornare a discutere sulla "dissonanza" aspettative vs realta', e ti chiedo cortesemente di rivedere la tua posizione nei miei confronti qui (http://www.hwupgrade.it/forum/showpost.php?p=9486569&postcount=195)
...mentre tu cominci a nasconderti dietro le menate dei comunicati ufficiali... :rolleyes:

- qualcun'altro cerca di convincerti che non stiamo parlando di "aria fritta" ma qualcosa gia' si sa (qui (http://www.hwupgrade.it/forum/showpost.php?p=9486653&postcount=198))

- continui sulla tua strada di "paladino della verita'" facendomi passare per un imbonitore di folle, e mi chiedi di portarlo sul lato tecnico, quando sei il primo a dire che senza progetto non si puo' parlare ( http://www.hwupgrade.it/forum/showpost.php?p=9486675&postcount=199 )

- qui non sono l'unico (http://www.hwupgrade.it/forum/showpost.php?p=9486829&postcount=201) che cerca di farti capire che un comunicato ufficiale non fornisce informazioni utili a questa discussione. MA tu gia' lo sai. Li stai usando come spauracchio per zittire tutti.

- Non metto il naso nelle questioni tecniche che tiri fuori (dove ovviamente giochi in casa), ma cerco di avere risposte che ancora non hai dato riguardanti i ritardi, le aspettative, il tuo punto di vista su Ati nel 2005 e soprattutto COSA NE PENSI DELLE CARATTERISTICHE TECNICHE (oggetto della news) (qui (http://www.hwupgrade.it/forum/showpost.php?p=9487611&postcount=231))

- Continui a quotare a meta' i miei discorsi qui (http://www.hwupgrade.it/forum/showpost.php?p=9487728&postcount=233), inoltre lanci il sasso e nascondi la mano? Ti quoto:

Bingo... argomento ad hominem.
Ma in questo caso pure facile facile da smontare:

http://developer.nvidia.com/object/gpu_gems_2_home.html

Inside Geometry Instancing
Francesco Carucci (Lionhead Studios)

Ma non mi pagava NVIDIA una volta?

E menomale che non parlavi del tuo lavoro, e delle tue competenze!

- Dopo una decina di reply mi spazientisco (eh si' succede anche ai moderatori) e ti replico con lo stesso tono che hai usato fin da quando sei intervenuto nel thread qui (http://www.hwupgrade.it/forum/showpost.php?p=9487964&postcount=239)

- quote "creativo", restringi la connotazione del mio "benchmark" a 3dmark, facendomi passare per il solito farloccone che crede ai bench (qui (http://www.hwupgrade.it/forum/showpost.php?p=9487728&postcount=233))

- quoti una frase che non e' riferita a quello che ho scritto, facendo figuare che Sirus dice "commenti inutili" riferendomi a quello che scrivo io, non quelli che scrivono "ati rulez" ecc.. qui la pagina (http://www.hwupgrade.it/forum/showthread.php?t=1014906&page=12&pp=20), e qua (http://www.hwupgrade.it/forum/showpost.php?p=9488088&postcount=240) un bel :rolleyes: perche' mi chiedi di "non prendermi per il culo da solo"...

- smonto definitivamente il tuo discorso sui comunicati ufficiali (qui (http://www.hwupgrade.it/forum/showpost.php?p=9488439&postcount=241)) e ti faccio notare che la non faziosita' delle software house NON ESISTE (portando gli esempi di ID e Valve), inoltre ti chiedo per l'ennesima volta (riferendomi al fatto di cui sopra) di non fare "quote creativi" sul mio conto.

- ti "infervori", per contrastarmi ti basi su considerazioni tecniche "piuttosto chiare", ma che non sono confrontabili perche' "non ci sono comunicati ufficiali", dici che sono un troll, giudichi il mio comportamento di moderatore, psicanalizzi il mio comportamento nei tuoi confronti (scottato per la brutta figura? LOL), mi minacci di "inserirmi in ignore" e poi quoti Paolo Corsini con tanto di postilla. (qui (http://www.hwupgrade.it/forum/showpost.php?p=9488681&postcount=244)).


Detto questo concludo la mia presenza nel thread. Chi avra' voglia leggera' il mio riassunto e giudichera' come sono andate le cose.
PEr quanto riguarda il tuo ultimo reply (questo (http://www.hwupgrade.it/forum/showpost.php?p=9489303&postcount=260)) ho evitato di includerlo nel discorso per ovvie ragioni.

A presto e auguri per il tuo prossimo libro sulla programmazione di schede video.

ThePunisher
15-09-2005, 18:22
Storicamente puoi anche concludere che sia due volte piu' veloce, o due volte piu' lento.

Conta solo l'aspetto tecnico, e da quel punto di vista non abbiamo elementi.

L'R500 con 48 pipeline e' due volte piu' veloce del G70 con 24? Rispondi con comodo dopo cena :)

Non è vero... l'evoluzione storica dei chip ha sempre visto un miglioramento architetturale accompagnato dall'aumento delle pipeline che portava a un miglioramento prestazionale.

Ora può esserci solo il miglioramente architetturale, visto che le pipe sono sempre 16 e STORICAMENTE si è visto che in un lasso di tempo così ristretto non è possibile che porti a una rivoluzione (ANZI NON E' MAI SUCCESSO CHE A PARITA' DI PIPE E DI BUS una scheda sia MOLTO più veloci di un'altra).

Vado a mangiare il secondo.

Ah, ti ho già risposto! ;)

Se contasse solo l'aspetto tecnico R520 sarebbe uscita con 32 pipe, poi bisogna scontrarsi con la realtà dei fatti e la storia. Tu sei fermo al primo aspetto.

OverClocK79®
15-09-2005, 18:26
Perchè? E' il fill rate della scheda ovvero sia la sua forza. Si parla ovviamente a parità di frequenza, mentre sembrerebbe che ATI per compensare il gap abbia agito sulle frequenze , implementando una specie di overclock di fabbrica.


scusa....ma come fai a dire questo???
ossia che è un OVERCLOCK di Fabbrica????
la 7800GTX nn può essere un Overclock di fabbrica???? era previsto a 400 invece
è uscito a 430 con una parte che funzia a 475.....

e se Ati avesse progettato di far uscire R520 a 700mhz ed invece va "solo" a 600
mica lo sappiamo noi??? o qui girano documenti che io nn ho ankora visto????

poi scusate.....
ma qui si parla tanto SENZA AVER NULLA DI CERTO su cui dire
questo si
questo no

quindi, io DEDUCO, pur non sapendolo, che l'R520 avrà un'architettura SIMILE alle X850, solo con processo produttivo diverso che permette clock maggiore e qualche modifica tecnologica volta al supporto PS 3.0, il ring bus a 512 bit e così via E CHE QUINDI come nel caso del G70 a COSTITUIRE UN FATTORE IMPORTANTE (NON L'UNICO NOTA BENE) ci sia il numero delle pipeline. Fino a qua non penso tu possa discordare da me.

solo perchè ha le stesse pipe nn possiamo dire che sia SIMILE
soprattutto questo ringcore di cui nn sappiamo poi moltissimo...e quelle che tu liquidi con E COSI' VIA chissà quale altre cose potrebbero essere......

se conosco Ati come conosco nVidia
nn credo proprio abbiano fatto uscire una skeda NETTAMENTE + lenta della controparte
nVidia ha fatto uscire il meglio che poteva fare con quello che aveva
riservandosi una carta (quella dei 0.09) per il futuro.......
e nn aveva parametri di confronto
Ati sa come va il 7800GTX ne avranno data una ad ogni ingegnere Ati che lavora a R520 :D proprio per far in modo che la nuova skeda sia PARAGONABILE o SUPERIORE......alla controparte.....

SU CARTA.....nn abbiamo nulla di confermato se nn che una skeda che IN TEORIA fa 700megapixel e mtexel in meno.....
che però ha 6Gb di banda passante in + sulle memorie.....
io nn credo.....sebbene le specifiche della sola GPU sembrino inferiori
che X1800XT sia MOLTO + lenta della 7800GTX

certo TUTTI compreso me si aspettavano la famigerata X900 da 32 pipe 700mhz ecc ecc (anke se si vedeva che erano un po' sparate) e questa skeda delude nn poco se verranno confermate le specifiche.....
ma nn credo sarà un brutto prodotto......
e nn credo si possa paragonare nemmeno al flop della 5800U

BYEZZZZZZZZZZZZ

DjLode
15-09-2005, 18:30
Non hai mai pensato al fatto di far uscire volutamente dati falsi? Far uscire informazioni esagerate sulle specifiche potrebbe far correre ai ripari l'azienda rivale, mentre far uscire informazioni volutamente ridimensionate potrebbe far credere alla rivale di poter dormire sonni tranquilli e di non aver bisogno di fare un restyle a ULTRA del loro ultimo prodotto ;)


Fantascienza :)
Gli affari si fanno sui dati reali, credi veramente che Nvidia legga The Inquirer per sapere cosa sta facendo Ati? :rotfl:
Ancora. Perchè non fare uscire dati sotto stimati? Ad esempio (ovviamente sempre su The Inquirer visto che vi basate su quel sito :)) abbiamo una gpu da 8 pipelines a 3ghz. Poi te ne esci bellamente con una gpu da 32 e 600mhz (sparo) inserendolo nel deretano del tuo avversario.
Ecco perchè Ati e Nvidia i rumors in giro non li prendono di certo in considerazione :)


Scusami ma fammi capire che senso ha far vedere in funzione dei sample di r520 a 32 pipe se poi non sei in grado di produrli o commercializzarli.
Le cose sono 2:
1. Ati credeva di riuscire ad avere una resa nettamente superiore però ha sbagliato i calcoli.
2. Ati già sapeva che la resa sarebbe stata ridicola ma ha deciso per ragioni di marketing di mostrare cmq questi samples.
In tutti e due i casi si evince che Ati è partita con un progetto molto ambizioso che non è riuscita a portare a termine come avrebbe voluto.


Mostrare sample con 32 pipelines equivale a mostrare un prodotto funzionante. Non si sa che frequenze, niente altro. Uscire con un prodotto con un diverso numero di pipelines ha la causa nella ridotta resa. Non sono due cose collegate. Il progetto è quello, se poi TMSC non ha una resa produttiva decente o si aspetta in eterno o si fa uscire qualcosa. Ecco R520 come è stato annunciato.


Non mi pare che Ati sia partita da r520 per fare r580. Infatti si tratta di 2 teams di sviluppo differenti (per fortuna).


Certo, così come R420 e R480 sono di due gruppi diversi. Ma lo stesso progetto. E ti potrei elencare altre gpu :)


Diciamo che lo si è capito dall'ultima intervista ufficiale al ceo di ati che ti invito a rileggere.


Quale? Quella dove si afferma che R520 è nettamente superiore a quanto mai visto?
L'intervista che tu citi dice apertamente che (parole non papali papali) "R250 fornirà prestazioni superiori alla controparte Nvidia se raggiungeranno una frequenza adeguata". Ora se tu capisci di che frequenza parla, dimmi dove hai compraro il "leggitore di menti altrui". Poterbbero essere 300mhz, 700mhz o 8ghz. Diciamo che siete VOI che avete capito che R520 è meno prestante :)
Per quanto mi riguarda quando uscirà mi farò un'idea. E' da fanboy farsela prima ;)


Giusto per puntualizzare domani mi arriva un bellissima x800xt pe su agp a 248 € (sborone mode on) e me ne sbatto se ATI affossa nvidia o il contrario. Però la logica mi porta a queste conclusioni...

Non è quello che hai nel case che fa sì che le tue affermazioni assumano più o meno peso ;)

DjLode
15-09-2005, 18:33
Non è vero... l'evoluzione storica dei chip ha sempre visto un miglioramento architetturale accompagnato dall'aumento delle pipeline che portava a un miglioramento prestazionale.


Gf2 e Gf4?
Solo per citartene una.
E il tuo discorso cade miseramente.

fek
15-09-2005, 18:36
Perchè? E' il fill rate della scheda ovvero sia la sua forza. Si parla ovviamente a parità di frequenza, mentre sembrerebbe che ATI per compensare il gap abbia agito sulle frequenze , implementando una specie di overclock di fabbrica.

Perche' il fillrate e' solo una parte dell'equazione, che comprende parecchi altri elementi. La pipeline grafica e' piuttosto lunga, ma limitiamoci solo alle pixel shader pipe.

Immagina per pura ipotesi di avere due architetture diverse, una delle quali e' in grado di eseguire il doppio di operazioni sugli shader per colpo di clock. Chiamiamo la pipeline piu' efficiente P0 e la meno efficiente P1. Immaginiamo poi che P1 sia in grado di eseguire 2 shader op a colpo di clock, P0 ne eseguira' 4.

Sempre calcoli ipotetici.

Ipotizziamo di avere uno shader di 2 istruzioni che chiamiamo S0 ed uno di 4 istruzioni che chiamiamo S1.

Ora, la prima architettura contiene 16 pipeline di tipo P0, e la seconda architettura contiene 24 pipeline di tipo P1.

Ora immaginiamo di avere 16.000 frammenti su cui eseguire gli shader S0 e S1.

La prima architettura eseguira' lo shader S0 sui 16.000 frammenti per 2 istruzioni, diviso 16 pipeline, diviso 2 istruzioni per colpo di clock, quindi in 1.000 colpi di clock.

La seconda architettura eseguira' lo shader S0 sui 16.000 frammenti in 667 colpi di clock.

Passiamo al secondo shader S1.
La prima architettura lo eseguira' sui 16.000 frammenti sempre in 1000 colpi di clock, perche' e' in grado di eseguire l'intero shader in un colpo di clock.

La seconda architettura lo eseguira in 1333 colpi di clock, perche' ogni frammento deve passare due volte nella pipeline per eseguire le 4 istruzioni.

Sono calcoli semplificati e ipotetici, ma rendono l'idea. Il discorso e' che le prestazioni non dipendono solo dal numero di pipeline, e dall'efficienza delle stesse, ma anche dalle particolari condizioni d'esecuzione, dal tipo di shader, e da svariati altri fattori.

E finiti di processare i frammenti si mettono in coda nelle ROP e poi vanno scritti nella memoria video, e poi ci sono da considerare gli accessi alle texture, etc etc.

Ovvero, e' molto semplicistico concludere che piu' pipeline significa migliori prestazioni. Dipende. Da moltissimi fattori.

fek
15-09-2005, 18:42
Ti ricordo come hai esordito:

In tutto quello che hai quotato non c'e' un solo attacco alla tua persona. C'e' solo la confutazione di cio' che hai scritto, ed evidentemente correggere gli errori piuttosto marchiani che hai commesso, e' per te un attacco personale.

Problema tuo, non mio. Io ho dimostrato i tuoi errori con dovizia di particolari.

Purtroppo per te non e' colpa mia se non conosci la differenza fra progetto di un chip e tape out e pensi che questa fase sia il 90% del tempo di realizzazione di un prodotto.

Oppure pensi che si possa comparare due architetture normalizzandole allo stesso clock.

Oppure se pensi che non ci sia differenza fra speculazioni e comunicati ufficiali.

Oppure se pensi che sia necessario un comunicato ufficiale per concludere che due pipeline possono avere architetture differenti (forse a te serve, agl'altri no).

Non sono attacchi alla tua persona, sono attacchi ai tuoi errori evidenti che dimostrano poca padronanza dell'argomento.

Questo non ti autorizza a darmi del bullo o del subnormale o del venduto come hai fatto.


E menomale che non parlavi del tuo lavoro, e delle tue competenze!

No, non ho mai parlato del mio lavoro.
Nel momento in cui mi hai dato del venduto di ATI mi sono limitato a farti notare che ho proficui rapporti soprattutto con NVIDIA, smontando il tuo argomento ad personam, tirato fuori in mancanza di altri argomenti.

Questo ti deve aver mandato evidentemente in bestia, visto che poi sei passato agl'insulti.

Detto questo concludo la mia presenza nel thread. Chi avra' voglia leggera' il mio riassunto e giudichera' come sono andate le cose.
PEr quanto riguarda il tuo ultimo reply (questo (http://www.hwupgrade.it/forum/showpost.php?p=9489303&postcount=260)) ho evitato di includerlo nel discorso per ovvie ragioni.


Era ora, visto che hai dato un'intepretazione del tutto personale e slegata dalla realta' di cio' che ho scritto. Evidentemente far notare i tuoi errori dev'essere stata un'onta che volevi lavare col sangue.
Sei un moderatore, e questo non ti autorizza a lanciarti in flame, e insultare gli utenti che ti fanno notare i tuoi errori.

Cerca di accettare le critiche con maggiore maturita'.


A presto e auguri per il tuo prossimo libro sulla programmazione di schede video.

Ti ringrazio, troppo gentile :)

ThePunisher
15-09-2005, 18:50
Gf2 e Gf4?
Solo per citartene una.
E il tuo discorso cade miseramente.
E il tuo cade miseramente se leggi il resto (ti dico solo "parità").


Parleranno i fatti. Se però ho ragione io fek ti sodomizzo asd... se hai ragione tu sarò contento di essere sodomizzato :asd:. :D

Quelo76
15-09-2005, 18:52
Il thread era partito male, poi piano piano stava migliorando e ora è finito sul "personale"...
probabilmente ci sono persone che qualche anno fa aspettavano da nvidia la manna dal cielo e si sono ritrovati mezzi bidonati, loro avevano riposto nei rumors e nelle parole di nvidia la max fiducia, x loro era diventato un dogma.
Dopo la doccia fredda (o calda dipende dalle temperature del reattore che avevano comprato), si erano riproposti di aspettare il momento opportuno x "buttare fuori" tutti i rancori accumulati in questi ultimi anni, aspettavano un passo falso da parte di ATI che potesse ricordare quello fatto dalla controparte qualche anno fa.
Ora io nn discuto che uno c possa essere rimasto male, ma da qui a utilizzare veleno in questo modo nei confronti delle persone ce ne passa.
Vedo tanti quote, ma secondo me sono fatti senza neanche cercare di capire ciò che fek e qualcun altro ha scritto.
si sta spalando merda su una scheda della quale si sa a mala pena il nome in codice, le pipe e qualche frequenza, non si tiene conto che l'architettura interna potrebbe essere molto diversa da ciò che sono la x800 o la 850.
sono arrivato a leggere affermazioni allucinianti del tipo "ati nn farà una scheda di pari generazioni che overkilli una di pari generazione e quindi ha fatto crossfire"
la domanda sorge spontanea nvidia si invece?
imho sli e crossfire mi rappresentano molto poco dal punto di vista dell'innovazione, servono solo a riscaldare la minestra x poterla mangiare ancora un po' oppure a sfondare il 3dmark
x quale motivo l'r520 dovrebbe "doppiare" g70? se nn lo doppia è un flop? bah...
all'utente finale nn frega un cazzo se quella scheda avrà 16/24/32 pipe, l'utente finale legge la recensione, i test e i grafici e se l'r520 sarà superiore a g70 allora comprerà r520. PUNTO.
se poi c'è qualche genio che compra in funzione delle "indiscrezioni" la colpa nn è di ATI ma è solo sua...
vi è bastato saxe che sto r520 avrà probabilmente 16 pipe e subito siete scattati sbraitando, nn vi siete soffermati neanche 1 sec a cercare di capire cosa effettivamente ci possa essere dietro, fek ha cercato di farvi capire che anche solo il supporto ai ps3 potrebbe rendere molto differente la struttura delle pipe, quanti vs ad esempio? come lavorano? e questo ring bus a 512 di quanto inciderà?
invece di porvi domande voi date le cose x scontate quando in realtà nn lo sono x niente.
Al "non sappiamo", "non è detto" voi rispondete con "questi sono i FATTI", in realtà di fatti ce ne sono ben pochi, e mi pare di capire che anche su quei pochi c sia un po' di confusione, l'unico fatto è che c'è gente in giro che vive per dogmi, non si rende conto di cosa sono i rumors e di cosa sono le press-release.
Ati ha avuto inconvenienti dopo il 1° tape out? e be? cazzi suoi noi abbiamo continuato a vivere ugualmente
al momento io ho una 9500 pro+fx53 gioco a ciò che voglio ma aspetterò l'r520 prima di decide se indirizzarmi verso una o l'altra entro natale, se la scheda + veloce sarà 520 prenderò quella e con le pipe che avanzeranno ci andrò a giocare a risiko. il resto è fuffa.
spero di rivedere ancora tuti questi bei nick anche dopo i primi test dell'rx520 pls!
p.s.: un moderatore dovrebbe avere un contegno diverso imho e nn lasciarsi prendere troppo dalla foga.

DjLode
15-09-2005, 18:55
E il tuo cade miseramente se leggi il resto (ti dico solo "parità").


Mi spiace. Hai detto una cosa assolutamente inesatta.

ThePunisher
15-09-2005, 18:56
p.s.: un moderatore dovrebbe avere un contegno diverso imho e nn lasciarsi prendere troppo dalla foga.
Un moderatore è anche un utente e come tale è libero di esprimere le proprie opinioni, purchè non usi i suoi privilegi per impedirlo agli altri. ;) :D

Comunque sì, ora che ci siamo sfogati senza arrivare a nulla, non possiamo far altro che aspettare R520 e trarre le dovute conclusioni! :D

DjLode
15-09-2005, 18:57
Il thread era partito male, poi piano piano stava migliorando e ora è finito sul "personale"...
probabilmente ci sono persone che qualche anno fa aspettavano da nvidia la manna dal cielo e si sono ritrovati mezzi bidonati, loro avevano riposto nei rumors e nelle parole di nvidia la max fiducia, x loro era diventato un dogma.
Dopo la doccia fredda (o calda dipende dalle temperature del reattore che avevano comprato), si erano riproposti di aspettare il momento opportuno x "buttare fuori" tutti i rancori accumulati in questi ultimi anni, aspettavano un passo falso da parte di ATI che potesse ricordare quello fatto dalla controparte qualche anno fa.
Ora io nn discuto che uno c possa essere rimasto male, ma da qui a utilizzare veleno in questo modo nei confronti delle persone ce ne passa.
Vedo tanti quote, ma secondo me sono fatti senza neanche cercare di capire ciò che fek e qualcun altro ha scritto.
si sta spalando merda su una scheda della quale si sa a mala pena il nome in codice, le pipe e qualche frequenza, non si tiene conto che l'architettura interna potrebbe essere molto diversa da ciò che sono la x800 o la 850.
sono arrivato a leggere affermazioni allucinianti del tipo "ati nn farà una scheda di pari generazioni che overkilli una di pari generazione e quindi ha fatto crossfire"
la domanda sorge spontanea nvidia si invece?
imho sli e crossfire mi rappresentano molto poco dal punto di vista dell'innovazione, servono solo a riscaldare la minestra x poterla mangiare ancora un po' oppure a sfondare il 3dmark
x quale motivo l'r520 dovrebbe "doppiare" g70? se nn lo doppia è un flop? bah...
all'utente finale nn frega un cazzo se quella scheda avrà 16/24/32 pipe, l'utente finale legge la recensione, i test e i grafici e se l'r520 sarà superiore a g70 allora comprerà r520. PUNTO.
se poi c'è qualche genio che compra in funzione delle "indiscrezioni" la colpa nn è di ATI ma è solo sua...
vi è bastato saxe che sto r520 avrà probabilmente 16 pipe e subito siete scattati sbraitando, nn vi siete soffermati neanche 1 sec a cercare di capire cosa effettivamente ci possa essere dietro, fek ha cercato di farvi capire che anche solo il supporto ai ps3 potrebbe rendere molto differente la struttura delle pipe, quanti vs ad esempio? e questo ring bus a 512 di quanto inciderà?
invece di porvi domande voi date le cose x scontate quando in realtà nn lo sono x niente.
Al "non sappiamo", "non è detto" voi rispondete con "questi sono i FATTI", in realtà di fatti ce ne sono ben pochi, e mi pare di capire che anche su quei pochi c sia un po' di confusione, l'unico fatto è che c'è gente in giro che vive per dogmi, non si rende conto di cosa sono i rumors e di cosa sono le press-release.
Ati ha avuto inconvenienti dopo il 1° tape out? e be? cazzi suoi noi abbiamo continuato a vivere ugualmente
al momento io ho una 9500 pro+fx53 gioco a ciò che voglio ma aspetterò l'r520 prima di decide se indirizzarmi verso una o l'altra entro natale, se la scheda + veloce sarà 520 prenderò quella e con le pipe che avanzeranno ci andrò a giocare a risiko. il resto è fuffa.
spero di rivedere ancora tuti questi bei nick anche dopo i primi test dell'rx520 pls!
p.s.: un moderatore dovrebbe avere un contegno diverso imho e nn lasciarsi prendere troppo dalla foga.

E io ti quoto :)

cionci
15-09-2005, 18:58
Per favore dateci un taglio :incazzed:

fek
15-09-2005, 18:58
Un moderatore è anche un utente e come tale è libero di esprimere le proprie opinioni, purchè non usi i suoi privilegi per impedirlo agli altri. ;) :D


Un moderatore non ha comunque il diritto di insultare un altro utente che gli fa notare un suo errore :)

E con questo spero che la polemica si possa chiudere una volta per tutte.

ThePunisher
15-09-2005, 18:59
Mi spiace. Hai detto una cosa assolutamente inesatta.

A me non sembra.

Raven
15-09-2005, 19:18
Sono basito... 15 pagine di post... attacchi più o meno velati... polemiche... (insulti non mi pare di averli letti ;) ).. e per cosa?!?!... per NIENTEEEE!!! Cacchio... non abbiamo NIENTE in mano!!! Come cavolo fate a giudicare vicente/perdente una scheda che ancora non è MAI stata testata?!?!?! Pazzesco...

Mio dio... non vedo l'ora che escano delle recensioni definitive solo per veder finire questo festival dei "proclami vaporware"...

MiKeLezZ
15-09-2005, 19:20
Non vedo l'ora esca questa scheda... In un modo o nell'altro riusciremo a flammarci (se è un progetto fallito, o se è un progetto migliore di quello nvidia), ma almeno sapremo come diavolo va!!! :ciapet:

Jimmy3Dita
15-09-2005, 19:20
Un moderatore non ha comunque il diritto di insultare un altro utente che gli fa notare un suo errore :)

E con questo spero che la polemica si possa chiudere una volta per tutte.

LOL, segnala dove ti ho insultato, e mi autosospendo :rotfl:

Sai, credo di aver capito da dove e' nato l'equivoco: tu non leggi i reply degli altri. Se avessi letto (e capito) cosa ho scritto non ti saresti inventato tutta questa storia. Questo spiega anche i tuoi quote creativi.
Anche perche' non hai ancora capito che i miei discorsi sono legati alla news. Che parla anche di prezzi e politiche di posizionamento nel mercato. E quelle si rifanno daccapo quando si rifa un tape-out, visto che senza costi e rese produttive la scheda rimane un prototipo e non un prodotto da scaffale.
Quindi, cortesemente, smetti di fare l'offeso e fatti dire da uno che il forum lo segue "da dietro" di imparare a leggere quello che ti scrivono gli altri. Senza perdere di vista l'umilta'.
Grazie.

P.S.
senza falsi sarcasmi, il tuo discorso sulle pipeline e' molto valido, e ha chiarito definitivamente come tutto il marketing dei comunicati ufficiali sia solo aria fritta.

supermauri83
15-09-2005, 19:52
Il thread era partito male, poi piano piano stava migliorando e ora è finito sul "personale"...
probabilmente ci sono persone che qualche anno fa aspettavano da nvidia la manna dal cielo e si sono ritrovati mezzi bidonati, loro avevano riposto nei rumors e nelle parole di nvidia la max fiducia, x loro era diventato un dogma.
Dopo la doccia fredda (o calda dipende dalle temperature del reattore che avevano comprato), si erano riproposti di aspettare il momento opportuno x "buttare fuori" tutti i rancori accumulati in questi ultimi anni, aspettavano un passo falso da parte di ATI che potesse ricordare quello fatto dalla controparte qualche anno fa.
Ora io nn discuto che uno c possa essere rimasto male, ma da qui a utilizzare veleno in questo modo nei confronti delle persone ce ne passa.
Vedo tanti quote, ma secondo me sono fatti senza neanche cercare di capire ciò che fek e qualcun altro ha scritto.
si sta spalando merda su una scheda della quale si sa a mala pena il nome in codice, le pipe e qualche frequenza, non si tiene conto che l'architettura interna potrebbe essere molto diversa da ciò che sono la x800 o la 850.
sono arrivato a leggere affermazioni allucinianti del tipo "ati nn farà una scheda di pari generazioni che overkilli una di pari generazione e quindi ha fatto crossfire"
la domanda sorge spontanea nvidia si invece?
imho sli e crossfire mi rappresentano molto poco dal punto di vista dell'innovazione, servono solo a riscaldare la minestra x poterla mangiare ancora un po' oppure a sfondare il 3dmark
x quale motivo l'r520 dovrebbe "doppiare" g70? se nn lo doppia è un flop? bah...
all'utente finale nn frega un cazzo se quella scheda avrà 16/24/32 pipe, l'utente finale legge la recensione, i test e i grafici e se l'r520 sarà superiore a g70 allora comprerà r520. PUNTO.
se poi c'è qualche genio che compra in funzione delle "indiscrezioni" la colpa nn è di ATI ma è solo sua...
vi è bastato saxe che sto r520 avrà probabilmente 16 pipe e subito siete scattati sbraitando, nn vi siete soffermati neanche 1 sec a cercare di capire cosa effettivamente ci possa essere dietro, fek ha cercato di farvi capire che anche solo il supporto ai ps3 potrebbe rendere molto differente la struttura delle pipe, quanti vs ad esempio? come lavorano? e questo ring bus a 512 di quanto inciderà?
invece di porvi domande voi date le cose x scontate quando in realtà nn lo sono x niente.
Al "non sappiamo", "non è detto" voi rispondete con "questi sono i FATTI", in realtà di fatti ce ne sono ben pochi, e mi pare di capire che anche su quei pochi c sia un po' di confusione, l'unico fatto è che c'è gente in giro che vive per dogmi, non si rende conto di cosa sono i rumors e di cosa sono le press-release.
Ati ha avuto inconvenienti dopo il 1° tape out? e be? cazzi suoi noi abbiamo continuato a vivere ugualmente
al momento io ho una 9500 pro+fx53 gioco a ciò che voglio ma aspetterò l'r520 prima di decide se indirizzarmi verso una o l'altra entro natale, se la scheda + veloce sarà 520 prenderò quella e con le pipe che avanzeranno ci andrò a giocare a risiko. il resto è fuffa.
spero di rivedere ancora tuti questi bei nick anche dopo i primi test dell'rx520 pls!
p.s.: un moderatore dovrebbe avere un contegno diverso imho e nn lasciarsi prendere troppo dalla foga.


cercherò di fare un discorso breve :sofico: per quanto riguarda le prestazioni di questa nuova scheda penso che tutte le persone intelligenti (eccetto i fanboy rulez di qua soccombe di la ecc...) che stanno contribuendo a questo 3d sanno di sicuro che la nuova scheda di Ati sarà + veloce di una 7800 GTX.Come detto da qualcuno prima (scusa se non ricordo il nick) gli ingegneri Ati hanno in mano da un bel p'o le 7800 GTX e secondo me è impossibile che rilascino un prodotto inferiore a quello del concorrente dopo 3 mesi di studio "supplementare".Un'altro problema trattato riguarda il presunto ritardo di Ati qualcuno dice che è in super ritardo altri dicono che non ha mai dato una scadenza io dico che con 2 tape out in + un minimo di ritardo lo ha avuto ma non vedo perchè accanirsi tanto su sto particolare...Per il discorso pipe anche qua Ati non ha mai smentito nessun rumor riguardante le 32/24/16 pipe quindi lascia presupporre che un minimo di verità ci sia basta soloa spettare.Per il resto si è entrati troppo nel tecnico e non sono in grado di esprimere un mio parere.Concludo dicendo che secondo me bisogna commentare i rumor senza crederci al 100% ma anche senza dire non sono notizie ufficiali quindi non commentabili.(una via di mezzo c'è sempre) :)

Raven
15-09-2005, 19:56
cercherò di fare un discorso breve :sofico: per quanto riguarda le prestazioni di questa nuova scheda penso che tutte le persone intelligenti (eccetto i fanboy rulez di qua soccombe di la ecc...) che stanno contribuendo a questo 3d sanno di sicuro che la nuova scheda di Ati sarà + veloce di una 7800 GTX.

:muro: :muro: :muro:

Io credo che le persone intelligenti (come le chiami tu) aspetteranno che la scheda ESCA prima di dire se sarà o meno più veloce della 7800!!!!! :muro:

:doh:

supermauri83
15-09-2005, 20:01
raven è praticamente impossibile che buttino fuori una scheda che vada meno, che fanno buttano fuori una x850xt pe overclokkata?su quel fattore penso ci sia la matematica certezza che sia + performante resta solo da vedere di quanto infatti quello non lo so :)

hackboyz
15-09-2005, 20:07
raven è praticamente impossibile che buttino fuori una scheda che vada meno, che fanno buttano fuori una x850xt pe overclokkata?su quel fattore penso ci sia la matematica certezza che sia + performante resta solo da vedere di quanto infatti quello non lo so :)
SI ma non puoi dire: è uscita 3 mesi dopo = è sicuramente più veloce di una 7800GTX ;)

Apple80
15-09-2005, 20:10
boh.. se doveva uscire con 32 pipeline e ora invece la fanno uscire con 16 , viene da pensare che se le prestazioni potevano essere il 20-30 % in più di una 7800 , ora potrebbe anche essere uguale o sotto. Ma è anche vero che hanno alzato la frequenza del chip. Questo è un bel dilemma che troverà la sua risposta tra non molto. ancora 3 settimane e lo sapremo. :)

Raven
15-09-2005, 20:13
raven è praticamente impossibile che buttino fuori una scheda che vada meno, che fanno buttano fuori una x850xt pe overclokkata?su quel fattore penso ci sia la matematica certezza che sia + performante resta solo da vedere di quanto infatti quello non lo so :)

Premesso che non voglio fare paragoni e che non so se sarà questo il caso, anche nvidia non poteva far uscire una 5800 più lenta della 9700... e invece... :O

Ma vi piace così tanto fare ipotesi basate sul nulla invece di aspettare a commentare i dati CONCRETI!? ;)

davestas
15-09-2005, 20:18
Storicamente puoi anche concludere che sia due volte piu' veloce, o due volte piu' lento.

Conta solo l'aspetto tecnico, e da quel punto di vista non abbiamo elementi.

L'R500 con 48 pipeline e' due volte piu' veloce del G70 con 24? Rispondi con comodo dopo cena :)


QUINDI PER QUALE MOTIVO UNO DOVREBBE SPENDERE QUASI IL DOPPIO PER ACQUISTARE UNA SCHEDA CHE DUE VOLTE MENO VELOCE DEL CHIP DI XBOX360?????
Rispondimi con comodo.....
:muro: :D

hackboyz
15-09-2005, 20:22
Cavolo davestas ma perchè non ti prendi questa cavolo di Xbo360 e così ti metti l'anima in pace (o poi forse avrai paura che magari la PS3 sarà più potente)? :D

Se mesi fa quando ti dicevamo di non pensare a G70 o R520 (perchè tanto se uno aspetta le novità alla fine in informatica non compra più nulla) ti fossi preso una X800XL o una 6800GT a quest'ora ti staresti godendo i giochi passati, presenti e futuri :read:

DarKilleR
15-09-2005, 21:14
allora mi son letto quasi 20 pagine di commenti....e mi sono fatto un milione di risate!!!

Apparte questo, ci sono molti di voi che osannano lo SLI come la tecnologia dei miracoli, a me non sembra altro che aria fritta...è una tecnologia fatta praticamente per marketing e basta, è inutile praticamente sotto tutti gli aspetti...ed oltre tutto non è assolutamente sfruttabile in ambito professionale ma solo ludico e non sempre, visto che i giochi capaci di sfruttare configurazioni SLI si hanno se si contano le dita delle mani e dei piedi, per non parlare del calore, consumi in eccesso e senza alcun vantaggio nell'uso quotidiano.

In oltre ma sono solo deduzioni personali, credo che R520 se ha veramente 16 pipeline e 600 Mhz di frequenza, sarà molto overcloccabile in quanto già una X850 XT PE con i 0.13 e low-k salgono praticamente tutte sopra i 600 Mhz ed qui si parla di schede a 90 nm quindi (sempre se l'architettura lo permette) non credo sia difficile raggiungere frequenze ancora più alte.

Ed in oltre le memorie che dovrebbe montare la X1800 XT non sono costruite per lavorare a una frequenza nominale di 1600 Mhz??? forse non tutte ci arriveranno, ma credo che 200 mhz non saranno difficili da prendere.

Fable
15-09-2005, 21:15
Raga , questo thread e' una tragi - commedia :asd: ,poi',alcuni post sono da ospizio...... :D

OverClocK79®
15-09-2005, 21:33
raven è praticamente impossibile che buttino fuori una scheda che vada meno, che fanno buttano fuori una x850xt pe overclokkata?su quel fattore penso ci sia la matematica certezza che sia + performante resta solo da vedere di quanto infatti quello non lo so :)

la 5800U è stata un esempio
nn è impossibile
ma potrebbe essere plausibile
diciamo che magari può come al solito
considerarsi ALLINEATA
ossia in D3D va meglio ATI in OPGL andrà meglio nVidia..

(ipotizzo)
ma finkè nn abbiamo bench alla mano
sono solo fritture miste d'aria fritta appunto

una cosa è certa
foto-indiscrezioni e quant'altro possono dirci che la presentazione è vicina

BYEZZZZZZZZZZZ

Athlon 64 3000+
15-09-2005, 21:35
era da un po' che non vedevo dei numeri ca circo come oggi su una gpu che in realtà non si sà un bel niente e che anche se magari sarà più lenta della 7800GTX non mi permetterò mai di paragonare al fiasco completo che è stato NV30 e dall'architettura NV3x in generale.
Se vi ricordate bene NV30 usci 6 mesi dopo R300 e rimanè sul mercato 2 mesi per essere sostituito da NV35 che anch'esso alla lunga di è rivelata inferiore anch'essa a R300.
Io dico che R520 anche se avrà 16 pipeline sarà un buona archiettura,magari non efficiente come G70 ma niente di lontanamente paragonabile a NV30 che ripensandoci mi fà venire ancora il latte alle ginocchia

Rufus86
15-09-2005, 21:59
[..]Io dico che R520 anche se avrà 16 pipeline sarà un buona archiettura,magari non efficiente come G70 ma niente di lontanamente paragonabile a NV30 che ripensandoci mi fà venire ancora il latte alle ginocchia

Premettendo che di R520 non sappiamo nulla (escludendo i rumor), e quindi non possiamo dire che architettura ha né le prestazioni che raggiungerà, perché escluderlo? nVIDIA può sbagliare mentre ATi no?

Così come nVIDIA ha commesso un errore con NV30 non vedo perché anche ATi, in via ipotetica e generica, non possa commetterne. La (breve) storia informatica è piena di errori che hanno portato perdite di posizioni nel mercato o, talvolta, veri fallimenti.

NV30 non è stato né il primo sbaglio di una "hardarware house" (scusate il nome) né, con tutta probabilità, sarà l'ultimo (Prescott inside).

OverClocK79®
15-09-2005, 22:16
....fiasco completo che è stato NV30 e dall'architettura NV3x in generale.
Se vi ricordate bene NV30 usci 6 mesi dopo R300 e rimanè sul mercato 2 mesi per essere sostituito da NV35 che anch'esso alla lunga di è rivelata inferiore anch'essa a R300.

oddio.....NV35 nn era male...
aveva i suoi lati positivi
e le 5900XT hanno spopolato per un po' sul forum :)
un buon compromesso prezzo prestazioni....
(a parte i prob poi con i titoli recenti e PS 2.0)

bYEZZZZZZZZZZ

Rufus86
15-09-2005, 22:25
oddio.....NV35 nn era male...
aveva i suoi lati positivi
e le 5900XT hanno spopolato per un po' sul forum :)
un buon compromesso prezzo prestazioni....

bYEZZZZZZZZZZ

Diciamo che era una GPU senza longevità. Andava benissimo ed egreggiamente per l'anno in cui era uscita (2003) ma già l'anno seguente ha iniziato a mostrare i suoi limiti. Il Radeon 9800pro invece è tutt'ora una GPU egreggia per la fascia media.

R300, per quanto sia uscito in tempi prematuri (solo oltre un anno dopo sono usciti i primi giochi che usavamo le DX9), è stata una architettura riuscita al 100%, un vero Capolavoro di quelli che si ripetono raramente.

leoneazzurro
15-09-2005, 22:27
Dunque, ricapitolando i dati tecnici presunti, abbiamo:

10 VS
16 PS
X ROPS (probabilmente 16)
ring bus a 512 bit (miglioramento della velocità di scambio informazioni all'interno del chip)
600 MHz di punta.
Bus a 256 bit
memoria a 1400 MHz
Supporto PS 3.0

Da questi dati vediamo che
1) la scheda ATI ha un vantaggio teorico indubbio sui VS (10 a 600 contro 8 a 430) ma allo stato attuale mi sembra che i giochi in genere siano più PS limited che VS limited.
2) il fill rate teorico delle 7800 GTX considerando i PS è più elevato, la serie NV4X aveva mediamente un'efficienza intrinseca per pipeline superiore a quella di R420, G70 l'ha ulteriormente migliorata. Non si hanno dati su come sono strutturate le PS pipeline di R520. Supponendo che siano uguali (considerando anche il supporto PS3 di R520) avremmo un vantaggio di G70 per quanto riguarda i PS.
3) Se le ROPS sono 16 in R520, e considerando la superiore banda passante della scheda R520 di punta allora per le operazioni riguardanti filtri, antialiasing e blending (HDR ?) R520 potrebbe essere piuttosto avvantaggiato a parità di efficienza delle unità di esecuzione (maggiore fll rate effettivo dovuto a 16 ROP a 600 MHz contro 16 ROP a 430 MHz).
4) Fattori esterni: già con G70 molti giochi erano fortemente CPU limited. Cosa che si dovrebbe ripetere con R520.

IMHO, posto che questi dati siano realistici, ci si può aspettare che R520 potrebbe essere svantaggiata rispetto a G70 in giochi pesantemente limitati dai pixel shader, ma potrebbe riavvicinarsi ed essere anche abbastanza più veloce della rivale utilizzando pesantemente i filtri AF e l' AA, anche se nella maggior parte delle situazioni entrambe potrebbero essere limitate da fattori esterni e quindi mostrare poche differenze nei test effettivi.
Il mio pensier è che mediamente la R520 si dimostrerà un pò più veloce di G70, soprattutro con i filtri attivati, al che probabilmente vedremo la probabile risposta di Nvidia fra qualche mese.

Athlon 64 3000+
15-09-2005, 22:27
oddio.....NV35 nn era male...
aveva i suoi lati positivi
e le 5900XT hanno spopolato per un po' sul forum :)
un buon compromesso prezzo prestazioni....

bYEZZZZZZZZZZ

è vero ma le controparte Ati erano nettamente preferibili.
Quando usci la 5900XT la Ati mi la 9800Pro in quella fascia di prezzo di fatta rendendola la miglior schede di fascia media del tempo.
Io ho sempre considerato l'architettura nv3x un fiasco completo sopratutto in confronta alla R3xx che permette ancora oggi di giocare dignitosamente anche con i giochi SM 2.0
Per fortuna che poi Nvidia si è completamente rifatta con NV40 che è invece un'ottima architettura di cui ne sono un felice possessore da 10 mesi esatti.

Athlon 64 3000+
15-09-2005, 22:28
Diciamo che era una GPU senza longevità. Andava benissimo ed egreggiamente per l'anno in cui era uscita (2003) ma già l'anno seguente ha iniziato a mostrare i suoi limiti. Il Radeon 9800pro invece è tutt'ora una GPU egreggia per la fascia media.

R300, per quanto sia uscito in tempi prematuri (solo oltre un anno dopo sono usciti i primi giochi che usavamo le DX9), è stata una architettura riuscita al 100%, un vero Capolavoro di quelli che si ripetono raramente.

Non posso che quotare.
NV35 alla lunga si è rivelata anch'essa una GPU fallimentare non come NV30

Apple80
15-09-2005, 22:39
Eggià. Mi ricordo quando ebbi comprato due 9700PRO. la prima della hercules nel settembre del 2002,ma poi venduta per prendere quella della sapphire x' compatibile con driver ufficiali. poi ho fatto la caxxata di prendere la 9800pro. soldi buttati.

Ora mi prendo solo quelle di nuova generazione senza cambiarla con delle rev. successive. Se propio la 7800 la potrei cambiare x una 7800 dual gpu della asus. :sofico:

ForeverBlue
15-09-2005, 22:43
QUINDI PER QUALE MOTIVO UNO DOVREBBE SPENDERE QUASI IL DOPPIO PER ACQUISTARE UNA SCHEDA CHE DUE VOLTE MENO VELOCE DEL CHIP DI XBOX360?????
Rispondimi con comodo.....
:muro: :D

ma i cecchini si trovano sull'elenco telefonico? :D :sofico:
scherzi a parte, eppiantaladifarequestidiscorsichecihaibell'escocciato sul serio, compra x360, per piacere :p

Rufus86
15-09-2005, 22:44
Eggià. Mi ricordo quando ebbi comprato due 9700PRO. la prima della hercules nel settembre del 2002,ma poi venduta per prendere quella della sapphire x' compatibile con driver ufficiali. poi ho fatto la caxxata di prendere la 9800pro. soldi buttati.

Ora mi prendo solo quelle di nuova generazione senza cambiarla con delle rev. successive. Se propio la 7800 la potrei cambiare x una 7800 dual gpu della asus. :sofico:

Da Radeon 9800pro a GeForce 7800 GTX c'è un salto non indifferente, senza bisogno di scomodare SLI o l'Asus Dual GPU. ;)

mjordan
16-09-2005, 05:55
vi immaginate se ati fosse riuscita a sfornare l'r520 con 32 pip.?
Stavolta ATI aveva il progetto + rivoluzionario... NVIDIA è stta fortunata...

Adesso pure fortuna è ... :asd: :asd: :asd:

mjordan
16-09-2005, 06:24
Nividia rulez
Ati soccombe....
E nvidia può montare ancora i 512mb, passare a ram più spinte(1400mhz) e fare una 7800gtx ultra visto che già tutte si overcloccano facilmente da 430 a 490mhz di gpu!
Auguri ati

:rolleyes: :doh:
E' possibile installare uno script sul forum che effettua un ban automatico alle parole "nVidia rulez" e "ATI rulez"? :stordita: Vi preeeeeeggoooo. :cry:

Athlon 64 3000+
16-09-2005, 08:20
Eggià. Mi ricordo quando ebbi comprato due 9700PRO. la prima della hercules nel settembre del 2002,ma poi venduta per prendere quella della sapphire x' compatibile con driver ufficiali. poi ho fatto la caxxata di prendere la 9800pro. soldi buttati.

Ora mi prendo solo quelle di nuova generazione senza cambiarla con delle rev. successive. Se propio la 7800 la potrei cambiare x una 7800 dual gpu della asus. :sofico:

per forse te ne eri pentito perchè c'era si è no un 10% nei casi limite di differenza tra la 9700Pro e la 9800Pro.
Mentre tra la 6800GT e la 7800GTX la diffrenze è ben maggiore che tra R300 e R350.

ThePunisher
16-09-2005, 08:30
Voglio sdramatizzare il flame...

http://digilander.libero.it/m4puni/files/asd1.jpg

:asd:

ThePunisher
16-09-2005, 08:33
E per riaprirlo... quoto! :asd:

LOL, segnala dove ti ho insultato, e mi autosospendo :rotfl:

Sai, credo di aver capito da dove e' nato l'equivoco: tu non leggi i reply degli altri. Se avessi letto (e capito) cosa ho scritto non ti saresti inventato tutta questa storia. Questo spiega anche i tuoi quote creativi.
Anche perche' non hai ancora capito che i miei discorsi sono legati alla news. Che parla anche di prezzi e politiche di posizionamento nel mercato. E quelle si rifanno daccapo quando si rifa un tape-out, visto che senza costi e rese produttive la scheda rimane un prototipo e non un prodotto da scaffale.
Quindi, cortesemente, smetti di fare l'offeso e fatti dire da uno che il forum lo segue "da dietro" di imparare a leggere quello che ti scrivono gli altri. Senza perdere di vista l'umilta'.
Grazie.

P.S.
senza falsi sarcasmi, il tuo discorso sulle pipeline e' molto valido, e ha chiarito definitivamente come tutto il marketing dei comunicati ufficiali sia solo aria fritta.

mjordan
16-09-2005, 08:37
Voglio sdramatizzare il flame...

http://digilander.libero.it/m4puni/files/asd1.jpg

:asd:

:sbonk: :sbonk: :sbonk:

hackboyz
16-09-2005, 08:41
Voglio sdramatizzare il flame...

http://digilander.libero.it/m4puni/files/asd1.jpg

:asd:
"Qualità video angelica" è stupenda :asd:

ThePunisher
16-09-2005, 08:58
Raga, Splinter Cell: Chaos Theory ha il supporto PS 3.0, tuttavia attivando il Rendering HDR (una delle feature) non è possibile applicare poi l'Anti-Aliasing, la cui assenza si nota anche a 1280*1024...

Secondo voi rende meglio il Rendering HDR, oppure non vale la pena di sacrificare l'Anti-Aliasing?

HDR, che sta per High Dinamyic Range – Ovvero, Alta Gamma Dinamica. Dove con alta dinamicità si intende la possibilità di ampliare il range di luci e ombre gestibili in una scena tridimensionale. Questo grazie all'introduzione di un nuovo formato in grado di poter memorizzare informazioni che vadano oltre lo standard dei 16 bit per pixel. I dati riguardo la luminosità vengono ora separati da quelli riguardanti il colore, e vengono rimessi assieme solo nella fase dei calcoli di rendering della scena. In soldoni quindi, utilizzando tecniche di tipo HDR sarà possibile avere un maggior controllo sulle sorgenti di luce, con la possibilità di correggerne, ad esempio, colore, intensità, saturazione o sfocatura (il famoso effetto blur).

fek
16-09-2005, 09:21
E per riaprirlo... quoto! :asd:

Tentativo apprezzabile, ma se devo rispondere a tutte le sue fantasticherie sul mio carattere che si inventa solo perche' e' rimasto scottato ed ha finito da tempo gli argomenti, non passa piu' :)

L'ignore list e' un'idea decisamente piu' allettante.

Per parlare di cose piu' serie...

Raga, Splinter Cell: Chaos Theory ha il supporto PS 3.0, tuttavia attivando il Rendering HDR (una delle feature) non è possibile applicare poi l'Anti-Aliasing, la cui assenza si nota anche a 1280*1024...

Secondo voi rende meglio il Rendering HDR, oppure non vale la pena di sacrificare l'Anti-Aliasing?

Decisamente l'Anti-aliasing, se c'e' da decidere.
Con particolari accorgimenti, facendo HDR allo stato attuale delle cose non si ottiene alcun miglioramento visivo apprezzabile che non sia possibile ottenere senza.

ThePunisher
16-09-2005, 10:52
Tentativo apprezzabile, ma se devo rispondere a tutte le sue fantasticherie sul mio carattere che si inventa solo perche' e' rimasto scottato ed ha finito da tempo gli argomenti, non passa piu' :)

L'ignore list e' un'idea decisamente piu' allettante.

Per parlare di cose piu' serie...



Decisamente l'Anti-aliasing, se c'e' da decidere.
Con particolari accorgimenti, facendo HDR allo stato attuale delle cose non si ottiene alcun miglioramento visivo apprezzabile che non sia possibile ottenere senza.

Avevo optato anch'io in effetti per HDR no e AA 4X sì (l'assenza di AA si nota molto più dell'assenza dell'HDR)... purtroppo non si possono attivare le 2 cose contemporaneamente (neanche forzando l'AA dai driver). Mi sai dire il perchè?

Ho letto che questo accade anche in Far Cry (con la patch PS 3.0).

leoneazzurro
16-09-2005, 11:01
Avevo optato anch'io in effetti per HDR no e AA 4X sì (l'assenza di AA si nota molto più dell'assenza dell'HDR)... purtroppo non si possono attivare le 2 cose contemporaneamente (neanche forzando l'AA dai driver). Mi sai dire il perchè?

Ho letto che questo accade anche in Far Cry (con la patch PS 3.0).

A quanto so, perchè entrambe le operazioni attualmente avvengono nelle ROPs, che non hanno le capacità necessarie per eseguire entrambe le operazioni nel medesimo tempo.

ThePunisher
16-09-2005, 11:05
A quanto so, perchè entrambe le operazioni attualmente avvengono nelle ROPs, che non hanno le capacità necessarie per eseguire entrambe le operazioni nel medesimo tempo.
Se non sbaglio però, il video di Lost Coast che ho visto utilizzava l'HDR e si notava anche al presenza di FSAA.

leoneazzurro
16-09-2005, 11:08
Se non sbaglio però, il video di Lost Coast che ho visto utilizzava l'HDR e si notava anche al presenza di FSAA.

Questo mi sembra strano, anche perchè avevo letto che il driver stesso disattivava l'AA in presenza di HDR. Possibile che quel demo contenga uno "pseudo-HDR" realizzato con blooming o altra tecnica similare. Avevo letto anche che si poteva in linea teorica pensare di realizzare HDR a livello di shader anzichè di ROP (non so con che tecniche, limitazioni e caratteristiche perchè non sono un esperto di 3D).

ThePunisher
16-09-2005, 11:10
Questo mi sembra strano, anche perchè avevo letto che il driver stesso disattivava l'AA in presenza di HDR. Possibile che quel demo contenga uno "pseudo-HDR" realizzato con blooming o altra tecnica similare. Avevo letto anche che si poteva in linea teorica pensare di realizzare HDR a livello di shader anzichè di ROP (non so con che tecniche, limitazioni e caratteristiche perchè non sono un esperto di 3D).
Quindi il vero HDR non prenderà troppo piede, visto che non si può utilizzare in concomitanza dell'AA che è decisamente di vitale importanza per la qualità visiva complessiva.

Può essere che mi sia sbagliato e che nel video non ci fosse l'AA, ora purtroppo l'ho cancellato e non posso verificare.

fek
16-09-2005, 12:15
Avevo optato anch'io in effetti per HDR no e AA 4X sì (l'assenza di AA si nota molto più dell'assenza dell'HDR)... purtroppo non si possono attivare le 2 cose contemporaneamente (neanche forzando l'AA dai driver). Mi sai dire il perchè?

Ho letto che questo accade anche in Far Cry (con la patch PS 3.0).

E' un limite delle GPU dell'attuale generazione e (credo) della prossima.
Per fare HDR in maniera utile, serve renderizzare la scena su superfici in floating point e non intere come si e' sempre fatto fino ad oggi.

NV40 e derivati permettono di renderizzare la scena su superfici in floating point e permettono operazioni di blending su di esse.
R300 e derivati permettono di renderizzare la scena su superfici in floating point, ma non permettono operazioni di blending, rendendo di fatto inutilizzabile per fare HDR in real time (ma possibile non in real time o su scene semplici).

Ne' NV40 ne' R300 e derivati permettono di attivare il multisampling su superfici in floating point, l'unica forma di antialiasing possibile e' il supersampling, che pero', con l'attuale generazione, non permetterebbe di renderizzare scene anche moderatamente complesse in real time.

Risultato: o HDR o multisampling ancora per un po' su PC :)

Interessante notare come l'R500 permette di fare multisampling su superfici in floating point. (No, devastas, ti prego, lo sappiamo gia' quello che pensi).

ThePunisher
16-09-2005, 12:25
Interessante notare come l'R500 permette di fare multisampling su superfici in floating point. (No, devastas, ti prego, lo sappiamo gia' quello che pensi).
E il G70?

fek
16-09-2005, 12:25
E il G70?

NV40 e derivati.

Il G70 dovrebbe pero' essere sensibilmente piu' veloce dell'NV40 nel rendering su superfici in floating point. Ma non ho ancora avuto occasione di fare delle prove in merito.

ThePunisher
16-09-2005, 12:29
NV40 e derivati.

Il G70 dovrebbe pero' essere sensibilmente piu' veloce dell'NV40 nel rendering su superfici in floating point. Ma non ho ancora avuto occasione di fare delle prove in merito.
E' un modo per dirmi che non lo sai? ;)

Quelo76
16-09-2005, 12:35
ti ha risposto e pure in italiano x di + autoquotandosi.
Leggere nn basta bisogna cercare di capire ciò che uno scrive.

ThePunisher
16-09-2005, 14:03
ti ha risposto e pure in italiano x di + autoquotandosi.
Leggere nn basta bisogna cercare di capire ciò che uno scrive.
Guarda che ho capito che con DERIVATI intendeva il G70... bah.

DjLode
16-09-2005, 14:13
Guarda che ho capito che con DERIVATI intendeva il G70... bah.

Allora spiega la risposta/domanda successiva, evidentemente ti abbiamo frainteso ;)

ThePunisher
16-09-2005, 14:18
Allora spiega la risposta/domanda successiva, evidentemente ti abbiamo frainteso ;)

Già, evidentemente sì, hai letto quello che ha scritto dopo? Siccome mi risponde sempre in maniera estremamente precisa, questa volta non ha detto esplicitamente che il G70 con supporta HDR + multisampling spiegandone tecnicamente il motivo.

DjLode
16-09-2005, 14:31
Già, evidentemente sì, hai letto quello che ha scritto dopo? Siccome mi risponde sempre in maniera estremamente precisa, questa volta non ha detto esplicitamente che il G70 con supporta HDR + multisampling spiegandone tecnicamente il motivo.

Lo ha detto, evidentemente te lo sei perso nella tua crociata (3 riferimenti nel giro di pochi thread anche a seguito di un avvertimento di un moderatore) contro Fek:

"Ne' NV40 ne' R300 e derivati permettono di attivare il multisampling su superfici in floating point, l'unica forma di antialiasing possibile e' il supersampling, che pero', con l'attuale generazione, non permetterebbe di renderizzare scene anche moderatamente complesse in real time."

Mi sembra più che esplicito. Cosa non ti è chiaro?
Nel post da te quotato con "E' un modo per dirmi che non lo sai? ;)" ti stava spiegando la differenza tra NV40 e G70. G70 è più veloce a renderizzare superifici in floating point. PUNTO.
Evidentemente sei tu che non leggi, non noi che fraintendiamo ;)

ThePunisher
16-09-2005, 14:35
Lo ha detto, evidentemente te lo sei perso nella tua crociata (3 riferimenti nel giro di pochi thread anche a seguito di un avvertimento di un moderatore) contro Fek:

"Ne' NV40 ne' R300 e derivati permettono di attivare il multisampling su superfici in floating point, l'unica forma di antialiasing possibile e' il supersampling, che pero', con l'attuale generazione, non permetterebbe di renderizzare scene anche moderatamente complesse in real time."

Mi sembra più che esplicito. Cosa non ti è chiaro?
Nel post da te quotato con "E' un modo per dirmi che non lo sai? ;)" ti stava spiegando la differenza tra NV40 e G70. G70 è più veloce a renderizzare superifici in floating point. PUNTO.
Evidentemente sei tu che non leggi, non noi che fraintendiamo ;)

Sì, ma lì "e derivati" poteva benissimo essere riferito anche solo a R300.
Poi parla di "ATTUALE GENERAZIONE", NV40 e G70 appartengono a 2 generazioni diverse e successive.

DjLode
16-09-2005, 15:03
Sì, ma lì "e derivati" poteva benissimo essere riferito anche solo a R300.
Poi parla di "ATTUALE GENERAZIONE", NV40 e G70 appartengono a 2 generazioni diverse e successive.

Vuoi ragione? Te la do.

Apple80
16-09-2005, 17:22
per forse te ne eri pentito perchè c'era si è no un 10% nei casi limite di differenza tra la 9700Pro e la 9800Pro.
Mentre tra la 6800GT e la 7800GTX la diffrenze è ben maggiore che tra R300 e R350.


si appunto per quello. ora è meglio schede di nuova generazione. l'unico mi oerroe è stato fatto nella 9800pro. solo x' avevo già la 9700pro.
pero' ora voglio vedere la 7800 dual gpu. se avesse delle prestazioni al- super. del 40% la cosa mi prenderebbe molto. So' che sarebbe "troppo sprecata".
Il mio discorso resta cmq che cosi facendo, ogni anno spendo poco x avere sempre una scheda video di utlima generazione. al posto di tirare fuori 550 euro di colpo ne tiro fuori di meno vendendo la precendente scheda.

Apple80
16-09-2005, 20:20
Raga, Splinter Cell: Chaos Theory ha il supporto PS 3.0, tuttavia attivando il Rendering HDR (una delle feature) non è possibile applicare poi l'Anti-Aliasing, la cui assenza si nota anche a 1280*1024...

Secondo voi rende meglio il Rendering HDR, oppure non vale la pena di sacrificare l'Anti-Aliasing?

HDR, che sta per High Dinamyic Range – Ovvero, Alta Gamma Dinamica. Dove con alta dinamicità si intende la possibilità di ampliare il range di luci e ombre gestibili in una scena tridimensionale. Questo grazie all'introduzione di un nuovo formato in grado di poter memorizzare informazioni che vadano oltre lo standard dei 16 bit per pixel. I dati riguardo la luminosità vengono ora separati da quelli riguardanti il colore, e vengono rimessi assieme solo nella fase dei calcoli di rendering della scena. In soldoni quindi, utilizzando tecniche di tipo HDR sarà possibile avere un maggior controllo sulle sorgenti di luce, con la possibilità di correggerne, ad esempio, colore, intensità, saturazione o sfocatura (il famoso effetto blur).

bè ma le puoi forzare dal pannelo di nvidia. ci metti un 4x o 6x e via. cosi l' hai sempre

leoneazzurro
16-09-2005, 20:35
bè ma le puoi forzare dal pannelo di nvidia. ci metti un 4x o 6x e via. cosi l' hai sempre

No, il driver disabilita l'AA quando attivi l'HDR anche se lo forzi dal pannello. E viceversa. Allo stato attuale (vedi un pò più su) non c'è la potenza di calcolo necessaria per fare le due cose assieme.

Apple80
16-09-2005, 20:58
No, il driver disabilita l'AA quando attivi l'HDR anche se lo forzi dal pannello. E viceversa. Allo stato attuale (vedi un pò più su) non c'è la potenza di calcolo necessaria per fare le due cose assieme.


WOW. bene bene. Allora forse sarà il prossimo implemento delle future schede.

ThePunisher
17-09-2005, 09:11
No, il driver disabilita l'AA quando attivi l'HDR anche se lo forzi dal pannello. E viceversa. Allo stato attuale (vedi un pò più su) non c'è la potenza di calcolo necessaria per fare le due cose assieme.
Esatto.

fek
17-09-2005, 10:08
No, il driver disabilita l'AA quando attivi l'HDR anche se lo forzi dal pannello. E viceversa. Allo stato attuale (vedi un pò più su) non c'è la potenza di calcolo necessaria per fare le due cose assieme.

Solo una precisazione. Abilitando l'AA da pannello, si forza comunque il multisampling (e quindi si usa la memoria associata), ma in presenza di HDR, questo buffer di AA viene usato solo alla fine del rendering per una copia dell'intera immagine che arriva invece dal buffer HDR (sul quale non puo' essere attivasto l'AA).

Il risultato e' usare la memoria, ma non ottenere alcun antialiasing. Infatti il consiglio e' di non forzare mai l'AA da pannello se non per giochi particolarmente vecchi, ma usare sempre le opzioni interne ai giochi.

Apple80
17-09-2005, 10:42
Solo una precisazione. Abilitando l'AA da pannello, si forza comunque il multisampling (e quindi si usa la memoria associata), ma in presenza di HDR, questo buffer di AA viene usato solo alla fine del rendering per una copia dell'intera immagine che arriva invece dal buffer HDR (sul quale non puo' essere attivasto l'AA).

Il risultato e' usare la memoria, ma non ottenere alcun antialiasing. Infatti il consiglio e' di non forzare mai l'AA da pannello se non per giochi particolarmente vecchi, ma usare sempre le opzioni interne ai giochi.


Grazie Fek. :)

Speriamo che implementeranno questa cosa nella prossima generazione di schede

ThePunisher
17-09-2005, 10:44
Solo una precisazione. Abilitando l'AA da pannello, si forza comunque il multisampling (e quindi si usa la memoria associata), ma in presenza di HDR, questo buffer di AA viene usato solo alla fine del rendering per una copia dell'intera immagine che arriva invece dal buffer HDR (sul quale non puo' essere attivasto l'AA).

Il risultato e' usare la memoria, ma non ottenere alcun antialiasing. Infatti il consiglio e' di non forzare mai l'AA da pannello se non per giochi particolarmente vecchi, ma usare sempre le opzioni interne ai giochi.
Che mi sai dire del RGAA?

Anche ATI lo supporta?

fek
17-09-2005, 12:10
Che mi sai dire del RGAA?

Anche ATI lo supporta?

RGAA?

Rufus86
17-09-2005, 12:21
RGAA?

Presumo intenda il Rotated Grid Anti Aliasing che comunque, se non sbaglio, si dovrebbe abbreviare RGMS e non RGAA.

fek
17-09-2005, 12:50
Presumo intenda il Rotated Grid Anti Aliasing che comunque, se non sbaglio, si dovrebbe abbreviare RGMS e non RGAA.

Ah... se le cose non sono mutate di recente, i driver ATI non lo espongono a quanto ne so'.

ThePunisher
17-09-2005, 13:34
Presumo intenda il Rotated Grid Anti Aliasing che comunque, se non sbaglio, si dovrebbe abbreviare RGMS e non RGAA.
E' uguale... (ms = multi-sampling)

NVIDIA comunque lo chiama
Rotated-Grid Antialiasing e lo abbrevia con RGAA.

Neanche nei driver NVIDIA compare il settaggio perchè è un algoritmo che viene applicato quando si attiva l'anti-aliasing.

fek
17-09-2005, 14:14
E' uguale... (ms = multi-sampling)

AA e MS non sono la stessa cosa.

Crashman
17-09-2005, 14:37
Che mi sai dire del RGAA?

Anche ATI lo supporta?
Lol, all'incirca da r300 :)
Il multisampling di Ati, da r300 in poi è sempre stato di questo tipo ;)

Edit --> in realtà non è di tipo rotated ma i semple non vengono presi al centro ma leggermente spostati... il principio è quindi il medesimo e non c'è alcun bisogno di fare un multisampling di tipo rotated :)

yossarian
17-09-2005, 16:48
Le 32 PP sono uscite fuori, presumo, per una semplice deduzione: se R300 ne aveva 8 e con R420 c'è stato un raddoppio a 16 anche con R520 ci sarà un ulteriore raddoppio e quindi si arriverà a 32.


R3x0 e R4x0 sono molto simili (quasi uguali, pur differendo sotto alcuni aspetti, anche importanti, come ad esempio il numero di registri); R520 non èotrà avere la stessa logica di funzionamento per un motivo molto semplice: i chip della serie R3x0/R4x0 non si adattano ad implementare lo sm3.0 (altrimenti ATi lo avrebbe già fatto); questo a causa della logica di gestione del flusso di dati (che non significa solo dynamic branching).
Quindi, al di là delle eventuali similitudini a livello "estetico", ci saranno profonde differenze nella logica di funzionamento.

ThePunisher
17-09-2005, 16:51
AA e MS non sono la stessa cosa.
LOL che palle. :asd:

yossarian
17-09-2005, 17:35
Sarà pure come dici ma nella "pratica" il raddoppio di prestazioni che si è avuto per le schede video con il passaggio da: nvidia geforce 5950 (8 pipe) e 6800ultra/gt (16 pipe) e tra radeon 9800xt (8pipe) e radeon x800xt pe (16 pipe) si è avuto proprio con il raddoppio delle pipe, una coincidenza? la 7800gtx non doppia la 6800gt o ultra perchè "guarda caso" non ha il doppio delle pipe. Può sembrare un discordo riduttivo ma da un punto di vista empirico (esperienza) e per focalizzare l'attenzione sul ruolo delle pipe può essere utile. Poi se siamo di fronte ad una tale rivoluzione da parte di ati per cui l'architettura fa miracoli a dispetto delle pipe (in realtà se fa miracoli è per le frequenze alte) allora è tutto un altro discorso, ma non credo


la 5950 non ha 8 pipeline ma 4; nel passaggio da NV38 a NV40, con applicazioni DX9, le prestazioni sono, più o meno, decuplicate, a fronte del rapporto 1:4 delle pixel pipeline. Si tratta di un caso in cui l'architettura fa miracoli a dispetto delle pipe? :D
Da R3x0 a R4x0 le prestazioni sono, all'incirca, raddoppiate, perchè, in questo caso, l'architettura è, grosso modo, la stessa.

yossarian
17-09-2005, 17:46
Certo, di sicuro G70 è una ottima gpu. Ragionavo dal solo punto di vista delle caratteristiche. Sicuramente basta affinare il processo e salire di frequenza, ma se si vuole integrare qualcosa di nuovo bisogna pur partire da un progetto derivato ma cmq nuovo. E' anche vero che Ati è costretta ad usare quello che ha. Poichè dubito si possa permettere (non a livello economico) di rifare una gpu di nuovo. Visto che praticamente questa non è stata sfruttata.

I prossimi chip NV (G71 e RSX) non si discosteranno dall'architettura di G70: G71 è praticamente un G70 a 90 nm e RSX, sulla base delle specifiche sul numero di shader ops per ciclo fornite da NV, dovrebbe essere basata su G70, integrando anch'esso 24 pipeline (magari con qualche feature in più e con la possibilità che ROP's e pixel pipeline siano perfettamente ortogonali tra loro, in modo da permettere l'utilizzo di HDR con MS)

yossarian
17-09-2005, 17:50
Bene, non hai fatto altro che darmi una riprova di quanto ho detto sopra.
Tecnologicamente sono diverse ma a livello di efficienza potrebbero essere benissimo simili (e anzi è probabile), quindi la mia ipotesi è quella che imho si avvicinerà di più alla realtà dei fatti. Logicamente potrò essere smentito, ma qualcosa mi dice che non sarà così.

possibile ma non probabile; la logica di R520 non sarà simile a quella di R4x0; questo è probabile che influenzi anche l'efficienza del chip in determinate operazioni (in particolare quelle che coinvolgono un elevato numero di registri temporanei).

yossarian
17-09-2005, 17:54
No, il driver disabilita l'AA quando attivi l'HDR anche se lo forzi dal pannello. E viceversa. Allo stato attuale (vedi un pò più su) non c'è la potenza di calcolo necessaria per fare le due cose assieme.

più che potenza di calcolo è proprio un problema di risorse HW e di come sono gestite. R500 permette l'utilizzo contemporaneo di HDR e RGMS, pur eseguendo meno shader ops per ciclo rispetto a G70

ThePunisher
17-09-2005, 19:29
più che potenza di calcolo è proprio un problema di risorse HW e di come sono gestite. R500 permette l'utilizzo contemporaneo di HDR e RGMS, pur eseguendo meno shader ops per ciclo rispetto a G70

Questa è una caratteristica secondo me che è tutt'altro di poco conto. Sicuramente un punto a favore all'R520 che andrà a costituire anche uno dei motivi per orientare la scelta verso la scheda ATI anzichè quella NVIDIA. Ora stiamo a vedere le prestazioni.


(e non dite poi che sono solo pro NVIDIA, sono obiettivo ;))

In alcuni casi l'HDR è molto efficace nella gestione delle luci e dei contrasti di colore e sia con NV40 che con G70 (che pur hanno il supporto PS 3.0) o si attiva l'HDR o l'anti-aliasing.

Se con ATI si possono attivare entrambi contemporaneamente vuol dire che nella qualità grafica complessiva la spunta senza ombra di dubbio la X1800.

ForeverBlue
17-09-2005, 19:39
Questa è una caratteristica secondo me che è tutt'altro di poco conto. Sicuramente un punto a favore all'R520 che andrà a costituire anche uno dei motivi per orientare la scelta verso la scheda ATI anzichè quella NVIDIA. Ora stiamo a vedere le prestazioni.


(e non dite poi che sono solo pro NVIDIA, sono obiettivo ;))

In alcuni casi l'HDR è molto efficace nella gestione delle luci e dei contrasti di colore e sia con NV40 che con G70 (che pur hanno il supporto PS 3.0) o si attiva l'HDR o l'anti-aliasing.

Se con ATI si possono attivare entrambi contemporaneamente vuol dire che nella qualità grafica complessiva la spunta senza ombra di dubbio la X1800.

lui parlava di R500, il chip video custom di X360

ThePunisher
17-09-2005, 19:45
lui parlava di R500, il chip video custom di X360
MMh, vero... per quanto riguarda R520 invece?

ThePunisher
17-09-2005, 19:47
Interessante notare come l'R500 permette di fare multisampling su superfici in floating point. (No, devastas, ti prego, lo sappiamo gia' quello che pensi).
R520 invece?

fek
17-09-2005, 20:23
R520 invece?

Hai visto specifiche pubbliche dell'R520?

Athlon 64 3000+
17-09-2005, 20:54
Hai visto specifiche pubbliche dell'R520?
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

ForeverBlue
17-09-2005, 22:01
Hai visto specifiche pubbliche dell'R520?

vedo che prosegue la politica del non sbilanciamento

Zak84
17-09-2005, 22:21
E secondo me fa bene anche perchè senza dati ufficiali non vedo come ci si possa sbilanciare. ;)

Crashman
18-09-2005, 02:27
R520 invece?
Dovrai aspettare i primi di ottobre, quando scade l'NDA. Allora se ne parlerà :)

Crashman
18-09-2005, 02:29
Doppio... è la prima volta che mi succede su questo forum :D

DjLode
18-09-2005, 14:27
I prossimi chip NV (G71 e RSX) non si discosteranno dall'architettura di G70: G71 è praticamente un G70 a 90 nm e RSX, sulla base delle specifiche sul numero di shader ops per ciclo fornite da NV, dovrebbe essere basata su G70, integrando anch'esso 24 pipeline (magari con qualche feature in più e con la possibilità che ROP's e pixel pipeline siano perfettamente ortogonali tra loro, in modo da permettere l'utilizzo di HDR con MS)

C'è gente che ritiene G71 una pgu completamente nuova con la possibilità di integrare più pipelines :)
Quello che dici (pur non sapendolo sicuramente) è quando mi è parso di capire, e cioè che G70, G71 e RSX sono tutti parenti molto stretti. Dubito (ma sono nel campo delle ipotesi) che RSX abbia 24 ROP's invece di 16. Ma in questa eventualità, anche G71 potrebbe averle.

yossarian
18-09-2005, 17:09
C'è gente che ritiene G71 una pgu completamente nuova con la possibilità di integrare più pipelines :)
Quello che dici (pur non sapendolo sicuramente) è quando mi è parso di capire, e cioè che G70, G71 e RSX sono tutti parenti molto stretti. Dubito (ma sono nel campo delle ipotesi) che RSX abbia 24 ROP's invece di 16. Ma in questa eventualità, anche G71 potrebbe averle.


se i dati sulla capacità di calcolo di RSX sono quelli diffusi qualche mese fa, allora non integrerà più di 24 pixel pipeline; discorso analogo per G71. In quanto al numero delle ROP's, può anche darsi che siano 24 ma ne dubito; allo stato attuale le ROP's costituiscono solo in minima parte e in condizioni particolari un collo di bottiglia. Se c'è la possibilità di aggiungere transistor, mi occuperei piuttosto di risolvere il problema della dipendenza tra ROP's e unità di shading, che non permette l'utilizzo contemporaneo di RGMS e HDR, oppure integrerei qualche transistor in più nei circuiti che si occupano di texture filtering e LoD.

ThePunisher
18-09-2005, 18:12
se i dati sulla capacità di calcolo di RSX sono quelli diffusi qualche mese fa, allora non integrerà più di 24 pixel pipeline; discorso analogo per G71. In quanto al numero delle ROP's, può anche darsi che siano 24 ma ne dubito; allo stato attuale le ROP's costituiscono solo in minima parte e in condizioni particolari un collo di bottiglia. Se c'è la possibilità di aggiungere transistor, mi occuperei piuttosto di risolvere il problema della dipendenza tra ROP's e unità di shading, che non permette l'utilizzo contemporaneo di RGMS e HDR, oppure integrerei qualche transistor in più nei circuiti che si occupano di texture filtering e LoD.
Ben detto.

Dobermann75
19-09-2005, 14:46
resta il fatto che è un mezzo buco nell'acqua questa generazione (e parlo anche della serie 7800)

Alla fine han fatto bene quelli che hanno due 6800GT in SLI :asd:
:doh:
Sono convinto esattamente del contrario, considerando che le prestazioni di una 7800gtx sono superiori a due 6800gt in sli, con un consumo minore di corrente....e quindi mi pare tutto eccetto che un buco nell'acqua.

halduemilauno
19-09-2005, 14:58
:doh:
Sono convinto esattamente del contrario, considerando che le prestazioni di una 7800gtx sono superiori a due 6800gt in sli, con un consumo minore di corrente....e quindi mi pare tutto eccetto che un buco nell'acqua.

senza contare che una 7800gtx costa meno di due 6800gt.
;)

MiKeLezZ
19-09-2005, 15:04
E senza contare che hai il 100% di prestazioni su ogni gioco/applicativo, non limitato dai driver, senza contare che dissiperà meno calore, senza contare che in un futuro ci perderai meno a rivenderla, ecc...

hackboyz
19-09-2005, 16:18
Io parlo di pure prestazioni. Ovvio che rispetto ad una scheda l'SLI ha mille difetti. In quale gioco una 7800GTX supera due 6800GT o due Ultra (ovviamente in condizioni non CPU limited)? :)

Dobermann75
19-09-2005, 16:22
Io parlo di pure prestazioni. Ovvio che rispetto ad una scheda l'SLI ha mille difetti. In quale gioco una 7800GTX supera due 6800GT o due Ultra (ovviamente in condizioni non CPU limited)? :)
Bhe senza andare troppo lontano a halflife2, con il pc che ho in firma...
che non credo essere molto cpu limited...
ciao

johnson
19-09-2005, 16:57
sbagliato topic e in più è old heh

hackboyz
19-09-2005, 17:00
Bhe senza andare troppo lontano a halflife2, con il pc che ho in firma...
che non credo essere molto cpu limited...
ciao
http://www.hwupgrade.it/articoli/1311/hl2_11.png

http://www.hwupgrade.it/articoli/1311/hl2_12.png

Naruto Arashi
19-09-2005, 18:16
http://www.hardwareanalysis.com/content/article/1813.6/

va bene ke nn ci sn driver ufficiali per le skede. ma questi risultati per una scheda ke doveva segnare la nuova generazione di skede video fanno un pò skifo.

hackboyz
19-09-2005, 19:38
http://www.hardwareanalysis.com/content/article/1813.6/

va bene ke nn ci sn driver ufficiali per le skede. ma questi risultati per una scheda ke doveva segnare la nuova generazione di skede video fanno un pò skifo.
Sono stati dichiarati come fakes quei risultati... per ora non si può ancora dire nulla di R520 :boh:

Zak84
19-09-2005, 21:48
Ecco la secca smentita di ATi: Link (http://www.tomshw.it/news.php?newsid=4767)

EDIT:

Toms Hardware deve aver cancellato una news riportata oggi nella quale diceva che il sito che ha diffuso i bench fasulli lo ha fatto per vendicarsi nei confronti di ATi, in quanto la società non aveva invitato la testata alla presentazione di un prodotto. Inoltre diceva che ATi aveva una copia dell'email mandatagli dal giornalista che provava il tutto.

Naruto Arashi
19-09-2005, 22:31
meno male. mi sucso per il fake ma nn lo sapevo :D

Dobermann75
19-09-2005, 23:04
http://www.hwupgrade.it/articoli/1311/hl2_11.png

http://www.hwupgrade.it/articoli/1311/hl2_12.png

:rolleyes: Si parlava di due gt in sli, non di due ultra...
inoltre è stata presa la gtx default, già la xfx e la gainward sono un
po' più prestanti.
ciao

DjLode
20-09-2005, 08:13
Pare che Ati si sia concentrata anche sul 2d e non solo sul 3d. Si parla da tanto tempo di una certa tecnologia chiamata Avivo, escono alcuni dettagli:

http://www.vr-zone.com/?i=2712&s=1

Tralasciando il confronto con le altre, volutamente sbilanciato, queste caratteristiche se mantenute possono diventare interessanti nella fascia bassa, dove le prestazioni non sono di certo importanti ma una ottima qualità dell'immagine invece sì.
Cacchio spendo 600$ ma almeno vedo benissimo i dvd ;)

leoneazzurro
20-09-2005, 08:49
Pare che Ati si sia concentrata anche sul 2d e non solo sul 3d. Si parla da tanto tempo di una certa tecnologia chiamata Avivo, escono alcuni dettagli:

http://www.vr-zone.com/?i=2712&s=1

Tralasciando il confronto con le altre, volutamente sbilanciato, queste caratteristiche se mantenute possono diventare interessanti nella fascia bassa, dove le prestazioni non sono di certo importanti ma una ottima qualità dell'immagine invece sì.
Cacchio spendo 600$ ma almeno vedo benissimo i dvd ;)

Interessante.. anche se come la concorrente ATI esagera molto (ad esempio il supporto H264 è stato da tempo annunciato anche per le schede Nvidia serie 6/7). Sarebbe interessante che entrambe le aziende d'ora in poi si focalizzino oltre che che nelle prestazioni 3D anche nella qualità video, sia 2D che 3D.

bjt2
20-09-2005, 15:03
Tempo fa leggevo sulla documentazione delle directx 9.0 che per implementare l'HDR su GPU che non supportano rendering su texture FP, si poteva usare un mapping ad intero a 8 o 16bit: si codificava e decodificava on the fly la mappa. Qui: http://msdn.microsoft.com/archive/default.asp?url=/archive/en-us/directx9_c_dec_2004/directx/graphics/programmingguide/advancedtopics/Geometry/higherorderprimitives/usinghoprimitives.asp

Su queste texture immagino si possa abilitare l'AA, quindi sembrerebbe che con un po' di arzigogoli si possa già otterere HDR+AA seppur con limitata precisione. Ma l'interpolazione che fa l'AA è sui dati trasformati (interi a 8 o 16 bit) e non sui valori FP corrispondenti. Questo, (specialmente usando esponente e mantissa) potrebbe protare a risultati errati.

Ovviamente per non avere artefatti di interpolazione, basterebbe usare 16 bit per componente ed un adeguato fattore di scala (l'esempio di 100 va benissimo) invece di formule esotiche (logaritmo e compagnia bella).

Che ne pensate? E' fattibile? Che problemi si avrebbero?

DjLode
20-09-2005, 19:39
Intanto arriva la conferma ufficiale dei nomi:

http://apps.ati.com/ir/PressReleaseText.asp?compid=105421&releaseID=758490