Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale
Forte di soluzioni tecniche specifiche, il notebook Acer TravelMate P4 14 abbina dimensioni compatte e buona robustezza per rispondere alle necessità specifiche degli utenti aziendali. La piattaforma AMD Ryzen 7 Pro assicura prestazioni elevate con i tipici ambiti di produttività personale e sul lavoro, mantenendo un'elevata autonomia.
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque
Dal salotto al giardino, il nuovo proiettore laser di Hisense promette esperienze cinematografiche in qualsiasi contesto: qualità d’immagine, semplicità d’uso, versatilità e prezzo competitivo il suo poker d'assi
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 27-10-2005, 16:14   #41
ghiandolo
Member
 
Iscritto dal: May 2004
Città: Genova
Messaggi: 30
PRESTO PRESTO CORRETE PARE SIA STATO SCOPERTO UN NUOVO FOCOLAIO DOVE DISTRIBUISCONO SCHEDE VIDEO SERIE X1800 ATI...

LA SCHEDA VIDEO (FANTASMA) che con le sue sedici pipeline ed una architettura all’avanguardia promette di infrangere ogni record di efficienza SULLA CARTA...

PRIMA IN ASIA E ORA IN RUSSIA.... POI IL CANADA..
FORSE PRESTO ARRIVERA' IN EUROPA..
ghiandolo è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 16:22   #42
DjLode
Senior Member
 
L'Avatar di DjLode
 
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17229
Ma un troll detector su sto forum? Mai?
__________________
Twinkle, twinkle, little star how I wonder what you are.
DjLode è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 16:25   #43
R@nda
Senior Member
 
L'Avatar di R@nda
 
Iscritto dal: Jun 2002
Messaggi: 15163
Ghiandolo ma chi te lo fa fare? Che divertimento provi ?
__________________
Christopher Hinz - Ciclo Paratwa -
R@nda è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 16:31   #44
Foglia Morta
Senior Member
 
L'Avatar di Foglia Morta
 
Iscritto dal: Jul 2005
Messaggi: 7819
io spero che ati si dia una mossa a rilasciare driver aggiornati con tutti i fix vari per il memory controller e il dispatch processor x tutti i giochi possibili , così la redazione potrà recensire queste nuove 7800 con una X1800 in assetto da competizione
Foglia Morta è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 16:35   #45
ghiandolo
Member
 
Iscritto dal: May 2004
Città: Genova
Messaggi: 30
Be insomma vedere che processano una scheda a spese dell'altra che nemmeno e' distribuita non e' un motivo abbastanza valido?

Mi ricordo che quando nvidia sbagliava ( seria 5800/5900) tutti erono d'accordo a sentenziare fallimenti..ma ora?
All'epoca pure il dissipatore era insopportabile, ma ora che tutte le x850xt ne hanno uno simile , allora va tutto bene.

C'e' gente che per scelta politicha (???) non riesce a vedere poco dopo il proprio naso.

Se amd ora e' la migliore bene. Ma se domani intel tira fuori una cpu da paura, perche' negarlo e dargli contro?
ghiandolo è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 16:48   #46
mrt75
Senior Member
 
L'Avatar di mrt75
 
Iscritto dal: Sep 2004
Città: Monteveglio (BO)
Messaggi: 3127
Quote:
Originariamente inviato da ghiandolo
PRESTO PRESTO CORRETE PARE SIA STATO SCOPERTO UN NUOVO FOCOLAIO DOVE DISTRIBUISCONO SCHEDE VIDEO SERIE X1800 ATI...

LA SCHEDA VIDEO (FANTASMA) che con le sue sedici pipeline ed una architettura all’avanguardia promette di infrangere ogni record di efficienza SULLA CARTA...

PRIMA IN ASIA E ORA IN RUSSIA.... POI IL CANADA..
FORSE PRESTO ARRIVERA' IN EUROPA..
Dove!!!! Dove!!!! Sii + preciso cacchio!!!!!!!!!!







P.S: A parte gli scherzi ,quando uscira sugli scaffali sara un bel prodotto!
__________________
Mobo:Asrock X670E Steel Legend Cpu:7800X3DRam:2x32 Gb G.Skill 6000 Vga:: MSI RTX4080 Super Audio: Creative G6
mrt75 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 17:18   #47
^TiGeRShArK^
Senior Member
 
L'Avatar di ^TiGeRShArK^
 
Iscritto dal: Jul 2002
Città: Reggio Calabria -> London
Messaggi: 12103
Quote:
Originariamente inviato da ghiandolo
Be insomma vedere che processano una scheda a spese dell'altra che nemmeno e' distribuita non e' un motivo abbastanza valido?

Mi ricordo che quando nvidia sbagliava ( seria 5800/5900) tutti erono d'accordo a sentenziare fallimenti..ma ora?
All'epoca pure il dissipatore era insopportabile, ma ora che tutte le x850xt ne hanno uno simile , allora va tutto bene.

C'e' gente che per scelta politicha (???) non riesce a vedere poco dopo il proprio naso.

Se amd ora e' la migliore bene. Ma se domani intel tira fuori una cpu da paura, perche' negarlo e dargli contro?

quindi secondo te il dissipatore sulle x850xt è simile a quello della 5800 ultra!

pekkato ke ci sia una LIEVISSIMA differenza di decibel!
e xkè ora dovrebbe sbagliare ATI?
mi pare logico ke ancora non si trovi dato ke verrà lanciata i primi di novembre!
o magari x te dovevano fare un eccezione e dartela in anteprima?
e cmq è assolutamente IMPARAGONABILE la situazione delle 5800 ultra con quella delle 1800 xt...
le prime ritardarono di un casino e avevano prestazioni in dx 9 penose rispetto a R300 (x non parlare del rumore e della qualità )
le seconde hanno ritardato di meno e hanno prestazioni in alcuni casi MOLTO superiori alle concorrenti nvidia...
ah e dimenticavo... le vere potenzialità di %R520 si vedranno soprattutto con i gioki futuri e con i driver ottimizzati...
già gli incrementi prestazionali in doom 3 e in quake 4 dell'ordine di quasi il 30% la dicono tutta
__________________
^TiGeRShArK^ è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 17:25   #48
mrt75
Senior Member
 
L'Avatar di mrt75
 
Iscritto dal: Sep 2004
Città: Monteveglio (BO)
Messaggi: 3127
Certo certo!!!, il rumore e minore ma la forma e le dimensioni..... Quando Nvidia fece i primi dissi a doppio slot,la gente sembrava impazzita,poi caso strano, sono cominciati a piacerre
__________________
Mobo:Asrock X670E Steel Legend Cpu:7800X3DRam:2x32 Gb G.Skill 6000 Vga:: MSI RTX4080 Super Audio: Creative G6
mrt75 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 18:04   #49
lepre84
Senior Member
 
L'Avatar di lepre84
 
Iscritto dal: Oct 2002
Messaggi: 1800
Quote:
Originariamente inviato da Snyto
per non parlare di quando arriverà il gioco Sneak Peek 2. è gia avanti al unreal engine 3 quando quest'ultimo non è ancora uscito
per non parlare dell'unreal engine 4 eh
lepre84 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 18:19   #50
ghiandolo
Member
 
Iscritto dal: May 2004
Città: Genova
Messaggi: 30
caro TiGeRShArK hai perfettamente ragione la lievissima differenza c'e'.. qui si fanno paragoni su un oggetto che non c'e'.
Capito? Vogliamo paragonare un fx 57 con la cpu confidencial ( che da intel, per rispondere ad amd) ai tester?
Wow sulla carta fa il c..o a tutto peccato arrivi fra ... mah 20 gg, no 2 mesi.. boh?
Nvidia per ora presenta e rende disponibile. ok?
Ati presenta e tu aspetti... e quando arriva la concorrenza la supera.
Nvidia e' da luglio che ha in vendita il 7800gtc e fanno bene 5 mesi di DOMINIO incontrastato. (riferito al segmento massimo)
ghiandolo è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 18:57   #51
Sammy.73
Senior Member
 
L'Avatar di Sammy.73
 
Iscritto dal: Jan 2004
Città: Induno Olona (VA)
Messaggi: 2050
Quote:
Originariamente inviato da ghiandolo
Comunque e' vero sulla carta le nuove gpu della ati sono velocissime...di qualche punto(e non su tutto) ..ma sempre e solo sulla carta.
Ad oggi non si vede niente, neppure sui listini dei rivenditori.
Che bello era il PIII a 1133 ... era piu' veloce dell'ormai e sempre dipsonibile athlon 1000

Wow viva i lanci sulla carta! Viva la ati!! Insuperabile!

Che bello fa 9000 nel 3dmark 2005 contro i 7600 della nvidia... WOW
MA CHI LI FA' QUEI PUNTI, VISTO CHE QUELLA SCHEDA NON ESISTE?

N.B. Presto tutti a comprarla... HA HA HAHA HAHA HAH AH HA HA
E' solo una mia opinione personale ma siamo quasi a phantom edition... ancora 15 gg..
Quote:
Originariamente inviato da ghiandolo
PRESTO PRESTO CORRETE PARE SIA STATO SCOPERTO UN NUOVO FOCOLAIO DOVE DISTRIBUISCONO SCHEDE VIDEO SERIE X1800 ATI...

LA SCHEDA VIDEO (FANTASMA) che con le sue sedici pipeline ed una architettura all’avanguardia promette di infrangere ogni record di efficienza SULLA CARTA...

PRIMA IN ASIA E ORA IN RUSSIA.... POI IL CANADA..
FORSE PRESTO ARRIVERA' IN EUROPA..


complimenti, grandi argomentazioni

effettivamente la ferrari di shumacher fa schifo...visto che la guida solo lui, barrichello (massa) e badoer...

ma visto che tu non la puoi provare, fa sicuramente schifo...
__________________
Pesa più un litro d'acqua o uno d'olio...?

Ultima modifica di Sammy.73 : 27-10-2005 alle 19:00.
Sammy.73 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 19:29   #52
Iantikas
Senior Member
 
L'Avatar di Iantikas
 
Iscritto dal: May 2004
Città: Erchie
Messaggi: 6927
Quote:
Originariamente inviato da yossarian
guarda i test con AA e AF; adesso, secondo il tuo metro, quale sarebbe più efficiente?

Altro esperimento interessante, sarebbe quello di prendere un G70, portarlo a 200/166, disabilitare 22 pipeline, affiancarci una cpu da non più di 1000 Mhz farci girare SW dx6/dx7 e confrontarlo con una radeon 256 o con un Kyro2. Io un'idea di chi possa essere più veloce ce l'avrei
gaurda ke ci si potrebbe anke innervosire!!!...ma LEGGETE QUELLO KE SCRIVO??? o vi piace solo creare flame??? meno male ke mi hai pure quotato...forse questa frase ti è sfuggita "d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio" (sempre riferito tra x1800xt e 7800gtx...magari impara a leggere, a pensare e poi a postare!!!...e con questo kiudo la discussione xkè nn ha senso postare delle opinioni quando alcuni nn sanno neanke capire ke c'è scritto...
Iantikas è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 19:47   #53
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Iantikas
gaurda ke ci si potrebbe anke innervosire!!!...ma LEGGETE QUELLO KE SCRIVO??? o vi piace solo creare flame??? meno male ke mi hai pure quotato...forse questa frase ti è sfuggita "d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio" (sempre riferito tra x1800xt e 7800gtx...magari impara a leggere, a pensare e poi a postare!!!...e con questo kiudo la discussione xkè nn ha senso postare delle opinioni quando alcuni nn sanno neanke capire ke c'è scritto...

forse sarebbe il caso che imparassi tu a leggere prima di scrivere qualcosa: quei test sono fatti a parità di condizioni e non sulla base delle impostazioni di fabbrica. E non mi sembra che con i filtri la GTX sia avanti.
E meno male che le frequenze sono scritte belle grosse.
Guarda caso, si tratta anche lì di un test sull'efficienza, fatto nelle stesse condizioni di quello di driverheaven.
Tra l'altro, niente di più sbagliato che comparare R520 e G70 alla stregua di PIV e Athlon. Ma immagino che tu già conosca la differenza tra un'architettura ibrida CISC/RISC e una che nasce concettualmente come RISC.
Se poi vuoi innervosirti fai pure: problemi tuoi.

Ultima modifica di yossarian : 27-10-2005 alle 19:56.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 20:24   #54
Crystal1988
Senior Member
 
Iscritto dal: Mar 2004
Città: Caponago
Messaggi: 2835
ma

Quote:
Originariamente inviato da yossarian
chi l'ha detto? Un utente, su nV Italia, ha dimostrato come una XL, con clock analogo a quello di una XT (anzi con ram a frequenze inferiori) faccia registrare, nel 3dmark2005, risultati allineati a quelli della XT. La situazione in cui 512 MB di ram sono superflui è ancora, di gran lunga, la più frequente; uniche eccezioni, alcuni giochi tra gli ultimi usciti, con risoluzioni elevate, filtri attivi e impostazioni qualitative su valori massimi.
Sicuramente, in futuro, il quantitativo di ram avrà sempre più importanza; però è da escludere che un aumento di ram porti aumenti sensibili nella maggior parte delle applicazioni.

Discorso frequenza della ram: G70 ha 16 rop's; se queste lavorano a 430 Mhz, non si potranno mai avere più di 6880 MPixel/sec (valore massimo teorico), sia nel caso di ram a 1200 Mhz, sia nel caso di ram a 6000 Mhz.

http://www.hwupgrade.it/articoli/skvideo/1361/18.html

qui è riportato l'impatto prestazionale con AA attivo; valutando il rapporto bandwidth/fillrate, sulla carta, sia la XL (rapporto pari a 4) che la XT (4,8) sono più limitate in banda rispetto alla 7800 GTX (5,8). Eppure l'impatto sulle prestazioni, con AA e con AA+HDR, sulla XL (per fare un confronto a parità di quantitativo di ram) è molto minore rispetto a quello sulla GTX. In questo caso, il quantitativo e la frequenza delle ram non c'entrano affatto. Quindi, attaccarsi ai 512 MB di ram a 1500 Mhz per giustificare prestazioni più elevate non ha alcun senso.
Infine, sempre sulla stessa pagina linkata, vi invito a confrontare l'hit prestazionale di AA e HDR sulla GTX e sulla GT: tranne nel caso di applicazione del TAA (in cui si fa SS e si utilizzano i ps), la situazione appare piuttosto equilibrata, addirittura con una leggera prevalenza della GT (2-1)
Scusa un attimo...
sono un pò niubbo inmateria...
ma se le rops... di solito non scrivono quasi mai tutte un pixel per ciclo di clock... e con un filtro trilinear non ottimizzato scrivono 1 pixel ogni 2 cicli...
con i filtri in teoria ci mettono più cicli a scrivere un pixel giusto?
Ma allora non centra il fill rate in rapporto alla bandwithd o sbaglio?
Centra semplicemente il fatto che le rops di Ati lavorano più veloci delle rops di nvidia e che l'antialasing è applicato all'interno delle rops giusto?
Crystal1988 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 21:10   #55
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Crystal1988
Scusa un attimo...
sono un pò niubbo inmateria...
ma se le rops... di solito non scrivono quasi mai tutte un pixel per ciclo di clock... e con un filtro trilinear non ottimizzato scrivono 1 pixel ogni 2 cicli...
con i filtri in teoria ci mettono più cicli a scrivere un pixel giusto?
Ma allora non centra il fill rate in rapporto alla bandwithd o sbaglio?
Centra semplicemente il fatto che le rops di Ati lavorano più veloci delle rops di nvidia e che l'antialasing è applicato all'interno delle rops giusto?
il rapporto bandwidth/fillrate serve a dimostrare che G70 è meno limitato in banda di quanto non lo sia R520 (sia in versione XT che in versione XL) e che, a fronte di un fillrate teorico di 6880, fa registrare un dato, nel pure fillrate, di circa 6400, che è molto vicino a quello della 6800 Ultra e al suo massimo teorico. All'aumentare della complessità dei calcoli, saranno le pixel pipeline a fare da freno al resto dell'elaborazione (il SSAA viene applicato dai ps, mentre il MSAA dalle rop's). Questo significa che aumentando la frequenza della ram, cioè aumentando la bandwidth, il rapporto banda/fillrate aumenta (se non si o/c il chip), però il limite sarà sempre imposto dalle rop's o dalle pixel pipeline (e già adesso G70 è vicinissimo al suo limite teorico, oltre il quale non può comunque andare).
Quindi il vantaggio che si può trarre da ram più veloci, quando invece i colli di bottiglia sono il numero di rop's o la velocità d'elaborazione degli shader, a seconda dei casi, non dà alcun vantaggio pratico. Il paragone con la XL è fatto apposta: la XL ha un rapporto bandwidth/fillrate più basso di quello della GTX (quindi meno banda passante) e ha lo stesso quantitativo di ram: quindi, in teoria, all'aumentare della complessità dei calcoli, se come qualcuno sostiene, il vantaggio della XT è dato dal quantitativo e dalla frequenza della ram a 1500 Mhz, la XL dovrebbe essere svantaggiata rispetto alla GTX. Invece si vede che l'hit prestazionale, proprio alle alte risoluzioni e con i filtri attivi (anche con hdr), è molto minore sulla XL che sulla GTX.
Conclusione: il collo di bottiglia non è la bandwidth ma, al limite, il modo in cui sono gestite le operazioni interne e gli accessi in memoria. Ma qui il problema si sposta sul piano dell'efficienza.
Inoltre, l'hit prestazionale con calcoli molto complessi, a parità di efficienza, è tanto maggiore, in percentuale, quanto più alta è la frequenza del chip o, in generale, quanto più alto è il framerate in condizioni di elaborazione normali. Infatti, la cosa si verifica puntualmente con la 1800XT e la 1800XL (con GTX e GT c'è la discrepanza apparente fornita dai test in cui si applica il TAA che è di tipo SS, ma li le 4 pipeline in più si fanno sentire).
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 21:51   #56
Ginger79
Bannato
 
Iscritto dal: May 2004
Messaggi: 738
Allora, tutti i commenti precedenti sui vari scontri ATI vs. NVIDIA servono a ben poco.
Il dato di fato qual'è?
Che nel segmento entusiast X1800XT è quasi sempre + veloce di 7800GTX, schede che tuttavia a causa dell'elevato prezzo costituiscono una % minima degli incassi delle rispettive case.

Nel segmento medio alto abbiamo invece una 7800GT che è leggermente superiore alla X1800XL ed è offerta allo stesso prezzo se non a meno. Ma qui Nvidia ha sempre fatto da padrona (Vedi le 6800GT) e in questa fascia i ricavi sono già + alti x entrambe le case.

Nel settore medio abbiamo 6800GS che sarà sicuramente superiore a X1600 e avranno prezzi allineati. Qui però i ricavi sono massimi!

Quindi quello che posso evincere da questo quadro è una situazione sicuramente + rosea per Nvidia che nei segmenti dove si fanno fatturati + alti dirige l'orchestra a fronte anche del fatto che l'azienda non manifesta alcuna preoccupazione per il segmento TOP altrimenti ci avrebbe messo molto poco a rilasciare una "ULTRA" a distanza di 5 mesi dalla DISPONIBILTA' della 7800GTX.

Ati dal canto suo ha delle ottime schede (sopratutto la X1800XT) che però non sono ancora disponibili ... e credo che Nvidia in questi 5 mesi non sia stata in poltrona a godersi il meritato successo quindi è auspicabile l'uscita di un prox refresh entro Natale e i conti sono presto fatti.

Tutto IMHO.
Ginger79 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 21:58   #57
Iantikas
Senior Member
 
L'Avatar di Iantikas
 
Iscritto dal: May 2004
Città: Erchie
Messaggi: 6927
Quote:
Originariamente inviato da yossarian
forse sarebbe il caso che imparassi tu a leggere prima di scrivere qualcosa: quei test sono fatti a parità di condizioni e non sulla base delle impostazioni di fabbrica. E non mi sembra che con i filtri la GTX sia avanti.
E meno male che le frequenze sono scritte belle grosse.
Guarda caso, si tratta anche lì di un test sull'efficienza, fatto nelle stesse condizioni di quello di driverheaven.
Tra l'altro, niente di più sbagliato che comparare R520 e G70 alla stregua di PIV e Athlon. Ma immagino che tu già conosca la differenza tra un'architettura ibrida CISC/RISC e una che nasce concettualmente come RISC.
Se poi vuoi innervosirti fai pure: problemi tuoi.
stiamo parlando dello stesso test??? (eccoti dinuovo il link ke ho postato prima e sul quale ho iniziato a discutere in questo 3d http://www.driverheaven.net/articles/efficiency/ ... di altri test, di cui tu parli come se ne stessimo discutendo da una vita, nn ne conosco nemeno l'esistenza!!!) in quell'articolo ci sono 2 game soltanto testati e in entrambi g70 è DAVANTI con i FILTRI ATTIVI!!!...HA PRESTAZONI MAGGIORI ci vedi??? o sei cieco???...poi io ho scritto "d'altronde xò alla fine interessano le impo di fabbrica e in quel caso naturalmente è superiore ati ma in nessun mio post l'ho mai messo in dubbio" capisci il significato di questa frase??? significa ke nella vita reale contano come escono le skede dalla fabbrica con le impo di default e nn ha grande interesse cio ke succede a parità di freq. e pipe come in quel test...e ke con impo di fabbrica x1800xt (sempre in generale...poi ce il test ke va peggio/meglio o molto peggio/molto meglio) è SUPERIORE al 7800gtx...io ora kiudo la discussione xkè veramente sono rimasto scioccato dal tuo comportamento...A MAI PIU' RISENTIRCI
Iantikas è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 22:17   #58
Crystal1988
Senior Member
 
Iscritto dal: Mar 2004
Città: Caponago
Messaggi: 2835
mmmh

Quote:
Originariamente inviato da yossarian
il rapporto bandwidth/fillrate serve a dimostrare che G70 è meno limitato in banda di quanto non lo sia R520 (sia in versione XT che in versione XL) e che, a fronte di un fillrate teorico di 6880, fa registrare un dato, nel pure fillrate, di circa 6400, che è molto vicino a quello della 6800 Ultra e al suo massimo teorico. All'aumentare della complessità dei calcoli, saranno le pixel pipeline a fare da freno al resto dell'elaborazione (il SSAA viene applicato dai ps, mentre il MSAA dalle rop's). Questo significa che aumentando la frequenza della ram, cioè aumentando la bandwidth, il rapporto banda/fillrate aumenta (se non si o/c il chip), però il limite sarà sempre imposto dalle rop's o dalle pixel pipeline (e già adesso G70 è vicinissimo al suo limite teorico, oltre il quale non può comunque andare).
Quindi il vantaggio che si può trarre da ram più veloci, quando invece i colli di bottiglia sono il numero di rop's o la velocità d'elaborazione degli shader, a seconda dei casi, non dà alcun vantaggio pratico. Il paragone con la XL è fatto apposta: la XL ha un rapporto bandwidth/fillrate più basso di quello della GTX (quindi meno banda passante) e ha lo stesso quantitativo di ram: quindi, in teoria, all'aumentare della complessità dei calcoli, se come qualcuno sostiene, il vantaggio della XT è dato dal quantitativo e dalla frequenza della ram a 1500 Mhz, la XL dovrebbe essere svantaggiata rispetto alla GTX. Invece si vede che l'hit prestazionale, proprio alle alte risoluzioni e con i filtri attivi (anche con hdr), è molto minore sulla XL che sulla GTX.
Conclusione: il collo di bottiglia non è la bandwidth ma, al limite, il modo in cui sono gestite le operazioni interne e gli accessi in memoria. Ma qui il problema si sposta sul piano dell'efficienza.
Inoltre, l'hit prestazionale con calcoli molto complessi, a parità di efficienza, è tanto maggiore, in percentuale, quanto più alta è la frequenza del chip o, in generale, quanto più alto è il framerate in condizioni di elaborazione normali. Infatti, la cosa si verifica puntualmente con la 1800XT e la 1800XL (con GTX e GT c'è la discrepanza apparente fornita dai test in cui si applica il TAA che è di tipo SS, ma li le 4 pipeline in più si fanno sentire).
danke

ma quindi il fill rate reale è dovuto alle rops e non alle pixel pipe in quanto le rops riempiono il buffer?

Ma allora come fa una gtx ad eguagliare nel fillrate (3dmark) la x1800 xt?
non capisco... mi sa che mi serve una spiegazione ancora più approfondita per capire..

inoltre mi vien da pensare a sto punto... che probabilmente se avesse avuto 24 rops... sarebbecambiato poco per nvidia...
giusto?
cioè se l'msaa è meno pesante dell'ssaa allora anche all'aumentare di rops... ci sarebbero sempre le pixel pipe a fare da collo di bottiglia giusto?

inoltre un fill rate basso cosa comporta rispetto ad uno più alto?

ma poi a parità di banda bandwithd... perché la gtx avendo un fill rate minore sarebbe avvantaggiata rispetto ad una xt che ha fill rate maggiore..?
mica fill rate maggiore è meglio e si hanno maggiori prestazioni?

Ultima modifica di Crystal1988 : 27-10-2005 alle 22:29.
Crystal1988 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 22:23   #59
^TiGeRShArK^
Senior Member
 
L'Avatar di ^TiGeRShArK^
 
Iscritto dal: Jul 2002
Città: Reggio Calabria -> London
Messaggi: 12103
Quote:
Originariamente inviato da ghiandolo
caro TiGeRShArK hai perfettamente ragione la lievissima differenza c'e'.. qui si fanno paragoni su un oggetto che non c'e'.
Capito? Vogliamo paragonare un fx 57 con la cpu confidencial ( che da intel, per rispondere ad amd) ai tester?
Wow sulla carta fa il c..o a tutto peccato arrivi fra ... mah 20 gg, no 2 mesi.. boh?
Nvidia per ora presenta e rende disponibile. ok?
Ati presenta e tu aspetti... e quando arriva la concorrenza la supera.
Nvidia e' da luglio che ha in vendita il 7800gtc e fanno bene 5 mesi di DOMINIO incontrastato. (riferito al segmento massimo)
1) il presler è dall'anno scorso ke è stato presentato se nn sbaglio (anke se nella versione a 2 ghz)
2)anke il presler e il cedar mill non possono competere con gli A64 dato ke sono l'ennesima evoluzione dell'arkitettura netburst migliorata un pò in overclokkabilità e nei consumi scesi di 40W (sai ke guadagno su 100 e passa W di consumo in più ancora ne mancano 60 x pareggiare con AMD)
3)ancora siamo ad ottobre .. e x ora fanno 4 mesi allora qdo era ATI ad avere tirato fuori la 9700 pro a settembre e nvidia l'ha presentata l'anno dopo quello skifo d nv 30?:P e anke dopo la sua presentazione ati continuava a regnare incontrastata fino all'arrivo di nv35 MOOOOLTOOO dopo ke ha messo una pezza (ma neanke tnt ) Altro ke dominio incontrastato
4) a me non sbatte niente d comprare 'ste skede dato ke nn m va proprio d buttare i miei sudati soldi in questo modo x la cronaca x abbandonare la mia fidata 7500 ho trovato a ki venderla su ebay a 25 euro e ho acquistato una 9700 pro dall'america a 138 l'anno scorso.... non me ne frega niente di avere le massime prestazioni nei gioki di nuova generazione..
però seguo con molto interesse il panorama xkè prima o poi una d queste skede sarà nel mio case... e km stanno le ks ad oggi non sarà certo una skeda nvidia
__________________
^TiGeRShArK^ è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2005, 22:33   #60
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Crystal1988
danke

ma quindi il fill rate reale è dovuto alle rops e non alle pixel pipe in quanto le rops riempiono il buffer?

Ma allora come fa una gtx ad eguagliare nel fillrate (3dmark) la x1800 xt?
non capisco... mi sa che mi serve una spiegazione ancora più approfondita per capire..
inoltre mi vien da pensare a sto punto... che probabilmente se avesse avuto 24 rops... sarebbecambiato poco per nvidia...
giusto?
cioè se l'msaa è meno pesante dell'ssaa allora anche all'aumentare di rops... ci sarebbero sempre le pixel pipe a fare da collo di bottiglia giusto?

inoltre un fill rate basso cosa comporta rispetto ad uno più alto?

ma poi a parità di banda bandwithd... perché la gtx avendo un fill rate minore sarebbe avvantaggiata rispetto ad una xt che ha fill rate maggiore..?
mica fill rate maggiore è meglio e si hanno maggiori prestazioni?
si, sono le rop's che "scrivono" nel frame buffer, quindi il fillrate massimo va calcolato tenendo conto del loro numero, non di quello delle pixel pipeline. All'aumentare della complessità dei calcoli, poi, a fare da collo di bottiglia sono, per lo più, le pixel pipeline, in quanto sono quelle che compiono la maggior parte dei calcoli complessi. In ogni caso, se tu avessi un chip che, in teoria, avesse un numero di pixel shader tale da non lasciare le rop's in attesa dell'arrivo di nuovi dati (quindi da farle lavorare a ciclo continuo), comunque non si potrebbe superare il limite massimo dato dal prodotto n° di rop's*frequenza del chip (quindi tutti i dati in arrivo, in eccesso, sarebbero messi in coda).
Il fillrate del 3DMark è il texel fillrate, non il pixel fillrate. In quel caso entrano in gioco le tmu e la capacità del chip di gestire operazioni di shading e di texturing.

Se guardi il link qui sotto, alla voce fill rates, hai 3 diverse tabelle: la prima ti dà i valori relativi al pixel fillrate puro, con sole operazioni sull'asse z e poi con operazioni di texturing+alpha blending e con texture a fp16. Come puoi vedere, il valore indicato è MPixel/sec; quello del 3DMark, invece è Mtexel/sec (e il valore è preso in single e in multi, con fino a 8 texel per pixel).
Si tratta di due parametri diversi tra loro: il primo influenzato principalmente dalle rop's, il secondo in cui entrano in gioco anche le tmu.

Il massimo fillrate teorico rappresenta il valore massimo, in output, che il chip può raggiungere. Quindi, ipotizzando un comportamento ideale, un chip con 6000 MPixel/sec è meno veloce di uno con 8000 MPixel/sec di fillrate massimo.
In realtà, nell'elaborazione, entrano in gioco tanti altri fattori che possono rendere un chip più o meno efficiente e farlo allontanare dal suo valore di output teorico. Ad esempio, anche la 850XT ha un pixel fillrate superiore a quello della GTX, però, all'atto pratico è più lento. Questo eprchè l'effiicenza complessiva di G70 (o di NV40) è superiore a quella di R4x0 e, nel caso di G70, perchè i rallentamenti dovuti alle elaborazioni nelle pixel pipeline sono in parte compensati dal fatto che le pixel pipeline sono in numero maggiore rispetto alle rop's.
Per avere un chip senza colli di bottiglia si devono cercare di bilanciare tutti gli elementi; ad esempio, un più elevato numero di pixel pipleine permette di svolgere più velocemente operazioni matematiche e operazioni di texturing, semplicemente aumentando il numero delle unità di elaborazione. Questo, però, non rende autometicamente efficiente la singola pixel pipeline: si tratta di un approccio in stile "forza bruta": ossia, se le pp non sono in grado di inviare dati in maniera sufficientemente veloce da tenere le rop's impegnate, aumento il numero di pp. C'è poi il discorso rop's banda passante. Avere un fillrate elevato non serve se si ha poca bandwidth, perchè a quel punto, quello diventa il limite del chip (non mi serve avere delle rop's che "sparano fuori 10000 Mpixel/sec, se ho un canale di comunnicazione che permette il passaggio di soli 3000 MPixel/sec, a meno che non voglia creare un imbuto.
C'è, poi, il discorso relativo all'organizzazione del lavoro interno; qui possiamo parlare di efficienza in senso stretto del termine. Se ho un chip con 40 unità di calcolo dello stesso tipo, ma le impegno, in media, al 60% del loro potenziale, avrò prestazioni inferiori ad un chip che ha 30 ma con un'efficienza del 90%. In questo, gli approcci di G70 e R520 sono diametralmente opposti. G70 ha pixel pipeline molto lunghe, con tante unità dello stesso tipo che svolgono contemporanemente operazioni su più pixel; R520, invece ha "pipeline" molto corte, con unità disposte praticamente in parallelo, ognuna delle quali esegue molto velocemente un numero ridotto di operazioni. Quindi, mentre G70 ha un approccio di tipo CISC (istruzioni molto lunghe e complesse), pur avendo unità di calcolo adattate a lavorare in modalità RISC (le istruzioni lunghe sono frazionate e suddivise tra più unità di calcolo dello stesso tipo, per ridurre le latenze dovute alla complessità delle operazioni da svolgere), R520 nasce, concettualmente, come architettura RISC (istruzioni già frammentate in un gran numero di thread molto brevi, caricati nell'array di registri general pourpose delle pixel pipeline ed eseguite in sequenza, con il vantaggio di aver quasi azzerato le latenze ma, in compenso, eseguendo un numero molto minore di operazioni per ciclo, ha bisogno di compensare con le alte frequenze). Anche in questo caso, l'approccio è "forza bruta" per NV (si carica un gran numero di pixel all'interno e se ne elabora il più possibile in contemporanea: questo permette di aumentare l'output, anche non raggiungendo una elevata effiicenza, è inevitabile avere più unità in idle per ciclo), ricerca della masisma efficienza per ATi, carichiamo un numero piccolo di pixel per volta all'interno delle unità di calcolo, ma facciamo in modo che le psu siano sempre tutte occupate.

Nel confronto tra GTx e XT, la XT ha una maggiore bandwidth assoluta, ma la GTX, grazie al fillrate minore, ha un miglior rapporto bandwidth/fillrate. Questo significa che, semmai la banda dovesse diventare un limite, lo diverrebbe prima per la XT che non per la GTX.

Ultima modifica di yossarian : 27-10-2005 alle 23:05.
yossarian è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Lenovo ThinkPad X1 2-in-1 G10 Aura Edition: il convertibile di classe Lenovo ThinkPad X1 2-in-1 G10 Aura Edition: il c...
Intervista a Stop Killing Games: distruggere videogiochi è come bruciare la musica di Mozart Intervista a Stop Killing Games: distruggere vid...
Corsair AI Workstation 300: poco pi&ugra...
Addio a Elio Marioli, un pioniere della ...
L'IA sta già diminuendo il potere...
Guida autonoma? Gli ADAS falliscono e in...
Skechers lancia le scarpe per bambini co...
Revolut e Audi F1: un’alleanza rivoluzio...
Gestione attività di Windows 11 d...
Amazon lancia il nuovo videocitofono Bli...
Robot aspirapolvere al top: i nuovi DEEB...
Opera vs Microsoft: la guerra dei browse...
Router e ripetitori FRITZ! in offerta su...
Spotify vola a quota 700 milioni di uten...
Microsoft pronta ad abbandonare il launc...
Windows 11, arriva una feature multimoni...
Addio termosifoni? Ecco la pittura itali...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 17:22.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1