View Full Version : Saranno due le versioni di scheda G71?
Redazione di Hardware Upg
30-01-2006, 08:22
Link alla notizia: http://www.hwupgrade.it/news/skvideo/16255.html
NVIDIA potrebbe presentare, il prossimo mese di Marzo, due distinte versioni di scheda video GeForce 7900, futura concorrente delle soluzioni Radeon X1900 di ATI
Click sul link per visualizzare la notizia.
Gerardo Emanuele Giorgio
30-01-2006, 08:31
Sono curioso di vedere il comportamento con i filtri di queste nuove schede nvidia. A discapito di quanti molti possano dire, spendere 600 euro e giocare con le linee a dente di sega sinceramente mi pare proprio una cavolata immensa.
Motosauro
30-01-2006, 08:31
Ma ormai chi si prende una top di gamma sa che sarà vecchia poche settimane dopo.
A questo punto mi chiedo: perché andiamo avanti con prezzi così alti, con schede top che sono ridicole per quanto costano e consumano, che servono solo per vendere schede medie che però sono minestra riscaldata?
Mi sta un pochino nauseando il mercato delle vga.
Spero che questa bolla di consumismo selvaggio imploda il prima possibile.
:huh:
P.S.
Solo uno sfogo..
Il mal di denti di cui soffro oggi ne è la prima causa ;)
La cosa che non capisco è a cosa servono sti mostri di vga, quando con 200€ giochi tranquillamente tutti i game con dettagli e filtri a cannone....mah...serviranno solo x i bench ahahahah
Gerardo Emanuele Giorgio
30-01-2006, 08:42
Comunque, non vorrei scatenare le ire dei sostenitori di Nvidia (sembra di essere quasi ai tempi dei guelfi e dei ghibellini), ma ATI è stata criticata molto per i suoi ritardi su R520. Però intanto è stata capace di proporre una generazione di gpu (nuove) abbastanza completa. Attualmente manca solo il corrispettivo della x800gto. Mentre Nvidia per rincorrere ATI lascia ancora a bocca asciutta le fasce medio basse. E la 7600 annunciata non mi pare una rivoluzione. Forse non lo dicono apertamente ma avranno avuto dei problemi anche loro. Spero non si siano cacciati in un vicolo cieco per scelte sbagliate perchè sinceramente credo che la concorrenza tra i due produttori possa solo portare innovazione. Il monopolio è una gran brutta cosa.
ErminioF
30-01-2006, 08:47
Trojan, prova un po' fear o call of duty 2 coi filtri e dettagli a cannone, poi ne riparliamo :asd:
Invece mi domando quali saranno le differenze tra la 7800gtx e la 7900 256, solo nel processo produttivo? :|
Sinceramente spero in un consistente abbassamento di prezzo rispetto la gtx 256 di ora, altrimenti non avrebbe senso di esistere
ErminioF
30-01-2006, 08:52
Mentre Nvidia per rincorrere ATI lascia ancora a bocca asciutta le fasce medio basse.
La fascia medio-bassa è coperta sia dalla 6600gt che dalla 6800gs...sotto i 200euro ci stanno questi 2 modelli (la 6600gt si trova anche sotto i 150)
Gerardo Emanuele Giorgio
30-01-2006, 08:58
si è vero. Ma in quanto a novita? nvidia non ha ancora presentato niente. Campa sulle glorie di una vecchia (ottima per carità) scheda. Per me hanno avuto problemi. Poi interpretate questi ritardi come volete sinceramente non mi interessa. Non sono il direttore generale ne di ATI ne di NVIDIA :D
Motosauro
30-01-2006, 09:00
si è vero. Ma in quanto a novita? nvidia non ha ancora presentato niente. Campa sulle glorie di una vecchia (ottima per carità) scheda. Per me hanno avuto problemi. Poi interpretate questi ritardi come volete sinceramente non mi interessa. Non sono il direttore generale ne di ATI ne di NVIDIA :D
Io resto dell'idea che la vera scheda nuova ati e nvidia l'abbiano pronta e stiano aspettando Vista e le WGF per buttarla fuori.
Avanti di minestra riscaldata a 600€ la porzione :rolleyes:
si è vero. Ma in quanto a novita? nvidia non ha ancora presentato niente. Campa sulle glorie di una vecchia (ottima per carità) scheda. Per me hanno avuto problemi. Poi interpretate questi ritardi come volete sinceramente non mi interessa. Non sono il direttore generale ne di ATI ne di NVIDIA :D
Allora comincia a postare qualcosa in topic con la news. C'è gente, me compreso, che si è stancato di stare a sentire sempre le solite lamentele a difesa di un brand, infantili per altro.
Questo è un thread sulla 7900GTX, direi che ATI qui non c'entra nulla.
Basta scatenare flame.
La cosa che non capisco è a cosa servono sti mostri di vga, quando con 200€ giochi tranquillamente tutti i game con dettagli e filtri a cannone....mah...serviranno solo x i bench ahahahah
Quali, quelli dell'anno scorso? :asd: Ma li vedete i benchmark?
Vecchia scheda poi si dice... :rolleyes:
Non c'è rimasto piu' niente da implementare in hardware, a parte fare una scheda veloce che ci sta da tirare fuori... 32 pipelines, shader model 3, decodifica H.xxx in hardware, HDR, 512MB di memoria....
Che ci devono mettere dentro alle schede se le DX sono quelle.... Ma per favore va...
Gerardo Emanuele Giorgio
30-01-2006, 09:12
Non era mia intenzione far incavolare nessuno. Era semplicemente la mia opinione. Io non parteggio per nessuno (ripeto non mi interessa) ma, purtroppo, in queste cose non si puo fare a meno di fare confronti tra le due produttrici.
Non credo ci sia da commentare molto poi. Come dice Motosauro stanno aspettando windows vista e nel frattempo rigirano la solita minestra.
meglio aspettare schede che supportano dx10 tipo chip g80, sicuramente quest'ultima soluzione è un'investimento più a lungo termine...
DevilsAdvocate
30-01-2006, 09:14
Perche' nvidia avrebbe dovuto presentare novita' nella fascia medio bassa, quando
la 6600 GT ha infranto prima X600 e poi X700, e solo adesso inizia lievemente a
perdere competitivita'? Tra parentesi i primi che l'hanno acquistata hanno il
benefit di una scheda che e' durata un sacco di tempo....
concordo con MJORDAN
le api sono quelle, ora stann solo finfendo di pompare le proprie architetture. NV40 supporta tutto quello che c'e' da supportare quindi non avevan senso fare una gpu nuova al 100%. ATi invece si è trovata con un R420 che in pratica era un r300x2 quindi aveva la necessità di cambiare architettura che tra meno di un anno sarà obsoleta.
Le vere novità arriveranno in autunno.... G80 e R600
Aristocrat74
30-01-2006, 09:27
La cosa che non capisco è a cosa servono sti mostri di vga, quando con 200€ giochi tranquillamente tutti i game con dettagli e filtri a cannone....mah...serviranno solo x i bench ahahahah
se ci giochi a 1024*768 ti do anche ragione
ma se uno è "costretto" a giocarci a 1680 x 1050 :D la 7800GTX per certi giochi non basta :muro:
vedi FEAR vedi HF2 con HDR abilitato (lost coast) o cod2
già, dipende anche da che monitor hai infatti... Con un 15" ti basta anche una 6600GT se ci giochi a max 1024.
se ci giochi a 1024*768 ti do anche ragione
ma se uno è "costretto" a giocarci a 1680 x 1050 :D la 7800GTX per certi giochi non basta :muro:
vedi FEAR vedi HF2 con HDR abilitato (lost coast) o cod2
Volete gli LCD? E padalaatee... :asd:
Non era mia intenzione far incavolare nessuno. Era semplicemente la mia opinione. Io non parteggio per nessuno (ripeto non mi interessa) ma, purtroppo, in queste cose non si puo fare a meno di fare confronti tra le due produttrici.
Non credo ci sia da commentare molto poi. Come dice Motosauro stanno aspettando windows vista e nel frattempo rigirano la solita minestra.
Non è questione di fare incavolare, però quando si fanno i paragoni almeno che si facciano sensati. Mi vieni a dire che nVidia propone un'architettura "vecchia". Io vedo allora che di un'architettura "nuova" non ce n'era bisogno, visto che G71 spacca a metà la X1900. Con un'architettura "vecchia", per giunta. Il problema è che cosa ci vuoi mettere dentro una scheda con un'architettura "nuova"? Ormai le schede DX9 sono al capolinea, a parte stirare frequenze da fare c'è rimasto ben poco. Queste sono le ultime superstiti. Dopodichè si ricomincia il ciclo.
Io personalmente queste schede adesso neanche le guardo. Per carità velocissime. Ma con i primi bench DirectX10 non credo abbiano ancora da far gridare chissà che.
capitan_crasy
30-01-2006, 09:55
Allora comincia a postare qualcosa in topic con la news. C'è gente, me compreso, che si è stancato di stare a sentire sempre le solite lamentele a difesa di un brand, infantili per altro.
Questo è un thread sulla 7900GTX, direi che ATI qui non c'entra nulla.
Basta scatenare flame.
QUOTO alla grande... :cool:
Wilfrick
30-01-2006, 09:58
Poi magari qualcuno spiega anche che differenza c'è tra giocare in 1024, 1280 e 1600...
E' solo per dire che "la mia scheda fa 1,38562 frames in più della tua" o c'è qualche ragione???
Io non trovo alcuna differenza apprezzabile... con qualsiasi gioco.
Già capire se c'è o meno l'antialias a queste risoluzioni è arduo, bisogna prorpio volerlo cercare con la lente (monitor 19").
Usare un 1600 è solo di moda per sentirsi fighetti.
Fanno benissimo a far pagare ste schede 600 euro, se uno vuole usare un 1600 perchè a 1280 "non può" giocare, allora paga.
Adesso massacratemi pure.
1600 è per sentirsi fighetti ? Dipende dal monitor che hai, prova su un 21" a giocare a 1024 poi vediamo se non vedi differenze :D
giocare a 1600 fa figo? :confused:
io ho un monitor lcd 20" e se non uso la risoluzione 1680*1050 perdo tantissimo in qualità.. quindi o gioco in una porzione del monitor oppure devo usare la risoluzione nativa.
che poi io non mi possa permettere le schede di fascia alta è un altro conto.. ma potendo.. :mc:
Del G71 non me ne frega niente, io voglio la 7800GS AGP a meno di 200€ :D :D
ErminioF
30-01-2006, 10:24
Sinceramente il rapporto scheda video-monitor dev'essere equilibrato: non ha senso avere un 21" e una scheda video di fascia media, così come una gtx su un 15" :asd:
Allora comincia a postare qualcosa in topic con la news. C'è gente, me compreso, che si è stancato di stare a sentire sempre le solite lamentele a difesa di un brand, infantili per altro.
Questo è un thread sulla 7900GTX, direi che ATI qui non c'entra nulla.
Basta scatenare flame.
Ma tu non sei quello che nella news di poco fa, circa il chip Imageon di Ati, si è messo a decantare le lodi del chip Nvidia con tanto di documentazione e link correlati?
E poi vieni a dire che questo è un thread su Nvidia, che Ati non c'entra nulla, e che le difese di un brand sono ridicole e infantili?
Ma stai zitto e mantieni un minimo di coerenza, suvvia.
Ridicolo.
Sinceramente il rapporto scheda video-monitor dev'essere equilibrato: non ha senso avere un 21" e una scheda video di fascia media, così come una gtx su un 15" :asd:
beh non tutti usano il pc solo per gioco, nella grafica e fotoritocco un monitor grande è indispensabile.. per quanto mi riguarda con una 6800le gioco con qualche compromesso a molti giochi recenti :) se proprio il pc non ce la fa allora abbasso la risoluzione tenendo un rapporto 1:1 sui pixels
Poi magari qualcuno spiega anche che differenza c'è tra giocare in 1024, 1280 e 1600...
:eek:
E' solo per dire che "la mia scheda fa 1,38562 frames in più della tua" o c'è qualche ragione???
Io non trovo alcuna differenza apprezzabile... con qualsiasi gioco.
Già capire se c'è o meno l'antialias a queste risoluzioni è arduo, bisogna prorpio volerlo cercare con la lente (monitor 19").
Io ho un 17" e ti assicuro che senza filtri a 1280x1024 l'aliasing si vede chiaramente, figuriamoci su un 19". Poi ognuno ha le sue esigenze, se tu non vedi differenze tra le varie risoluzioni fai benissimo a comprarti una scheda video molto meno costosa, in un certo senso sei fortunato, occhio non vede cuore non duole ;)
DevilsAdvocate
30-01-2006, 10:54
Beh mi fa un po' ridere che chi definisce la 7900 come un "architettura vecchia"
sia la stessa identica gente che da anni suggerisce per il mercato medio schede
che hanno solo il supporto a shader 2.0 (e questo fino a ierilaltro),difendendone
le qualita' anche sopra ai corrispettivi modelli della stessa marca ma di
generazione piu' recente.
x DevilsAdvocate
Esatto, inoltre sono entrambe shader model 3 compilant al 100% (anzi i VS di ATi non consentono il Texture Fetch...).
Il fatto di avere ALU slegate dal blocco delle TMU non significa avere architettura nuova o vecchia, sono due scelte progettuali differenti che alla fine danno il medesimo risultato in termin di compatibilità. non dimentichiamo che NV40/G70 è un progetto che è stato avviato ben prima della primavera del 2004 e, ad oggi, con i dovuti refresh sta offrendo prestazioni sempre più elevate e non di poco.
Ri cordo i tempi di R300 che nei due successivi step (R350/360) non ha portato altro che piccoli e marginali incrementi di frequenza e basta, per poi essere rimandato sul mercato con un nome diverso (X800 ecc.) ma con la stessa base tecnologica.
Pistolpete
30-01-2006, 11:00
Col fatto che saranno prodotto con processo produttivo a 90nanometri si risparmierà sui consumi almeno di un bel po'?
La miglior scheda che offre il miglior rapporto costo/prestazioni-consumi è la 7800gt, mi piacerebbe che la 7900 da 256 sia la sua erede. C'è qualcuno che guarda a questo "rapporto" come faccio io oppure sono solo un'illuso che non ha voglia di spendere soldi?
Motosauro
30-01-2006, 11:01
Beh mi fa un po' ridere che chi definisce la 7900 come un "architettura vecchia"
sia la stessa identica gente che da anni suggerisce per il mercato medio schede
che hanno solo il supporto a shader 2.0 (e questo fino a ierilaltro),difendendone
le qualita' anche sopra ai corrispettivi modelli della stessa marca ma di
generazione piu' recente.
:confused:
Ti riferisci a me? :mbe:
Non mi pare che nessuno abbia detto questo.
JohnPetrucci
30-01-2006, 11:10
Sono curioso di vedere il comportamento con i filtri di queste nuove schede nvidia. A discapito di quanti molti possano dire, spendere 600 euro e giocare con le linee a dente di sega sinceramente mi pare proprio una cavolata immensa.
Guarda io gioco con una scheda nvidia da 300€(una 7800gt), e con AA 4x non ho denti di sega, quindi non credo che Ati abbia tutto sta enorme differenza nel suo AA.
halduemilauno
30-01-2006, 11:13
x DevilsAdvocate
Esatto, inoltre sono entrambe shader model 3 compilant al 100% (anzi i VS di ATi non consentono il Texture Fetch...).
Il fatto di avere ALU slegate dal blocco delle TMU non significa avere architettura nuova o vecchia, sono due scelte progettuali differenti che alla fine danno il medesimo risultato in termin di compatibilità. non dimentichiamo che NV40/G70 è un progetto che è stato avviato ben prima della primavera del 2004 e, ad oggi, con i dovuti refresh sta offrendo prestazioni sempre più elevate e non di poco.
Ri cordo i tempi di R300 che nei due successivi step (R350/360) non ha portato altro che piccoli e marginali incrementi di frequenza e basta, per poi essere rimandato sul mercato con un nome diverso (X800 ecc.) ma con la stessa base tecnologica.
concordo con voi due.
;)
JohnPetrucci
30-01-2006, 11:13
Vecchia scheda poi si dice... :rolleyes:
Non c'è rimasto piu' niente da implementare in hardware, a parte fare una scheda veloce che ci sta da tirare fuori... 32 pipelines, shader model 3, decodifica H.xxx in hardware, HDR, 512MB di memoria....
Che ci devono mettere dentro alle schede se le DX sono quelle.... Ma per favore va...
Straquoto. ;)
adesso direi basta!!!
questi di nvidia e ati sono usciti pazzi!!!prima almeno passavano 6 mesi per tirare fuori una nuova scheda,adesso addirittura 3 mesi!
nemmeno il tempo di far dire a chi ha comprato(spendendo una fortuna)una x1800xt o una geforce gtx 512mb la frase"ho il top delle schede"
dovrebbero vergognarsi....
Ma tu non sei quello che nella news di poco fa, circa il chip Imageon di Ati, si è messo a decantare le lodi del chip Nvidia con tanto di documentazione e link correlati?
E poi vieni a dire che questo è un thread su Nvidia, che Ati non c'entra nulla, e che le difese di un brand sono ridicole e infantili?
Ma stai zitto e mantieni un minimo di coerenza, suvvia.
Ridicolo.
Innanzitutto mantieni l'educazione e abbassa i toni con me. Secondo io non ho fatto un commento del cavolo. Ho riportato documentazione e ho fatto un confronto. E ho descritto cos'ha quel chip che quell'altro non ha. Non mi sono messo a sparare sentenze.
adesso direi basta!!!
questi di nvidia e ati sono usciti pazzi!!!prima almeno passavano 6 mesi per tirare fuori una nuova scheda,adesso addirittura 3 mesi!
nemmeno il tempo di far dire a chi ha comprato(spendendo una fortuna)una x1800xt o una geforce gtx 512mb la frase"ho il top delle schede"
dovrebbero vergognarsi....
Guarda che quelle schede non servono a dire "ho il top delle schede" sai... :rolleyes:
Guarda che quelle schede non servono a dire "ho il top delle schede" sai... :rolleyes:
è ovvio,ma anche quella è la soddisfazione per chi spende più di 600 eurazzi!!!
ErminioF
30-01-2006, 11:22
beh più o meno :asd:
JOHNNYMETA
30-01-2006, 11:22
La cosa che non capisco è a cosa servono sti mostri di vga, quando con 200€ giochi tranquillamente tutti i game con dettagli e filtri a cannone....mah...serviranno solo x i bench ahahahah
Prova impostando la risoluzione a 2560X1600, con una scheda da 200 euro è già tanto se tocchi i 5 frame (http://www.hwupgrade.it/articoli/skvideo/1398/13.html) .
Poi magari qualcuno spiega anche che differenza c'è tra giocare in 1024, 1280 e 1600...
E' solo per dire che "la mia scheda fa 1,38562 frames in più della tua" o c'è qualche ragione???
Io non trovo alcuna differenza apprezzabile... con qualsiasi gioco.
Già capire se c'è o meno l'antialias a queste risoluzioni è arduo, bisogna prorpio volerlo cercare con la lente (monitor 19").
Usare un 1600 è solo di moda per sentirsi fighetti.
Fanno benissimo a far pagare ste schede 600 euro, se uno vuole usare un 1600 perchè a 1280 "non può" giocare, allora paga.
Gioca tu a 1024X768 su uno schermo da 24 o 30 pollici ma anche da 20 pollici tipo Ultr*sh*rp o C*n*m*,poi sappimi descrivere l'ignobile :D spettacolo che vedi.
Anch'io aspetto i nuovi modelli DirectX 10.Qua stiamo ancora troppo indietro per essere il 2006.
Allora comincia a postare qualcosa in topic con la news. C'è gente, me compreso, che si è stancato di stare a sentire sempre le solite lamentele a difesa di un brand, infantili per altro.
Questo è un thread sulla 7900GTX, direi che ATI qui non c'entra nulla.
Basta scatenare flame.
Io vedo allora che di un'architettura "nuova" non ce n'era bisogno, visto che G71 spacca a metà la X1900. Con un'architettura "vecchia", per giunta.
Solo una faccina: :rotfl:
DevilsAdvocate
30-01-2006, 11:28
Volete sapere dove le schede video potrebbero essere migliorate? nella fase
di switching dei materiali/texture. E' dai tempi della 9700 che le schede possono
gestire anche 1 milione di poligoni al secondo con facilita', se questi poligoni
usano tutti lo stesso materiale /lo stesso set di textures. Le prestazioni poi si "abbattono" nei giochi, dovendo effettuare piu' e piu' volte questo switching
per ogni frame. (ovvio che questo vale per risoluzioni umane, 1600x1200 con
antialiasing resta a parte.)
Se una nuova architettura dovesse trovare il modo di velocizzare questa
operazione i benefici sarebbero ben visibili (no, ati x1900 non lo fa).
Aristocrat74
30-01-2006, 11:29
Poi magari qualcuno spiega anche che differenza c'è tra giocare in 1024, 1280 e 1600...
E' solo per dire che "la mia scheda fa 1,38562 frames in più della tua" o c'è qualche ragione???
Io non trovo alcuna differenza apprezzabile... con qualsiasi gioco.
Già capire se c'è o meno l'antialias a queste risoluzioni è arduo, bisogna prorpio volerlo cercare con la lente (monitor 19").
Usare un 1600 è solo di moda per sentirsi fighetti.
Adesso massacratemi pure.
bhe eccerto che vieni massacrato :D :p
avendo un 21 pollici LCD wide (x grafica, cad) ho una risoluzione nativa di 1680x1050
e giocare a risoluzioni inferiori su un LCD non è proprio una goduria :rolleyes: (evidentemente nn hai un lcd)
percio non è una moda..... è un obbligo :)
Fanno benissimo a far pagare ste schede 600 euro, se uno vuole usare un 1600 perchè a 1280 "non può" giocare, allora paga.
e infatti PAGO e non mi lamento (ps sto vendendo la 7800gtx per passare alla 1900 ) poi venderò la 1900 per passare alla 7900 (forse)
ok adesso ditemi che sono malato .... :rolleyes:
JOHNNYMETA
30-01-2006, 11:38
ok adesso ditemi che sono malato .... :rolleyes:
Per me sei un Grande.
è ovvio,ma anche quella è la soddisfazione per chi spende più di 600 eurazzi!!!
Bhè conoscendo il trend del mercato uno che spende 600€ per una scheda queste cose dovrebbe già conoscerle a priori. Secondo me non ha senso rimanerci male. :confused:
JohnPetrucci
30-01-2006, 12:13
ok adesso ditemi che sono malato .... :rolleyes:
Se avessi le possibilità economiche, mi sa che seguirei le tue mosse. :D
Purtroppo devo accontentarmi. :rolleyes:
bhe eccerto che vieni massacrato :D :p
avendo un 21 pollici LCD wide (x grafica, cad) ho una risoluzione nativa di 1680x1050
e giocare a risoluzioni inferiori su un LCD non è proprio una goduria :rolleyes: (evidentemente nn hai un lcd)
percio non è una moda..... è un obbligo :)
e infatti PAGO e non mi lamento (ps sto vendendo la 7800gtx per passare alla 1900 ) poi venderò la 1900 per passare alla 7900 (forse)
ok adesso ditemi che sono malato .... :rolleyes:
Bhè allora non dire che è un obbligo, perchè se lo fosse avresti fatto prima a cambiare monitor e prendere un buon CRT che non a cambiare sempre scheda per stare al passo con uno schermo LCD. :rolleyes:
Almeno la coerenza.
Infatti questo susseguirsi ravvicinato avvantaggia chi cambia e scambia schede: chi ha comprato la GTX512 a 700 euro, magari l'ha rivenduta a 500 e si è comprata la X1900 con soli 100-200 euro!!! Poi venderà questa a 500 euro e con altri 100-200 si comprerà la 7900 e così via...
Guarda io gioco con una scheda nvidia da 300€(una 7800gt), e con AA 4x non ho denti di sega, quindi non credo che Ati abbia tutto sta enorme differenza nel suo AA.
La differenza c'è, assolutamente inutile negarlo. Mi aspetterei almeno un AA 6x o 8x puro, senza mixed mode come gli attuali AA superiori al 4x, visto che la potenza c'è. E un anisotropico puro, visto che anche in questo caso la potenza c'è. Ati è stata tanto criticata a suo tempo per l'anisotropico dipendente dagli angoli, con la 1800 ha reinserito quello completo. Mi aspetto che lo faccia anche Nvidia. Oggi come oggi con la potenza che c'è in gioco anche un piccolo compromesso in fatto di filtri lo vedo come un punto a sfavore.
Infatti questo susseguirsi ravvicinato avvantaggia chi cambia e scambia schede: chi ha comprato la GTX512 a 700 euro, magari l'ha rivenduta a 500 e si è comprata la X1900 con soli 100-200 euro!!! Poi venderà questa a 500 euro e con altri 100-200 si comprerà la 7900 e così via...
Spendendo 400 € più i 700€ della prima scheda nel giro di 6/8 mesi. Cifra esattamente identica a quella che si ottiene prendendo due schede di fascia alta nel giro di 2 anni (cifra presa a caso). Nel primo caso giocherà sempre al massimo, nel secondo caso andrà calando nel primo periodo con i filtri. Poi tornerà al top quando avrà comprato la scheda nuova. Io non faccio i conti in tasca a nessuno ma le cifre da sborsare sono praticamente paragonabili, non è che chi cambia scheda ogni 2 mesi spenda meno di chi lo fa, con schede di fascia alta, nel giro di tempi più lunghi.
Il fatto è che pensiamo di essere avanti con le schede video in verità non è assolutamente così. Basta pensare a giochi un pò più pesanti (FEAR) e noterete che siamo al limite. Non sono daccordo sinceramente sui prezzi, specialmente perchè anche al top in singola scheda si ha cmq un mediocre risultato. Pagare 700e e non giocare FEAR al massimo dettaglio e risoluzione è un insulto. Lo SLI sicuramente aiuta e risolve ma ciò non toglie che a singola scheda siamo molto indietro. Fanno bene a far uscire nuove schede visto che appena esce un gioco "Al top" non basta mai la potenza di calcolo per farlo girare almeno con un pò di scarto. Detto questo è meglio spendere meno ed accontentarsi. Purtroppo io non sono così e mi terrò le mie manie. Salutos a tutti!
Infatti questo susseguirsi ravvicinato avvantaggia chi cambia e scambia schede: chi ha comprato la GTX512 a 700 euro, magari l'ha rivenduta a 500 e si è comprata la X1900 con soli 100-200 euro!!! Poi venderà questa a 500 euro e con altri 100-200 si comprerà la 7900 e così via...
A sto punto possiamo proporre a nVidia e ATI di farci fare la tessera... :asd: :asd:
TNR Staff
30-01-2006, 13:00
Il fatto è che pensiamo di essere avanti con le schede video in verità non è assolutamente così. Basta pensare a giochi un pò più pesanti (FEAR) e noterete che siamo al limite. Non sono daccordo sinceramente sui prezzi, specialmente perchè anche al top in singola scheda si ha cmq un mediocre risultato. Pagare 700e e non giocare FEAR al massimo dettaglio e risoluzione è un insulto. Lo SLI sicuramente aiuta e risolve ma ciò non toglie che a singola scheda siamo molto indietro. Fanno bene a far uscire nuove schede visto che appena esce un gioco "Al top" non basta mai la potenza di calcolo per farlo girare almeno con un pò di scarto. Detto questo è meglio spendere meno ed accontentarsi. Purtroppo io non sono così e mi terrò le mie manie. Salutos a tutti!
Già ma finchè le cpu non stanno dietro manco a una 6800... :rolleyes:
DarKilleR
30-01-2006, 13:07
se ottimizzassero i giochi si inizierebbe a parlare di qualcosa di decente, e sfruttare i mostri che abbiamo ora (che oltretutto un FX @ 4 Ghz non sfrutta ancora al massimo).
Un esempio su tutti...P3 850 @ 932 con GeForce 2 GTS a 1024X768 HL2 vola...(vero non uso le Direct X 9.0) ma sono su hardware di 5 anni fa.
E sul PC in sign HL2 vola veramente di brutto a 1280X1024 con dettagli e filtri al massimo 8X e 16X.
FEAR scatterebbe sui super PC della nasa o del CNR di Pisa....è un gioco di merda. Ci sono giochi come COD 2 che farebbero 25 fps in certe situazioni anche con 24 7800 GTX in SLI.....
Alberello69
30-01-2006, 13:19
La cosa che non capisco è a cosa servono sti mostri di vga, quando con 200€ giochi tranquillamente tutti i game con dettagli e filtri a cannone....mah...serviranno solo x i bench ahahahah
:asd: :asd: :asd:
:ahahah: :ahahah: :ahahah:
:sofico: :sofico: :sofico:
non so se ho letto palle più grosse.... :banned:
Foglia Morta
30-01-2006, 13:29
Infatti questo susseguirsi ravvicinato avvantaggia chi cambia e scambia schede: chi ha comprato la GTX512 a 700 euro, magari l'ha rivenduta a 500 e si è comprata la X1900 con soli 100-200 euro!!! Poi venderà questa a 500 euro e con altri 100-200 si comprerà la 7900 e così via...
bjt2 io ho ancora dubbi sulle memorie che dovrebbe montare G71 per essere sfruttato appieno ( se le specifiche dei rumor sono vere ) . Secondo te è proprio realistico che delle memorie a 1.8Ghz ( le stesse della GTX 512MB ) possano soddisfare un chip che sulla carta è mostruoso ?
:asd: :asd: :asd:
:ahahah: :ahahah: :ahahah:
:sofico: :sofico: :sofico:
non so se ho letto palle più grosse.... :banned:
Penso di si, ma sicuramente questa è inclusa nell'insieme :sofico:
OverClocK79®
30-01-2006, 13:32
non serve beccarsi ogni volta per queste cose....
i gusti sono soggettivi
c'è chi gioca a tutto e bene con una scheda da 200€
e chi se non ha l'AA e l'AF a fondoscala a 1600x1200 cambia scheda.
non riuscite ad accettare tipologie di utilizzo e impiego ma soprattutto GUSTI diversi dai vostri?? ;)
BYEZZZZZZZZZZZZ
Già ma finchè le cpu non stanno dietro manco a una 6800... :rolleyes:
Questo non è vero, i giochi (specialmente quelli un po' vecchi) sono cpu limited solo alle risoluzioni più basse, e il problema lì non esiste perché fare 200 fps o 500 cambia poco :)
Un Athlon64 non spintissimo basta imho, guarda questo articolo:
http://www.xbitlabs.com/articles/cpu/print/cpu-games2.html
http://www.xbitlabs.com/articles/cpu/print/28cpu-games.html
Con una 7800GT:
http://www.xbitlabs.com/images/cpu/28cpu-games/cod2.png
Come vedi tra un 3200+ e un FX-57 ci sono 3 fps di differenza (se aumenti la risoluzione/filtri cambia ancora meno).
non serve beccarsi ogni volta per queste cose....
i gusti sono soggettivi
c'è chi gioca a tutto e bene con una scheda da 200€
e chi se non ha l'AA e l'AF a fondoscala a 1600x1200 cambia scheda.
non riuscite ad accettare tipologie di utilizzo e impiego ma soprattutto GUSTI diversi dai vostri?? ;)
BYEZZZZZZZZZZZZ
Certo, ma un conto sono i gusti (dati soggettivi) e un conto è far passare i gusti come dati oggettivi. C'è una bella differenza.
diabolik1981
30-01-2006, 13:51
Infatti questo susseguirsi ravvicinato avvantaggia chi cambia e scambia schede: chi ha comprato la GTX512 a 700 euro, magari l'ha rivenduta a 500 e si è comprata la X1900 con soli 100-200 euro!!! Poi venderà questa a 500 euro e con altri 100-200 si comprerà la 7900 e così via...
cioè in pratica ha stipulato un vitalizio con le società di schede video... ottimo a sapersi... :doh:
heavymetalforever
30-01-2006, 13:52
Allora ragazzi,
secondo me fear scatta semplicemente perchè è PROGRAMMATO CON I PIEDI.
Se io faccio un bench con riso a 1024x768 tutto a palla (soft shadows, ecc ecc tutto on) mi dice che la percentuale sotto i 25 è zero, mentre il picco tocca 115, la media mi sembra sui 60.
Vi sembra che questa situazione si ripercuota sul gioco reale? NOn penso proprio.
C'e' un livello (uno dei primi) in cui cammini di fianco a una finestra e c'e' un calo PAUROSO dei FPS, eppure cosa c'e' di così tanto eclatante da visualizzare?
Sarà mica la mosca che è appiccicata al vetro che scoreggia e fa calare il frame rate?
Quel gioco è programmato di merda, punto e basta.
Valve insegna.... quando uscì HL2 lo pensavo ingiocabile sulla mia radeon 9800 pro (che avevo allora) e invece con gran stupore lo misi a 1280 x 768 AA 4 Aniso 8 (e poi provai anche il 16) e tutti i dettagli al massimo.
E l'ho finito così.
QUELLO DI HL2 è un motore degno e scalabile, F.E.A.R. secondo me è un gioco che non è ottimizzato per niente.
Non è possibile che una 7800GT o GTX non riesca a far girare fear alla massima risoluzione.... è fear che non riesce a saper sfruttare tutta la potenza offerta dalla GPU.
Se imparassero a programmare decentemente probabilmente si riuscirebbe, come nel lontano 98, ad ammirare un capolavoro come Unreal che veniva fatto girare su "semplici" voodoo da 4 MB.
Bye
Se io faccio un bench con riso a 1024x768 tutto a palla (soft shadows, ecc ecc tutto on) mi dice che la percentuale sotto i 25 è zero, mentre il picco tocca 115, la media mi sembra sui 60.
Secondo me invece il motore di FEAR è molto scalabile e non c'è bisogno di mettere tutto al massimo, si riesce ad ottenere una grafica da urlo anche con qualche compromesso. Inoltre trovo rispettoso dire "programmato coi piedi" quando sicuramente chi lo dice non ha neanche lontanamente idea di che problemi ci siano nello sviluppare sotfware di quella complessità.
ErminioF
30-01-2006, 14:32
OT
Hai perfettamente ragione bist, però considera che c'è la concorrenza, e gli occhi ce li abbiamo tutti...sinceramente ci sono alcuni giochi (fear, cod2 ad esempio) che fanno meno della metà fps di altri, facendo vedere una grafica non così complessa da giustificare il calo di prestazioni.
Che poi abbia un i.a. da urlo, fisica etc è un altro discorso, però vedere sli o schede da 600euro arrancare quando negli altri giochi fanno 200fps ti dà da pensare :)
chiuso OT
Wilfrick
30-01-2006, 15:13
Se un gioco ha dentro trenta dinosauri e cinquanta mostri che si muovono tutti bonizzati con scheletri di 50 ossa, nemmeno se fossero in grafica bianco e nero in 320x240 venti GTX riuscirebbero a muoverteli in realtime.
Non facciamo confusione sui compiti della GPU e della CPU.
Ci sono giochi programmati benissimo per la grafica mentre fanno schifo nella gestione delle mesh e la cpu si inchioda.
Anche con un DX8 si riescono ad ottenere risultati eccellenti, dipende da come sono programmate le cose (p.e. : non è che per calcolare le ombre si scrive nel programma "ombre" e la gpu le genera! serve una camera messa in posizione diversa da quella che inquadra la scena, una luce che illumina l'oggetto generando un'immagine nera ed a quel punto le DX fanno in modo che quell'immagine venga usata come texture e la gpu la mappa "al volo" nella scena renderizzando infine il frame con ombra... se poi pensate ai bump... c'è da spaventarsi). Più nuove sono le DX più funzioni ci sono, ma non è che con una scheda in DX8 non si vedano certi effetti, solo vengono calcolati dalla cpu, ma tutto dipende da come è programmato il gioco. Discorso diverso per l'alias.
E' sbagliato pensare che le cpu non stiano dietro alle schede, solo che con nuovi giochi si "pretendono" personaggi sempre più complessi. Quindi vediamo di capire che cosa è la "grafica non complessa". Tutti muovono facilmente un milione di poligoni... ma bonizzatene solo cinquantamila e vedete che differenza ottenete in prestazioni!
yossarian
30-01-2006, 15:16
Non è questione di fare incavolare, però quando si fanno i paragoni almeno che si facciano sensati. Mi vieni a dire che nVidia propone un'architettura "vecchia". Io vedo allora che di un'architettura "nuova" non ce n'era bisogno, visto che G71 spacca a metà la X1900. Con un'architettura "vecchia", per giunta. Il problema è che cosa ci vuoi mettere dentro una scheda con un'architettura "nuova"? Ormai le schede DX9 sono al capolinea, a parte stirare frequenze da fare c'è rimasto ben poco. Queste sono le ultime superstiti. Dopodichè si ricomincia il ciclo.
wow, non sappiamo ancora neppure come sarà G71 e tu hai già i risultati dei bench?!?
Perchè non posti qualcosa in anteprima? :D
x diabolik:
Era solo una considerazione... Non sono così pazzo da spendere tutti quei soldi... Mi accontento di una radeon 7000 da 35 euro (due anni fa) che mi fa giocare decentemente a 640x480 al minimo... Non ho neanche il PC... Quello che uso è quello del lavoro (durante le pause... :D )
x Foglia morta:
Non ricordo se in questo topic, ma prorio in risposta ad un tuo intervento ho postato il conto della serva sulla banda: posto che sembra che questo G71 avrà 16 ROPs, ti ho dimostrato come, nonostante i 750 Mhz avanzasse ancora banda... Qui il primato si giocha su chi perde meno con giochi con shader complessi, da cui le 32 pipeline e le 10 vertex unit (da confermare)... La banda in più serve solo se c'è un traffico esagerato di texture ed altri dati. Tieni conto che per le texture c'è la cache interna. Io non ho dati sul consumo di banda delle texture, ma credo che dipenda dal gioco e dal momento di gioco... Invece la banda di scrittura e lettura può essere calcolata e l'ho fatto in quel post... Tutto sommato:
1) E' un falso problema perchè in ogni caso non esistono memorie più veloci di 1800MHz
2) Ti ho fatto vedere che la banda non la consuma tutta
3) Il collo di bottiglia saranno le ROPs e non la memoria, molto probabilmente (anche se qualche gioco molto esoso in termini di texture o con AA e AF a tavoletta potrebbe saturare la banda... ma è tutto da vedere: non lo so... Passo la palla a Fek e yossarian... :D ), quindi un aumento della frequenza di ram, che comunque costerebbe uno sproposito in più a tale stadio della tecnologia, non credo che possa dare evidenti benefici...
wow, non sappiamo ancora neppure come sarà G71 e tu hai già i risultati dei bench?!?
Perchè non posti qualcosa in anteprima? :D
Un altro commento idiota.
Sono 11 anni che analizzo il mercato delle schede grafiche e gli sto appresso. Serviva una recensione per dire che la X1900 era piu' veloce della GTX512? No non serviva. Perchè il mercato va a bilancia da anni. Serve ora una recensione per dire che la 7900GTX vada di piu' di una X1900? No, perchè il mercato va a bilancia da anni.
Dark Schneider
30-01-2006, 15:26
Sono curioso di vedere il comportamento con i filtri di queste nuove schede nvidia. A discapito di quanti molti possano dire, spendere 600 euro e giocare con le linee a dente di sega sinceramente mi pare proprio una cavolata immensa.
Chi ha comprato una 7800 GTX non mi risulta che giochi con le linee "a denti di sega". Anzi è la prima volta che sento una cosa del genere. :)
Comunque, non vorrei scatenare le ire dei sostenitori di Nvidia (sembra di essere quasi ai tempi dei guelfi e dei ghibellini), ma ATI è stata criticata molto per i suoi ritardi su R520. Però intanto è stata capace di proporre una generazione di gpu (nuove) abbastanza completa. Attualmente manca solo il corrispettivo della x800gto. Mentre Nvidia per rincorrere ATI lascia ancora a bocca asciutta le fasce medio basse. E la 7600 annunciata non mi pare una rivoluzione. Forse non lo dicono apertamente ma avranno avuto dei problemi anche loro. Spero non si siano cacciati in un vicolo cieco per scelte sbagliate perchè sinceramente credo che la concorrenza tra i due produttori possa solo portare innovazione. Il monopolio è una gran brutta cosa.
Veramente Ati era in ritardo di diversi mesi con la sua X1800XT che doveva appunto uscire prima. In un secondo tempo la X1600 e X1300. Ma visto il ritardo della fascia alta ha optato per presentarne tutte 3.
nVidia invece ha agito come ha sempre fatto: ad esempio la GeForce 6800 lanciata in Aprile, la 6600GT in Agosto-Settembre, la 6200 a dicembre...quella turbo cache a Febbraio.
La 7800 è stata lanciata in estate. Nel periodo natalizio ha praticamente presentato la fascia bassa ossia la 7300. Ad a Febbraio lancia la 7600. Insomma come al solito.
Tieni conto che tra l'altro nVidia aveva ancora meno fretta per il fatto che aveva già schede sm 3.0 in tutte le fasce. Un vantaggio tecnologico. Quindi ancora meno fretta nel coprire le fasce rispetto al passato.
Ovviamente ha deciso di lanciare vga a 0.09 micron proprio quando aveva una buona resa...e cioè con le 7300...e prossisimamente con 7600 e 7900. Tutto normale a me sembra. :)
Un altro commento idiota.
Sono 11 anni che analizzo il mercato delle schede grafiche e gli sto appresso. Serviva una recensione per dire che la X1900 era piu' veloce della GTX512? No non serviva. Perchè il mercato va a bilancia da anni. Serve ora una recensione per dire che la 7900GTX vada di piu' di una X1900? No, perchè il mercato va a bilancia da anni.
Quindi il fatto che la 7900GTX "spacchi a metà" la X1900 sono tue illazioni e fantasie? Tutte frasi buttate lì a caso? Ok, l'importante è saperlo, perchè poi magari c'è gente che ci crede :asd:
yossarian
30-01-2006, 15:33
Un altro commento idiota.
Sono 11 anni che analizzo il mercato delle schede grafiche e gli sto appresso. Serviva una recensione per dire che la X1900 era piu' veloce della GTX512? No non serviva. Perchè il mercato va a bilancia da anni. Serve ora una recensione per dire che la 7900GTX vada di piu' di una X1900? No, perchè il mercato va a bilancia da anni.
allora vuol dire che sono 11 anni che non ci capisci una benemerita sega, se questo è tutto quello che hai da dire.
Devo riportare il tuo commento precedente (quello si veramente idiota) in cui affermavi che G71 spacca a metà la X1900? Potresti definire il termine "spaccare a metà"? Parliamo di vga o di motoseghe?
:D
allora vuol dire che sono 11 anni che non ci capisci una benemerita sega, se questo è tutto quello che hai da dire.
Devo riportare il tuo commento precedente (quello si veramente idiota) in cui affermavi che G71 spacca la X1900? Potresti definire il termine "spacca"?
:D
Ti correggo, il termine esatto è "spacca a metà", quindi c'è da definire se spacca a metà in base alla superficie, quindi in due parti congruenti, oppure spacca a metà in base al peso, e qui la cosa si fa più complicata perchè il peso del dissipatore gioca una carta molto importante. Nvidiai deve essersi data alle motoseghe :D
Foglia Morta
30-01-2006, 15:41
x Foglia morta:
Non ricordo se in questo topic, ma prorio in risposta ad un tuo intervento ho postato il conto della serva sulla banda: posto che sembra che questo G71 avrà 16 ROPs, ti ho dimostrato come, nonostante i 750 Mhz avanzasse ancora banda... Qui il primato si giocha su chi perde meno con giochi con shader complessi, da cui le 32 pipeline e le 10 vertex unit (da confermare)... La banda in più serve solo se c'è un traffico esagerato di texture ed altri dati. Tieni conto che per le texture c'è la cache interna. Io non ho dati sul consumo di banda delle texture, ma credo che dipenda dal gioco e dal momento di gioco... Invece la banda di scrittura e lettura può essere calcolata e l'ho fatto in quel post... Tutto sommato:
1) E' un falso problema perchè in ogni caso non esistono memorie più veloci di 1800MHz
2) Ti ho fatto vedere che la banda non la consuma tutta
3) Il collo di bottiglia saranno le ROPs e non la memoria, molto probabilmente (anche se qualche gioco molto esoso in termini di texture o con AA e AF a tavoletta potrebbe saturare la banda... ma è tutto da vedere: non lo so... Passo la palla a Fek e yossarian... :D ), quindi un aumento della frequenza di ram, che comunque costerebbe uno sproposito in più a tale stadio della tecnologia, non credo che possa dare evidenti benefici...
si mi hai risposto nella recensione della X1900 , ma è proprio ciò che ho evidenziato che non riesco a capire... le memorie a 1.8Ghz sono molto costose , perchè montarle sulla GTX 512 MB se poi non le sfrutta ? Da qui deduco che le sfrutta , ma non ho numeri alla mano per dimostrarlo , è una mia supposizione logica . E da qui ho il dubbio su quali memorie possa effettivamente usare G71
Aristocrat74
30-01-2006, 15:54
Bhè allora non dire che è un obbligo, perchè se lo fosse avresti fatto prima a cambiare monitor e prendere un buon CRT che non a cambiare sempre scheda per stare al passo con uno schermo LCD. :rolleyes:
Almeno la coerenza.
magari un cassone di un metro per un metro :D non ci sta nella mia piccola scrivania di casa
magari preferisco un lcd perche a me da meno fastidio alla vista di un ctr
non è un obbligo forse? :mbe:
----------------------------------------------------------------------------
Se avessi le possibilità economiche, mi sa che seguirei le tue mosse.
Purtroppo devo accontentarmi.
la cosa grave e che non ho poi ste infinite possibilità economiche.... e proprio una mallattia consumistica la mia :muro:
e poi mi piace giocare i videogiochi di ultima generazione apprezzando tutta la loro grafica ;) senza compromessi
----------------------------------------------------------------------------
Infatti questo susseguirsi ravvicinato avvantaggia chi cambia e scambia schede: chi ha comprato la GTX512 a 700 euro, magari l'ha rivenduta a 500 e si è comprata la X1900 con soli 100-200 euro!!! Poi venderà questa a 500 euro e con altri 100-200 si comprerà la 7900 e così via...
qualcuno che ha capito la mia filosofia :rolleyes:
inutile tenersi una s video per 3 anni che poi verrà rivenduta ad un valore pari quasi a 0 o alla peggio che finisce nel cassonetto :mbe:
in cui nei primi 6 mesi gioco con dettagli a palla e poi via via riducendo il dettaglio grafico fino ad arrivare a giocare a 3 frame al secondo a 800x 600 :doh:
e al fatto che siano CPU limited .sarà anche ma nn ci credo fino in fondo....
visto che con un athlon 64 3500+ cloccato a 2500mhz ogni volta che overclokko di un po la s video i frame in gioco aumentano :rolleyes:
cambio s video ad ogni generazione e aspetto il momento buono per vendere
adesso ho giudicato il momento buono per vendere la 7800gtx..... x passare a radeo 1900 .......se aspettassi la 7900gtx sarebbe gia troppo tempo e la 7800 perderebbe troppo valore con il risultato di rimetterci troppo
vado a mangiare la pizza 10 volte in meno nell arco dei sei mesi :sofico:
e mi vengono fuori i soldi per la s video nuova
Non penso che nessuno attualmente possa dire cosa spacca a metà cosa nel confronto tra G71 e R580 non solo perché si tratta di un'analisi che deve tener conto di innumerevoli fattori, ma anche perché attualmente non conosciamo le specifiche reali di G71. Possiamo fare qualche supposizione.
Supponendo che le specifiche segnalate in questa news corrispondano alla realtà e che l'architettura di una Pixel Shader Unit di G71 è uguale a quelle di G70, possiamo effettuare le seguenti considerazioni.
G71 nella sua versione a 32 pipeline possiede 32 pixel shader unit ognuna composta da 2 ALU. Ogni ALU è in grado di eseguire 4 operazioni di tipo MAD per un totale di 8 MAD per PSU. A questa va aggiunta una normalizzazione su vettori FP16. Poiché non c'è indipendenza tra ALU e TMU, ogni pipeline di G71 potrà eseguire 8 MAD + una normalizzazione FP16 oppure 4 MAD + 1 texture fetch + una normalizzazione FP16 per ciclo di clock.
Considerando le 32 pipeline, G71 sarà complessivamente in grado di eseguire qualcosa come: 256 MAD + 32 normalizzazioni FP16 oppure 128 MAD + 32 texture fetch + 32 normalizzazioni FP16.
Passiamo a R580. Questo possiede 48 PSU ognuna dotata di due ALU ed in grado di eseguire 4 MAD + 4 ADD + 1 texture fetch. R580 in virtù delle 48 PSU e delle 16 TMU quindi elabora per ciclo di clock 192 MAD + 192 ADD + 16 texture fetch
Ci sarebbero altre cose da considerare come la possibilità di eseguire il cosìddetto co-issue, cioè la gestione di vettori 3 + 1 o 2 + 2 per le schede G71, ma qui entriamo molto nello specifico.
La realtà è che entrambe le GPU sono eccezionali dal punto di vista computazionale. Definire quale delle due è la migliore è molto difficile. Da questa sommaria analisi emerge che G71 sarà sicuramente in vantaggio facendo uso di shaders poco complessi aritmeticamente e molti texture fetch. In questo caso le sue 32 pipeline dovrebbero lavorare a pieno regime. Aumentando la complessità matematica e riducendo i texture fetch, invece, le cose si complicano leggermente per G71 perché nel migliore dei casi potrà eseguire 256 MAD per ciclo di clock, ma quei pochi texture fetch taglieranno fuori alcune ALU e quindi alla fine ne esce penalizzato. Con R580 il discorso è diametralmente opposto: molte operazioni matematiche e pochi texture fetch sono la sua manna, anche se probabilmente una situazione con molti texture fetch la gestisce abbastanza bene grazie alla indipendenza delle ALU dalle TMU. E' chiaro, però, che se i texture fetch aumentano molto, le 16 TMU diventano un limite e le PSU rimarranno in attesa di dati facendo perdere cicli di clock. Tuttavia bisogna considerare che in G71 per "sfamare" 32 TMU bisogna far uso di cache interne di grandi dimensioni e di una banda passante molto elevata, specie se le texture hanno una risoluzione elevata. Quindi le voci che parlano di frequenze maggiori per la memoria di G71 rispetto alle X1900XTX, probabilmente sono attendibili.
Considerate che non abbiamo analizzato cose come l'efficienza nello spartimento delle operazioni tra le varie ALU, la capacità di rimuovere superfici nascoste (che diminuisce il numero di calcoli richiesti a livello di pixel shading), ecc.... Alla fine il successo di una o l'altra architettura dipenderà molto dalla loro efficienza in generale e da come sono e saranno fatti gli shaders dei videogames attuali e futuri.
allora vuol dire che sono 11 anni che non ci capisci una benemerita sega, se questo è tutto quello che hai da dire.
Devo riportare il tuo commento precedente (quello si veramente idiota) in cui affermavi che G71 spacca a metà la X1900? Potresti definire il termine "spaccare a metà"? Parliamo di vga o di motoseghe?
:D
E pensare che una persona anche al di sotto della media nazionale come quoziente intellettivo avrebbe capito che si tratta di una metafora...
Bhè, evidentemente dovresti ridimensionarti nella tua autovalutazione complessiva...
Aristocrat74
30-01-2006, 16:11
grazie vifani .riesci a rendere le cose incasinate facili da capire
:mano:
Ti correggo, il termine esatto è "spacca a metà", quindi c'è da definire se spacca a metà in base alla superficie, quindi in due parti congruenti, oppure spacca a metà in base al peso, e qui la cosa si fa più complicata perchè il peso del dissipatore gioca una carta molto importante. Nvidiai deve essersi data alle motoseghe :D
E ancora, questa dovrebbe essere la "capacità di sintesi" di uno che si definisce dottore da quasi un anno? No perchè è preoccupante... Sti nuovi ordinamenti hanno proprio "spaccato a metà" la cultura italiana... :asd:
Ti è chiaro adesso? :asd:
Quindi il fatto che la 7900GTX "spacchi a metà" la X1900 sono tue illazioni e fantasie? Tutte frasi buttate lì a caso? Ok, l'importante è saperlo, perchè poi magari c'è gente che ci crede :asd:
Io non tifo per un brand. Guardo l'andamento del mercato. E il mercato impone che nvidia se ne uscirà con un prodotto che *probabilmente* starà, almeno marginalmente, sopra. Se poi mi sbaglio, felice di sbagliarmi. Beato chi ha preso una X1900. Il brandismo lo lascio a te. A me non interessa.
Foglia Morta
30-01-2006, 16:18
...cut...Tuttavia bisogna considerare che in G71 per "sfamare" 32 TMU bisogna far uso di cache interne di grandi dimensioni e di una banda passante molto elevata, specie se le texture hanno una risoluzione elevata. Quindi le voci che parlano di frequenze maggiori per la memoria di G71 rispetto alle X1900XTX, probabilmente sono attendibili...cut...
Grazie , hai idea di quanto dovrebbero essere veloci le memorie di un ipotetico G71 750 Mhz e 32 pipeline ? Perchè che io sappia attualmente le GDDR più veloci sono a 1.800Mhz
Foglia Morta
30-01-2006, 16:21
E ancora, questa dovrebbe essere la "capacità di sintesi" di uno che si definisce dottore da quasi un anno? No perchè è preoccupante... Sti nuovi ordinamenti hanno proprio "spaccato a metà" la cultura italiana... :asd:
Ti è chiaro adesso? :asd:
per fortuna non volevi flame... mi pare che tu ce la stia mettendo tutta.
E ancora, questa dovrebbe essere la "capacità di sintesi" di uno che si definisce dottore da quasi un anno? No perchè è preoccupante... Sti nuovi ordinamenti hanno proprio "spaccato a metà" la cultura italiana... :asd:
Ti è chiaro adesso? :asd:
Certo, l'unico intelligente qui sei tu. Vediamo se un paio di segnalazioni fanno sì che ti calmi ;)
P.S. Invidioso del mio titolo di studio? L'università è aperta a tutti ;)
Non penso che nessuno attualmente possa dire cosa spacca a metà cosa nel confronto tra G71 e R580 non solo perché si tratta di un'analisi che deve tener conto di innumerevoli fattori, ma anche perché attualmente non conosciamo le specifiche reali di G71. Possiamo fare qualche supposizione.
Supponendo che le specifiche segnalate in questa news corrispondano alla realtà e che l'architettura di una Pixel Shader Unit di G71 è uguale a quelle di G70, possiamo effettuare le seguenti considerazioni.
G71 nella sua versione a 32 pipeline possiede 32 pixel shader unit ognuna composta da 2 ALU. Ogni ALU è in grado di eseguire 4 operazioni di tipo MAD per un totale di 8 MAD per PSU. A questa va aggiunta una normalizzazione su vettori FP16. Poiché non c'è indipendenza tra ALU e TMU, ogni pipeline di G71 potrà eseguire 8 MAD + una normalizzazione FP16 oppure 4 MAD + 1 texture fetch + una normalizzazione FP16 per ciclo di clock.
Considerando le 32 pipeline, G71 sarà complessivamente in grado di eseguire qualcosa come: 256 MAD + 32 normalizzazioni FP16 oppure 128 MAD + 32 texture fetch + 32 normalizzazioni FP16.
Passiamo a R580. Questo possiede 48 PSU ognuna dotata di due ALU ed in grado di eseguire 4 MAD + 4 ADD + 1 texture fetch. R580 in virtù delle 48 PSU e delle 16 TMU quindi elabora per ciclo di clock 192 MAD + 192 ADD + 16 texture fetch
Ci sarebbero altre cose da considerare come la possibilità di eseguire il cosìddetto co-issue, cioè la gestione di vettori 3 + 1 o 2 + 2 per le schede G71, ma qui entriamo molto nello specifico.
La realtà è che entrambe le GPU sono eccezionali dal punto di vista computazionale. Definire quale delle due è la migliore è molto difficile. Da questa sommaria analisi emerge che G71 sarà sicuramente in vantaggio facendo uso di shaders poco complessi aritmeticamente e molti texture fetch. In questo caso le sue 32 pipeline dovrebbero lavorare a pieno regime. Aumentando la complessità matematica e riducendo i texture fetch, invece, le cose si complicano leggermente per G71 perché nel migliore dei casi potrà eseguire 256 MAD per ciclo di clock, ma quei pochi texture fetch taglieranno fuori alcune ALU e quindi alla fine ne esce penalizzato. Con R580 il discorso è diametralmente opposto: molte operazioni matematiche e pochi texture fetch sono la sua manna, anche se probabilmente una situazione con molti texture fetch la gestisce abbastanza bene grazie alla indipendenza delle ALU dalle TMU. E' chiaro, però, che se i texture fetch aumentano molto, le 16 TMU diventano un limite e le PSU rimarranno in attesa di dati facendo perdere cicli di clock. Tuttavia bisogna considerare che in G71 per "sfamare" 32 TMU bisogna far uso di cache interne di grandi dimensioni e di una banda passante molto elevata, specie se le texture hanno una risoluzione elevata. Quindi le voci che parlano di frequenze maggiori per la memoria di G71 rispetto alle X1900XTX, probabilmente sono attendibili.
Considerate che non abbiamo analizzato cose come l'efficienza nello spartimento delle operazioni tra le varie ALU, la capacità di rimuovere superfici nascoste (che diminuisce il numero di calcoli richiesti a livello di pixel shading), ecc.... Alla fine il successo di una o l'altra architettura dipenderà molto dalla loro efficienza in generale e da come sono e saranno fatti gli shaders dei videogames attuali e futuri.
Analisi per cui, anche se non lo posso dire con certezza, se non altro rende motivata la mia supposizione. Supposizione che se lo si permette, ho il sacrosanto diritto di fare senza essere aggredito dai soliti deficienti che popolano questi thread e per cui spero i moderatori prendano dei seri provvedimenti, perchè è troppo tempo che queste sezioni sono diventate infrequentabili senza poter esprimere una propria opinione.
Non si può fare una propria supposizione per sentirsi commenti del calibro di "come lo sai" ecc. ecc. e via discorrendo. Spero che finisca presto quest'aria canzonatoria a favore di uno o l'altro brand perchè è davvero seccante.
Scusate ragazzi, piccolo OT. Non entro nel merito di chi ha ragione e di chi ha torto, però lasciatevi dire che personalmente trovo molto triste vedere sfociare così spesso discussioni di news e articoli in segnalazioni, sospensioni, ecc... Forse una maggiore riflessione, una maggiore tolleranza ed una minore voglia di "cercare" lo scontro a tutti i costi con frecciate varie, gioverebbero non poco alla qualità ed alla longevità delle discussioni.
mjordan e djlode... direi che può bastare così...
(quoto in toto Vifani)
Analisi per cui, anche se non lo posso dire con certezza, se non altro rende motivata la mia supposizione. Supposizione che se lo si permette, ho il sacrosanto diritto di fare senza essere aggredito dai soliti deficienti che popolano questi thread e per cui spero i moderatori prendano dei seri provvedimenti, perchè è troppo tempo che queste sezioni sono diventate infrequentabili senza poter esprimere una propria opinione.
Non si può fare una propria supposizione per sentirsi commenti del calibro di "come lo sai" ecc. ecc. e via discorrendo. Spero che finisca presto quest'aria canzonatoria a favore di uno o l'altro brand perchè è davvero seccante.
Giusto per lasciare ai posteri tale perla. La sezione News per colpa di certa gente è andata completamente a scatafascio.
Certo, l'unico intelligente qui sei tu. Vediamo se un paio di segnalazioni fanno sì che ti calmi ;)
P.S. Invidioso del mio titolo di studio? L'università è aperta a tutti ;)
Io invece mi sento di essere in pieno regolamento. E sento invece che non riesco a portare avanti una mia supposizione senza dover tener testa ai vostri toni canzonatori che sono molto fastidiosi. Se avete qualcosa contro di me, vi prego di contattarmi in privato, altrimenti mi viene da pensare soltanto che state postando qui' per bisogno di protagonismo. Io non ho bisogno di protagonismo, se avete qualcosa da risolvere con me parlatene con me in privato, senza rendere illeggibile questo thread con toni di scherno verso chi fa dei commenti in topic con il thread stesso. Ora se vi dispiace, mi piacerebbe leggere dei commenti seri in merito. Meno male che ci sta Vifani che ogni tanto fa qualche commento come si deve e sprona a rientrare in carreggiata.
Foglia Morta
30-01-2006, 16:36
Scusate ragazzi, piccolo OT. Non entro nel merito di chi ha ragione e di chi ha torto, però lasciatevi dire che personalmente trovo molto triste vedere sfociare così spesso discussioni di news e articoli in segnalazioni, sospensioni, ecc... Forse una maggiore riflessione, una maggiore tolleranza ed una minore voglia di "cercare" lo scontro a tutti i costi con frecciate varie, gioverebbero non poco alla qualità ed alla longevità delle discussioni.
Vifani nessuno ha doti di preveggenza e non lo pretendo... solo una tua personale idea:
Grazie , hai idea di quanto dovrebbero essere veloci le memorie di un ipotetico G71 750 Mhz e 32 pipeline ? Perchè che io sappia attualmente le GDDR più veloci sono a 1.800Mhz
:ave: :ave: , muoio dalla curiosità :D
per fortuna non volevi flame... mi pare che tu ce la stia mettendo tutta.
Io ho postato una mia opinione personale e sono stato aggredito con toni canzonatori. Se si leggono i post dietro, ti rendi conto che il tono di presa per il sedere non è stato instanziato da me ma da ben altri soggetti, per altro famosi quando si parla di flame.
Io ho postato una mia opinione personale e sono stato aggredito con toni canzonatori.
... e anche tu non hai esitato a dare del deficiente ad altri... per cui vedi di piantarla pure te! :rolleyes:
Giusto per lasciare ai posteri tale perla. La sezione News per colpa di certa gente è andata completamente a scatafascio.
Ti ho giò detto che se ti senti in dovere di chiarire, di contattarmi in PVT, lasciando libero il thread da queste polemiche e da questi bisogni di protagonismo pubblico. Se non vuoi leggermi, hai il bottone ignore, se invece vuoi chiarire, hai il bottone PVT. Non capisco cosa vuoi. Prima mi denigri e mi schernisci e adesso cosa pretendi? Vieni in PVT e spiegami cos'hai contro di me è quello che ho detto. Mi pare di essere abbastanza civile in merito.
Qui in pubblico invece vorrei parlare di schede grafiche. Sempre che ce lo consenti.
Analizziamo questo tuo post...
Non è questione di fare incavolare, però quando si fanno i paragoni almeno che si facciano sensati. Mi vieni a dire che nVidia propone un'architettura "vecchia". Io vedo allora che di un'architettura "nuova" non ce n'era bisogno, visto che G71 spacca a metà la X1900. Con un'architettura "vecchia", per giunta. Il problema è che cosa ci vuoi mettere dentro una scheda con un'architettura "nuova"? Ormai le schede DX9 sono al capolinea, a parte stirare frequenze da fare c'è rimasto ben poco. Queste sono le ultime superstiti. Dopodichè si ricomincia il ciclo.
Yossarian... uno degli utenti con più esperienza nel campo delle schede video e vero guru del settore, ti riprende GIUSTAMENTE in quanto tu hai postato cose come date per certe!!!
wow, non sappiamo ancora neppure come sarà G71 e tu hai già i risultati dei bench?!?
Perchè non posti qualcosa in anteprima? :D
Post più che legittimo (la g71 anora non c'è!)
e tu te ne esci con:
Un altro commento idiota.
Ammetterai che il tuo comportamento è assolutamente censurabile, spero...
Adesso mi fate davvero imestialire... ogni volta che c'è una news/articolo su:
- schede video
- cpu
- S.O.
c'è sempre qualcuno pronto a rovinare la discussione in nome della sua marca preferita... mi volete più carogna?!?!? ok!... accomodatevi pure...
... e anche tu non hai esitato a dare del deficiente ad altri... per cui vedi di piantarla pure te! :rolleyes:
Hai ragione e chiedo scusa in merito. Solo che sono stanco del fatto che non si puo' fare un commento personale senza doversi sentire aggrediti. Ho solo detto che probabilmente la 7900GTX sarà superiore alla X1900. Senza toni di preferenza per un brand, ma solo vedendo il mercato. E ogni volta ci si deve sentire aggrediti dai soliti che non fanno altro che "insultare moralmente", perchè io sono stato canzonato nel mio commento. Quindi io ho detto una parola che magari dentro non ci stava, però spero che finisca questo astio nei confronti di chi posta in topic, esprimendo una propria opinione.
Ho solo detto che probabilmente la 7900GTX sarà superiore alla X1900.
No no... hai detto che la "g71 spacca a metà la x1900" per poi prendere per il culo chi ti ha chiseto di motivare le tue certezze!!!... per cui o adesso ti scusi PUBBLICAMENTE con yossarian o ti becchi una sospensione (che ti stavo già per comminare)... sono stufo agro di questa situazione
CUT
Tolgo tutto perchè a fronte di quanto hai detto voglio un'opinione. Ati per implementare certe cose ha creato una sorta di ibrido tra una gpu "tradizionale" e una gpu con shader unificati (passami la semplificazione). Vedi del tutto improbabile che Nvidia abbia da parte una cosa del genere? Passi pure il processo produttivo inferiore, ma integrare 8 pipelines in più e un adeguato numero di registri, porterebbe forse i transistor ad una quantità "impegnativa", sopratutto alle frequenze che si leggono in giro. Quindi un'architettura nuova, che si possa adattare in futuro alle DX10 (che non prevedono necessariamente all'interno della gpu la presenza di shader generici) e ai nuovi standard, per integrare qualcosa di nuovo (se vuole fare HDR FP + AA deve necessariamente cambiare le pipelines). Non so se mi sono spiegato. Perchè messa come pare essere (una GTX con 8 pipelines in più), sembrerebbe avere un sacco di potenza bruta, ma ancora molti punti deboli con shader molto complessi.
Tenendo conto anche di quello che ha detto Vifani, non si può dire quanta velocità serve. Mi spiego:
E' possibile fare calcoli della banda fissa consumata. Avanzerà un tot di banda X. Se il gioco in questione consumerà meno di X per le texture ed altre amenità... gli fps saranno limitati solo dalle pixel pipeline e/o TMU e/o ROPs e/o vertex unit e/o CPU. Altrimenti saranno limitate dalla RAM.
E' chiaro che con opportune impostazioni (immagino Quake 4 con qualità ultra) si può prevedere di saturare anche i 54,4GB/s delle GDDR3 a 1800MHz, però io non lo darei per certo. Bisogna fare i conti ed io non ho i dati.
E' un po' come un motore che è alimentato da una pompa: se per avere 200 cavalli (fps), richiede 54,4 litri all'ora (GB/s) e la pompa non ce la fa a darliele, allora non puoi avere 200, ma di meno. Se allarghi il tubo (aumenti la banda della ram) oppure costruisci un motore più efficiente (abbassi le richieste per fotogramma: texture più piccole o più compresse, meno poligoni, meno risoluzione, meno filtri) allora ci puoi arrivare...
Foglia Morta
30-01-2006, 17:06
Tolgo tutto perchè a fronte di quanto hai detto voglio un'opinione. Ati per implementare certe cose ha creato una sorta di ibrido tra una gpu "tradizionale" e una gpu con shader unificati (passami la semplificazione). Vedi del tutto improbabile che Nvidia abbia da parte una cosa del genere? Passi pure il processo produttivo inferiore, ma integrare 8 pipelines in più e un adeguato numero di registri, porterebbe forse i transistor ad una quantità "impegnativa", sopratutto alle frequenze che si leggono in giro. Quindi un'architettura nuova, che si possa adattare in futuro alle DX10 (che non prevedono necessariamente all'interno della gpu la presenza di shader generici) e ai nuovi standard, per integrare qualcosa di nuovo (se vuole fare HDR FP + AA deve necessariamente cambiare le pipelines). Non so se mi sono spiegato. Perchè messa come pare essere (una GTX con 8 pipelines in più), sembrerebbe avere un sacco di potenza bruta, ma ancora molti punti deboli con shader molto complessi.
se ricordo bene una pipeline di G70 sono 9 milioni di transistor , 9x8=72+302=374Mln , praticamente come R580 , non sono un problema
Foglia Morta
30-01-2006, 17:11
Tenendo conto anche di quello che ha detto Vifani, non si può dire quanta velocità serve. Mi spiego:
E' possibile fare calcoli della banda fissa consumata. Avanzerà un tot di banda X. Se il gioco in questione consumerà meno di X per le texture ed altre amenità... gli fps saranno limitati solo dalle pixel pipeline e/o TMU e/o ROPs e/o vertex unit e/o CPU. Altrimenti saranno limitate dalla RAM.
E' chiaro che con opportune impostazioni (immagino Quake 4 con qualità ultra) si può prevedere di saturare anche i 54,4GB/s delle GDDR3 a 1800MHz, però io non lo darei per certo. Bisogna fare i conti ed io non ho i dati.
E' un po' come un motore che è alimentato da una pompa: se per avere 200 cavalli (fps), richiede 54,4 litri all'ora (GB/s) e la pompa non ce la fa a darliele, allora non puoi avere 200, ma di meno. Se allarghi il tubo (aumenti la banda della ram) oppure costruisci un motore più efficiente (abbassi le richieste per fotogramma: texture più piccole o più compresse, meno poligoni, meno risoluzione, meno filtri) allora ci puoi arrivare...
giusto , per conoscere eventuali limiti allora bisognerà testare la gpu in condizioni molto stressanti per la banda passante , tipo filtri al massimo ( che poi è la condizione di utilizzo preferibile per 600 euro di spesa ) :)
se ricordo bene una pipeline di G70 sono 9 milioni di transistor , 9x8=81+302=383Mln , praticamente come R580 , non sono un problema
Io non mi ricordo quanti transistor sono... effettivamente se così fosse non sarebbe un gran problema. Anche se R580 mi pare sia 350 milioni. Però non sono molto ferrato per dire quanto possa incidere la differenza e se sia effettivamente fattibile una gpu da 390milioni di transistor e 750mhz di frequenza.
Foglia Morta
30-01-2006, 17:19
Io non mi ricordo quanti transistor sono... effettivamente se così fosse non sarebbe un gran problema. Anche se R580 mi pare sia 350 milioni. Però non sono molto ferrato per dire quanto possa incidere la differenza e se sia effettivamente fattibile una gpu da 390milioni di transistor e 750mhz di frequenza.
R580 sono 384Mln , figurati che in teoria non sarebbero impossibili 24 Rops e 32pipeline , difficili ma non impossibili . si vedrà
Beh, non conta il numero di transistors, ma l'architettura: pensa che alcune versioni di Itanium 2 con quantità spropositate di cache, hanno 1 miliardo (!!!) di transistors e girano dagli 1,2 ai 1,6 (mi pare) GHz...
Grazie , hai idea di quanto dovrebbero essere veloci le memorie di un ipotetico G71 750 Mhz e 32 pipeline ? Perchè che io sappia attualmente le GDDR più veloci sono a 1.800Mhz
Non ho idea. Purtroppo su G71 non so assolutamente niente. Comunque è presumibile che usino le stesse memorie delle GeForce 7800 GTX 512 MB.
Tolgo tutto perchè a fronte di quanto hai detto voglio un'opinione. Ati per implementare certe cose ha creato una sorta di ibrido tra una gpu "tradizionale" e una gpu con shader unificati (passami la semplificazione). Vedi del tutto improbabile che Nvidia abbia da parte una cosa del genere? Passi pure il processo produttivo inferiore, ma integrare 8 pipelines in più e un adeguato numero di registri, porterebbe forse i transistor ad una quantità "impegnativa", sopratutto alle frequenze che si leggono in giro. Quindi un'architettura nuova, che si possa adattare in futuro alle DX10 (che non prevedono necessariamente all'interno della gpu la presenza di shader generici) e ai nuovi standard, per integrare qualcosa di nuovo (se vuole fare HDR FP + AA deve necessariamente cambiare le pipelines). Non so se mi sono spiegato. Perchè messa come pare essere (una GTX con 8 pipelines in più), sembrerebbe avere un sacco di potenza bruta, ma ancora molti punti deboli con shader molto complessi.
Se vuole fare HDR + AA deve modificare le ROPs, non le pipeline e non vedo così improbabile una modifica di questo tipo già su G71. Per il resto penso che G71 dal punto di vista organizzativo seguirà la stessa organizzazione di G70/NV40.
Tra l'altro non ricordo esattamente dove, ma ricordo che in una intervista fatta ad un membro di NVIDIA (se non erro Kirk), si affermava che la necessità di sviluppare ad ogni costo un'architettura hardware a shader unificati non c'è. Le DirectX 10 possono essere supportate anche da architetture analoghe a quelle di G70, ma con le dovute modifiche in termini di calcolo e funzionalità delle ALU in maniera da supportare quanto è necessario per arrivare ad un prodotto DX10 compliant.
Quindi io non sono molto sicuro che G80 avrà un'architettura hardware a shader unificati, pur supportando le DirectX 10. Sicuramente vista l'esperienza maturata da ATI con R500 per XBOX360, è molto più probabile che questo genere di soluzione venga adottata a livello hardware da ATI nella sua prossima generazione di chip grafici per PC.
Comunque di questo si parlerà a suo tempo. Non è detto che un approccio sia sicuramente migliore dell'altro. Dipende da tantissimi fattori che attualmente non conosciamo.
yossarian
30-01-2006, 19:46
E pensare che una persona anche al di sotto della media nazionale come quoziente intellettivo avrebbe capito che si tratta di una metafora...
Bhè, evidentemente dovresti ridimensionarti nella tua autovalutazione complessiva...
e tu dovresti ridimensionarti e basta; e comunque non hai risposto alla domanda. Sto aspettando i bench, oppure un'analisi tecnica che giustifichi le tue affermazioni
Foglia Morta
30-01-2006, 20:12
Io non mi ricordo quanti transistor sono... effettivamente se così fosse non sarebbe un gran problema. Anche se R580 mi pare sia 350 milioni. Però non sono molto ferrato per dire quanto possa incidere la differenza e se sia effettivamente fattibile una gpu da 390milioni di transistor e 750mhz di frequenza.
ho editato :read: il post che mi hai quotato :D , 9x8 fa 72 , ci ho messo qualche ora per fare quella moltiplicazione :ops2:
Confermo la sospensione a mjordan...
Adesso basta con OT! ;)
yossarian
30-01-2006, 21:04
Grazie , hai idea di quanto dovrebbero essere veloci le memorie di un ipotetico G71 750 Mhz e 32 pipeline ? Perchè che io sappia attualmente le GDDR più veloci sono a 1.800Mhz
dipende sempre dal numero di rop's; se restano 16, allora a 750 MHz, dovrebbero lavorare a circa 2400 MHz per avere lo stesso rapporto bandwidth/fillrate della versione a 512 MB di G70; con 24 rop's le cose si fanno molto più complicate, perchè parliamo di 3500 MHz
e tu dovresti ridimensionarti e basta; e comunque non hai risposto alla domanda. Sto aspettando i bench, oppure un'analisi tecnica che giustifichi le tue affermazioni
Pensavo che la discussione fosse chiusa. Allora illustro quello che ho spiegato a Raven in PVT. La situazione è nata da una mia frase che evidentemente è stata fuorviante, ma del tutto involontaria. Spiego bene la situazione. Io ho detto che la "7900GTX spacca a metà la X1900XT". Questo ha dato adito ad una flame immotivata, infatti sono stato completamente travisato, perchè quello che volevo dire non è quello che ho lasciato intendere. In un mercato dove due schede grafiche hanno risultati fra di loro pressochè allineati e si combattono continuamente lo scettro della piu' veloce a colpi di benchmark, molte volte una scheda di qualche punto percentuale meno veloce viene giudicata "fallimentare", secondo il gergo comune. La mia frase intendeva non una "vittoria schiacciante" come ho potuto far intendere, lasciando presagire uno spirito di "fanboyism". Quello che intendevo è che, probabilmente, vedendo il mercato allo strenuo delle proprie capacità, nVidia avrebbe rilasciato una scheda che, secondo i benchmark, potrebbe essere stata quello che è oggi la X1900 con la 7800GTX. I condizionali sono d'obbligo, visto che la scheda non è uscita e di dati, come non ne ho io, non ne avete neanche voi. Siamo quindi in tema di discussione su una scheda che non esiste. E' quindi logico fare delle supposizioni personali su ciò che sarà la scheda. Per fare le supposizioni personali, l'unico mezzo che abbiamo attualmente sono le caratteristiche tecniche che probabilmente saranno implementate nella scheda. Il mio tono, quindi, era tutt'altro che da fanboy. Ho soltanto usato una frase sbagliata nel posto sbagliato. Sbagliata se letta superficialmente e asetticamente, nel senso che per "vittoria schiacciante" era comunque inteso il concetto di "fallimentare" che come luogo comune si assegna a una scheda che in media fa 30 3DMarks di meno. Era quindi una situazione mitigata, quella che volevo evidenziare. Evidentemente ho usato una frase inopportuna. Quindi, io mjordan, personalmente chiedo scusa se la mia frase (involontaria, ripeto) abbia causato una flame. E di questo mi faccio carico delle mie responsabilità personalmente (ho 27 anni, non ho problemi ad ammettere pubblicamente se ho sbagliato nell'esprimere un concetto). Vorrei invece invitare a riflettere che comunque è un'atteggiamento sbagliato partire subito con tono canzonatorio senza prima essersi accertati di per certo ciò che la persona voleva esprimere per almeno due motivi. Il soggetto accusato potrebbe essersi spiegato male (chi non lo fa, siamo tutti fallibili, può succedere a chiunque). Il secondo motivo è quello che è meglio rivolgersi subito ad un moderatore, qualora ci siano dubbi, onde evitare flame immotivate nate da un'incomprensione come questa che si sarebbe smorzata subito e senza conseguenze all'arrivo del moderatore stesso (e su questo sarete tutti d'accordo, suppongo, visto che dovrebbe essere l'atteggiamento di DEFAULT su un forum pubblico di discussione). In fondo, come di dati non ne ho io, non ne avete neanche voi. E quindi è corretto che la discussione, almeno secondo la mia opinione, rimanga in termini dialogativi e di approfondimento, senza partire con inutili denigrazioni. Quindi rinnovo le mie personali scuse per l'atteggiamento all'inizio involontario e successivamente "riscaldato" con l'invito ad essere meno asettici e in sostanza piu' rilassati. Se i lassativi eliminano problemi di stitichezza, la rilassatezza elimina problemi di flame (e aumenta la comprensione fra utenti, aggiungerei :sofico: ) (Ok, lo so, ho fatto un paragone di mer.... :D )
Quindi per quanto mi riguarda, la questione può essere chiusa pacificamente. Spero sia altrettanto per voi. :mano:
E ora possiamo tornare a parlare di G71 :O
ho editato :read: il post che mi hai quotato :D , 9x8 fa 72 , ci ho messo qualche ora per fare quella moltiplicazione :ops2:
E io ti ho pure dato ragione :muro:
Foglia Morta
30-01-2006, 21:46
dipende sempre dal numero di rop's; se restano 16, allora a 750 MHz, dovrebbero lavorare a circa 2400 MHz per avere lo stesso rapporto bandwidth/fillrate della versione a 512 MB di G70; con 24 rop's le cose si fanno molto più complicate, perchè parliamo di 3500 MHz
Grazie mille! Infatti ricordavo da altre tue spiegazioni passate l'esistenza di un rapporto importante a tal proposito ma nello specifico mi sfuggiva :)
E io ti ho pure dato ragione :muro:
Così la prossima volta ci penserai su 2 volte prima di darmi ragione :Prrr:
yossarian
30-01-2006, 23:34
Pensavo che la discussione fosse chiusa. Allora illustro quello che ho spiegato a Raven in PVT. La situazione è nata da una mia frase che evidentemente è stata fuorviante, ma del tutto involontaria. Spiego bene la situazione. Io ho detto che la "7900GTX spacca a metà la X1900XT". Questo ha dato adito ad una flame immotivata, infatti sono stato completamente travisato, perchè quello che volevo dire non è quello che ho lasciato intendere. In un mercato dove due schede grafiche hanno risultati fra di loro pressochè allineati e si combattono continuamente lo scettro della piu' veloce a colpi di benchmark, molte volte una scheda di qualche punto percentuale meno veloce viene giudicata "fallimentare", secondo il gergo comune.
questa versione è molto differente dalla precedente; e comunque, i parametri per giudicare fallimentare o meno un progetto sono ben altri che non qualche punto percentuale in meno su qualche specifico test.
Personalemente non ho giudicato fallimentare neppure NV3x (anche se ci sarebbero stati molti fondati motivi per farlo), perchè un giudizio del genere è frutto di un'analisi superficiale delle cose. In NV40 e in G70 c'è, di NV3x, più di quanto molti possano immaginare
La mia frase intendeva non una "vittoria schiacciante" come ho potuto far intendere, lasciando presagire uno spirito di "fanboyism". Quello che intendevo è che, probabilmente, vedendo il mercato allo strenuo delle proprie capacità, nVidia avrebbe rilasciato una scheda che, secondo i benchmark, potrebbe essere stata quello che è oggi la X1900 con la 7800GTX. I condizionali sono d'obbligo, visto che la scheda non è uscita e di dati, come non ne ho io, non ne avete neanche voi.
il condizionale è d'obbligo, ma la tua affermazione precedente è stata categorica. Affinchè ci possa essere dialogo, è necessario un atteggiamento e un linguaggio che non lascino adito a equivoci di sorta.
Entrando nello specifico, tu pensi che sia facile decretare la vittoria, schiacciante o meno, di una soluzione rispetto ad un'altra?
Ad esempio, Vifani è stato criticato per aver fatto test con il massimo livello qualitativo possibile tra G70 e R520 prima e tra G70 e R580 adesso. Critiche da un lato giuste, perchè l'8xs di nVIDIA utilizza un 2x di supersampling (che sappiamo quanto sia pesante). Però è anche vero che ATi fornisce un 6x con una "spesa" molto piccola rispetto al 4x, mentre il 4x di NV non è all'altrezza del 6x di ATi; inoltre, NV lavora a fp16 e ATi a fp32. Qualcuno ha giustamente obiettato che fp16 di NV è un valore aggiunto (ed è quindi corretto utilizzare fp16); discorso analogo, allora, per la qualità massima offerta dai due chip: il 6x e l'AF non adaptive di ATi sono valori aggiunti che danno qualcosa in più a livello di IQ senza degrado prestazionale; quindi sarebbero giusti anche i test fatti con la massima IQ possibile per i due chip. In tal caso (o in caso di utilizzo di fp32, molte delle attuali valutazioni andrebbero riviste).
Siamo quindi in tema di discussione su una scheda che non esiste. E' quindi logico fare delle supposizioni personali su ciò che sarà la scheda. Per fare le supposizioni personali, l'unico mezzo che abbiamo attualmente sono le caratteristiche tecniche che probabilmente saranno implementate nella scheda.
infatti, si tratta di una scheda che non esiste. E non perchè non se ne conoscono le specifiche tecniche (qui dentro potrebbe anche esserci qualcuno che già le conosce), ma perchè non ha senso discutere su qualcosa che non è ancora stato ufficializzato. E se si ragione per "presunte specifiche", non si arriva molto lontano, in quando dalla teoria alla pratica (prestazioni), ce ne corre. Prima, Raffaele ha cercato di fare un'analisi approssimativa di un ipotetico confronto tra G71 e R580, innanzitutto premettendo "se le caratteristiche dovessero essere quelle"; in secondo luogo, ipotizzando il funzionamento nel caso migliore per entrambe. Ovvio che, per brevità di trattazione e per non scendere troppo in dettagli tecnici anche difficili da comprendere, non ha parlato di tanti aspetti (come ad esempio la differente capacità dei due chip nel nascondere operazioni ad elevate latenze, oppure delle differenti prestazioni nelle operazioni di blending con l'utilizzo di 32 o 64 bit, oppure dei vantaggi che può portare un'architettura con tmu interne e quelli di una con tmu esterne alle pipeline o, ancora, la capacità di gestire le operazioni di "thread switching" all'interno della pipeline, che sono frutto della diversa gestione dei registri temporanei da parte dei due chip.
Tutti parametri che, a seconda dell'applicazione, possono spostare l'ago della bilancia da una parte piuttosto che dall'altra e che rendono molto difficile una valutazione complessiva.
Il mio tono, quindi, era tutt'altro che da fanboy. Ho soltanto usato una frase sbagliata nel posto sbagliato. Sbagliata se letta superficialmente e asetticamente, nel senso che per "vittoria schiacciante" era comunque inteso il concetto di "fallimentare" che come luogo comune si assegna a una scheda che in media fa 30 3DMarks di meno.
personalmente trovo molto interessanti i bench sintetici, anche più dei test in game, ma non mi interessa il 3DMark :D
Era quindi una situazione mitigata, quella che volevo evidenziare. Evidentemente ho usato una frase inopportuna. Quindi, io mjordan, personalmente chiedo scusa se la mia frase (involontaria, ripeto) abbia causato una flame. E di questo mi faccio carico delle mie responsabilità personalmente (ho 27 anni, non ho problemi ad ammettere pubblicamente se ho sbagliato nell'esprimere un concetto).
per quanto mi riguarda, il flame, se c'è stato, non è stato causato da quella frase, ma dalle successive; capita a tutti di sbagliare, però io non mi sognerei mai di rivolgermi a qualcuno che mi fa notare che ho detto una cazzata, dandogli del deficiente o del bambino idiota; bjt2 e fek (tanto per fare due nomi), possono essere testimoni di ciò che dico.
Vorrei invece invitare a riflettere che comunque è un'atteggiamento sbagliato partire subito con tono canzonatorio senza prima essersi accertati di per certo ciò che la persona voleva esprimere per almeno due motivi. Il soggetto accusato potrebbe essersi spiegato male (chi non lo fa, siamo tutti fallibili, può succedere a chiunque). Il secondo motivo è quello che è meglio rivolgersi subito ad un moderatore, qualora ci siano dubbi, onde evitare flame immotivate nate da un'incomprensione come questa che si sarebbe smorzata subito e senza conseguenze all'arrivo del moderatore stesso (e su questo sarete tutti d'accordo, suppongo, visto che dovrebbe essere l'atteggiamento di DEFAULT su un forum pubblico di discussione).
infatti, ti ho solo chiesto conto della tua prima affermazione, sorvolando, volutamente, sui successivi epiteti che mi hai rivolto. Forse perchè sono abituato così, oppure perchè ogni volta che faccio un'affermazione (a volte anche una battuta :D ), qualcuno mi chiede conto di ciò che ho detto, il mio atteggiamento nei confronti degli altri è dello stesso tipo; o ignoro quello che scrivono, oppure chiedo delle spiegazioni.
Per quanto riguarda le segnalazioni, non mi è mai capitato di dovermi rivolgere ad un mod per segnalare il comportamento scorretto di qualcun altro; sarà sbagliato, ma non è nella mia mentalità.
In fondo, come di dati non ne ho io, non ne avete neanche voi. E quindi è corretto che la discussione, almeno secondo la mia opinione, rimanga in termini dialogativi e di approfondimento, senza partire con inutili denigrazioni.
diventa difficile fare approfondimento, se non a livello di mere ipotesi, quando non si hanno dati concreti su cui discutere
Quindi rinnovo le mie personali scuse per l'atteggiamento all'inizio involontario e successivamente "riscaldato" con l'invito ad essere meno asettici e in sostanza piu' rilassati. Se i lassativi eliminano problemi di stitichezza, la rilassatezza elimina problemi di flame (e aumenta la comprensione fra utenti, aggiungerei :sofico: ) (Ok, lo so, ho fatto un paragone di mer.... :D )
Quindi per quanto mi riguarda, la questione può essere chiusa pacificamente. Spero sia altrettanto per voi. :mano:
E ora possiamo tornare a parlare di G71 :O
per quanto mi riguarda, la questione era chiusa da subito e sono rilassato adesso come lo ero qualche ora fa. Ci vuole altro che 2 chiacchiere su un forum per crearmi problemi di stress :D
Incidente (o come lo si voglia chiamare), chiuso
Chiedo scusa a Raven per l'ulteriore OT (ho cercato di condirlo con nozioni pseudotecniche :D )
Lud von Pipper
30-01-2006, 23:37
Ragazzi, imparate a metter davanti alle vostre opinioni un: "IMO" (in my opinion), "io penso che", "credo", "mi aspetto che", "Sono Convinto" ecc; dare un opinonie è un conto ma calare sentenze come se fossero fatti appurati o addirittura ovvi è irritante per gli altri oltre che molto arrogante.
Imparate a scrivere sul forum come si fa Faccia a faccia invece che nascosti dietro un NIC, e i flame caleranno in modo drastico.
Il rispetto per gli altri (anche per le idee) è alla base di una discussione civile.
Anche a me girano le balle certi giorni e magari rispondo inacidito, ma imparate a contare fino a dieci (o anche venti) prima di sparare una risposta di cui poi doversi pentire.
bjt2
La tua filosofia non mi convince molto: vuoi dire che spendendo "solo" 100 o 200€ per avere 2/3 FPS rxtra ogni sei mesi pensi di fare un affare?!?
Capisco la "malattia" (si chiama Compulsive Shopping Itch o anche CSI ;) ) ma penso che alla fine l'affare migliore lo faccia proprio chi si tiene una super scheda fino a fine vita operativa (3/4 anni), purchè quello che compra risponda alle sue esigenze effettive al momento dell'acquisto (nel senso che stia sostituendo una scheda obsoleta).
yossarian
30-01-2006, 23:39
Grazie mille! Infatti ricordavo da altre tue spiegazioni passate l'esistenza di un rapporto importante a tal proposito ma nello specifico mi sfuggiva :)
Così la prossima volta ci penserai su 2 volte prima di darmi ragione :Prrr:
con le attuali ram GDDR3 da 1800 MHz e 750 MHz di core, il rapporto sarebbe di 4,8, contro i 6,5 della GTX e i 6,54 della 512 MB (e la cosa desta qualche perplessità, perchè già con un rapporto molto più vantaggioso, il calo nelle situazioni più bandwidth limited era non indifferente).
p.s. il calcolo è molto semplice;
la bandwidth è data da: frequenza delle ram x ampiezza del bus / 8 (8 bit per ogni byte)
il fillrate è: numero di rop's x frequenza del core (o delle rop's se lavorano ad una frequenza diffente)
Basta fare il rapporto tra questi due valori per avere l'indice. E' ovvio che si tratta di dati teorici e validi solo in alcuni casi specifici; con shader complessi, ad esempio, non sono le rop's il collo di bottiglia dell'elaborazione <(quello che calcoli è il fillrate massimo teorico; quello reale è quasi sempre di molto inferiore)
questa versione è molto differente dalla precedente; e comunque, i parametri per giudicare fallimentare o meno un progetto sono ben altri che non qualche punto percentuale in meno su qualche specifico test.
Personalemente non ho giudicato fallimentare neppure NV3x (anche se ci sarebbero stati molti fondati motivi per farlo), perchè un giudizio del genere è frutto di un'analisi superficiale delle cose. In NV40 e in G70 c'è, di NV3x, più di quanto molti possano immaginare
Si si infatti ho scritto che volevo riprendere un luogo comune, ma anche io infatti la penso come te. Ed è proprio da quello che è nata la mia affermazione fuorviante. :)
il condizionale è d'obbligo, ma la tua affermazione precedente è stata categorica. Affinchè ci possa essere dialogo, è necessario un atteggiamento e un linguaggio che non lascino adito a equivoci di sorta.
Entrando nello specifico, tu pensi che sia facile decretare la vittoria, schiacciante o meno, di una soluzione rispetto ad un'altra?
Ad esempio, Vifani è stato criticato per aver fatto test con il massimo livello qualitativo possibile tra G70 e R520 prima e tra G70 e R580 adesso. Critiche da un lato giuste, perchè l'8xs di nVIDIA utilizza un 2x di supersampling (che sappiamo quanto sia pesante). Però è anche vero che ATi fornisce un 6x con una "spesa" molto piccola rispetto al 4x, mentre il 4x di NV non è all'altrezza del 6x di ATi; inoltre, NV lavora a fp16 e ATi a fp32. Qualcuno ha giustamente obiettato che fp16 di NV è un valore aggiunto (ed è quindi corretto utilizzare fp16); discorso analogo, allora, per la qualità massima offerta dai due chip: il 6x e l'AF non adaptive di ATi sono valori aggiunti che danno qualcosa in più a livello di IQ senza degrado prestazionale; quindi sarebbero giusti anche i test fatti con la massima IQ possibile per i due chip. In tal caso (o in caso di utilizzo di fp32, molte delle attuali valutazioni andrebbero riviste).
Sono stato categorico perchè parlavamo della stessa cosa con interpretazione dei contesti differenti. Ad esempio, pur non avendo dati obiettivi, sarai d'accordo con me che G71 è una GPU che ha creato (e continua a creare) un bel po di aspettativa. Io personalmente mi aspetto qualcosa in piu' di X1900. Le mie aspettative possono essere premiate come ovviamente essere deluse. Sono d'accordo che è molto difficile stabilire la "vittoria" (se cosi si può dire) di una soluzione rispetto all'altra. E' anche vero che se non dal discorso puramente tecnico, a volte il discorso economico fa la differenza. Insomma, mettere uno schedone di fascia alta a ogni release (denaro permettendo) sono capaci tutti. ;)
Io per esempio trovo molto piu' attrattive le schede di fascia media. Tutti fattori che chiaramente complicano l'analisi. Difatti in un recente articolo pubblicato da HWUpgrade sui processori, ho apprezzato parecchio il MoneyBench, perchè consente di distaccarsi un attimo dall'assuefazione tecnica e rimettere per un momento i "piedi per terra". L'ho apprezzato proprio per questo motivo. Speriamo di vedere qualcosa anche in ambito GPU in un prossimo futuro.
No. Anzi, se devo proprio dire come la penso, alla fine, fatti due conti
infatti, si tratta di una scheda che non esiste. E non perchè non se ne conoscono le specifiche tecniche (qui dentro potrebbe anche esserci qualcuno che già le conosce), ma perchè non ha senso discutere su qualcosa che non è ancora stato ufficializzato. E se si ragione per "presunte specifiche", non si arriva molto lontano, in quando dalla teoria alla pratica (prestazioni), ce ne corre. Prima, Raffaele ha cercato di fare un'analisi approssimativa di un ipotetico confronto tra G71 e R580, innanzitutto premettendo "se le caratteristiche dovessero essere quelle"; in secondo luogo, ipotizzando il funzionamento nel caso migliore per entrambe. Ovvio che, per brevità di trattazione e per non scendere troppo in dettagli tecnici anche difficili da comprendere, non ha parlato di tanti aspetti (come ad esempio la differente capacità dei due chip nel nascondere operazioni ad elevate latenze, oppure delle differenti prestazioni nelle operazioni di blending con l'utilizzo di 32 o 64 bit, oppure dei vantaggi che può portare un'architettura con tmu interne e quelli di una con tmu esterne alle pipeline o, ancora, la capacità di gestire le operazioni di "thread switching" all'interno della pipeline, che sono frutto della diversa gestione dei registri temporanei da parte dei due chip.
Tutti parametri che, a seconda dell'applicazione, possono spostare l'ago della bilancia da una parte piuttosto che dall'altra e che rendono molto difficile una valutazione complessiva.
E questo è proprio il motivo della difficolta estrema. Tanti di quei fattori che spostano l'ago che prenderli tutti in un'analisi è praticamente impossibile. Lo stesso discorso che facevo in un thread sulle prestazioni OpenGL VS Direct3D relative al disegno di vertici.
Alcuni avevano visto dei vecchi paragoni di OpenGL e Direct3D quando OpenGL non disponeva di vertex arrays, color arrays, texture coordinate arrays ecc. mentre Direct3D disponeva già degli execute buffers (per l'epoca dellarticolo che non ricordo). L'approccio "analitico" suggeriva che impacchettare piu' vertici e poi "spararli" (passatemi il termine) a schermo era sicuramente piu' efficiente di OpenGL con le sue continue chiamate a glVertex(). L'approccio pratico invece (cioè di chi utilizzava la libreria quotidianamente nel proprio lavoro per risovere problemi reali) vedeva concludere con la frase "Direct3D Execute Buffers are a real pain-in-the-ass feature. :asd: Tutt'altro di ciò che avrebbe suggerito l'intuito. :asd:
Mi riferisco al famoso paragone di Carmack:
glBegin (GL_TRIANGLES);
glVertex (0,0,0);
glVertex (1,1,0);
glVertex (2,0,0);
glEnd ();
con
v = &buffer.vertexes;[0];
v->x = 0; v->y = 0; v->z = 0; v++;
v->x = 1; v->y = 1; v->z = 0; v++;
v->x = 2; v->y = 0; v->z = 0;
c = &buffer.commands;
c->operation = DRAW_TRIANGLE;
c->vertexes[0] = 0;
c->vertexes[1] = 1;
c->vertexes[2] = 2;
IssueExecuteBuffer (buffer);
personalmente trovo molto interessanti i bench sintetici, anche più dei test in game, ma non mi interessa il 3DMark :D
In fondo anche un "test in game" può essere considerato "sintetico", o no? ;)
per quanto mi riguarda, il flame, se c'è stato, non è stato causato da quella frase, ma dalle successive; capita a tutti di sbagliare, però io non mi sognerei mai di rivolgermi a qualcuno che mi fa notare che ho detto una cazzata, dandogli del deficiente o del bambino idiota; bjt2 e fek (tanto per fare due nomi), possono essere testimoni di ciò che dico.
E' anche vero che c'è modo e modo di far notare una cazzata ;) Tutti sbagliano, tutti siamo fallibili. Se sbaglio, comunque ho il diritto di non essere deriso ;) Tu giustamente mi hai chiesto dei dati perchè avevi intuito tutt'altro da quello che avevo in mente io. Io ho reagito in quel modo perchè mi sono sentito attaccato ingiustamente. Spero di aver chiarito.
infatti, ti ho solo chiesto conto della tua prima affermazione, sorvolando, volutamente, sui successivi epiteti che mi hai rivolto. Forse perchè sono abituato così, oppure perchè ogni volta che faccio un'affermazione (a volte anche una battuta :D ), qualcuno mi chiede conto di ciò che ho detto, il mio atteggiamento nei confronti degli altri è dello stesso tipo; o ignoro quello che scrivono, oppure chiedo delle spiegazioni.
A me non hai chiesto spiegazioni, mi sono sentito deriso a priori. Non metto in dubbio che ho sbagliato io a valutare le sensazioni, though ;) (siamo tutti fallibili).
per quanto mi riguarda, la questione era chiusa da subito e sono rilassato adesso come lo ero qualche ora fa. Ci vuole altro che 2 chiacchiere su un forum per crearmi problemi di stress :D
Incidente (o come lo si voglia chiamare), chiuso
Chiedo scusa a Raven per l'ulteriore OT (ho cercato di condirlo con nozioni pseudotecniche :D )
Non importa, caso archiviato :D :mano:
Basta davvero sennò quà Raven diventa The Crow :asd:
GrrPulcy
31-01-2006, 03:13
Beh pero' ragazzi ce da dire ke "sicurametne" G71 spacchera' in 2 x1900xyz
ora schherzi flame e troi@te a parte penso passiate piu tempo a pensare come rispondere male ad una persona che ad informarvi (motivo per il quale non rispondo quasi mai a queste notizie, mejio leggere).
Non mi sento avvocato di nessuno ma credo che in questo thread non sia stato mjordan l'unico a superare il numero di pipeline disponibile sull'hwupgrade in questione. Penso che un flash del bios per sbloccare le rimanenti sia di dovere a patto di raffreddare il tutto adeguatamente sperando di non avere ulteriori artefatti... (beh cosi non potete dire ke sia andato trp ot)
per quanto invece riguarda il carattere tecnico e' risaputo che la scheda "successiva" e' generalmente piu performante come numeri da circo (intendo tali 50pti in + al 3dmark o a qualsiasi test) mentre spesso non si guarda piu (solo pochi lo fanno per lo piu denigrati da altra gente) la qalita' complessiva piuttosto che alle prestazioni velocistiche. Saremmo tutti (io no) capaci a creare una scheda che non renderizza immagini non fa niente di niente ha una gpu da 200MHz e fa 15000pti al 3dmark 200332.
Cio che mi chiedo piu che altro perche non viene sviluppata la tecnologia ring bus su soluzioni top di gamma o cmq provare un ipotetico "dual channel" tra i vari moduli di memoria (non sono ferrato in matera ma se fosse possibile... ;) )
x Lud von Pipper:
Beh... neanche a me :D . Non è la mia filosofia, ma solo un tentativo per ottimizzare le tasche di chi ha il prurito di avere sempre la scheda top di gamma al momento... :D Se avessi questa fissa... Farei così... Io non ho neanche un PC mio... :D (a parte un Think Pad del '96 con windows 98... ma vabeh... non lo considero nemmeno...) : io "campo" con il PC del lavoro, che è ben carrozzato, a parte la VGA (una Radeon 7000 fetente...)
ArcAngel
31-01-2006, 20:05
Qui c'ha azzeccato bene Heavymetal a pag.7 , la vera vergogna e' che se volessero ancora oggi potrebbero sviluppare dei giochi bellissimi con i quali schede di fascia media tipo una gto o una 6800gs con filtri attivi farebbero girare a mille(esempio da lui fatto per HL2)
Invece no, fanno giochi "ridicoli" nei quali una GTX raggiunge dei miseri 50-60 fps per non parlare di alcune scene in cui bisognerebbe piagliarla a calci in....ma vavava.
Athlon 64 3000+
31-01-2006, 22:04
Qui c'ha azzeccato bene Heavymetal a pag.7 , la vera vergogna e' che se volessero ancora oggi potrebbero sviluppare dei giochi bellissimi con i quali schede di fascia media tipo una gto o una 6800gs con filtri attivi farebbero girare a mille(esempio da lui fatto per HL2)
Invece no, fanno giochi "ridicoli" nei quali una GTX raggiunge dei miseri 50-60 fps per non parlare di alcune scene in cui bisognerebbe piagliarla a calci in....ma vavava.
Quoto!
Un'altra scheda che più per i giochi serve per gli inutili 3dmark visto che spendendo la metà giochi a tutto.
Non mi sento avvocato di nessuno ma credo che in questo thread non sia stato mjordan l'unico a superare il numero di pipeline disponibile sull'hwupgrade in questione. Penso che un flash del bios per sbloccare le rimanenti sia di dovere a patto di raffreddare il tutto adeguatamente sperando di non avere ulteriori artefatti... (beh cosi non potete dire ke sia andato trp ot)
:D :D :D
Non mi sento avvocato di nessuno ma credo che in questo thread non sia stato mjordan l'unico a superare il numero di pipeline disponibile sull'hwupgrade in questione. Penso che un flash del bios per sbloccare le rimanenti sia di dovere a patto di raffreddare il tutto adeguatamente sperando di non avere ulteriori artefatti... (beh cosi non potete dire ke sia andato trp ot)
Ci ho messo 20 minuti a capire che volevi dire ma poi ho capito...... :asd: :D
OverClocK79®
01-02-2006, 09:23
a me di G71 non tornano molto le alte frequenze dichiarate.
Pipeline etc etc possono anche essere veritiere ma IMHO non andrà a frequenze così elevate, si terrano su valori leggermente più bassi, in fin dei conti la 7800GTX512 non si comporta male ed ha una freq inferiore alla 1900XTX
credo che si accontenteranno di farla girare un po' più piano.
BYEZZZZZZZZZZZZZ
Si, ma se non aumentano la frequenza, con le 16 ROPs sono sempre limitati... I "vecchi" giochi con shader semplici non avranno benefici. Anche se le ROPs di ATI e NVIDIA sono diverse, si può assumere che 16 ROPs ATI a 650 MHz vadano più di 16 ROPs NVIDIA a 550MHz... IMHO devono almeno raggiungere le frequenze di ATI...
poverociccio
14-07-2006, 12:15
[QUOTE=Lud von Pipper]Ragazzi, imparate a metter davanti alle vostre opinioni un: "IMO" (in my opinion), "io penso che", "credo", "mi aspetto che", "Sono Convinto" ecc; dare un opinonie è un conto ma calare sentenze come se fossero fatti appurati o addirittura ovvi è irritante per gli altri oltre che molto arrogante.
Imparate a scrivere sul forum come si fa Faccia a faccia invece che nascosti dietro un NIC, e i flame caleranno in modo drastico.
Il rispetto per gli altri (anche per le idee) è alla base di una discussione civile.
Anche a me girano le balle certi giorni e magari rispondo inacidito, ma imparate a contare fino a dieci (o anche venti) prima di sparare una risposta di cui poi doversi pentire.
......e parli proprio tu von Pippone ? :read:
hai proprio un bel coraggio.....ammesso che nel tempo tu sia cresciuto e abbia abbandonato l'età infantile-adolescenziale, ma almenno statti zitto.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.