View Full Version : NVIDIA GeForce GTS 450, bus da 128 bit per GF106
Redazione di Hardware Upg
22-07-2010, 08:43
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gts-450-bus-da-128-bit-per-gf106_33316.html
Spuntano le prime informazioni su NVIDIA GeForce GTS 450, la soluzione destinata alla fascia media del mercato e basata su GF106
Click sul link per visualizzare la notizia.
ma dai,ci metto 20 dollari e mi prendo la 460...che senso ha...
moddingpark
22-07-2010, 08:57
Le GDDR5 clockate a 1,2 GHz sono assolutamente uno spreco di materiale e di soldi, visto che i chip odierni sono garantiti fino a 5 GHz.
@moddingpark
con 1,2ghz si intende il clock reale, che significa 1,2 x 4 = 4,8 ghz effettivi.
unnilennium
22-07-2010, 09:10
prima di giudicare, vedremo reali consumi, temperature, prezzo. certo che 128bit di bus sono pochi... ricordo ancora il flop delle 240... speriamo siano degne stavolta
hermanss
22-07-2010, 09:10
ma dai!
Kharonte85
22-07-2010, 09:12
Secondo me non ha molto senso parlare di "limitazione" per riferirsi a bus e memoria per una scheda che ci si aspetta essere di fascia inferiore (avrà anche meno SP)...detto come nella notizia sembra quasi una cosa negativa invece anche la HD5770 ha una bandwith di 76.8 GB/s e non a caso...
Le GDDR5 clockate a 1,2 GHz sono assolutamente uno spreco di materiale e di soldi, visto che i chip odierni sono garantiti fino a 5 GHz.
La velocità effettiva è 4800 lo puoi verificare guardando la recensione della HD5770 http://www.hwupgrade.it/articoli/skvideo/2301/ati-radeon-hd-5700-directx-11-per-la-fascia-media_index.html che è anch'essa dotata di 1 GB di memoria GDDR5 a 1200 MHz e che genera una bandwith di 76.8 GB/s
MiKeLezZ
22-07-2010, 09:26
Le GDDR5 clockate a 1,2 GHz sono assolutamente uno spreco di materiale e di soldi, visto che i chip odierni sono garantiti fino a 5 GHz.Con 1,2 GHz si intende il clock reale, che significa 1,2 x 4 = 4,8 GHz effettivi.Owned :stordita:
zanardi84
22-07-2010, 09:37
prima di giudicare, vedremo reali consumi, temperature, prezzo. certo che 128bit di bus sono pochi... ricordo ancora il flop delle 240... speriamo siano degne stavolta
Le 5770 vanno almeno come le 4870 pur avendo un bus a 128bit. Per esperienza personale ti dico che è in grado di gestire alla grande qualsiasi titolo in commercio.
Faccio notare che all'uscita la scheda non fun giudicata bene in fase di recensione, io fui tra i pochissimi a credere che si trattasse di un ottimo chip e ho avuto pienamente ragione perchè nella fascia media è l'assoluto riferimento.
Questa nvidia per vincere ha necessariamente bisogno di consumi molto bassi, soprattutto in idle, rumorosità accettabile e temperature non esagerate (che la 5770 sicuramente non ha nella prima release), buona overclockabilità (la 5770 arriva ai livelli della 4890 tirandola ben bene), prezzo molto aggressivo.
Tenete presente che parte con un gap di 9 mesi rispetto alla concorrente. Caratteristiche almeno simili e prezzo molto basso dovrebbero bastare a far calare i prezzi della Radeon (sarebbe anche ora visto che quelli proposti non sono adeguati)
ndrmcchtt491
22-07-2010, 09:43
Le GDDR5 clockate a 1,2 GHz sono assolutamente uno spreco di materiale e di soldi, visto che i chip odierni sono garantiti fino a 5 GHz.
prima di giudicare, vedremo reali consumi, temperature, prezzo. certo che 128bit di bus sono pochi... ricordo ancora il flop delle 240... speriamo siano degne stavolta
Non mi pare che sia così:fagiano:
vedremo come si comporta rispetto alla mia 5770 a 950/1300 :D mai speso meglio 95€.....gioco in fullHD a tutto con un'ottima resa, qualche riga frastagliata al si vede non potendo esagerare con gli AA dovuto alla banda RAM castrata, ma per giocare con gli AA basta metterne una seconda in parte....poca spesa, tanta resa....
Si mi raccomando con calma.... Che a settembre le HD5000 spengono la candelina... (un paio di mesi in meno se consideriamo le sole HD5700)
salvador86
22-07-2010, 10:13
dove l'hai trovata a 95 € la 5770 ????
anche iooooooooooo
unnilennium
22-07-2010, 10:31
Non mi pare che sia così:fagiano:
infatti ne hanno venduto a palate, ed hanno fatto completamente sparire le varie 9800gt... ops, peccato, le 9800 le vendono ancora, quindi le 240 sono davvero un successone... fine OT... il bus delle 57xx era a 128 anche lui, non lo sapevo, allora speriamo siano almeno allo stesso livello, a me interessa una scheda nvidia degna di questo nome che possa consumare in idle 18w come la controparte ati, se non meno, e in full, in proporzione alla potenza...
WaywardPine
22-07-2010, 10:39
Allora i conti tornano: 600x4x2x128/8 = 76800 MB/s
La frequenza è 1200 MHz, tu moltiplichi x8 (x4x2) mentre dovresti semplicimente moltiplicare x4.
Kharonte85
22-07-2010, 11:01
La frequenza è 1200 MHz, tu moltiplichi x8 (x4x2) mentre dovresti semplicimente moltiplicare x4.
Esatto:
1200Mhz x 4 = 4800Mhz
(4800Mhz * 128bit)/8bit = 76 800 MB/s ---> 76.8 GB/sec
Vero è che ogni tanto fanno confusione con le diciture delle memorie e tocca mettere a posto i conti per capirci qualcosa ma non è difficile.
g.luca86x
22-07-2010, 11:06
ad essere pignoli le gddr5 lavorano a 1200MHz. Si moltiplica per 4 perchè essendo ddr trasmettono i bit sia sul fronte di salita che di discesa del clock e inoltre usano due segnali di clock, non uno, entrambi a 1200MHz. Ecco perchè si fa x4 nel conto della banda, misurata in GB/sec, cioè informazioni trasportate...
@nasuellia
Non hai capito... le GDDR5 moltiplicano per 4 (e non per 8) perchè sono ram QDR, quad data rate.
Ossia, ad ogni ciclo di clock, trasmettono 4 informazioni (il modo in cui lo fanno ora non è importante).
Quindi non ha alcun senso moltiplicare prima per 4 e poi per 2.
buziobello
22-07-2010, 11:28
Non è che wikipedia sia il vangelo eh...
Non lo sapevo. E mi domando perchè si chiamino Graphic DOUBLE data rate, se sono QUAD data rate. Evidentemente è importante eccome il MODO in cui lo fanno, evidentemtente non è proprio un QUAD data rate (anche perchè in che altri punti del segnale può lavorare se non in due?) altrimenti non si spiegherebbe il nome. No?
In ogni caso anche se fosse giustissima l'informazione che mi hai fornito, lasciado perdere le GDDR5, non capisco perchè su wikipedia parlano di un moltiplicatore del bus esterno (x4) delle DDR3 (da cui scaturisce il mio x2x4=x8). Non sono io a dirlo, è wikipedia (non che gli articoli su wikipedia siano così affidabili eh, per carità! :D). Io premettevo la mia ignoranza alla prima riga, sono un informatico non un ingegnere :)
Sarebbe fantastico se un ingegnere elettronico informato dei fatti ci spiegasse ESATTAMENTE come funziona la questione! :D
perchè pensi che un segnale digitale possa portare solo un bit per ciclo di clock? dipende dai simboli utilizzati e come questi sono trasmessi (anche se non c'entra molto con la ram, di solito sono utilizzati nelle comunicazioni rf )
Una? Io ho scritto due. La spiegazione di Luca ha un senso: due segnali di clock DDR. Non un segnale QDR.
Ripeto: vorrei spiegazioni, non affermazioni negatorie (INUTILI) di una riga. Se nessuno me le sa dare. Amen.
In ogni caso sto portando OT il thread, chiedo scusa.
il post era in edit, scusa
@nasuellia
Quando ho scritto che il modo in cui è ottenuto non è importante intendevo dire che è inutile scendere in dettagli implementativi che oltretutto possono cambiare, l'importante è il risultato finale, ossia che il clock è di 1200mhz e che ad ogni ciclo di clock è possibile inviare 4 volte un pacchetto dati.
Da informatico questo concetto dovrebbe esserti abbastanza familiare.
Comunque, come già detto in precedenza da qualcuno e anche da te poco sopra, il segnale QDR (se non ricordo male) è ottenuto sfasando due cicli di clock di "mezzo ciclo". La combinazione dei due segnali permette di ottenere un passaggio di dati QDR.
La moltiplicazione della frequenza del bus è un'altra cosa e non ha niente a che fare con il data rate.
Secondo me non ha molto senso parlare di "limitazione" per riferirsi a bus e memoria per una scheda che ci si aspetta essere di fascia inferiore (avrà anche meno SP)...detto come nella notizia sembra quasi una cosa negativa invece anche la HD5770 ha una bandwith di 76.8 GB/s e non a caso...
La velocità effettiva è 4800 lo puoi verificare guardando la recensione della HD5770 http://www.hwupgrade.it/articoli/skvideo/2301/ati-radeon-hd-5700-directx-11-per-la-fascia-media_index.html che è anch'essa dotata di 1 GB di memoria GDDR5 a 1200 MHz e che genera una bandwith di 76.8 GB/s
non capisco perche non abbiano utilizzato ddr5 con questa frequenza anche per le altre sorelle maggiori cosi come ha fatto ati, una gtx460 con tutti gli shader attivi 386 (mi pare) e ddr5 da 4800mhz avrebbe ucciso qualsiasi scheda ati (e forse anche nvidia) anche costando 30-40 euro in piu.
spero proprio che facciano una gtx460+ con tutti gli shader e memorie sopra i 4ghz
MiKeLezZ
22-07-2010, 13:05
Io la moltiplico appositamente per 8:
DDR: moltiplicatore di frequenza del bus esterno (x1) x Double data rate (x2) = x2
DDR2: moltiplicatore di frequenza del bus esterno (x2) x Double data rate (x2) = x4
DDR3: moltiplicatore di frequenza del bus esterno (x4) x Double data rate (x2) = x8
Cito wikipedia:
With data being transferred 64 bits at a time per memory module, DDR3 SDRAM gives a transfer rate of (memory clock rate) × 4 (for bus clock multiplier) × 2 (for data rate) × 64 (number of bits transferred) / 8 (number of bits/byte). Thus with a memory clock frequency of 100 MHz, DDR3 SDRAM gives a maximum transfer rate of 6400 MB/s.
Wikipedia dice giusto, ci sono degli errori di calcoli e nomenclature.
Nel caso delle DDR si è definito come MHz quello che in realtà sono MT/s (dati al secondo) poichè si è andato a fare una equivalenza con le SDRAM... Ovvero una DDR200 è 100MHz di clock e trasporta 200MT/s di dati, che è come dire sia una 200MHz. Quindi:
Memoria SDRAM: 100MHz=100MHz=100MT/s di data
Memoria DDR: 100MHz di base=200MT/s di data=200MHz equivalenti rispetto una SDRAM
Memoria DDR2 e GDDR3 e GDDR4: 100MHz di base=200MHz di clock=400MT/s di data
Memoria GDDR5: 100MHz di base=200MHz di clock=400MHz di clock dati=800MT/s di data
Il problema è che spesso come base per i calcoli non si prende il clock base, ma quello "DDR", quindi nel caso di GDDR5 invece che x8 bisogna fare x4
Non lo sapevo. E mi domando perchè si chiamino Graphic DOUBLE data rate, se sono QUAD data rate. Evidentemente è importante eccome il MODO in cui lo fanno, evidentemtente non è proprio un QUAD data rate (anche perchè in che altri punti del segnale può lavorare se non in due?) altrimenti non si spiegherebbe il nome. No?
In ogni caso anche se fosse giustissima l'informazione che mi hai fornito, lasciado perdere le GDDR5, non capisco perchè su wikipedia parlano di un moltiplicatore del bus esterno (x4) delle DDR3 (da cui scaturisce il mio x2x4=x8). Non sono io a dirlo, è wikipedia (non che gli articoli su wikipedia siano così affidabili eh, per carità! :D). Io premettevo la mia ignoranza alla prima riga, sono un informatico non un ingegnere :)
Sarebbe fantastico se un ingegnere elettronico informato dei fatti ci spiegasse ESATTAMENTE come funziona la questione! :DLe GDDR5 NON SONO DELLE QUAD DATA RATE, (cioè 4 informazioni per ciclo di clock) ma sono SEMPRE delle DOUBLE DATA RATE (cioè 2 informazioni per ciclo di clock), quello che rispetto alle precedenti hanno doppia è la frequenza di trasmissione dati (rispetto quella di clock, che a sua volta è doppia rispetto quella base). Cioè alla fine abbiamo un clock doppio come tecnologia DDR2, un clock equivalente doppio come trasferimento dati, e un clock doppio per la trasmissione dati, per un totale, appunto, di un fattore 8x.
Facendo parte della famiglia delle DDR per ottenere la frequenza reale delle GDDR5 basta dividere il fattore 8x per 2 (cioè togliamo l'apporto dato dal trasferire due dati per ciclo di clock) ovvero dividere per 4 quella di picco (quindi 5GHz=1,25GHz di base).
@MiKeLezZ
Credo comunque che siano definibili come QDR proprio per il fatto che trasmettono 4 informazioni per ciclo di clock (per quanto in effetti il QRD sia ottenuto con un "trucchetto", se vogliamo).
Non ci metterei comunque la mano sul fuoco, bisognerebbe andare a vedere com'è la definizione JEDEC.
a chi mi chiedeva dove la 5770 a 95€: ovviamente sul mercatino di hwupgrade qualche mese fa.......ora non si trovano a meno di 110-120 euri usate....
MiKeLezZ
22-07-2010, 13:23
@MiKeLezZ
Credo comunque che siano definibili come QDR proprio per il fatto che trasmettono 4 informazioni per ciclo di clock (per quanto in effetti il QRD sia ottenuto con un "trucchetto", se vogliamo).
Non ci metterei comunque la mano sul fuoco, bisognerebbe andare a vedere com'è la definizione JEDEC.Non sono definibili come QDR proprio perchè NON trasmettono 4 informazioni per ciclo di clock!
Semplicemente il clock di trasmissione dati è il doppio (rispetto alle precedenti GDDR)! Stessa raddoppio è avvenuto con il passaggio da DDR a DDR2, e quindi il totale ora è il quadruplo.
Ma la trasmissione dati avviene sempre con le modalità definite dalle DDR nella notte dei tempi, ovvero massimo due per ciclo di clock.
Balthasar85
22-07-2010, 13:38
Non posso esser felice nel sentire queste notizie, ovviamente non mi sbilancio sulle loro effettive qualità, ma saper che son in arrivo delle controparti delle HD57xx non può che farmi piacere.
Anche se il mio occhio è più indirizzato a soluzioni come la HD5850 o GTX460 l'arrivo di queste soluzioni resta importante, teneteci informati. ;)
CIAWA
tisserand
22-07-2010, 14:10
Le ati serie 5 hanno oramai un anno e queste nuove schede nvidia spesso le sono alla pari, senza dominarle. Pensa come saranno messe tra qualche mese quando sul mercato appariranno le nuove serie 6...
Gabriyzf
22-07-2010, 17:01
Le ati serie 5 hanno oramai un anno e queste nuove schede nvidia spesso le sono alla pari, senza dominarle. Pensa come saranno messe tra qualche mese quando sul mercato appariranno le nuove serie 6...
chi vivrà vedrà ;)
Le 5770 vanno almeno come le 4870 pur avendo un bus a 128bit. Per esperienza personale ti dico che è in grado di gestire alla grande qualsiasi titolo in commercio.
Faccio notare che all'uscita la scheda non fun giudicata bene in fase di recensione, io fui tra i pochissimi a credere che si trattasse di un ottimo chip e ho avuto pienamente ragione perchè nella fascia media è l'assoluto riferimento.
Questa nvidia per vincere ha necessariamente bisogno di consumi molto bassi, soprattutto in idle, rumorosità accettabile e temperature non esagerate (che la 5770 sicuramente non ha nella prima release), buona overclockabilità (la 5770 arriva ai livelli della 4890 tirandola ben bene), prezzo molto aggressivo.
Tenete presente che parte con un gap di 9 mesi rispetto alla concorrente. Caratteristiche almeno simili e prezzo molto basso dovrebbero bastare a far calare i prezzi della Radeon (sarebbe anche ora visto che quelli proposti non sono adeguati)
Speriamo che calino i prezzi, magari ci scappa un bello sli o crossfire :D
Kharonte85
22-07-2010, 17:52
non capisco perche non abbiano utilizzato ddr5 con questa frequenza anche per le altre sorelle maggiori cosi come ha fatto ati
Se ti riferisci alle 470 e 480 probabilmente è stata una scelta per contenere i consumi, e comunque la banda passante viene bilanciata dal bus più ampio quindi il risultato è sufficiente a non essere limitati.
Le ati serie 5 hanno oramai un anno e queste nuove schede nvidia spesso le sono alla pari, senza dominarle. Pensa come saranno messe tra qualche mese quando sul mercato appariranno le nuove serie 6...
Saranno messe male...molto male.
Nel mio piccolo...sto frenando la scimmia di tutti gli amici. E con un esempio molto pratico...oggi uno SLI di 460 costa 450 euri. Fra 3 mesi, si spenderanno sempre gli stessi soldi, ma nel pacchetto, si avrà anche l'originale di mafiaII :D e forse, se 6xxx sarà come si pensa...oltre al gioco, si risparmierà anche qualche foglietto rosso ;)
Ovvio che qualcuno è corso comunque ad acquistarla...la 460 :stordita:
In questo settore le cose si muovono talmente in fretta che si è sempre nel giusto ad "aspettare la prossima", ma aspettando sempre non si compra mai.
Sicuramente è anche vero che questa generazione (e non parlo solo di nvidia) non è entusiasmante:
- le DirectX11 le vedremo diffondersi solo quando usciranno le console di prossima generazione.
- i consumi sono inauditi, e con le estati che abbiamo ormai, avere un forno al posto del PC non è piacevole.
- non è un periodo di grande innovazione (in passato abbiamo avuto la "manna" dell'FSAA e del filtro anisotropico), e le innovazioni che ci sono, diciamoci la verità mi sembrano baggianate (3Dvision? Eyefinity? :rolleyes:).
- le prestazioni non sono straordinarie rispetto alle generazioni immediatamente precedenti, non vale la pena di affrontare una spesa per chi ha già una Radeon 4xxx o una GeForce 2xx.
Naturalmente c'è qualche eccezione, per chi ha schede di 2-3 generazioni precedenti (radeon HD 2xxx/3xxx o GeForce 8xxx/9xxx): per costoro ad esempio la accoppiata di due 5770 è notevole come prezzo/prestazioni, oppure le 465 moddabili in 470 (da verificarsi) sulle quali ho aperto un thread nella sezione modding/tweaking.
In entrambi i casi bisogna cmq sorbirsi gli svantaggi di cui sopra (calore, consumi, poche innovazioni degne di nota).
Per inciso...una gpu all'inizio dell'estate...non si dovrebbe comprare mai.
A settembre c'è il back to school...e quantomeno si risparmia rispetto a giugno e luglio, inoltre, si saprà qualcosa di certo su rxxxx...quindi, a maggior ragione si aspetta. Chi ha sbagliato ad aspettare...è stato chi aveva una scheda vecchia e non ha optato per una 5850 a suo tempo per aspettare Fermi...adesso, fossi in loro...aspetterei ancora 3 mesi (che sono i mesi più profiqui dell'anno per aspettare e quindi non significa MAI), per risparmiare su Nvidia o per passare alla nuova Ati.
I consumi sono inauditi sulle precedenti generazioni...su 5850/460 si raddoppiano solo le prestazioni...non i consumi, e neanche il rumore.
é ovvio che chi ha nel case una 4850 o una 275...salti la 5850/460. La differenza tra queste due coppie di schede comunque, non solo è entusiasmante...ma addirittura eccezionale: GF104 è un miracolo uscito in soli 3 mesi da quel obrobrio di gf 100 iniziale...la 5850 raddoppia le prestazioni rispetto alla generazione precedente in un progetto ormai alla frutta...altro miracolo....pertanto, la chiusura della fascia bassa da parte di Nvidia non ci deluderà.
La 465 ha un senso...solo se acquistata ad un prezzaccio. E' la peggior scheda del lotto Fermi IMHO. Poi...se si riesce a spremerla per bene...tanto di cappello.
Supersubway
22-07-2010, 22:02
Esiste solo la 460... e esistera' solo la 460 per qualche mese... Prestazioni come la 5850, prezzo competitivo, consumi minori di una 5830, rumore minore di una 5830... e overcloccabilita' SU TUTTE da urlo...
Senza parlare di Physx, cuda e 3d vision... nvidia questa l'ha centrata benissimo... la 450 sara' anche un'ottima scheda ma io vado di 460, se la differenza son 30 euro!
Esiste solo la 460... e esistera' solo la 460 per qualche mese... Prestazioni come la 5850, prezzo competitivo, consumi minori di una 5830, rumore minore di una 5830... e overcloccabilita' SU TUTTE da urlo...
Senza parlare di Physx, cuda e 3d vision... nvidia questa l'ha centrata benissimo... la 450 sara' anche un'ottima scheda ma io vado di 460, se la differenza son 30 euro!
Hai scritto molte sciocchezze.
La 5850 e' piu' veloce del 15% e consuma meno!
La 5850 si overclocca anche piu' della gtx 460.
Poi compra quelo che ti pare, anche io sono indirizzato verso Nvidia per laprox scheda, ma scrivendo quello che scrivi nessuno ti prende sul serio
Esiste solo la 460... e esistera' solo la 460 per qualche mese... Prestazioni come la 5850, prezzo competitivo, consumi minori di una 5830, rumore minore di una 5830... e overcloccabilita' SU TUTTE da urlo...
Senza parlare di Physx, cuda e 3d vision... nvidia questa l'ha centrata benissimo... la 450 sara' anche un'ottima scheda ma io vado di 460, se la differenza son 30 euro!
Veramente la 460 non va come la 5850, consuma di più, non ha assolutamente abbastanza potenza per physix (che è una boiata pazzesca) e nemmeno per 3d vision.
Riguardo all'overcloccabilità non pensare che una 5850 salga meno.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.