View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
fraussantin
15-10-2024, 22:28
600w in OC.. ma 600w a stock significa averne 650/700 in oc.. è un pelo diverso e va sopra alla spec massima del cavo.
Quindi o la piombano, come diceva salfox, a 550W, o la piombano a 600w ma non te la fanno occare manco di 1mhz. Altrimenti vai di doppio cavo, non è una opinione eh, sono i watt dichiarati che non ci entrano.
Se mettono un connettore solo il tdp sarà max 600w come per la 4090.
Da li non si esce e già rischiano troppo. Perche alla fine della fiera le garanzie le pagano loro.
Cutter90
15-10-2024, 22:33
600w in OC.. ma 600w a stock significa averne 650/700 in oc.. è un pelo diverso e va sopra alla spec massima del cavo.
Quindi o la piombano, come diceva salfox, a 550W, o la piombano a 600w ma non te la fanno occare manco di 1mhz. Altrimenti vai di doppio cavo, non è una opinione eh, sono i watt dichiarati che non ci entrano.
Ma veramente sono 675 watt da quello che sapevo io. 600 di cavo + 75 di PCI-E....
Ma come diamine dissipi 675w ad aria?
Io avevo la 3080ti che aveva un dissi ottimo e comunque a 450w scaldava. Parliamo del 50% di consumo in più.
Ora la 4070ti super a circa 300w ok che fa 65 gradi, ma ha un dissipatore da 2.2kg...2.2kg!
Quindi da 600w o ci metti un quad slot da 4kg o non so. Le 4000 scaldano poco anche perché hanno dissi importanti, non possono aumentarli nuovamente con le 5000. Se davvero sarà 600w la faranno probabilmente ibrida. Spero
fraussantin
15-10-2024, 22:42
Ma come diamine dissipi 675w ad aria?
Io avevo la 3080ti che aveva un dissi ottimo e comunque a 450w scaldava. Parliamo del 50% di consumo in più.
Ora la 4070ti super a circa 300w ok che fa 65 gradi, ma ha un dissipatore da 2.2kg...2.2kg!
Quindi da 600w o ci metti un quad slot da 4kg o non so. Le 4000 scaldano poco anche perché hanno dissi importanti, non possono aumentarli nuovamente con le 5000. Se davvero sarà 600w la faranno probabilmente ibrida. SperoCon il dissipatore delle 4090 xD
Il punto è che se lo mettono solo a 2 slot quindi qualcosa non torna.
albero77
15-10-2024, 22:47
Con il dissipatore delle 4090 xD
Il punto è che se lo mettono solo a 2 slot quindi qualcosa non torna.
I dissipatori delle 4090 erano in molti casi sovradimensionati. Mai visti gli 80 gradi sulla mia nemmeno in estate con 40 gradi
amon.akira
15-10-2024, 23:05
Con il dissipatore delle 4090 xD
Il punto è che se lo mettono solo a 2 slot quindi qualcosa non torna.
2slot+rad360 XD
I dissipatori delle 4090 erano in molti casi sovradimensionati. Mai visti gli 80 gradi sulla mia nemmeno in estate con 40 gradi
Con che consumo? Perché se la tieni a stock i watt sono 450, la fe effettivamente arriva a 600, ma è una delle poche e va attivato tramite slider cosa che molti per una tematica di efficienza e calore non fanno
Cutter90
16-10-2024, 07:32
Con che consumo? Perché se la tieni a stock i watt sono 450, la fe effettivamente arriva a 600, ma è una delle poche e va attivato tramite slider cosa che molti per una tematica di efficienza e calore non fanno
Ma si infatti o si sono inventati qualcosa di astruso con il dissi oppure io la vedo davvero improbabile che i 600 watt siano di stock. Con il dissi attuale 600 watt di stock non si tengono. Figuriamoci spingersi oltre per l' OC. Ad aria la Fe a 600 watt supera di certo i 75 gradi (dato che dalle review fa 66 gradi a stock 450 watt). Per non parlare delle memorie che vanno già attaccate ai 100..... e fare semplicemente un dissi più grande, secondo me non basta, oltre ad essere una soluzione ingegneristicamente davvero pigra
albero77
16-10-2024, 10:08
Con che consumo? Perché se la tieni a stock i watt sono 450, la fe effettivamente arriva a 600, ma è una delle poche e va attivato tramite slider cosa che molti per una tematica di efficienza e calore non fanno
350/400 w al massimo oltre non ha senso. Avevo fatto delle prove al volo in una fase iniziale mettendo tutto a chiodo ma comunque il dissipatore reggeva benissimo. Ah tieni presente che adesso ho messo la 4090 in un case 10l. Anzi visto che ci siamo per la scienza faccio delle prove così e vediamo cosa viene fuori...
albero77
16-10-2024, 10:30
Ma si infatti o si sono inventati qualcosa di astruso con il dissi oppure io la vedo davvero improbabile che i 600 watt siano di stock. Con il dissi attuale 600 watt di stock non si tengono. Figuriamoci spingersi oltre per l' OC. Ad aria la Fe a 600 watt supera di certo i 75 gradi (dato che dalle review fa 66 gradi a stock 450 watt). Per non parlare delle memorie che vanno già attaccate ai 100..... e fare semplicemente un dissi più grande, secondo me non basta, oltre ad essere una soluzione ingegneristicamente davvero pigra
Ok rifatto le prove a 550/600w tutto a cannone. Temperatuta ambientale 22° case "buco di culo" da ben 10 litri(si lo so sono pazzo) 3 cicli di boundary temperatura massima gpu 75°, temperatura massima sulla memorie 72°. Credo che questi dissipatori siano più che sufficienti anche per una 5090 ma due slot mi sa che è una bufala. Io ho una gigabyte gaming, il dissipatore è enorme, è un 3,5 slot per 34 cm in lunghezza.
Cutter90
16-10-2024, 11:02
Ok rifatto le prove a 550/600w tutto a cannone. Temperatuta ambientale 22° case "buco di culo" da ben 10 litri(si lo so sono pazzo) 3 cicli di boundary temperatura massima gpu 75°, temperatura massima sulla memorie 72°. Credo che questi dissipatori siano più che sufficienti anche per una 5090 ma due slot mi sa che è una bufala. Io ho una gigabyte gaming, il dissipatore è enorme, è un 3,5 slot per 34 cm in lunghezza.
Mmm come fanno le memorie a stare sotto alla gpu? impossibile credo.
Hai fatto il test con ventole 100 %?
Ma infatti 2 slot è impossibile tenere una 4090 a 600 watt, figuriamoci una 5090. A meno che non abbiano riprogettato qualcosa di grosso
albero77
16-10-2024, 11:28
Mmm come fanno le memorie a stare sotto alla gpu? impossibile credo.
Hai fatto il test con ventole 100 %?
Ma infatti 2 slot è impossibile tenere una 4090 a 600 watt, figuriamoci una 5090. A meno che non abbiano riprogettato qualcosa di grosso
Le ventole erano in automatico, ho riportato quello che leggevo da aida sul secondo schermo. Provo a rifare il test.
mikael84
16-10-2024, 11:39
https://ibb.co/1rP9ZT4https://www.hwupgrade.it/news/skvideo/nvidia-tutta-la-serie-geforce-rtx-5000-sul-mercato-nel-giro-di-tre-mesi_131868.html
"Dalla Cina (via Videocardz) indicano una scaletta di questo tipo: GeForce RTX 5090 (con versione 5090D per la Cina) e RTX 5080 disponibili da gennaio 2025, RTX 5070/5070 Ti a febbraio 2025 e RTX 5060/5060Ti a marzo 2025. NVIDIA avrebbe quindi intenzione di rinnovare totalmente l'offerta nel giro di tre mesi, inserendo anche i modelli Ti".
Probabile il debutto anche delle TI e della fascia bassa poco dopo (da prendere con le pinze).
https://i.ibb.co/WkMcnfR/5070ti.png (https://ibb.co/1rP9ZT4)
Ma veramente sono 675 watt da quello che sapevo io. 600 di cavo + 75 di PCI-E....
Il PCI e è 5,5A/66w, l'altro è a 3,3A.
Cmq le ADA non attingono quasi nulla dal PCI e.
Se impostano 600, o hanno il doppio connettore o hanno PL 0 (no OC).
Al momento 600watt sono da confermare, gli davano anche la scorsa gen. 600w la 4090, 420 la 4080.
che poi a gridare scandalo per questi 600W quando stavo vedendo un videoconfronto giusto poco fa:
https://www.youtube.com/watch?v=DKgdafmHnLQ
ok che è una 3090TI, che è l'esempio più di parte che poteva esserci, ma il consumo in game è di 500-560W
una 4090 in game è mediamente sui 400-430W:
https://www.youtube.com/watch?v=5ZPbAMXGztQ
io credo che la 5090 sarà come la 4090, avrà il tetto massimo a 600W come la FE (non il consumo medio) e magari consumerà mediamente ingame sui 470-480W il resto è margine per l'OC ed è stata distorta la notizia pensando subito al peggio
mikael84
16-10-2024, 12:19
che poi a gridare scandalo per questi 600W quando stavo vedendo un videoconfronto giusto poco fa:
https://www.youtube.com/watch?v=DKgdafmHnLQ
ok che è una 3090TI, che è l'esempio più di parte che poteva esserci, ma il consumo in game è di 500-560W
una 4090 in game è mediamente sui 400-430W:
https://www.youtube.com/watch?v=5ZPbAMXGztQ
io credo che la 5090 sarà come la 4090, avrà il tetto massimo a 600W come la FE (non il consumo medio) e magari consumerà mediamente ingame sui 470-480W il resto è margine per l'OC ed è stata distorta la notizia pensando subito al peggio
La 3090ti, è un chip sparato a TDP, è quello che si pensava facessero con la 4090ti.
Cmq quei video sono palesemente fake, non mostrano nulla, se non dati presi, chissà come.
La 3090ti FE ad esempio, ha il PL 0 ed arriva a 450w max. Nessuno scheda può arrivare a 600w (1 connettore da 450w più pci e), salvo forse la HOF OC Lab Edition (ne ha 2).
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/tdp-adjustment-limit.png
Se prendiamo uno youtuber più quotato, con tutto a schermo, la situazione è ben diversa:
https://www.youtube.com/watch?v=yym6Ez3F5Hc&t=925s
Cutter90
16-10-2024, 12:23
https://ibb.co/1rP9ZT4https://www.hwupgrade.it/news/skvideo/nvidia-tutta-la-serie-geforce-rtx-5000-sul-mercato-nel-giro-di-tre-mesi_131868.html
"Dalla Cina (via Videocardz) indicano una scaletta di questo tipo: GeForce RTX 5090 (con versione 5090D per la Cina) e RTX 5080 disponibili da gennaio 2025, RTX 5070/5070 Ti a febbraio 2025 e RTX 5060/5060Ti a marzo 2025. NVIDIA avrebbe quindi intenzione di rinnovare totalmente l'offerta nel giro di tre mesi, inserendo anche i modelli Ti".
Probabile il debutto anche delle TI e della fascia bassa poco dopo (da prendere con le pinze).
https://i.ibb.co/WkMcnfR/5070ti.png (https://ibb.co/1rP9ZT4)
Il PCI e è 5,5A/66w, l'altro è a 3,3A.
Cmq le ADA non attingono quasi nulla dal PCI e.
Se impostano 600, o hanno il doppio connettore o hanno PL 0 (no OC).
Al momento 600watt sono da confermare, gli davano anche la scorsa gen. 600w la 4090, 420 la 4080.
Quindi non si può in qualche modo usare il pci e per alimentarle?
Ricordo che con le 3000 qualcosa passava dal pci e
fraussantin
16-10-2024, 12:30
Quindi non si può in qualche modo usare il pci e per alimentarle?
Ricordo che con le 3000 qualcosa passava dal pci eQualcosa penso si possa , ma anche nelle 3000 o era poco usato , o se usato al massimo limitata il connettore.
Difficilmente era calibrato alla perfezione.
Credo la solizione migliore sia mettere connettori in più.
O semplicemente contenere i consumi che spesso rinunciando ad un briciolo di prestazioni si risparmia tanti watt . Ma ormai sembra che il mondo dell informatica sia l'unico che se ne sbatte del green e del consumo.
mikael84
16-10-2024, 12:32
Quindi non si può in qualche modo usare il pci e per alimentarle?
Ricordo che con le 3000 qualcosa passava dal pci e
Si, le 3000 occupano buona parte del pci e (circa 45w), qualcuna addirittura 66 (come le evga all'inizio), ma solitamente si usa non arrivare quasi mai a stressarlo.
Le ADA invece, e puoi confermarlo tu stesso, assorbono davvero molto poco, tutto passa dal cavo.
Questo è gestito dai vrm del chip.
In caso di impostazione a 600w, o metti il doppio connettore, o PL 0, o metti qualche bios, per sparare qualcosa di più, ma avrebbe poco senso.
La 3090ti FE come si vede sopra è PL 0 per dire... il resto è connettore più PCI e.
Cmq i 600watt, vanno confermati. Spero quanto prima, ci mostrino una bozza di PCB, che stranamente ancora non è arrivata.
Cutter90
16-10-2024, 12:35
Qualcosa penso si possa , ma anche nelle 3000 o era poco usato , o se usato al massimo limitata il connettore.
Difficilmente era calibrato alla perfezione.
Credo la solizione migliore sia mettere connettori in più.
O semplicemente contenere i consumi che spesso rinunciando ad un briciolo di prestazioni si risparmia tanti watt . Ma ormai sembra che il mondo dell informatica sia l'unico che se ne sbatte del green e del consumo.
... e per fortuna, aggiungo io
Si, le 3000 occupano buona parte del pci e (circa 45w), qualcuna addirittura 66 (come le evga all'inizio), ma solitamente si usa non arrivare quasi mai a stressarlo.
Le ADA invece, e puoi confermarlo tu stesso, assorbono davvero molto poco, tutto passa dal cavo.
Questo è gestito dai vrm del chip.
In caso di impostazione a 600w, o metti il doppio connettore, o PL 0, o metti qualche bios, per sparare qualcosa di più, ma avrebbe poco senso.
La 3090ti FE come si vede sopra è PL 0 per dire...
Cmq i 600watt, vanno confermati. Spero quanto prima, ci mostrino una bozza di PCB, che stranamente ancora non è arrivata.
Vero, infatti avevo la 3090 Evga all'inizio e ricordo che nei test passava qualcosa da lì. vedremo come la gestiranno.
albero77
16-10-2024, 12:46
https://ibb.co/vX2rGNh
La 3090ti, è un chip sparato a TDP, è quello che si pensava facessero con la 4090ti.
Cmq quei video sono palesemente fake, non mostrano nulla, se non dati presi, chissà come.
La 3090ti FE ad esempio, ha il PL 0 ed arriva a 450w max. Nessuno scheda può arrivare a 600w (1 connettore da 450w più pci e), salvo forse la HOF OC Lab Edition (ne ha 2).
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/tdp-adjustment-limit.png
Se prendiamo uno youtuber più quotato, con tutto a schermo, la situazione è ben diversa:
https://www.youtube.com/watch?v=yym6Ez3F5Hc&t=925s
ok, grazie Michael, non pensavo di aver preso un video parecchio "fake", effettivamente i conti non la 3090Ti non tornano proprio guardando techpowerup
Iceman69
16-10-2024, 13:02
Cmq i 600watt, vanno confermati. Spero quanto prima, ci mostrino una bozza di PCB, che stranamente ancora non è arrivata.
In effetti se deve uscire tra 3 mesi è strano che ancora non si veda niente in giro, ormai dovrebbe essere tutto definito, magari qualche ultimo test per le frequenze, ma il resto di solito si sa molto prima...
mikael84
16-10-2024, 15:24
In effetti se deve uscire tra 3 mesi è strano che ancora non si veda niente in giro, ormai dovrebbe essere tutto definito, magari qualche ultimo test per le frequenze, ma il resto di solito si sa molto prima...
Non hanno annunciato la roadmap dei lavori finali, ma questa è strutturata in circa 3 mesi dal lancio. Le fase EVT ( engineering validation), DVT (design validation), vengono effettuate circa 3 mesi prima, quindi teoricamente dovremmo essere li con i lavori. Subito dopo, una volta che il sample ha finito tutti i processi, come l'EMI test, il prodotto è pronto, e si può pasare alla fase bios.
In sintesi da ora a novembre, dovrebbero completare quasi tutti i processi, ed arrivare leak sempre più precisi.
Ricordo che verso fine luglio 2022, venne pubblicato addirittura un 3dmark della 4090, rivelatosi vero... e ci stava, in quanto la fase finale era partita il 3 giugno., ed in quel periodo erano in fase di rifinitira, software e bios.
caccapupu91
16-10-2024, 16:18
parrebbe che anche intel e amd vogliano usare il new 12V 2x6 :asd:
*this is fine meme*
RoUge.boh
16-10-2024, 16:20
Quello ch emi preoccupa non è tanto quanto sarà "potente"...ma quanto sarà castrante il nuovo DLSS 4.0 nei confronti della vecchia serie.. :rolleyes: :rolleyes:
Cutter90
16-10-2024, 16:38
Quello ch emi preoccupa non è tanto quanto sarà "potente"...ma quanto sarà castrante il nuovo DLSS 4.0 nei confronti della vecchia serie.. :rolleyes: :rolleyes:
Non si davvero cosa possano inventarsi con il dlss ora
Ma se devono fare qualcosa di esclusivo mi auguro sia per qualcosa di davvero pazzesco
Il DLSS 3.0 va già talmente bene che se facessero uscire semplicemente la 5090 senza altro non mi lamenterei neanche :asd:
Cutter90
16-10-2024, 17:07
Il DLSS 3.0 va già talmente bene che se facessero uscire semplicemente la 5090 senza altro non mi lamenterei neanche :asd:
Io invece mi lamenterei perché amo il progresso :D
Io invece vorrei 16gb come standard sulla fascia media...ma forse chiedo troppo eh :O
Io invece vorrei 16gb come standard sulla fascia media...ma forse chiedo troppo eh :OSe la 5060 sarà su gb207, prende si e no 4060ti/3070ti, 16gb li vedo assolutamente inutili e con 128bit devi anche configurarli a conchiglia.
Nel migliore dei casi potresti vedere 5060ti con 16gb, dove in teoria gb206 dovrebbe prendere una 4070, ma marketing a parte, avrebbe più senso con la tripla densità quindi 12gb, il che eviterebbe il layout a conchiglia.
A mio parere, gb205 é il chip più sensato per avere più di 12gb, e con 192bit effettivamente potrebbero proporre 12gb e 18gb in tripla, questo in teoria dovrebbe prendere 4070ti/4070ti super.
Inviato dal mio M2012K11AG utilizzando Tapatalk
mikael84
16-10-2024, 18:19
Preoccupa (salvo prezzi finali), il probabile utilizzo di GB205 per entrambe le 5070, con la 5070 che rischia di diventare addirittura un cut di quest'ultimo, che già di suo dovrebbe includere 6400cc.
Se la 5060 sarà su gb207, prende si e no 4060ti/3070ti, 16gb li vedo assolutamente inutili e con 128bit devi anche configurarli a conchiglia.
Nel migliore dei casi potresti vedere 5060ti con 16gb, dove in teoria gb206 dovrebbe prendere una 4070, ma marketing a parte, avrebbe più senso con la tripla densità quindi 12gb, il che eviterebbe il layout a conchiglia.
A mio parere, gb205 é il chip più sensato per avere più di 12gb, e con 192bit effettivamente potrebbero proporre 12gb e 18gb in tripla, questo in teoria dovrebbe prendere 4070ti/4070ti super.
Inviato dal mio M2012K11AG utilizzando Tapatalk
D'accordo in parte ma almeno dalla 5070 in su ce li vuoi mettere?
Queste Gpu escono l'anno prossimo e non so voi ma io minimo 4 anni (ma minimo) me la tengo.
Prima giocavo in 1080p e ora in 2k e soltanto perchè tempo a dietro sono passato ad un 27"
Col cavolo che ci passo a giocare in 4k, non ci penso minimamente.
Sai come finisce?
Come per i 1080p, 8gb sono andati bene per tutto (e in parte è ancora così) finchè non si è andati a caricare su RT, Dlss e Texture/shader in Hd e quant'altro.
Comunque va bene, tanto così è, per un motivo o l'altro.
Preoccupa (salvo prezzi finali), il probabile utilizzo di GB205 per entrambe le 5070, con la 5070 che rischia di diventare addirittura un cut di quest'ultimo, che già di suo dovrebbe includere 6400cc.
Infatti molto dipende da come vogliono suddividere fasce e chip, purtroppo GB205 è più vicino a GB206 che a GB203, è qua il problema, GB203 è quasi il +70% più denso.
Si riproporrebbe il divario visto tra 4070 e 4080...
mikael84
16-10-2024, 18:52
Infatti molto dipende da come vogliono suddividere fasce e chip, purtroppo GB205 è più vicino a GB206 che a GB203, è qua il problema, GB203 è quasi il +70% più denso.
Si riproporrebbe il divario visto tra 4070 e 4080...
Si, totalmente assurdo.
4080 vs 4070 + 65% circa (+45-50% perf. reali).
5080 vs 5070ti/GB205 + 68% (+50 circa).
Non si arriva neppure ad 1/3 dei cuda del chippone. 1/3 è sempre stato (salvo ADA) fascia x60, es: 1060: 1280/3840 o 960: 1024/3072.
D'accordo in parte ma almeno dalla 5070 in su ce li vuoi mettere?
Queste Gpu escono l'anno prossimo e non so voi ma io minimo 4 anni (ma minimo) me la tengo.
Prima giocavo in 1080p e ora in 2k e soltanto perchè tempo a dietro sono passato ad un 27"
Col cavolo che ci passo a giocare in 4k, non ci penso minimamente.
Sai come finisce?
Come per i 1080p, 8gb sono andati bene per tutto (e in parte è ancora così) finchè non si è andati a caricare su RT, Dlss e Texture/shader in Hd e quant'altro.
Comunque va bene, tanto così è, per un motivo o l'altro.
Se la 5070ti sarà cuttata da GB203 avrà 16gb, altrimenti GB205, debutterà con 12, con probabile refresh a 18gb più avanti.
Cutter90
16-10-2024, 19:48
D'accordo in parte ma almeno dalla 5070 in su ce li vuoi mettere?
Queste Gpu escono l'anno prossimo e non so voi ma io minimo 4 anni (ma minimo) me la tengo.
Prima giocavo in 1080p e ora in 2k e soltanto perchè tempo a dietro sono passato ad un 27"
Col cavolo che ci passo a giocare in 4k, non ci penso minimamente.
Sai come finisce?
Come per i 1080p, 8gb sono andati bene per tutto (e in parte è ancora così) finchè non si è andati a caricare su RT, Dlss e Texture/shader in Hd e quant'altro.
Comunque va bene, tanto così è, per un motivo o l'altro.
Eh? Per il 1080p 8 gb vanno ancora alla grandissimo, non esageriamo dai. Anche in 1440p vanno bene in realtà
Anche in 1440p vanno bene in realtà
lol :mc:
Cutter90
16-10-2024, 22:37
lol :mc:
Eh già. Ma ora arriva qualcuno che mi mostra 1 gioco su 2 milioni che in 1440p ha problemi tutto maxato.
Tutto già visto, non importa
Eh già. Ma ora arriva qualcuno che mi mostra 1 gioco su 2 milioni che in 1440p ha problemi tutto maxato.
Tutto già visto, non importa
La maggior parte andranno anche bene ma quanto possono durare 8gb in 2k?
Ricordo Mirror's edge catalist arrivava ad occupare fino a 11gb. Probabilmente memoria allocata ma è pure un gioco del 2016..
Eh già. Ma ora arriva qualcuno che mi mostra 1 gioco su 2 milioni che in 1440p ha problemi tutto maxato.
Tutto già visto, non importa
È sempre quel gioco su "due milioni" che ti fa venire voglia di lanciare dalla finestra l'acquisto appena fatto da centinaia di euro.
Cutter90
17-10-2024, 06:23
La maggior parte andranno anche bene ma quanto possono durare 8gb in 2k?
Ricordo Mirror's edge catalist arrivava ad occupare fino a 11gb. Probabilmente memoria allocata ma è pure un gioco del 2016..
No beh ma ovviamente ora i 12 gb sono le ideale per il 2k
Anche se la tendenza non è quella di aumentarli ad ora, soprattutto con i giochi UE5
È sempre quel gioco su "due milioni" che ti fa venire voglia di lanciare dalla finestra l'acquisto appena fatto da centinaia di euro.
Quando 1 gioco gira male per via di qualsiasi motivo è quasi sempre colpa del gioco, mai dell hardware
fraussantin
17-10-2024, 06:31
No beh ma ovviamente ora i 12 gb sono le ideale per il 2k
Anche se la tendenza non è quella di aumentarli ad ora, soprattutto con i giochi UE5
Di solito| chi fa i giochi che tende a "ottimizzarli" per una certa potenza e capacità di memoria.
E questo dipende dalle schede che ci sono in giro .
Poi puo capitare il gioco ottimizzato male o buggato per negligenza dei developer , o quello che per certi settaggi chiede piu ram o potenza perche sponsorizzato da un brand
No beh ma ovviamente ora i 12 gb sono le ideale per il 2k
Anche se la tendenza non è quella di aumentarli ad ora, soprattutto con i giochi UE5
Quando 1 gioco gira male per via di qualsiasi motivo è quasi sempre colpa del gioco, mai dell hardware
Ma infatti l'ho scritto eh, ancora oggi te la puoi cavare con 8gb e 1080p
Idem 12gb per il 2k.
Ci sono delle eccezioni ma in ogni caso su una Gpu con 8gb non puoi mettere i settaggi al max nei titoli attuali, qualche compromesso lo devi fare comunque, quindi si è un problema relativo attualmente.
Mi scoccia un po' fare un discorso del genere su una Gpu che verrà venduta dal 2025 in poi, tutto qui.
A mio avviso 12gb sono perfetti per 2K e chi gioca in 4K di certo non compra una 70, ma dato che si parlava di 8gb...si stanno ipotizzando 8gb sulla fascia 70?
A mio avviso 12gb sono perfetti per 2K e chi gioca in 4K di certo non compra una 70, ma dato che si parlava di 8gb...si stanno ipotizzando 8gb sulla fascia 70?No per nulla, gb205 ha un bus a 192bit quindi per forza di cose il minimo sono 12gb e 18gb se valutano la tripla.
L'unico chip "critico" é gb206, che con 128bit e prestazioni teoriche da 4070 potrebbe montare 8/12/16gb, ma da qui al massimo ci faranno 5060/5060ti.
Gb207 può anche morire con 8gb, fondamentalmente é un chip che già é tanto se prende 4060ti/3070, e spero che la 5060 desktop la ricavino almeno da un cut di gb206.
Inviato dal mio M2012K11AG utilizzando Tapatalk
La maggior parte andranno anche bene ma quanto possono durare 8gb in 2k?
Ricordo Mirror's edge catalist arrivava ad occupare fino a 11gb. Probabilmente memoria allocata ma è pure un gioco del 2016..
macché, la maggior parte dei giochi recenti usa minimo 11gb
Cutter90
17-10-2024, 13:02
macché, la maggior parte dei giochi recenti usa minimo 11gb
Ma assolutamente no. Non lo fanno in 1440p, figurarsi in 1080p. Ma da dove salta fuori questa tua convinzione errata?
Saved_ita
17-10-2024, 13:39
macché, la maggior parte dei giochi recenti usa minimo 11gb
"la maggior parte" quale? :stordita:
https://www.youtube.com/watch?v=0lG2iy83wiQ
9 giochi su 10 giochi basati su UE5 (ovvero il motore grafico più usato a mani basse da chiunque) sui 2k vogliono 8Gb e l'unico gioco che ne richiede di più aveva settaggi talmente alti che una 4060 schianterebbe ben prima di preoccuparsi della VRAM satura.
Poi nessuno si aspetta di usare una scheda da 8Gb in 2k (io non lo consiglierei mai).
Più che altro sono gli 8Gb in 1080p che possono sembrare stretti perchè alcuni giochi sono fatti veramente male.
carloUba
17-10-2024, 13:42
Ma assolutamente no. Non lo fanno in 1440p, figurarsi in 1080p. Ma da dove salta fuori questa tua convinzione errata?
Magari non conoscono la differenza tra allocare ed utilizzare.
Con 12 Gbyte non riscontro nessun problema, anche fruendo di texture HD /moddate.
Per me ci si fascia troppo la testa con questa ram, nVidia ha un algoritmo di compressione molto efficiente tra l'altro.
Cutter90
17-10-2024, 14:44
Magari non conoscono la differenza tra allocare ed utilizzare.
Forse si, ma il problema è che 11 nemmeno la allocano in 1080p "la maggior parte" :mbe:
11 gb li vedo io allocati spesso con la 4090 in 4k.....
Psycho77
17-10-2024, 14:53
Con 12 Gbyte non riscontro nessun problema, anche fruendo di texture HD /moddate.
Per me ci sia fascia troppo la testa con questa ram, nVidia ha un algoritmo di compressione molto efficiente tra l'altro.
Io mi diverto a maxare giochi in 4k sul pc muletto con i7 4820k e gtx 1070 ti con 8gb di vram ( giochi recenti e tranne i mattoni in ue5 e giochi ubilol) e fila tutto liscio senza stuttering, poi vengo qui a leggere i deliri da vram e mi faccio 4 risate.
Ho 32 gb di ram ddr3 pakistana arrugginita senza marca che va a bombazza.:sofico:
Io mi diverto a maxare giochi in 4k sul pc muletto con i7 4820k e gtx 1070 ti con 8gb di vram
Cooooooooome no
Con le textures ia il problema verrà per lo più risolto, si spera. Tuttavia per schede future che reggeranno giochi futuri serve ovviamente sempre più ram, bonus textures ia permettendo che potrebbe rendere questo incremento meno utile. Per i giochi attuali non si possono escludere i giochi migliori dal calcolo, visto che le gpu costose si prendono proprio per quelli. Inoltre si devono considerare anche i giochi che non spingono molto su rt e poligoni, ma proprio sulle textures, che sono volutamente giganti per creare buona grafica compensando così le mancanze su illuminazione e poligoni. È una cosa che succedeva anche decenni fa: non si tratta in tal caso di giochi mal ottimizzati e programmati ma semplicemente giochi con textures volutamente molto grosse.
Cutter90
17-10-2024, 15:27
Con le textures ia il problema verrà per lo più risolto, si spera. Tuttavia per schede future che reggeranno giochi futuri serve ovviamente sempre più ram, bonus textures ia permettendo che potrebbe rendere questo incremento meno utile.
D'accordo su questo
Per i giochi attuali non si possono escludere i giochi migliori dal calcolo, visto che le gpu costose si prendono proprio per quelli.
Infatti nessuno li esclude: sono compresi nel "8gb bastano ed avanzano per il 1080p e anche per la maggior parte dei 1440p"
Inoltre si devono considerare anche i giochi che non spingono molto su rt e poligoni, ma proprio sulle textures, che sono volutamente giganti per creare buona grafica compensando così le mancanze su illuminazione e poligoni. È una cosa che succedeva anche decenni fa: non si tratta in tal caso di giochi mal ottimizzati e programmati ma semplicemente giochi con textures volutamente molto grosse.
La parte finale invece non ho capito. A quali giochi ti riferisci? Texture molto grosse= qualitativamente superiori. E noi giochi tipo HL che consumano parecchia vram questa equazione non è sempre rispettata.
Abbiamo capito tutti che Nvidia é spilorcia a montare 8gb in fascia media nel 2025, ma comunque chi compra una 70/60 sa già che va abbassata qualche tacca sulle impostazioni dei mattoni.
Non é sempre stato così? O mi sbaglio?
Poi si, possiamo parlarne:
se la 70 costa 599 vorrei avere la grafica tirata quasi ad ultra, tanto più in 1080p.
Altrimenti mi girerebbero non poco i due pianeti
mikael84
17-10-2024, 17:02
Abbiamo capito tutti che Nvidia é spilorcia a montare 8gb in fascia media nel 2025, ma comunque chi compra una 70/60 sa già che va abbassata qualche tacca sulle impostazioni dei mattoni.
Non é sempre stato così? O mi sbaglio?
Poi si, possiamo parlarne:
se la 70 costa 599 vorrei avere la grafica tirata quasi ad ultra, tanto più in 1080p.
Altrimenti mi girerebbero non poco i due pianeti
L'unica scheda che si avvicina allo standard x70 è la 5080, tutto il resto è molto, molto sotto, addirittura GB202 ha quasi 4 volte i cuda in più di GB205, che è una sorta di derivazione 06.
GB203 5080, si ritroverà a performare il 50% in più di tale chip.
L'unica scheda che si avvicina allo standard x70 è la 5080, tutto il resto è molto, molto sotto, addirittura GB202 ha quasi 4 volte i cuda in più di GB205, che è una sorta di derivazione 06.
GB203 5080, si ritroverà a performare il 50% in più di tale chip.
Figurati che ero speranzoso in un ritorno della x70 sullo stesso chip della x80 :fagiano:
GB205 lo davo per il mobile come successe per GA103...
devil_mcry
17-10-2024, 18:56
Comunque comprare le vga è diventato abbastanza stressante. Io gioco tantissimo, la cifra si ripaga ma oggettivamente adesso più che a prendere la custom preferita prendo la custom più conveniente.
Speriamo bene per sta 5080 :D
Non so, spero che le recensioni mi smentiranno ma si prospetta una generazione deludente. Una 5070 nel 2025 con 12 giga di ram non si può vedere, la 5080 si candida per il titolo di minor salto generazionale di sempre e la 5090 sembra una bestia ma non voglio pensare al prezzo. Non aggiorno il fisso dai tempi della 1070, per ora me la cavo con un portatile con 3080 ma tra voglia di ray tracing e TV 4k da sfruttare si sente la necessità di hardware nuovo. Rimane solo da sperare che la 5080 non costi più della 4080 super, ma ho già capito che meno di 1000 euro di gpu non gli potrò dare.
Cutter90
18-10-2024, 13:05
Comunque comprare le vga è diventato abbastanza stressante. Io gioco tantissimo, la cifra si ripaga ma oggettivamente adesso più che a prendere la custom preferita prendo la custom più conveniente.
Speriamo bene per sta 5080 :D
Eh, perchè ormai le differenze tra le custom sono davvero minime in termini prestazionali. Ormai si sceglie in base al prezzo, alla marca e alla rumorosità/freschezza.
ninja750
18-10-2024, 13:44
Non so, spero che le recensioni mi smentiranno ma si prospetta una generazione deludente. Una 5070 nel 2025 con 12 giga di ram non si può vedere, la 5080 si candida per il titolo di minor salto generazionale di sempre
eppure al day1 verrai qui dentro a leggere in quanti hanno shoppato :O
se la concorrenza dalla 80 in sù non ci sarà, chi vuole un certo livello di perf non avrà alternative se non tenersi la scheda che ha già
eppure al day1 verrai qui dentro a leggere in quanti hanno shoppato :O
se la concorrenza dalla 80 in sù non ci sarà, chi vuole un certo livello di perf non avrà alternative se non tenersi la scheda che ha già
bhe ad avere una 4070Ti Super/4080/4080 Super già nel case io ci penserei almeno 600 volte a cambiarla, al massimo posso capire chi dalla 4090 passa alla 5090 perchè gioca in 4k a refresh alti, ma per il resto salvo innovazioni da strapparsi i capelli sarà più un vezzo che reale necessità
eppure al day1 verrai qui dentro a leggere in quanti hanno shoppato :O
se la concorrenza dalla 80 in sù non ci sarà, chi vuole un certo livello di perf non avrà alternative se non tenersi la scheda che ha già
Ed è quello che molto probabilmente toccherà anche a me, perché come giustamente dici alternative mi sa che non ci saranno, per cui se si vuole l'upgrade toccherà comprare quello che ci offre Nvidia.
Quello ch emi preoccupa non è tanto quanto sarà "potente"...ma quanto sarà castrante il nuovo DLSS 4.0 nei confronti della vecchia serie.. :rolleyes: :rolleyes:
Se dovessi metterci i miei 5cent direi compressione neurale delle textures, in modo da poter continuare a lesinare sulla VRAM. Avevo visto dei paper tempo fa su questa cosa.
Ovviamente 5xxx only, in qualche modo.
mikael84
18-10-2024, 16:39
Figurati che ero speranzoso in un ritorno della x70 sullo stesso chip della x80 :fagiano:
GB205 lo davo per il mobile come successe per GA103...
Il problema cominciano ad essere pure i consumi ed i costi. X70 da 320/400watt, sono fuori la portata per molti.
JHH sta praticamente trasportando lo stesso layout per la terza volta di fila.
GA102: 84SM
AD103: 80SM (84 non li ha messi per un bug di costruzione, per sua ammissione)
GB203: 84 SM.
In linea teorica, GB203, doveva essere rebrandato in GB204, e GB203 passare a 14336cc, visto che GB202, per la prima volta, in campo pro/gaming, passerà agli 8 TPC, che permetterebbero anche di rasterizzare a 32 pixel, dopo eoni a 16.
Fecce lo stesso con TU104 2080s e GA104, portando lo stesso chip, a doppio datapath come x70 successiva.
Ora però come x80, ti ritroverai praticamente PCB da x90 ADA, dissipatori molto costosi e via...
Inoltre quel chip non dovrà competere con nessuno, visto che AMD, tirerà fuori un navi32 aggiornato, che presumo sia quella la causa della riduzione di GB205 a 5 TPC.
Di fatto, apre un altro scenario futuro. Visto che la x80 futura, dovrà fare circa +50% per prendere la 5090.
Non so, spero che le recensioni mi smentiranno ma si prospetta una generazione deludente. Una 5070 nel 2025 con 12 giga di ram non si può vedere, la 5080 si candida per il titolo di minor salto generazionale di sempre e la 5090 sembra una bestia ma non voglio pensare al prezzo. Non aggiorno il fisso dai tempi della 1070, per ora me la cavo con un portatile con 3080 ma tra voglia di ray tracing e TV 4k da sfruttare si sente la necessità di hardware nuovo. Rimane solo da sperare che la 5080 non costi più della 4080 super, ma ho già capito che meno di 1000 euro di gpu non gli potrò dare.
Il problema della ram è intrinseco alle gddr7. Purtroppo pare debuttino con la doppia densità, quindi 2gb per canale. Ci si aspetta un ulteriore refresh, che porti finalmente la caratteristica della gddr7, ovver 3gb per canale, portando il 192bit a 18gb.
Sarà l'ultimo giro di boa, di tale quantitativo sui 192bit.
Power supply maker dismisses RTX 5090 dual 16pin rumors, teases more Info in January
(https://videocardz.com/newz/power-supply-maker-dismisses-rtx-5090-dual-16pin-rumors-teases-more-info-in-january)
come pensavo, follia totale l'idea che potesse esserci un doppio connettore 16pin sulla 5090
Il problema cominciano ad essere pure i consumi ed i costi. X70 da 320/400watt, sono fuori la portata per molti.
JHH sta praticamente trasportando lo stesso layout per la terza volta di fila.
GA102: 84SM
AD103: 80SM (84 non li ha messi per un bug di costruzione, per sua ammissione)
GB203: 84 SM.
In linea teorica, GB203, doveva essere rebrandato in GB204, e GB203 passare a 14336cc, visto che GB202, per la prima volta, in campo pro/gaming, passerà agli 8 TPC, che permetterebbero anche di rasterizzare a 32 pixel, dopo eoni a 16.
Fecce lo stesso con TU104 2080s e GA104, portando lo stesso chip, a doppio datapath come x70 successiva.
Ora però come x80, ti ritroverai praticamente PCB da x90 ADA, dissipatori molto costosi e via...
Inoltre quel chip non dovrà competere con nessuno, visto che AMD, tirerà fuori un navi32 aggiornato, che presumo sia quella la causa della riduzione di GB205 a 5 TPC.
Di fatto, apre un altro scenario futuro. Visto che la x80 futura, dovrà fare circa +50% per prendere la 5090.
Il problema della ram è intrinseco alle gddr7. Purtroppo pare debuttino con la doppia densità, quindi 2gb per canale. Ci si aspetta un ulteriore refresh, che porti finalmente la caratteristica della gddr7, ovver 3gb per canale, portando il 192bit a 18gb.
Sarà l'ultimo giro di boa, di tale quantitativo sui 192bit.La soluzione sarebbe stata fare la x70 da 256 bit, come una volta, ma mi sa che adesso tocca sperare che non scendano a 128 bit con le prossime generazioni. Comunque in effetti sono tentato di aspettare eventuali refresh con 18 e 24 giga, perché magari 16 giga basteranno nel 99% dei casi, ma se spendo una cifra per una 5080 mi scoccerebbe che poi esca il gioco col texture pack ultra che richiede 20 o più giga e non poterlo usare.
La soluzione sarebbe stata fare la x70 da 256 bit, come una volta, ma mi sa che adesso tocca sperare che non scendano a 128 bit con le prossime generazioni. Comunque in effetti sono tentato di aspettare eventuali refresh con 18 e 24 giga, perché magari 16 giga basteranno nel 99% dei casi, ma se spendo una cifra per una 5080 mi scoccerebbe che poi esca il gioco col texture pack ultra che richiede 20 o più giga e non poterlo usare.
personalmente con 16Gb dai 3440x1440 fino al 4k mi sentirei tranquillo, mi preoccupa di più quel buco abnorme che dovrebbe esserci tra i 10752 cc della 80 e i 21760cc della 90, possibile che non sia quasi certo un modello "di mezzo" con nomenclatura 80Ti?
amon.akira
18-10-2024, 18:33
personalmente con 16Gb dai 3440x1440 fino al 4k mi sentirei tranquillo, mi preoccupa di più quel buco abnorme che dovrebbe esserci tra i 10752 cc della 80 e i 21760cc della 90, possibile che non sia quasi certo un modello "di mezzo" con nomenclatura 80Ti?
secondo me è certo, qualsiasi sia il nome :)
c era anche la news delle gddr7 samsung 40gbps pronte per inizio 2025
personalmente con 16Gb dai 3440x1440 fino al 4k mi sentirei tranquillo, mi preoccupa di più quel buco abnorme che dovrebbe esserci tra i 10752 cc della 80 e i 21760cc della 90, possibile che non sia quasi certo un modello "di mezzo" con nomenclatura 80Ti?
Logica vorrebbe che sì, dovranno in qualche modo riempire il buco, e non escludo che si tengano la carta dei 24 giga per la nuova scheda, però vai a sapere, la scorsa generazione ci si aspettava una 4090 ti col chip full e non si è vista. Poi il problema è quando esce, probabilmente sarà da aspettare un anno.
mikael84
18-10-2024, 19:42
La soluzione sarebbe stata fare la x70 da 256 bit, come una volta, ma mi sa che adesso tocca sperare che non scendano a 128 bit con le prossime generazioni. Comunque in effetti sono tentato di aspettare eventuali refresh con 18 e 24 giga, perché magari 16 giga basteranno nel 99% dei casi, ma se spendo una cifra per una 5080 mi scoccerebbe che poi esca il gioco col texture pack ultra che richiede 20 o più giga e non poterlo usare.
La x70 è la 5080, ormai le fasce sono declassate. Il bus a 192bit, lo usano anche per supportare le workstation (ex quadro), dove ne producono svariate. Con ADA addirittura 3. Ovviamente con 24gb in clamshell 8bit.
personalmente con 16Gb dai 3440x1440 fino al 4k mi sentirei tranquillo, mi preoccupa di più quel buco abnorme che dovrebbe esserci tra i 10752 cc della 80 e i 21760cc della 90, possibile che non sia quasi certo un modello "di mezzo" con nomenclatura 80Ti?
Temo che venga presa piuttosto male tale situazione. JHH un piano B lo avrà. Ci potrebbe ballare tranquillamente il 50% tra le 2.
Una soluzione in campo work da 384bit la troveranno sicuramente, in quanto dovranno coprire il divario tra 32 e 64gb di ram.
Con la tripla densità, non lo colmi, in quanto puoi portare a 48gb il 256bit, ma allo stesso tempo 92gb il 512bit.
Quindi, è piuttosto probabile che un rimedio su GB202 lo tiri fuori. Tuttavia, con ADA, ha usato tutti gli scarti per le work, ed era piuttosto aspicabile una 4080ti.
Logica vorrebbe che sì, dovranno in qualche modo riempire il buco, e non escludo che si tengano la carta dei 24 giga per la nuova scheda, però vai a sapere, la scorsa generazione ci si aspettava una 4090 ti col chip full e non si è vista. Poi il problema è quando esce, probabilmente sarà da aspettare un anno.
Probabilmente, è in parte pure voluta strategicamente. Probabilmente dopo il flop 3090ti, non hanno osato. Di certo, con una 5080 conciata così, una 4090ti così muscle, la farebbe impallidire.
Ricordo che la 4090 soffre di banda, e per di più è stata cannibalizzata lato cache, tagliandoli ogni singolo canale, portando la cache da 96mb a 72.
Anche se bisogna valutare i progressi lato RT core, oltre a OFA/tensor.
Sicuramente Nvidia è nella situazione di non aver bisogno di una x90 ti, specie se poi può vendere lo stesso chip come quadro o tesla a n volte il prezzo.
È interessante anche il discorso sui consumi menzionato prima. Il mio vecchio PC ha l'alimentatore da 500w e adesso parliamo di quella cifra solo per la gpu. Le x70 consumano come la vecchia fascia enthusiast che mi era sempre sembrata esagerata. Sono un po' timoroso di un futuro in cui avremo pc da gaming con ali da 2kw che si farà fatica a usare con le forniture elettriche italiane.
Temo che venga presa piuttosto male tale situazione. JHH un piano B lo avrà. Ci potrebbe ballare tranquillamente il 50% tra le 2.
Una soluzione in campo work da 384bit la troveranno sicuramente, in quanto dovranno coprire il divario tra 32 e 64gb di ram.
Con la tripla densità, non lo colmi, in quanto puoi portare a 48gb il 256bit, ma allo stesso tempo 92gb il 512bit.
Quindi, è piuttosto probabile che un rimedio su GB202 lo tiri fuori. Tuttavia, con ADA, ha usato tutti gli scarti per le work, ed era piuttosto aspicabile una 4080ti.
"solo" un 50% in più tra le due considerando quasi il raddoppio dei cc? sarebbe strano se si arrivasse a un 60-65%?
Che poi non capisco, di tutti i chip che per forza di cose non usciranno bene per le 5090, non potrebbero farci uscire dopo 6-7 mesi d'accumulo proprio una 5080ti cuttando parte della 5090 fallata?
mikael84
19-10-2024, 21:37
"solo" un 50% in più tra le due considerando quasi il raddoppio dei cc? sarebbe strano se si arrivasse a un 60-65%?
Il 50% è generico e relativo, può essere pure di più, non ho fatto calcoli, in quanto è al momento difficile prevedere lo scaling di un chip a 21760 cuda, vedi lo scaling della la 4090 vs 4080...
Il rapporto sarebbe molto vicino a quello tra 4070ti vs 4090, senza però limitazioni di banda.
60% è possibile a livello teorico, anche di più in base agli scenari, soprattutto 3dmark, ma può essere ben più basso in altri.
Discorso diverso sotto i 10kcc.
Che poi non capisco, di tutti i chip che per forza di cose non usciranno bene per le 5090, non potrebbero farci uscire dopo 6-7 mesi d'accumulo proprio una 5080ti cuttando parte della 5090 fallata?
Certamente, devo ancora vedere la grandezza del die, per valutare i fail, ma chip ne ricavano. I die da 607mm2 si portano dietro quasi la metà dei fail.
Con AD102 hanno rilasciato:
-L40 (ex tesla) / RTX6000 (ex quadro): Chip full (manca un TPC per rese assolute)
-4090
Dopo quasi un anno, hanno ricavato un modello completamente distrutto, chiamato RTX 5000 (ex quadro) con 12288cc, ed in seguito cuttato la 4090, per la cina, ed un altro cut da 14080cc sempre per le work. Qualche altro scarto da buttare l'hanno riciclato in chip minori (non si butta nulla).
Con BL202, stessa sorte, bisognerà vedere se avranno chip sufficienti o la volontà di partizionare quel segmento.
Die over 700mm2, sono appena 1/3 i die validi, di cui i selezionati vanno nelle work.
Sicuramente Nvidia è nella situazione di non aver bisogno di una x90 ti, specie se poi può vendere lo stesso chip come quadro o tesla a n volte il prezzo.
È interessante anche il discorso sui consumi menzionato prima. Il mio vecchio PC ha l'alimentatore da 500w e adesso parliamo di quella cifra solo per la gpu. Le x70 consumano come la vecchia fascia enthusiast che mi era sempre sembrata esagerata. Sono un po' timoroso di un futuro in cui avremo pc da gaming con ali da 2kw che si farà fatica a usare con le forniture elettriche italiane.
Esattamente. Purtroppo, il discorso fascia va a farsi benedire. La 5080 è una x70 precisa, ma con consumi dai 320 ai 400 speculati, ed anche mettendola a 500 euro, renderebbe troppo complesso il passaggio per molti, tra case, ali, cpu adeguate, etc...
Chiaramente, tu devi essere consapevole di aver acquistato una fascia x70, anche se ti costasse 1500, e che nonostante i consumi ed i costi, hai sempre una 70.
Esattamente. Purtroppo, il discorso fascia va a farsi benedire. La 5080 è una x70 precisa, ma con consumi dai 320 ai 400 speculati, ed anche mettendola a 500 euro, renderebbe troppo complesso il passaggio per molti, tra case, ali, cpu adeguate, etc...
Chiaramente, tu devi essere consapevole di aver acquistato una fascia x70, anche se ti costasse 1500, e che nonostante i consumi ed i costi, hai sempre una 70.
Quindi, guardando alle vecchie generazioni, se venisse mantenuto il rapporto che c'era prima di ada, questa 5080(70) andrebbe il 20-30% in più della 4080.
amon.akira
20-10-2024, 02:44
Quindi, guardando alle vecchie generazioni, se venisse mantenuto il rapporto che c'era prima di ada, questa 5080(70) andrebbe il 20-30% in più della 4080.
di piu, 30%+ lo farà ora
mikael84
20-10-2024, 11:57
Quindi, guardando alle vecchie generazioni, se venisse mantenuto il rapporto che c'era prima di ada, questa 5080(70) andrebbe il 20-30% in più della 4080.
La x80 successiva, ha sempre battuto le vecchie ammiraglie, le 70/ti andavano come le loro.
GB203 è meno della metà di GB202.
Ricordiamoci che AD102 è mezzo distrutto, non è full, come i chip precedenti.
A sto giro cmq, gli si può dire poco, visto che di medio non c'è nulla, una x70 da 320/400watt, non è roba proprio per l'utenza di fascia media.
Riguardo le prestazioni, al momento è difficile calcolarle, conosciamo la banda (la stessa della 4090), ma non le eventuali modifiche interne ed i clock precisi.
Vari rumour parlavano di 2,9 base (ora 2,25/2,29), che vorrebbe dire, aver ridisegnato la struttura e sfruttato la percentuale del nodo e le rese.
Il nodo è quello di zen5.
OrazioOC
20-10-2024, 12:13
https://videocardz.com/newz/geforce-rtx-5090-graphics-card-featured-in-a-factory-trial-video
https://videocardz.com/newz/geforce-rtx-5090-graphics-card-featured-in-a-factory-trial-video
Sempre che questo leak sia affidabile e che quella sia veramente una 5090... dio mio è gigantesca. E c'è un solo connettore. L'unica cosa che non mi spiego è come è possibile che inizino a circolare questi leak e il rilascio avvenga a gennaio 2025, non mi tornano tanto queste tempistiche
mikael84
20-10-2024, 16:37
https://videocardz.com/newz/geforce-rtx-5090-graphics-card-featured-in-a-factory-trial-video
1) Questo conferma che sono a circa 2 mesi dalla fine dei lavori (DVT-WS-EMI test), e che a gennaio possono ufficializzarle e lanciarle.
Entro novembre dovrebbero avere il prodotto ultimato, che va in fase di bios.
2) Il limite di 4800TPP della 4090 verso la Cina, pare confermato, quindi GB202, salvo pesanti scarti li non ci finisce (almeno direttamente).
Una eventuale 5080ti, anche con i cuda della 4090 o 4090D, sarebbe esclusa, perchè blackwell avrà più clock.
La 5080 ci rientrerebbe perchè solo via clock a 4800 non ci arrivi, ed inoltre, malgrado lui presenterà i nuovi tensor core FP4, il ratio sarà tagliato, visto che raddoppierebbe le performance dei tensor.
albero77
21-10-2024, 11:18
Sempre che questo leak sia affidabile e che quella sia veramente una 5090... dio mio è gigantesca. E c'è un solo connettore. L'unica cosa che non mi spiego è come è possibile che inizino a circolare questi leak e il rilascio avvenga a gennaio 2025, non mi tornano tanto queste tempistiche
anche alcune 4090 sono gigantesche, questa che si vede è una 3 slot, la mia 4090 è 3,5 slot x 34 cm, direi che siamo in linea. non me ne intendo molto di tempistiche, ma a 2 mesi dalla presentazione e a 3(?) dalla commercializzazione penso sia normale che le schede siano già in produzione.
appleroof
21-10-2024, 12:24
Prossima frontiera, un case a parte per la vga (e relativo ali), collegato a quello principale con connettore pciex... Scusate l'ironia, ma sinceramente sarebbe ora di una innovazione vera in termini di performance/watt, speravo nei multi chip ma a quanto pare se si segue la solita linea del chippone monolitico ed energivoro (che cmq di per sé rimane impressionante quanto a tecnologia), altre strade non sembrano industrializzabili...
OrazioOC
21-10-2024, 12:57
Prossima frontiera, un case a parte per la vga (e relativo ali), collegato a quello principale con connettore pciex... Scusate l'ironia, ma sinceramente sarebbe ora di una innovazione vera in termini di performance/watt, speravo nei multi chip ma a quanto pare se si segue la solita linea del chippone monolitico ed energivoro (che cmq di per sé rimane impressionante quanto a tecnologia), altre strade non sembrano industrializzabili...
Ti sei perso le docking station per le eGPU da collegarei ai notebook. :asd:
appleroof
21-10-2024, 13:32
Ti sei perso le docking station per le eGPU da collegarei ai notebook. :asd:
No le ricordo eccome... Almeno potevano avere un minimo di senso :D
https://videocardz.com/newz/geforce-rtx-5090-graphics-card-featured-in-a-factory-trial-video
Smentito ufficialmente da Zotac. Quella è una 4070 ti super
OrazioOC
23-10-2024, 08:01
https://videocardz.com/newz/nvidia-blackwell-gb203-gpu-allegedly-pictured-expected-to-power-the-rtx-5090-5080-laptop-series
https://videocardz.com/newz/nvidia-blackwell-gb203-gpu-allegedly-pictured-expected-to-power-the-rtx-5090-5080-laptop-series
Lo schifo del settore mobile (nei portatili) data la mancanza di concorrenza è quello che probabilmente succederà (e sta già succedendo) in modo sempre più marcato sul desktop.
Lo schifo del settore mobile (nei portatili) data la mancanza di concorrenza è quello che probabilmente succederà (e sta già succedendo) in modo sempre più marcato sul desktop.
Come pretendi di infilarci GB202 in un pcb mobile?
In genere le gpu mobile non vanno oltre i 175w, già GB203 viaggerebbe con clock molto blandi.
zanflank
24-10-2024, 09:12
Cucù!
https://www.computerbase.de/news/grafikkarten/nvidia-blackwell-gb203-die-fuer-rtx-5090-5080-laptop-abgelichtet.90053/
https://pics.computerbase.de/1/1/4/6/0/4-55bcf1537d3ffff1/article-640x360.8e86fde0.jpg
Predator_1982
24-10-2024, 14:21
la vedo...la vedo riflessa la giacchetta nera
marbasso
24-10-2024, 18:21
Ba ba chi è stato bannato visto che il forum sta sminchiando?
Come pretendi di infilarci GB202 in un pcb mobile?
In genere le gpu mobile non vanno oltre i 175w, già GB203 viaggerebbe con clock molto blandi.
Ah io non pretendo nulla, la critica è rivolta ai cambiamenti di nomi/fasce che sono al limite della truffa. Oggi ti compri un portatile gaming con una 4070m che va meno di una 4060 desktop che a sua volta è più una 50 che una 60 :muro:.
devil_mcry
25-10-2024, 14:26
Ah io non pretendo nulla, la critica è rivolta ai cambiamenti di nomi/fasce che sono al limite della truffa. Oggi ti compri un portatile gaming con una 4070m che va meno di una 4060 desktop che a sua volta è più una 50 che una 60 :muro:.
come ho già detto una volta, quella cosa non ha senso.
se domani ti fanno una gpu fantascientifica che va 3 volte una 4090 con un cuda core e 1 mb di ram, non importa come è fatta, va sempre 3 volte una 4090
i tier non sono dati da come è l'hardware ma da come è il profilo prestazionale, se si inventano un transistor su un materiale che supporta 2x il clock di ora, dimezzano tutto mica te le vendono come 25 30 35 40 45 lol
Ah io non pretendo nulla, la critica è rivolta ai cambiamenti di nomi/fasce che sono al limite della truffa. Oggi ti compri un portatile gaming con una 4070m che va meno di una 4060 desktop che a sua volta è più una 50 che una 60 :muro:.
E' sempre stato cosi, la nomenclatura mobile ha storia a se, non deve essere 1 a 1 con quella desktop, neanche le cpu seguono lo stesso rapporto.
L'unico chip che più o meno si è sempre rapportato in modo simile tra desktop e mobile è la x60, ma per una questione di PL, ed è comunque soggetta a personalizzazioni dell'OEM che può bloccarla a 60w come a 115w.
Altrimenti con 175w dovresti fermarti a una 4070M e andresti comunque meno della 4070 desktop :sofico:
E' sempre stato cosi, la nomenclatura mobile ha storia a se, non deve essere 1 a 1 con quella desktop, neanche le cpu seguono lo stesso rapporto.
L'unico chip che più o meno si è sempre rapportato in modo simile tra desktop e mobile è la x60, ma per una questione di PL, ed è comunque soggetta a personalizzazioni dell'OEM che può bloccarla a 60w come a 115w.
Altrimenti con 175w dovresti fermarti a una 4070M e andresti comunque meno della 4070 desktop :sofico:
Il problema è che non è questione solo di perf dal desktop che possono starci e variare pure tra un modello e l'altro di laptop, è proprio che la 4070 mobile è un AD106 con 8GB e 128bit. Lo so bene avendola, e non tende nemmeno a raggiungere i 140W che le concede il mio laptop (quantomeno scalda poco e si occa pure). Che c'azzecca con la 4070 desktop? Che va più della 4060 Mobile quindi la chiami x70? Allora chiamala 4060 Mobile Super almeno ha senso.
Ma pure la 4080 mobile che è un AD104 con 192bit e 12GB, tutto sfasatissimo.
Casini fatti ad esempio pure da AMD sulle CPU mobile appunto, e per quanto uno ha il dovere di informarsi prima di comprare non l'ho mai accettata molto come cosa.
Trovo molto più grave la 4060 desktop, se andiamo ad analizzarla, vorrei capire cosa centra un chippino da 159mm2 con le x60 desktop, è un chip che a tirarci fuori 4050ti era già tanto :sofico:
Sul desktop AD103 lavora tra i 275 e 350w o più a seconda della personalizzazione, la versione mobile da cui hanno ricavato la 4090M lavora in un range di lavoro tra i 120 e 150w, e solo le varianti più spinte arrivano a 175w, la scelta di impiegarlo può semplicemente limitarsi sia al quantitativo di vram che alla bw maggiore che in alcuni applicativi può far comodo.
AD104 mobile, su cui si basa 4080M, parte da 80w fino a 150w, la nomenclatura in sè: x60, x70,x80 e x90 serve solo a suddividere le fasce, ma tutti i chip mobile sono limitati dal PL, il chip in sè conta poco se ad esempio l'OEM decide di bloccare il chip a PL scomodi come 80w su un AD104 o 120w su un AD103.
Il problema della 4070 mobile è lo stesso della 4060ti desktop... inutile girarci intorno.
GeForce RTX 50 Blackwell to be unveiled “soon”, claims leaker (https://videocardz.com/pixel/geforce-rtx-50-blackwell-to-be-unveiled-soon-claims-leaker)
Avremo un teaser prima del CES? Magari entro fine novembre?
AceGranger
05-11-2024, 10:31
Casini fatti ad esempio pure da AMD sulle CPU mobile appunto, e per quanto uno ha il dovere di informarsi prima di comprare non l'ho mai accettata molto come cosa.
ha sempre funzionato cosi; i nomi hanno sempre indicato le fasce.
la X060 mobile è la fascia media mobile, che non è mai stata uguale alla fascia media x060 desktop, come un i5 ultra mobile non è prestante come un i5 mobile che non è prestante come un i5 desktop, ma nei 3 casi sempre indicano la fascia media di quella categoria di CPU.
E' sempre stato cosi
Eh no
fino alla 20x0 era solo un po' di clock in meno
con la 30x0 hanno tagliato anche i core
devil_mcry
05-11-2024, 12:29
Eh no
fino alla 20x0 era solo un po' di clock in meno
con la 30x0 hanno tagliato anche i core
In realtà inizialmente era così com'è ora, poi intorno alle gtx1000 forse hanno fatto che le mobile erano uguali alle desktop con meno clock (potrebbero essere anche le gtx900) poi la cosa è cambiata di nuovo
mikael84
05-11-2024, 12:53
Nel mobile, giusto turing e pascal, hanno mediamente utilizzato le stesse sku, anche se con le varianti max-q (clock dimezzato o quasi e sigla ingannevole).
Da maxwell in giù, erano tutti chip depotenziati, come la 970m che integrava 1280cc, la 980m che inizialmente integrava 1536cc (neppure quelli della 970 desktop). Kepler aveva la 780m (680 desk), la 770m (660 desk), in seguito fecero una variante 8xx, che riprendeva le 670 e 680 desk.
Con Ampere e ADA, hanno voluto portare le sigle x90 e x80ti, ma non potendo montare il chip x02, hanno scalato tutto su chip inferiori.
Insomma il mobile è una giungla anche tra chip identici per via del TDP, e richiede particolare attenzione in fase di acquisto purtroppo.
AceGranger
05-11-2024, 13:14
Eh no
fino alla 20x0 era solo un po' di clock in meno
con la 30x0 hanno tagliato anche i core
che è una supercazzola mentale, perchè il risultato non cambia.
loro decidono a monte il livello prestazionale di ogni fascia e poi vedono come confezionarti quel livello prestazionale.
redbaron
05-11-2024, 13:41
.
https://www.techpowerup.com/review/future-hardware-releases/
Le parti più interessanti
Graphics / GPUs
NVIDIA Blackwell / GeForce RTX 50 [updated]
Release Date: Jan 2025 (CES) #
Most of the GeForce 50 stack will release in Q1 2025 #
RTX 5090 and 5080: January #
RTX 5070 and RTX 5070 Ti: February #
RTX 5060 and RTX 5060 Ti: March #
B200 and GB200 announced at GTC 2024 #
GB202: 24,576 cores, 12 GPC, 8 TPC per GPC, 512-bit, 32/64 GB GDDR7 #
GB203: 10,752 cores, 7 GPC, 6 TPC per GPC, 256-bit, 16/32 GB GDDR7 #
GB205: 6,400 cores, 5 GPC, 5 TPC per GPC, 192-bit, 12 GB GDDR7 #
GB206: 6,144 cores, 3 GPC, 6 TPC per GPC, 128-bit, 8/16 GB GDDR7 #
GB207: 2,560 cores, 2 GPC, 5 TPC per GPC, 128-bit, 8/16 GB GDDR6 #
No GB204 #
RTX 5090: PG144/145-SKU30 GB202-300, 21760 cores, 512-bit GDDR7 32 GB, 600 W #
RTX 5090 could require two 16-pin power connectors #
RTX 5090D and 5080D planned for Chinese market #
RTX 5080: PG144/147-SKU45, GB203-400, 10752 cores, 256-bit GDDR7 16 GB, 400 W #
512-bit memory interface on flagship GPU #
GDDR7 memory on top Blackwell GPUs #
GDDR7 speeds up to 32 Gbps #
Uses TSMC 3 nm process #
GeForce 50 chips could use TSMC 5 nm process called "4N" #
GB100 could be an MCM design #
GB203 uses 256-bit memory interface #
NVIDIA is testing designs with power ranges of 250 to 600 W #
RTX 5090 uses the huge cooler that we saw in leaks for RTX 4090 Ti #
Micron presentation suggests that RTX 5090 is +42% faster than RTX 4090 #
Purtroppo per il prezzo è confermato tsmc 3nm, un salasso quindi
ninja750
08-11-2024, 14:01
Ba ba chi è stato bannato visto che il forum sta sminchiando?
?
Purtroppo per il prezzo è confermato tsmc 3nm, un salasso quindi
pensi che se non avessero utilizzato quel PP te l'avrebbero fatta pagare meno? :stordita: io in tutto ciò continuo a vedere logica, continua a spingersi sempre più in là in fascia uber perchè tanto quelli che sono disposti a spendere 1500 saranno disposti a spenderne anche 2000
nella ex fascia media cioè quella defunta il rapporto prezzo/quellocheottieni sarà penso uno dei peggiori di sempre, non scrivo apposta prestazioni perchè quelle saranno al top, intendo il globale dimensionechip+bus+taglioram
pensi che se non avessero utilizzato quel PP te l'avrebbero fatta pagare meno? :stordita: io in tutto ciò continuo a vedere logica, continua a spingersi sempre più in là in fascia uber perchè tanto quelli che sono disposti a spendere 1500 saranno disposti a spenderne anche 2000
nella ex fascia media cioè quella defunta il rapporto prezzo/quellocheottieni sarà penso uno dei peggiori di sempre, non scrivo apposta prestazioni perchè quelle saranno al top, intendo il globale dimensionechip+bus+taglioram
Si, con le 3000 era così. Poi ovvio, lì (colpa nostra) abbiamo fatto capire che siamo disposti a spendere ed Nvidia ci ha marciato, ma incide molto
mikael84
08-11-2024, 15:51
Sono i classici dati buttati li, alcuni vecchi, altri strampalati.
GB206: 6,144 cores, 3 GPC, 6 TPC per GPC, 128-bit, 8/16 GB GDDR7 #
Questo è l'esempio. 3 GPC X 6 TPC, fanno 4608cc, che sono quelli che dovrebbe adottare GB206.
Dato copiato senza fondamenta.
Uses TSMC 3 nm process #
GeForce 50 chips could use TSMC 5 nm process called "4N" #
Purtroppo per il prezzo è confermato tsmc 3nm, un salasso quindi
TSMC 4n, è il nodo delle 4000, dove 4n sta per 5nm mod sulla l2.
La serie 5000, sarà basata sul 4nm HP.
I 3nm, nvidia li utilizzerà sui chip Rubin 6000, a partire dal chip HPC ex tesla.
Al momento i 3nm sono sono i basic da mobile, utilizzati da arrow e lunar, quelli ad alte prestazioni, li vedremmo sulla prossima gen.
OrazioOC
08-11-2024, 15:56
https://img.ilgcdn.com/sites/default/files/styles/xl/public/foto/2010/04/04/att_623351_0?_=1340307961
:O
Ale55andr0
08-11-2024, 23:55
GB205: 6,400 cores, 5 GPC, 5 TPC per GPC, 192-bit, 12 GB GDDR7 #
https://www.youtube.com/watch?v=lhckuhUxcgA
Sono i classici dati buttati li, alcuni vecchi, altri strampalati.
Questo è l'esempio. 3 GPC X 6 TPC, fanno 4608cc, che sono quelli che dovrebbe adottare GB206.
Dato copiato senza fondamenta.
TSMC 4n, è il nodo delle 4000, dove 4n sta per 5nm mod sulla l2.
La serie 5000, sarà basata sul 4nm HP.
I 3nm, nvidia li utilizzerà sui chip Rubin 6000, a partire dal chip HPC ex tesla.
Al momento i 3nm sono sono i basic da mobile, utilizzati da arrow e lunar, quelli ad alte prestazioni, li vedremmo sulla prossima gen.
Insomma, non c'è mezzo dato corretto :D
OrazioOC
12-11-2024, 09:50
https://videocardz.com/newz/nvidia-shifts-production-to-geforce-rtx-50-series-only-one-ada-gpu-reportedly-still-in-production
redbaron
12-11-2024, 11:18
Se e' cosi' aspettiamoci leaks a breve.
Finalmente iniziano a cucinare :cool:
bagnino89
13-11-2024, 13:07
Avete installato la nuova app Nvidia? Disponibile in versione stabile.
https://www.nvidia.com/it-it/geforce/news/nvidia-app-download-and-features/
Mi sembra fatta piuttosto bene, e finalmente aggiorna quell'obrobrio di pannello di controllo che va avanti da 20 anni...
Tra le varie cose, si possono anche visualizzare le info di funzionamento della GPU a schermo, al momento di rilevante mancano utilizzo VRAM e qualche info in più sulla CPU. Ma secondo me aggiorneranno nel tempo. Se migliorano un po' anche la sezione overclock (al momento c'è una funzione automatica), praticamente Afterburner si può anche disinstallare, visto anche che il tizio che lo gestisce non lo aggiorna da anni.
Avete installato la nuova app Nvidia? Mi sembra fatta piuttosto bene, e finalmente aggiorna quell'obrobrio di pannello di controllo che va avanti da 20 anni...
Tra le varie cose, si possono anche visualizzare le info di funzionamento della GPU a schermo, al momento di rilevante mancano utilizzo VRAM e qualche info in più sulla CPU. Ma secondo me aggiorneranno nel tempo. Se migliorano un po' anche la sezione overclock (al momento c'è una funzione automatica), praticamente Afterburner si può anche disinstallare, visto anche che il tizio che lo gestisce non lo aggiorna da anni.
Manca anche il gamestream presente nel geforce experience, per ora grafica a parte mancano ancora diversi componenti per sostituirsi in toto al pannello e al GE.
bagnino89
13-11-2024, 13:12
Manca anche il gamestream presente nel geforce experience, per ora grafica a parte mancano ancora diversi componenti per sostituirsi in toto al pannello e al GE.
Non ho manco idea di cosa sia, a me impostazioni driver e info a schermo bastano e avanzano.
Non ho manco idea di cosa sia, a me impostazioni driver e info a schermo bastano e avanzano.
Direi che è una cosa essenziale ma fa niente 🤣
Non ho manco idea di cosa sia, a me impostazioni driver e info a schermo bastano e avanzano.
Serve a fare lo streaming dei giochi o del desktop su smartphone o smartv.
Si può risolvere con sunshine, ma faceva comodo averlo già integrato.
Saved_ita
13-11-2024, 15:07
Serve a fare lo streaming dei giochi o del desktop su smartphone o smartv.
Si può risolvere con sunshine, ma faceva comodo averlo già integrato.
Anche perchè Gamestream è già stato dismesso quindi non comparirà mai nè sulla nuova app e tantomeno altrove.
Serve a fare lo streaming dei giochi o del desktop su smartphon e o smartv.
Si può risolvere con sunshine, ma faceva comodo averlo già integrato.
Allora mi confondo io non serve per fare streaming su YouTube e Twitch cavolo è dalla 1080 che non ho una Nvidia.
Anche perchè Gamestream è già stato dismesso quindi non comparirà mai nè sulla nuova app e tantomeno altrove.
Attualmente funziona ancora con il Geforce Experience non è stato dismesso nulla.
Allora mi confondo io non serve per fare streaming su YouTube e Twitch cavolo è dalla 1080 che non ho una Nvidia.
Nono, io lo uso spesso con lo smartphone + Razer Kishi quando non mi va di stare davanti al monitor.
Saved_ita
13-11-2024, 16:12
Attualmente funziona ancora con il Geforce Experience non è stato dismesso nulla.
E' morto e sepolto
https://support.nvidia.eu/hc/it/articles/15058772968082-Notifica-di-fine-servizio-GameStream
E' morto e sepolto
https://support.nvidia.eu/hc/it/articles/15058772968082-Notifica-di-fine-servizio-GameStream
Finchè non rimuovono del tutto il geforce experience continuerà a funzionare sullo stesso, anche perchè funziona su rete locale non c'è un reindirizzamento su server esterni.
Quando rimuoveranno sia il pannello di controllo che il GE in favore della nuova App, allora tocca andare di steam link o sunshine, quest'ultimo è praticamente lo stesso funzionamento base del GS di nvidia, però è un tool in più da installare rispetto alla funzione nativa già presente.
Saved_ita
13-11-2024, 17:01
Finchè non rimuovono del tutto il geforce experience continuerà a funzionare sullo stesso, anche perchè funziona su rete locale non c'è un reindirizzamento su server esterni.
Quando rimuoveranno sia il pannello di controllo che il GE in favore della nuova App, allora tocca andare di steam link o sunshine, quest'ultimo è praticamente lo stesso funzionamento base del GS di nvidia, però è un tool in più da installare rispetto alla funzione nativa già presente.
Tuttavia conferma che è ufficialmente morto e sepolto e, per tale motivo, non si vedrà mai sulla nuova app (e quindi è anche inutile citarlo tra le cose che mancano).
Tuttavia conferma che è ufficialmente morto e sepolto e, per tale motivo, non si vedrà mai sulla nuova app (e quindi è anche inutile citarlo tra le cose che mancano).
Beh è qualcosa che è attualmente manca, se c'è richiesta e ci sono segnalazioni, potrebbero anche aggiungerlo nel pacchetto Geforce Now.
Ma ad occhio mancano molte altre funzioni, come la creazione di risoluzioni personalizzate e la gestione multischermo...
fraussantin
13-11-2024, 17:17
E' morto e sepolto
https://support.nvidia.eu/hc/it/articles/15058772968082-Notifica-di-fine-servizio-GameStreamBoh lo uso solo per gli update. Finche me li vede mi sta bene.
Alla fine è meno peggio.
bagnino89
13-11-2024, 17:29
Serve a fare lo streaming dei giochi o del desktop su smartphone o smartv.
Si può risolvere con sunshine, ma faceva comodo averlo già integrato.Capito, in futuro mi potrebbe essere utile effettivamente... Però a quanto pare è stato dismesso.
Allora mi confondo io non serve per fare streaming su YouTube e Twitch cavolo è dalla 1080 che non ho una Nvidia.Ecco, questo per me è totalmente inutile.
mikael84
14-11-2024, 11:54
ibra_89, per problemi con la 4080, usa il thread relativo.
Qualsiasi problema, ogni volta lo posti qua...
Vi ho spostato nel thread corretto.
https://www.hwupgrade.it/forum/showthread.php?t=2969685&page=690
Corsair confirms 12V-2X6 power connector and 450W+ for next-gen (NVIDIA RTX 50) GPUs
(https://videocardz.com/newz/corsair-confirms-12v-2x6-power-connector-and-450w-for-next-gen-nvidia-rtx-50-gpus)
Cutter90
15-11-2024, 10:46
Corsair confirms 12V-2X6 power connector and 450W+ for next-gen (NVIDIA RTX 50) GPUs
(https://videocardz.com/newz/corsair-confirms-12v-2x6-power-connector-and-450w-for-next-gen-nvidia-rtx-50-gpus)
Va beh, si sapeva. Ci sta
ninja750
15-11-2024, 11:36
finalmente non dovremo più preoccuparci della dimensione delle gpu top :O
https://i.postimg.cc/9M5WWtbZ/Image1.jpg
dock station esterna così si puo anche esibire la propria vga direttamente sulla scrivania :O
scherzi a parte non ho capito come si collegherebbe poi sto coso al pc cioè se sia a tutti gli effetti un riser o collegato in altro modo :confused:
FrancoBit
15-11-2024, 11:38
finalmente non dovremo più preoccuparci della dimensione delle gpu top :O
https://i.postimg.cc/9M5WWtbZ/Image1.jpg
dock station esterna così si puo anche esibire la propria vga direttamente sulla scrivania :O
scherzi a parte non ho capito come si collegherebbe poi sto coso al pc cioè se sia a tutti gli effetti un riser o collegato in altro modo :confused:
Forse è una dock che si collega ai portatili...
edit: nell'articolo parla anche di Mini pc, collegamento Oculink, che mi sembra un po' una cinesata.
Ha una porta oculink dovrebbe avere una BW equivalente a un PCIe 4.0 x8, maggiore rispetto la classica USB4 che mi pare arrivi a una BW equivalente a un PCIe 4.0 x4.
E' pensata per dispositivi portatili come: handheld, notebook e qualche mini-pc.
Personalmente non è qualcosa che mi interessa, in quanto tra dock e magheggi vari occupi comunque lo spazio di un mini-itx.
OrazioOC
15-11-2024, 16:03
https://www.hwupgrade.it/news/skvideo/consumi-delle-prossime-geforce-corsair-non-si-aspetta-sorprese-non-servira-un-doppio-connettore-12v-2x6_132805.html
OrazioOC
16-11-2024, 17:54
https://videocardz.com/newz/zotacs-owner-relocates-its-hq-and-factory-amid-geforce-rtx-5090-5080-export-restrictions
Qualche mossa strategica da parte di uno degli oem di punta nvidia. :)
https://tech.everyeye.it/notizie/nvidia-geforce-rtx-50-anticipo-lanciate-2024-757242.html
RTX 5000 già a dicembre? :eh:
Cutter90
18-11-2024, 09:05
Panzanate. Non c'è nessun event annunciato a Dicembre per nvidia....
Panzanate. Non c'è nessun event annunciato a Dicembre per nvidia....
Sono tutti leaks, non sappiamo nemmeno niente sulle schede, allo stato attuale potrebbero non esistere nemmeno :asd: l'unica cosa certa è che ci sarà un evento al CES ma altro non si sa
Cutter90
18-11-2024, 09:17
Sono tutti leaks, non sappiamo nemmeno niente sulle schede, allo stato attuale potrebbero non esistere nemmeno :asd: l'unica cosa certa è che ci sarà un evento al CES ma altro non si sa
Eh, appunto. L'evento al CES è ufficiale......
Eh, appunto. L'evento al CES è ufficiale......
Si, è ufficiale l'evento ma di fatto non sappiamo assolutamente nulla di cosa verrà presentato
Cutter90
18-11-2024, 09:28
Si, è ufficiale l'evento ma di fatto non sappiamo assolutamente nulla di cosa verrà presentato
Va beh, cosa vuoi che presentino, macchine da caffè? :D
Schede video fanno.....
Va beh, cosa vuoi che presentino, macchine da caffè? :D
Schede video fanno.....
E perchè no? A me non dispiacerebbe una macchinetta da caffè da 600W targata Nvidia
redbaron
18-11-2024, 10:17
Panzanate. Non c'è nessun event annunciato a Dicembre per nvidia....
Quello e' il minore dei problemi, tanto non lo fanno in presenza , lo possono annunciare anche 15gg prima.
Cutter90
18-11-2024, 10:21
Quello e' il minore dei problemi, tanto non lo fanno in presenza , lo possono annunciare anche 15gg prima.
Ma come non lo fanno in presenza? Giacchetta ha sempre presentato le nuove vga in presenza live. Dubito cambino modus operandi
Ma come non lo fanno in presenza? Giacchetta ha sempre presentato le nuove vga in presenza live. Dubito cambino modus operandi
Tanto alla fine dell'anno manca poco più di un mese, già tra due settimane si dovrebbero avere info più concrete sulla roadmap.
sì e gli asini volano...le presentano nelle giornate del CES a gennaio e il lancio sarà da lì a 2 settimane, il resto son tutte bubbole
mi domando a che pro trall'altro farle uscire, come se avere le schede video nuove 1 mese prima cambiasse qualcosa :stordita:
sì e gli asini volano...le presentano nelle giornate del CES a gennaio e il lancio sarà da lì a 2 settimane, il resto son tutte bubbole
mi domando a che pro trall'altro falle uscire, come se avere le schede video nuove 1 mese prima cambiasse qualcosa :stordita:
Si sono tutti leaks che vanno presi per quello che sono, comunque a me va benissimo gennaio, ho appena venduto un rene per rifarmi il pc e non sarei ancora psicologicamente pronto per una 5090 :asd:
https://overclock3d.net/news/gpu-displays/alleged-nvidia-geforce-rtx-5090-pricing-leaks/
https://overclock3d.net/news/gpu-displays/alleged-nvidia-geforce-rtx-5090-pricing-leaks/
Si tradurrebbe in un 2399€ in EU per fare cifra tonda, circa. Speriamo qualcosa meno ma temo molto a questo giro...
Si tradurrebbe in un 2399€ in EU per fare cifra tonda, circa. Speriamo qualcosa meno ma temo molto a questo giro...
Temo che la tua sia una previsione ottimistica
Giusto per chiudere bene il cerchio delle 4000:
https://i.postimg.cc/zX6zHy7K/half-life-2-20th-anniversary-custom-geforce-rtx-4080-super.jpg
https://www.nvidia.com/en-us/geforce/news/half-life-2-20th-anniversary-rtx-wishlist/
Giusto per chiudere bene il cerchio delle 4000:
https://i.postimg.cc/zX6zHy7K/half-life-2-20th-anniversary-custom-geforce-rtx-4080-super.jpg
https://www.nvidia.com/en-us/geforce/news/half-life-2-20th-anniversary-rtx-wishlist/
Meravigliosa, se tenuta in una teca. Da un punto di vista estetico la vedo dura farla star bene con gli altri componenti del case
Se questi saranno i prezzi, c'è da tenere incrociate le dita di mani e piedi che la 5080 sia più potente di quello che ci si aspetta. Sperando che non sfondi i 1500 euro.
RoUge.boh
19-11-2024, 20:23
Se questi saranno i prezzi, c'è da tenere incrociate le dita di mani e piedi che la 5080 sia più potente di quello che ci si aspetta. Sperando che non sfondi i 1500 euro.
il performace/Watt sarà quello.. se andrà un 20% in più costerà un 20% in più.
quello che sono curioso il DLSS 4.0 in cosa consisterà.....
ultimate trip
20-11-2024, 07:30
Temo che la tua sia una previsione ottimistica
se il tasso di cambio $/€ rimane quello attuale (0,94 / 0,95) allora dovrebbe stare sui 2.199€. se sale e arriva a quello del periodo Ada (1$ = 1€) allora più verso i 2.300/2.350
E almeno per il primo periodo non dovrebbero esserci i dazi al 10% di Trump
ultimate trip
20-11-2024, 07:35
Io continuo a pensare se possa valere la pena vendere la 4090 in queste feste visto che c'è scarsità e recuperare il più possibile. poi ragionandoci con uno schermo 4k 120hz poche volte ho visto la 4090 sotto
Io continuo a pensare se possa valere la pena vendere la 4090 in queste feste visto che c'è scarsità e recuperare il più possibile. poi ragionandoci con uno schermo 4k 120hz poche volte ho visto la 4090 sotto
Vabbè a parte il fatto che per un videogiocatore rimanere senza VGA per un periodo medio lungo è una eresia, c'è da dire che se davvero saranno quelli i prezzi della 5090, è facilissimo che la 4090 usata si stabilizzerà poco sotto al prezzo della 5080 (1600€ ?).
Quindi anche dopo che uscirà la 5090 la 4090 si venderà comunque facilmente sui 1400 a mio parere.
Io la venderò dopo aver preso la 5090 (che a quei prezzi non credo sarà difficilissimo da prendere al click day :D ).
il performace/Watt sarà quello.. se andrà un 20% in più costerà un 20% in più.
quello che sono curioso il DLSS 4.0 in cosa consisterà.....
Mi immagino triplicare i frame invece che raddoppiarli, ma magari ci sorprenderanno con qualcosa di inaspettato.
Secondo me sarà qualche diavoleria basata su AI... vedremo
se il tasso di cambio $/€ rimane quello attuale (0,94 / 0,95) allora dovrebbe stare sui 2.199€. se sale e arriva a quello del periodo Ada (1$ = 1€) allora più verso i 2.300/2.350
E almeno per il primo periodo non dovrebbero esserci i dazi al 10% di Trump
Ma immagino stiamo parlando della FE? Perchè in quel caso ok, ma considerando che certe 4090 custom sono sempre state sui 2500€+ non vedo così improbabile che certi modelli di 5090 raggiungeranno anche i 3k
ultimate trip
20-11-2024, 09:17
Secondo me sarà qualche diavoleria basata su AI... vedremo
Ma immagino stiamo parlando della FE? Perchè in quel caso ok, ma considerando che certe 4090 custom sono sempre state sui 2500€+ non vedo così improbabile che certi modelli di 5090 raggiungeranno anche i 3k
si parlavo della founder che è di solito un modello di fascia alta. allora si, se vuoi una rog o qualche cosa di similare vai facile verso quota 3k:muro:
ultimate trip
20-11-2024, 09:21
Vabbè a parte il fatto che per un videogiocatore rimanere senza VGA per un periodo medio lungo è una eresia, c'è da dire che se davvero saranno quelli i prezzi della 5090, è facilissimo che la 4090 usata si stabilizzerà poco sotto al prezzo della 5080 (1600€ ?).
Quindi anche dopo che uscirà la 5090 la 4090 si venderà comunque facilmente sui 1400 a mio parere.
Io la venderò dopo aver preso la 5090 (che a quei prezzi non credo sarà difficilissimo da prendere al click day :D ).
si certo, magari in quel mesetto (forse 2) mi sarei dedicato a qualche indie che mi manca. vedremo in questi giorni il da farsi, magari è la volta buona che me sto fermo per una gen
si parlavo della founder che è di solito un modello di fascia alta. allora si, se vuoi una rog o qualche cosa di similare vai facile verso quota 3k:muro:
Eh sì ma la mia paura è che essendo le FE difficili da reperire alla fine saremo costretti ad andare sulle custom e spendere chissà quanto di più. Io ci proverò a mettere le mani su una FE appena esce ma ho i miei dubbi
Io che devo rifarmi tutto stavo addirittura pensando di comprarmi la build adesso col video integrato e poi gennaio prendere una founders. Però Co è giustamente osservate, sevanno sold out in10 minuti e poi tocca aspettare o andare di custom a chissà che prezzo? Certo ci saranno sempre quelle col design reference ma c'è sempre comunque un margine di rischio e incertezza.
Cutter90
20-11-2024, 10:23
Io che devo rifarmi tutto stavo addirittura pensando di comprarmi la build adesso col video integrato e poi gennaio prendere una founders. Però Co è giustamente osservate, sevanno sold out in10 minuti e poi tocca aspettare o andare di custom a chissà che prezzo? Certo ci saranno sempre quelle col design reference ma c'è sempre comunque un margine di rischio e incertezza.
Io adesso non farei alcuna build. Comprare tutto adesso significa spendere di più che tra due mesi magari
Io adesso non farei alcuna build. Comprare tutto adesso significa spendere di più che tra due mesi magari
Esattamente, conviene sempre comprare a gennaio-febbraio.
Jack Carver
20-11-2024, 13:53
GB202 = 24.576 core (G7 a 512 bit) / +33% di core in più rispetto ad AD102
GB203 = 10.752 core (G7 a 256 bit) / +5% di core in più rispetto ad AD103
GB205 = 6.400 core (G7 a 192 bit) / -16,6% core rispetto ad AD104
GB206 = 4.608 core (G7 a 128 bit) / Stessi core rispetto ad AD106
GB207 = 2.560 core (G6 a 128 bit) / -16,6% core rispetto ad AD107
NVIDIA GB202 GPU - Flagship Blackwell Gaming Die For GeForce RTX 50 Series
Starting with the top, we have the NVIDIA GB202, the flagship GPU die for the GeForce RTX 50 "Blackwell" lineup. This GPU is what's going to power the ultra-enthusiast GeForce RTX 5090 & higher-end SKUs. The GB202 GPU will feature a total of 12 SMs, each with 8 TPCs for a total of 96 TPCs and each TPC will be housing 2 SMs for a total of 192 SMs. The GPU will support a memory bus interface of up to 512-bit which can be cut into different configurations depending on the SKU such as 448-bit, 384-bit, 320-bit, and more unique designs as NVIDIA desires for its next-gen line.
NVIDIA GB203 GPU - Built For High-End Enthusiast Gamers
Next we have the NVIDIA GB203 GPU which will be another high-end SKU for the GeForce RTX 50 "Blackwell" graphics family. This chip will feature 7 GPCs, each with 6 TPCs for a total of 42 TPCs & that rounds up to 84 SMs in total. This GPU will feature a 256-bit bus interface and will be used by the GeForce RTX 5080 graphics card.
NVIDIA GB205 GPU - To Be Featured On The GeForce RTX 5070
Coming to the mid-tier segment which is still in the high-end performance range, we have the NVIDIA GB205 which will likely target the GeForce RTX 5070 and RTX 5070 Ti graphics card. This chip will come with 5 GPCs, each with 5 TPCs for a total of 25 TPCs and 50 SMs in total. This chip comes with a 192-bit memory bus configuration.
NVIDIA GB206 GPU - Designed For The Mainstream Gamers
On the mainstream side of things, we have the NVIDIA GB206 GPU which will carry 3 GPCs with 6 TPCs per GPC and 18 TPCs in total. The chip will feature 36 SMs and will come with a 128-bit bus interface which is quite narrow but with memory compression algorithms and larger L2 caches like the ones we saw on the Ada lineup, we can expect decent performance on the next-gen GeForce RTX 5060 (Ti) family.
NVIDIA GB207 GPU - Entry-Level Sticks With GDDR6 Memory
Lastly, there's the NVIDIA GB207 GPU which is the entry-level SKU and is likely going to target the GeForce RTX 5060 or the RTX 5050. The chip comes with 2 GPCs with 5 TPCs each for a total of 10 TPCs and 20 SMs. The chip will also feature a 128-bit memory interface but will likely come with both GDDR7 & GDDR6 memory support while the rest of the lineup leverages the newer GDDR7 memory standard.
https://wccftech.com/nvidia-geforce-rtx-50-blackwell-gpu-configs-leak-gb202-192-sm-512-bit-gb203-84-sm-256-bit-gb205-50-sm-192-bit-gb206-36-sm-128-bit-gb207-20-sm-128-bit/
Jack Carver
20-11-2024, 14:06
2 righe
in breve... avrei fatto la 5070 Ti su un pieno GB203 mentre la 5080 su GB202 @384bit e la 5090 su GB202 @512bit
scorpion73
20-11-2024, 17:03
2 righe
in breve... avrei fatto la 5070 Ti su un pieno GB203 mentre la 5080 su GB202 @384bit e la 5090 su GB202 @512bit
Quella sarà la 5080ti...
ultimate trip
20-11-2024, 21:05
...se ci sarà
mikael84
21-11-2024, 12:51
Alcune news sulla 5070ti.
Bene, se confermata (kopite è una mezza garanzia), salvo folli prezzi, è un buon taglio chip.
https://i.postimg.cc/CxDTdzRh/5070ti.png
https://videocardz.com/newz/nvidia-geforce-rtx-5070-ti-reportedly-features-8960-cuda-cores-and-300w-power-specs
Tuttavia, mancano ancora informazioni reali sui clock (qualcuno parlava di 2,9 base...) e sulla microarchitettura finale.
OrazioOC
21-11-2024, 12:53
Alcune news sulla 5070ti.
Bene, se confermata (kopite è una mezza garanzia), salvo folli prezzi, è un buon taglio chip.
https://i.postimg.cc/CxDTdzRh/5070ti.png
https://videocardz.com/newz/nvidia-geforce-rtx-5070-ti-reportedly-features-8960-cuda-cores-and-300w-power-specs
Tuttavia, mancano ancora informazioni reali sui clock (qualcuno parlava di 2,9 base...) e sulla microarchitettura finale.
Messa così, a naso mi sembra possa giocarsela ad armi pari con la 4080 super/7900 xtx, o sbaglio? :cool:
mikael84
21-11-2024, 13:00
Messa così, a naso mi sembra possa giocarsela ad armi pari con la 4080 super/7900 xtx, o sbaglio? :cool:
Può fare abbastanza meglio in base al clock ed alla microarchitettura, oltre che le g7.
Recuperare quel 12-15% è fattibilissimo (stacco tra 4070tis e 4080s, partendo tra l'altro da 8440cc), e nel caso non lo facesse, ci ritroveremmo una 5080 neppure a metà strada tra 4080s e 4090.
Se non tagliano il bus e tengono 16 giga di RAM può essere interessante, anche per il discorso consumi limitati a "soli" 300w (per quanto mi senta ridicolo a scriverlo).
Certo mette un po' di tristezza che una scheda del genere dovrebbe stare tranquilla con la 4090 e qui invece ci chiediamo se sarà pari alla 4070 super.
Poi ovviamente bisognerà vedere il prezzo.
Alcune news sulla 5070ti.
Bene, se confermata (kopite è una mezza garanzia), salvo folli prezzi, è un buon taglio chip.
https://i.postimg.cc/CxDTdzRh/5070ti.png
https://videocardz.com/newz/nvidia-geforce-rtx-5070-ti-reportedly-features-8960-cuda-cores-and-300w-power-specs
Tuttavia, mancano ancora informazioni reali sui clock (qualcuno parlava di 2,9 base...) e sulla microarchitettura finale.
Basta che non fanno l'infamata di mettere il bus a 192 bit con 12 GB di ram. Su prodotti di questa fascia cominciano a far ridere.
mikael84
21-11-2024, 14:16
Se non tagliano il bus e tengono 16 giga di RAM può essere interessante, anche per il discorso consumi limitati a "soli" 300w (per quanto mi senta ridicolo a scriverlo).
Certo mette un po' di tristezza che una scheda del genere dovrebbe stare tranquilla con la 4090 e qui invece ci chiediamo se sarà pari alla 4070 super.
Poi ovviamente bisognerà vedere il prezzo.
Basta che non fanno l'infamata di mettere il bus a 192 bit con 12 GB di ram. Su prodotti di questa fascia cominciano a far ridere.
Molto probabilmente seguirà la strada di ADA, ovvero il taglio dei canali da 16 a 12mb di cache, e ovviamente i 28 gb/s, anzichè i 32 previsti sulla 5080.
Di conseguenza sarà così: 8960 - 96 rop's - 48mb di cache l2 e 256bit@896 gb/s
In soli flops colmerebbe la differenza con la 4080s con appena 3/3,05ghz (si parla addirittura di base a 2,9), oltre le g7, ed eventuali modifiche interne. Basterebbe anche una l1/shared più ampia, per guadagnare qualcosa di IPC e migliorerebbe il warp stall, su schede con AVG thread di appena il 43% medio.
Per il file di reg. i transistor sono pochi.
Già che GB205 mantenga le 16 linee pcie, lo ritengo un successo XD
Per la 5070ti penso manterranno il bus a 256bit, avrebbe poco senso tagliarlo, al più successivamente ci faranno una 5080 con tripla densità.
Jack Carver
21-11-2024, 15:36
Già meglio queste specifiche!
Per una X70, quelle da wccftech mi parevano un pò assurde.
Sarei curioso di sapere che bus avrà. Una 192bit non mi preoccuperebbe affatto per le prestazioni ma per il quantitativo di vram si, visto che significherebbe ancora 12GB ..e su una 5000 non ci stanno tanto bene. a meno che non usano delle GDDR7 con 3GB per chip ma non so se questa memoria sarà già pronta per il lancio delle 5070.
Già meglio queste specifiche!
Per una X70, quelle da wccftech mi parevano un pò assurde.
Sarei curioso di sapere che bus avrà. Una 192bit non mi preoccuperebbe affatto per le prestazioni ma per il quantitativo di vram si, visto che significherebbe ancora 12GB ..e su una 5000 non ci stanno tanto bene. a meno che non usano delle GDDR7 con 3GB per chip ma non so se questa memoria sarà già pronta per il lancio delle 5070.Bisogna vedere quei 6400cc quanto spingono, se si fermano al target di una 4070ti o poco più, non é che cambia molto.
C'è un l'alta probabilità di ritrovarsi un chip a uno sputo in più di 4070s e con prezzi simili...
Inviato dal mio M2012K11AG utilizzando Tapatalk
Jack Carver
21-11-2024, 15:51
aspetta aspetta aspetta ma leggo che la 5070ti sarebbe su GB203, quindi potrebbe essere 256bit e chiusa li.
Cmq ho un sospetto che poi tra un annetto potrebbero lanciare dei modelli super con 24GB di vram usando le GDDR7 con 3 GB per chip.
Jack Carver
21-11-2024, 15:55
C'è un l'alta probabilità di ritrovarsi un chip a uno sputo in più di 4070s e con prezzi simili...
non escludo nulla.... io credo che tra shader in più , miglioramenti della architettura (a me sconosciuti che non sono un ingegnere :D ) e magari se riescono a fare frequenze addirittura più alte della serie 4000 una 5070ti potrebbe essere almeno un 30% più veloce di una 4070Ti
non escludo nulla.... io credo che tra shader in più , miglioramenti della architettura (a me sconosciuti che non sono un ingegnere :D ) e magari se riescono a fare frequenze addirittura più alte della serie 4000 una 5070ti potrebbe essere almeno un 30% più veloce di una 4070Ti
Dubito, già solo per colmare la differenza di cuda quei 6400 tra IPC e clock dovrebbero performare un +20% per prendere i 7680cc di 4070ti.
Per andare addirittura sopra un +30% su 4070ti, sei quasi vicino alla soglia del 2x di prestazioni per cuda... direi molto fuori scala...
Jack Carver
21-11-2024, 16:19
Dubito, già solo per colmare la differenza di cuda quei 6400 tra IPC e clock dovrebbero performare un +20% per prendere i 7680cc di 4070ti.
Per andare addirittura sopra un +30% su 4070ti, sei quasi vicino alla soglia del 2x di prestazioni per cuda... direi molto fuori scala...
aspetta. io ho fatto il confronto tra TI vs TI. e se è vero ciò che è stato postato la 5070 Ti avrebbe quasi un 17% in + di shader rispetto la 4070 Ti ...aggiungici frequenze in boost più alte magari queste boostano @ 3300Mhz , la butto li ....mettici qualche affinamente della architettura un 5-7% + e si fa svelti a sovraperformare la precedente Gen di un 30%.
poi magari sogno eh
mikael84
21-11-2024, 16:46
aspetta. io ho fatto il confronto tra TI vs TI. e se è vero ciò che è stato postato la 5070 Ti avrebbe quasi un 17% in + di shader rispetto la 4070 Ti ...aggiungici frequenze in boost più alte magari queste boostano @ 3300Mhz , la butto li ....mettici qualche affinamente della architettura un 5-7% + e si fa svelti a sovraperformare la precedente Gen di un 30%.
poi magari sogno eh
Non è un obbiettivo utopistico.
La 5070ti parte già di suo, con una base superiore a quella della 4070ti super (8960 cc vs 8448 /+6% teorico), una cache che dovrebbe essere simile (48mb), ed una banda g7 di ben 896 gb/s, contro i 736 gb/s della 4080 super e gli appena 504 della 4070ti.
Gli basta clockare a circa 3,05 per pareggiare in flops una 4080 super, ed i rumour parlano addirittura di base a 2,9 (da vedere).
Io un po' di paura per 224bit/14 giga ce l'ho.
Jack Carver
21-11-2024, 17:39
ed i rumour parlano addirittura di base a 2,9 (da vedere).
se la base è 2,9 in boost max potrebbero fare 3,4 e passa
La 5070, se tagliata così sarebbe un po’ come la vecchia 2070 che aveva un collegamento a vuoto per mantenere i 256 bit, o sbaglio?
Non sarebbe male al netto dei clock se prezzata nei dintorni delle attuali 4070 super/Ti.
devil_mcry
21-11-2024, 20:56
pare che la 5090 costerà 1999 dollari
mikael84
21-11-2024, 21:48
Io un po' di paura per 224bit/14 giga ce l'ho.
Con ADA, salvo alcuni modelli distrutti usati per le work, si è limitato a tagliare la cache per canale, ad esempio, la 4090 da 96mb a 72, la 4070tis da 64 a 48 e la 4070 da 48 a 32.
Qua probabilmente farà lo stesso, riuscendo a salvare il bus.
se la base è 2,9 in boost max potrebbero fare 3,4 e passa
Si, in tal caso il boost ad 1,1v, sarà abbastanza alto. Solo il boost base, salirebbe a 3,1 almeno.
La 5070, se tagliata così sarebbe un po’ come la vecchia 2070 che aveva un collegamento a vuoto per mantenere i 256 bit, o sbaglio?
Non sarebbe male al netto dei clock se prezzata nei dintorni delle attuali 4070 super/Ti.
No, la 2070 aveva 3 GPC e 4 canali da 64bit. Inoltre, il mio termine a vuoto era legato alle rop's scorporate. Avevi 64 rop's, ma rasterizzate 48, in quanto 16 servivano per collegare i 64bit.
Ora è diverso, le rop's sono dentro il GPC.;)
Inoltre GB205 se fosse come nel pre ampere, poteva rasterizzare 80 rop's e beneficiare di un collegamento da ben 320bit.
La cache aiuta i bus limitati.
nessuno29
22-11-2024, 06:49
Piccolissimo off topic, secondo voi considerando il periodo di uscita delle 5000 quando si inizieranno a vedere i primi notebook gaming con le nuove gpu?
OrazioOC
22-11-2024, 07:04
Piccolissimo off topic, secondo voi considerando il periodo di uscita delle 5000 quando si inizieranno a vedere i primi notebook gaming con le nuove gpu?
Storicamente dal Q2 di ogni nuovo anno, me li aspetto dopo pasqua. :)
nessuno29
22-11-2024, 07:35
Quindi comprare ora al bf è una cagata o sbaglio
Quindi comprare ora al bf è una cagata o sbaglioDipende da quanto spendi, a mio parere restando nel range di una 4070 Super ha ancora senso, ho forti dubbi che una 5070 si discosti più di tanto da quest'ultima sia lato prezzi che prestazioni.
Già se devi investire 1000/2000€ il discorso cambia e a mio parere direi di rimandare alle 5000.
Nel mobile é anche peggio, solitamente é sempre un marasma, dipende molto da che promo trovi attualmente e dalla tua urgenza.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Ormai sono anni che il black friday è una cagata onestamente
VirusITA
22-11-2024, 08:36
Scusate la domanda da noob, ma perché avere un bus dati così castrato dovrebbe essere un problema?
Mi spiego meglio: se ottengo la stessa banda passante su un bus da 128 bit o da 256, magari usando ram più o meno veloci, ci sono situazioni in cui il bus diventa un limite "bloccante" o semplicemente avrò le stesse performance al netto dello "spreco hardware" sotto il cofano?
scorpion73
22-11-2024, 08:59
Scusate la domanda da noob, ma perché avere un bus dati così castrato dovrebbe essere un problema?
Mi spiego meglio: se ottengo la stessa banda passante su un bus da 128 bit o da 256, magari usando ram più o meno veloci, ci sono situazioni in cui il bus diventa un limite "bloccante" o semplicemente avrò le stesse performance al netto dello "spreco hardware" sotto il cofano?
Perché le informazioni e i dati per raggiungere la memoria transitano sul bus. Quindi un bus più stretto significa che "passa meno roba" per ogni ciclo di clock. Anche se hai memorie veloci che elaborano i dati rapidamente se questi gli arrivano poco per volta alle alte risoluzioni diventa comunque un problema. Quindi un bus troppo stretto anche se metti ram veloci limita alle alte risoluzioni, magari qualcosa compensi con la velocità della ram ma non oltre un certo limite.
nessuno29
22-11-2024, 09:50
Dipende da quanto spendi, a mio parere restando nel range di una 4070 Super ha ancora senso, ho forti dubbi che una 5070 si discosti più di tanto da quest'ultima sia lato prezzi che prestazioni.
Già se devi investire 1000/2000€ il discorso cambia e a mio parere direi di rimandare alle 5000.
Nel mobile é anche peggio, solitamente é sempre un marasma, dipende molto da che promo trovi attualmente e dalla tua urgenza.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Si parlo di mobile, ho 1500 come budget però mi dispiacerebbe ritrovarmi tra pochi mesi con portatili aggiornati e con una 5070 mobile di molto superiore a quello schifo di 4070
Scusate la domanda da noob, ma perché avere un bus dati così castrato dovrebbe essere un problema?
Mi spiego meglio: se ottengo la stessa banda passante su un bus da 128 bit o da 256, magari usando ram più o meno veloci, ci sono situazioni in cui il bus diventa un limite "bloccante" o semplicemente avrò le stesse performance al netto dello "spreco hardware" sotto il cofano?
Limita la quantità di ram, perché a seconda di quanto empio il bus cambia il numero di chip che ci puoi attaccare. È il motivo per cui le 5070 si ipotizza che usciranno con 12 giga, che per quanto mi riguarda nel 2025 è un abominio. Poi io non riesco a non vedere questi bus ridotti come una misura di contenimento dei costi, e quando poi invece vedi le schede salire sempre di prezzo, mi lascia un retrogusto amaro.
OrazioOC
22-11-2024, 11:29
https://videocardz.com/newz/geforce-rtx-5090-5080-5070ti-and-5070-to-launch-in-q1-rtx-5070-expected-to-feature-6400-cores
Sotto la 5070 ti solo gpu "nane". :rolleyes:
mikael84
22-11-2024, 11:56
https://videocardz.com/newz/geforce-rtx-5090-5080-5070ti-and-5070-to-launch-in-q1-rtx-5070-expected-to-feature-6400-cores
Sotto la 5070 ti solo gpu "nane". :rolleyes:
Una differenza davvero abissale tra x70 e x70ti.
In linea di massima, ci ritroveremmo un divario simile a quello odierno tra 4070 liscia e 4070ti super (30% circa).
Questi tagli sku, lasciano anche poco margine per un eventuale refresh, che non sia quello integrante la tripla densità.
Una 5070 super sarebbe fattibile ?
mikael84
22-11-2024, 12:40
Una 5070 super sarebbe fattibile ?
Si, ma dovresti tirare fuori un altro cut di GB203, considerando che la 5070 utilizzerà presumibilmente GB205 full.
Si parlo di mobile, ho 1500 come budget però mi dispiacerebbe ritrovarmi tra pochi mesi con portatili aggiornati e con una 5070 mobile di molto superiore a quello schifo di 4070
Ma manterrei le aspettative basse, con molta probabilità la 5070 mobile la faranno su GB206, non credo che il distacco da 4070 mobile sarà chissà che, al più devi vedere i PL a cui lavorano.
Ormai sono anni che il black friday è una cagata onestamente
per l'hardware. comunque c'è il 990pro da 2tb a 140 euro.
Buono che la 5070 ti sembri confermata con 16 giga. La 5070 liscia sembra terribile, meno di un terzo delle unità della 5090, se si va avanti così la 6070 sarà metà della 6080, per me che ho sempre preso schede della fascia x70 è una tristezza assoluta.
Una 5070 super sarebbe fattibile ?
per fare schifo e più schifo? no grazie.
ninja750
22-11-2024, 14:21
https://videocardz.com/newz/geforce-rtx-5090-5080-5070ti-and-5070-to-launch-in-q1-rtx-5070-expected-to-feature-6400-cores
Sotto la 5070 ti solo gpu "nane". :rolleyes:
Una differenza davvero abissale tra x70 e x70ti.
La 5070 liscia sembra terribile
una roba terribile che arriverà street oltre 600€
per me siamo alla follia
una roba terribile che arriverà street oltre 600€
per me siamo alla follia
Sarebbe da scaffale, già ora si trovano 4070s sotto i 600€ e dai presupposti che ci sono la 5070 è gia tanto se riesce a superare 4070ti...
Penso che se vogliono lanciare una roba del genere, non andrebbe proposta a più di 499$ di listino come la precedente 3070.
Buono che la 5070 ti sembri confermata con 16 giga.
Dio sia lodato ! :ave:
Resta solo da vedere il prezzo, anche se posso immaginarlo. :fagiano:
shauni86
22-11-2024, 14:51
la 5070ti in teoria quando potrebbe uscire e quando potrebbe costare?
Per il prezzo mi aspetto sui 1000 euro, dipenderà molto da come piazzeranno la 5080.
mikael84
22-11-2024, 15:40
una roba terribile che arriverà street oltre 600€
per me siamo alla follia
Sarebbe da scaffale, già ora si trovano 4070s sotto i 600€ e dai presupposti che ci sono la 5070 è gia tanto se riesce a superare 4070ti...
Penso che se vogliono lanciare una roba del genere, non andrebbe proposta a più di 499$ di listino come la precedente 3070.
Probabilmente è tagliata per competere con navi48 di AMD, visto che tale chip dovrebbe essere una sorta di navi32 rdna4.
Non a caso è strano aver levato un TPC x GPC, con il classico schema a 6, doveva mantenere 7680cc.
ninja750
22-11-2024, 16:15
Probabilmente è tagliata per competere con navi48 di AMD, visto che tale chip dovrebbe essere una sorta di navi32 rdna4.
quella non possono metterla a 600€ suvvia
avrebbero senso se tutte e due fossero messe sub 500
mikael84
22-11-2024, 16:48
quella non possono metterla a 600€ suvvia
avrebbero senso se tutte e due fossero messe sub 500
Magari AMD la piazza a 499, ma nvidia non credo scenda sotto i 549/599.
Ovviamente di x70 in quel chip non c'è nulla... ma quello penso che ormai si sappia.
L'unica 5070 passabile è proprio la TI. GB205 è fascia x60.
Anche se ormai bisogna fare i conti anche con i consumi, e catalogare chip mainstream over 200watt è problematico per molti.
Effettivamente una volta a 250w ci trovavi il chippone, ora trovi il mid-chip.
OrazioOC
22-11-2024, 17:33
https://videocardz.com/newz/nvidia-geforce-rtx-5090-gb202-gpu-die-reportedly-measures-744-mm2-20-larger-than-ad102
Rumors che si sono intensificati in queste due settimane, direi che il lancio è vicino. :O
Scusate la domanda da noob, ma perché avere un bus dati così castrato dovrebbe essere un problema?
Mi spiego meglio: se ottengo la stessa banda passante su un bus da 128 bit o da 256, magari usando ram più o meno veloci, ci sono situazioni in cui il bus diventa un limite "bloccante" o semplicemente avrò le stesse performance al netto dello "spreco hardware" sotto il cofano?
Sarebbe da chiedere a nVidia dato che appena 21 anni fa faceva una scemenza del genere con la FX 5800, DDR2 e bus a 128 bit. :sofico:
Sarebbe da scaffale, già ora si trovano 4070s sotto i 600€ e dai presupposti che ci sono la 5070 è gia tanto se riesce a superare 4070ti...
Penso che se vogliono lanciare una roba del genere, non andrebbe proposta a più di 499$ di listino come la precedente 3070.
Tanto le venderanno comunque, ho paura che il prezzo sarà più alto per incastrarla tra le attuali 4070 super e Ti.
https://videocardz.com/newz/nvidia-geforce-rtx-5090-gb202-gpu-die-reportedly-measures-744-mm2-20-larger-than-ad102
Rumors che si sono intensificati in queste due settimane, direi che il lancio è vicino. :O
Una bella piastrella! Forse seriamente, se costasse 1999$ sarebbe l’unica che costa tanto ma “vale” tanto a costi di produzione al netto delle prestazioni che avrà.
Oltre alle prestazioni penso sarà pure bruttina come l’attuale 4090 che sembra una mattonella.
mikael84
22-11-2024, 21:25
https://videocardz.com/newz/nvidia-geforce-rtx-5090-gb202-gpu-die-reportedly-measures-744-mm2-20-larger-than-ad102
Rumors che si sono intensificati in queste due settimane, direi che il lancio è vicino. :O
Era abbastanza scontato ne uscisse fuori un turing 2.0, la densità è quella che è.
I chip puliti a wafer sono poco più di 35, ed il chip rischia di sforare i 100mtransistor. A densità simile, si arriverebbe già così nei pressi.
Ora però, servirebbe avere qualche conferma su clock e microarchitettura.
Il chip sarà costoso da produrre... molto costoso.
Oltre al die, vanno calcolati i 32gb di vram g7, rese troppo basse da dividere con le work (sono quasi tutti fail) e di conseguenza il R&D andrà spalmato su pochi chip.
Probabilmente, non ce ne saranno neppure tante all'inizio, salvo stampare wafer su wafer.
Se spara troppo alto, diventa un problema pure sotto, in quanto inizialmente vorrà far virare tutti verso quella e non sulla 5080. Giochetto fatto con la 4080.
E ancora che si continua a parlare di una 5090 FE 2-slot... devo vederlo per crederci, e anche se lo vedo non ci credo :asd:
Magari se la fanno lunga un metro.
Si è giustamente accennato ai consumi in precedenza, e per quanto sia ormai impossibile, a me non dispiacerebbe invertire il trend di schede da 3 o 4 slot.
E ancora che si continua a parlare di una 5090 FE 2-slot... devo vederlo per crederci, e anche se lo vedo non ci credo :asd:
5090 sogliola la vedo difficile anche io :fagiano:
Vedremo;)
albero77
23-11-2024, 09:42
Era abbastanza scontato ne uscisse fuori un turing 2.0, la densità è quella che è.
I chip puliti a wafer sono poco più di 35, ed il chip rischia di sforare i 100mtransistor. A densità simile, si arriverebbe già così nei pressi.
Ora però, servirebbe avere qualche conferma su clock e microarchitettura.
Il chip sarà costoso da produrre... molto costoso.
Oltre al die, vanno calcolati i 32gb di vram g7, rese troppo basse da dividere con le work (sono quasi tutti fail) e di conseguenza il R&D andrà spalmato su pochi chip.
Probabilmente, non ce ne saranno neppure tante all'inizio, salvo stampare wafer su wafer.
Se spara troppo alto, diventa un problema pure sotto, in quanto inizialmente vorrà far virare tutti verso quella e non sulla 5080. Giochetto fatto con la 4080.
ahia, se lo dice mike ci credo, iniziate ad accendere il mutuo. quindi si va più alti della 4090 al lancio.
Si, ma dovresti tirare fuori un altro cut di GB203, considerando che la 5070 utilizzerà presumibilmente GB205 full.
Giacchetta non butta niente fagli raccogliere gpu 203 fallate a sufficienza (viste le rese ventilate) e te le propone in salsa S, altrimenti che presenta tra un anno ? :p
marbasso
23-11-2024, 11:11
E ancora che si continua a parlare di una 5090 FE 2-slot... devo vederlo per crederci, e anche se lo vedo non ci credo :asd:
5090 sogliola la vedo difficile anche io :fagiano:
Vedremo;)
Impossibile...
OrazioOC
23-11-2024, 11:40
Era abbastanza scontato ne uscisse fuori un turing 2.0, la densità è quella che è.
I chip puliti a wafer sono poco più di 35, ed il chip rischia di sforare i 100mtransistor. A densità simile, si arriverebbe già così nei pressi.
Ora però, servirebbe avere qualche conferma su clock e microarchitettura.
Il chip sarà costoso da produrre... molto costoso.
Oltre al die, vanno calcolati i 32gb di vram g7, rese troppo basse da dividere con le work (sono quasi tutti fail) e di conseguenza il R&D andrà spalmato su pochi chip.
Probabilmente, non ce ne saranno neppure tante all'inizio, salvo stampare wafer su wafer.
Se spara troppo alto, diventa un problema pure sotto, in quanto inizialmente vorrà far virare tutti verso quella e non sulla 5080. Giochetto fatto con la 4080.
Sotto il problema ci sarebbe comunque, a meno che RDNA4 e BMG portino performance iso 4070 super sotto i 499 dollari, e la vedo difficile.
Di sicuro non credo a leak di una 8800 xt performance raster iso 7900 xt o peggio xtx a 499 dollari. :asd:
Nvidia stessa, punta a piazzare una bellissima 3060 in salsa BW, all'msrp di una 4070(549 dollari) se non 4070 super(599 papagni). :stordita:
Ma quello che potrebbero essere ancora più ridicole, saranno 5060 e 5060 ti nuovamente basate su 8gb/128 bit al primo round(salvo clamshell o tripla densità delle gddr7, e a questo punto propenderei più per quest'ultima). :help:
Potrebbero anche ritagliare la 5060ti da gb205, già con 5120cc/192bit sfiora la decenza e ti rispami clam e tripla al primo giro.
OrazioOC
23-11-2024, 12:13
Potrebbero anche ritagliare la 5060ti da gb205, già con 5120cc/192bit sfiora la decenza e ti rispami clam e tripla al primo giro.
Lo spero, ma nvidia ci ha già abituati a 4060 ti con il suo bellissimo 8gb/128 bit di bus+tassa clamshell per arrivare a 16gb(+70 euro), e temo possano rifare quest'incredibile giocata. :doh:
E se non deriverà da GB206 nativo 128 bit(chip ridicolo nelle dimensioni, ma ancora più ridicolo è GB207 che spero non arrivi mai su desktop, sicuramente NON come RTX 5060 vanilla), potrebbe comunque derivare da un GB205 molto devastato(anche nel bus quindi).
Staremo a vedere, ma l'impressione è che arrivi una bella botta verso l'alto sui prezzi delle gpu basate su GB202 e GB203, mentre quello che sarà sotto avrà un rapporto prezzo/prestazioni scarso o comunque che lascia il tempo che trova rispetto ad ora. :help:
Di sicuro non è che se lanci una iso 4070 ti a 549/599 dollari, sposti chissà che asticella nel rapporto prezzo/prestazioni, visto che a quell'msrp ci trovi la 4070 super che va' veramente poco meno. :doh:
mikael84
23-11-2024, 12:39
ahia, se lo dice mike ci credo, iniziate ad accendere il mutuo. quindi si va più alti della 4090 al lancio.
Beh, oltre ai vari costi citati sopra, un monolite così, è roba simil HPC ex tesla compute.
Per produrre 5090, devi bruciare wafer su wafer, le rese sono bassissime, ed i chip più puri qua dentro saranno destinati alle work.
Probabile che non ce ne siano tante al lancio, con ovvie conseguenze.
https://i.postimg.cc/wBwgs3gZ/5090.png
La 4090 diventa praticamente un chip medio rispetto alla grandezza di questo monolite.
Riguardo il prezzo finale, vediamo, ma i costi aumentano e non di poco.
Giacchetta non butta niente fagli raccogliere gpu 203 fallate a sufficienza (viste le rese ventilate) e te le propone in salsa S, altrimenti che presenta tra un anno ? :p
Non sempre fa un refresh, a sto giro potrebbe anche giocare sulla tripla densità e modulini a 3gb. Cmq tutto è possibile.
Da quello che emerge, nvidia sta giù lavorando su Rubin con i 3nm, è anche probabile che questi, non tardino.
Sotto il problema ci sarebbe comunque, a meno che RDNA4 e BMG portino performance iso 4070 super sotto i 499 dollari, e la vedo difficile.
Di sicuro non credo a leak di una 8800 xt performance raster iso 7900 xt o peggio xtx a 499 dollari. :asd:
Per AMD, il discorso potrebbe essere diverso a sto giro, per via del RT. Se tiene botta la, il discorso con le vecchie cambia.
Senza considerare le FP8 con le matrix engine per FSR4 (anche se RDNA3 bene o male le unità le ha in stile mid ampere per fp16/bf16).
Nvidia stessa, punta a piazzare una bellissima 3060 in salsa BW, all'msrp di una 4070(549 dollari) se non 4070 super(599 papagni). :stordita:
Ma quello che potrebbero essere ancora più ridicole, saranno 5060 e 5060 ti nuovamente basate su 8gb/128 bit al primo round(salvo clamshell o tripla densità delle gddr7, e a questo punto propenderei più per quest'ultima). :help:
Se la 5070 pare poca roba, sotto la situazione rimane disperata, gb207 è un qualcosa di osceno, appena 2 raster con 2560cc.
AD104 l'hanno martoriato con svariati chip, sia desktop, mobile e work, quindi una possibilità remota di vedere GB205 con almeno un altro chip c'è, con GB206 che passerebbe 5060.
Tuttavia navi44, dovrebbe per l'ennesima volta portare 2048 shader, ed a sto punto GB206 potrebbe non servire e lasciarlo per la TI nuovamente.
OrazioOC
23-11-2024, 13:07
Se la 5070 pare poca roba, sotto la situazione rimane disperata, gb207 è un qualcosa di osceno, appena 2 raster con 2560cc.
AD104 l'hanno martoriato con svariati chip, sia desktop, mobile e work, quindi una possibilità remota di vedere GB205 con almeno un altro chip c'è, con GB206 che passerebbe 5060.
Tuttavia navi44, dovrebbe per l'ennesima volta portare 2048 shader, ed a sto punto GB206 potrebbe non servire e lasciarlo per la TI nuovamente.
Si anche perchè navi 44 e la bmg 580 non paiono grandissima roba, si parla di performance iso 4060 o alla meglio 3060 ti, cosa che penso sia comunque ottenibile da un GB206 anche parecchio cuttato, o un GB207 tirato all'inverosimile(come successo con AD107, chip che potrebbe lavorare con 70/80w di tdp e invece è stato tirato su di frequenze e sta sopra i 100w di default). :stordita:
Insomma, la sola su pcie con 8gb di vram+bus a 128 bit o arriva sotto forma di GB206 devastato o con GB207 tirato, ma comunque arriva lo stesso. :doh:
Ma comunque spero che GB207 rimanga relegato al mobile o alla peggio ad una nuova 5050, visto che la rtx 4050 desktop non è esistita, e sotto i 299 dollari di msrp nvidia sta ancora campando di GA106/107 in tutte le salse dal 2021. XD
marbasso
23-11-2024, 13:18
Con un msrp di 1999 in Italia a quanto si vedrà la FE, 2400?
Con un msrp di 1999 in Italia a quanto si vedrà la FE, 2400?
Penso molto dipenderà dal cambio €/$ che ci sarà, ma la cifra sarà compresa tra i 2000 ed i 2400 € a questo punto.
Se penso che "solo" 10 anni fa con quasi 1000 € ti portavi a casa la Titan (e sembrava già un'oscenità), mentre ora con gli stessi soldi neanche la 5080 ti porti a casa, mi viene la depressione. :muro:
https://videocardz.com/newz/nvidia-geforce-rtx-5090-gb202-gpu-die-reportedly-measures-744-mm2-20-larger-than-ad102
Rumors che si sono intensificati in queste due settimane, direi che il lancio è vicino. :O
Orca. Sto coso rivaleggia con turing :sofico:
ninja750
23-11-2024, 15:43
Si anche perchè navi 44 e la bmg 580 non paiono grandissima roba, si parla di performance iso 4060 o alla meglio 3060 ti
è ovvio che nvidia ha tagliato così i chip per lucrare il più possibile in questa situazione di evidente monopolio altrimenti esistesse concorrenza avrebbe tagliato la 5080 con 18k/17k cuda anzichè 10k e di sotto a salire
cioè voglio dire che queste lillipuziane 5000 dalla 5080 in giù sono colpa di amd :O
OrazioOC
23-11-2024, 16:09
è ovvio che nvidia ha tagliato così i chip per lucrare il più possibile in questa situazione di evidente monopolio altrimenti esistesse concorrenza avrebbe tagliato la 5080 con 18k/17k cuda anzichè 10k e di sotto a salire
cioè voglio dire che queste lillipuziane 5000 dalla 5080 in giù sono colpa di amd :O
Il lucro lo puoi fare nella fascia high/extreme, ma le soluzioni da "sotto il vestito niente" che vedo negli ultimi anni hanno un po' stancato.
4060 arriva a costare poco meno di msrp di una 3060 ti post mining a fine serie, eppure quest'ultima è stata superiore.
4060 ti troppo poco più potetente di una 3060 ti e a volte pure sotto alla 3070(di poco ma lo era).
Se facciamo per un'altra gen la fiera del sidegrade, fa bene chi c'ha nel case una 1080 ti o 2070 super a portarsele avanti a vita, perchè tanto sotto i 500 euro sono solo prodotti al limite della frode. :doh:
Predator_1982
23-11-2024, 16:27
ahia, se lo dice mike ci credo, iniziate ad accendere il mutuo. quindi si va più alti della 4090 al lancio.
Se spara troppo alto mi tengo la 4080 super e amen.. più di 2000 carte per una scheda, con la scarsità di titoli fatti bene, è follia.
Io opterò sicuro per la 5080
mikael84
23-11-2024, 16:53
Per i prezzi, bisogna vedere il rapporto margine/costi di produzione. Per gli AIB monoliti così grossi sono veri salassi.
La 5080 e 5070ti, sembrano adottare un die analogo alla 4080/tis, e non giustificano alcun aumento, salvo i costi di G7, ancora ignoti.
Questa sarà l'ultima serie su un PP accessibile, dal prossimo 3nm, la situazione si complicherà drasticamente, soprattutto in fascia medio-bassa, e paradossalmente il chippone ne risentirà meno, visto che a sto giro per questioni di densità è costretta a tirare fuori roba simil tesla.
ninja750
23-11-2024, 18:00
Se facciamo per un'altra gen la fiera del sidegrade, fa bene chi c'ha nel case una 1080 ti o 2070 super a portarsele avanti a vita, perchè tanto sotto i 500 euro sono solo prodotti al limite della frode. :doh:
i tagli così come leakati sono assolutamente da sidegrade
l'unica veramente con grosso salto sarà la 5090 così come lo è stata la 4090 in questa
la 5070 andrà come la 4080 o faticherà per la vram?
di questo passo l'unica è aggiornare ogni 3 o 4 gen, almeno con i canonici (ormai sdoganati) 500€ un salto di perf lo farai
OrazioOC
23-11-2024, 18:10
i tagli così come leakati sono assolutamente da sidegrade
l'unica veramente con grosso salto sarà la 5090 così come lo è stata la 4090 in questa
la 5070 andrà come la 4080 o faticherà per la vram?
di questo passo l'unica è aggiornare ogni 3 o 4 gen, almeno con i canonici (ormai sdoganati) 500€ un salto di perf lo farai
Sotto i 500 euro tocca fare così già da dopo le gtx 1000. :doh:
Per dire, per sostituire degnamente una 1060 6gb(scheda da circa 300 euro nel 2016), toccava puntare almeno alla 3060 del 2021 o ancora meglio 4060 per avere una scheda "giusta" come lo era la 1060, inteso come prezzo msrp/tdp/dimensioni della scheda.
Altrimenti per sostituirla prima, bisognava puntare a schede di fascia più alta per sentire un po' il salto, quindi passare alla 2070/super o 3060 ti, che erano schede più costose e anche onerose per tdp/dimensioni. :stordita:
Comunque si, anche con Blackwell, sotto i 500 euro non mi aspetto niente e sono già deluso. :help:
Giocare su pc sta diventando sempre di più vero salasso:muro:
Purtroppo sta diventando più costoso anche giocare su console...
Poi dipende da come uno intende giocare. Io tendenzialmente voglio avere risoluzione e dettagli alti, con quanti più effetti attivi possibile. In passato me la cavavo con 3-400 euro di scheda video, adesso è improponibile.
La cosa che mi disturba di più è che se le prestazioni saranno quelle che temo, ho paura che anche con una 5080 rischi che il prossimo anno esce il gioco mattone e la mette in difficoltà.
L'unico stacco generazionale sembra si avrà con la 5090, e non nego la tentazione di farmi per la prima volta una configurazione al top del top, però usando il PC solo per giocare diventa più difficile giustificare la spesa di 2000-2500 euro solo per la GPU.
fraussantin
24-11-2024, 08:48
Sta diventando costoso tutto.
Siamo tornati un po negli anni 80-90 solo con gli stipendi fermi.
Riguardo il costo delle gpu , ci metti anche una fabbrica monopolista che non fa sconti, un produttore monopolista che ormai non solo ha sbaragliato la concorrenza ma non ha piu neanche da guadagnare quote di mercato ( e quindi prendere valore da quello ), e il fatto che l'utenza ha dimostrato che sganciare soldi non è un problema .( Un po come per iphone) .
Lo stesso sta accadendo anche per i processori ormai un fascia media costa 350 euro.
Un fascia alta non ha più prezzo. Lo mettono quanto gli pare perche tanto sanno che lo vendono.
Sta diventando costoso tutto.
Siamo tornati un po negli anni 80-90 solo con gli stipendi fermi.
Riguardo il costo delle gpu , ci metti anche una fabbrica monopolista che non fa sconti, un produttore monopolista che ormai non solo ha sbaragliato la concorrenza ma non ha piu neanche da guadagnare quote di mercato ( e quindi prendere valore da quello ), e il fatto che l'utenza ha dimostrato che sganciare soldi non è un problema .( Un po come per iphone) .
Lo stesso sta accadendo anche per i processori ormai un fascia media costa 350 euro.
Un fascia alta non ha più prezzo. Lo mettono quanto gli pare perche tanto sanno che lo vendono.
Sacrosanta verità. Però evidentemente non siamo ancora a livelli di rinuncia a determinate cose, perché vedo molta gente che si lamenta ma poi alla fine i soldi li trova, e finché sarà così ci sarà sempre il motivo per aumentare i prezzi, in tutti i beni intendo.
Cutter90
24-11-2024, 09:02
Sacrosanta verità. Però evidentemente non siamo ancora a livelli di rinuncia a determinate cose, perché vedo molta gente che si lamenta ma poi alla fine i soldi li trova, e finché sarà così ci sarà sempre il motivo per aumentare i prezzi, in tutti i beni intendo.
Esattamente. Il problema è che l apertura del mondo pc a tutti (la sua semplicità ormai) ha causato tanti acquisti "sconsiderati" che hanno drogato il mercato a mio avviso. Vedo tanta gente che acquista e poi non sfrutta a dovere. Purtroppo la poca consapevolezza da parte di alcuna utenza alimenta i prezzi follia imho. Tra le tante altre causa
fraussantin
24-11-2024, 09:59
Sacrosanta verità. Però evidentemente non siamo ancora a livelli di rinuncia a determinate cose, perché vedo molta gente che si lamenta ma poi alla fine i soldi li trova, e finché sarà così ci sarà sempre il motivo per aumentare i prezzi, in tutti i beni intendo.Il pc gaming è cmq un prodotto marginale , ancora non arriva alle masse e speriamo non ci arrivi mai aggiungo.
Per il resto quello che tiene alto il mercato sono i finanziamenti
Senza di iphone ne venderebbero un decimo almeno in italia. Cosí come di auto .
Poi le rate si accumulano e si inizia a non pagare bollette , mutui per la casa ecc.
Il pc gaming è cmq un prodotto marginale , ancora non arriva alle masse e speriamo non ci arrivi mai aggiungo.
Per il resto quello che tiene alto il mercato sono i finanziamenti
Senza di iphone ne venderebbero un decimo almeno in italia. Cosí come di auto .
Poi le rate si accumulano e si inizia a non pagare bollette , mutui per la casa ecc.
Tutto vero,nel mio condomino sono volate quest'anno parecchie ingiunzioni...non pagano questo non pagono quello, però i soldi per le vacanze, auto non so come"super rate .." ecc spuntano..
Molti non tutti sono solo apparenza, pieni di debiti e case pignorate.
Predator_1982
24-11-2024, 13:17
Sacrosanta verità. Però evidentemente non siamo ancora a livelli di rinuncia a determinate cose, perché vedo molta gente che si lamenta ma poi alla fine i soldi li trova, e finché sarà così ci sarà sempre il motivo per aumentare i prezzi, in tutti i beni intendo.
Vabbè c’è anche da dire che non esiste mica solo l’Italia con i suoi stipendi medi ad acquistare sta roba, la vendono in tutto il mondo…
Comunque si, l’asticella dei costi punta sempre più in alto. A mio parere anche le console arriveranno presto a costare una millata, se per una sola scheda video top su pc ne devi spendere quasi il doppio…
Vabbè c’è anche da dire che non esiste mica solo l’Italia con i suoi stipendi medi ad acquistare sta roba, la vendono in tutto il mondo…
Comunque si, l’asticella dei costi punta sempre più in alto. A mio parere anche le console arriveranno presto a costare una millata, se per una sola scheda video top su pc ne devi spendere quasi il doppio…
Certo che no, ma da italiano guardo le finanze che ci sono qui. ;)
Poi negli Stati Uniti gli stipendi sono indubbiamente più alti, ma tra assicurazioni ecc ecc in tasca non resta più così tanto come 10 o 15 anni fa all’americano medio. Il fattore determinante è che ormai nVidia ha il mercato dei data center e IA che trainano gli utili, le vga sono un plus, non più come una volta. Son sicuro che anche se ne vendessero 3 di 5090, calerebbero il prezzo di un 50$ o non le farebbero più piuttosto che venderle con molto meno margine rispetto a quello che si attendono.
Per le console vedremo, ma ho paura che questo aumento dei prezzi anche su quel fronte porti solo ulteriore gente a spostarsi sul PC…
Vabbè c’è anche da dire che non esiste mica solo l’Italia con i suoi stipendi medi ad acquistare sta roba, la vendono in tutto il mondo…
Comunque si, l’asticella dei costi punta sempre più in alto. A mio parere anche le console arriveranno presto a costare una millata, se per una sola scheda video top su pc ne devi spendere quasi il doppio…
Ci siamo già, una PS5 pro con lettore blu ray costa 920 euro.
Quando Nvidia presentò la 4080 a 1400 euro (e tutto il resro della lineup di conseguenza) io ebbi il timore che quello fosse un segnale di quanto sarebbe accaduto anche al di fuori del mercato gaming pc, e purtroppo sta succedendo.
Adesso vedo che la 4080 super fondersi sta di listino intorno ai 1100 euro, la speranza è che prendano quello come riferimento per il prezzo della 5080.
Giustamente si fa notare che la responsabilità è anche di chi compra, però purtroppo in mancanza di alternative spesso si finisce per accettare i prezzi piuttosto che rinunciare a una passione.
Si si vuole stare dietro agli ultimi giochi e l ultimo hardware è si un bagno di sangue.
Si si gioca con qualche anno di ritardo i giochi te li tirano dietro e non hai nemmeno bisogno di hardware costossimo per farli girare. Molto semplice.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.