View Full Version : GeForce RTX 4090 potrebbe avere prestazioni 'da paura'. La GeForce RTX 3090 Ti è già vecchia?
Redazione di Hardware Upg
20-07-2022, 11:51
Link alla notizia: https://www.hwupgrade.it/news/skvideo/geforce-rtx-4090-potrebbe-avere-prestazioni-da-paura-la-geforce-rtx-3090-ti-e-gia-vecchia_108764.html
Secondo un famoso leaker la nuova GeForce RTX 4090 sarebbe almeno il 66% più veloce della RTX 3090 Ti nel test Graphics di 3DMark Time Spy Extreme. Un risultato che, se confermato, preannuncia un importante passo avanti prestazionale per la nuova generazione di GPU.
Click sul link per visualizzare la notizia.
nonsidice
20-07-2022, 11:54
Per soli millemila € con alimentatore da 2kw minimo.
Senza contare che tra un paio d'annetti al massimo uscirà la 5090 e via nuovo giro di giostra. :(
Sembra sia anche stata leakata un'immagine dei nuovi alimentatori con gli ultimi standard in grado di supportare le prestazioni "da paura":
https://st.ilfattoquotidiano.it/wp-content/uploads/2021/01/18/centrale-nucleare-francia-1200-1.jpg
Per soli millemila € con alimentatore da 2kw minimo.
Senza contare che tra un paio d'annetti al massimo uscirà la 5090 e via nuovo giro di giostra. :(
Se ragioni cosi non compri mai nulla.
Tutte le gpu diventano vecchie, quelle piu costose ancor prima. In fascia media non si osservano gli stessi incrementi prestazioni/prezzo.
Mai capito quelli che "ho comprato gpu top e dopo un anno/due e' vecchia e si compra di meglio a meno della meta'", e' sempre stato cosi.
Ma l'alimentatore avrà il connettore Type2 oppure il CCS Combo2 come le auto elettriche?
Basntan 22kW?
F1r3st0rm
20-07-2022, 12:15
quasi raddoppio di prestazioni per consumi più che raddoppiati il gioco non mi pare che valga la candela...
coschizza
20-07-2022, 12:17
quasi raddoppio di prestazioni per consumi più che raddoppiati il gioco non mi pare che valga la candela...
consumi più che raddoppiati ? questo chi lo dice? non l'articolo
Notturnia
20-07-2022, 12:18
come ha risposto più di qualche utilizzatore del forum.. impianto fotovoltaico e passa la paura..
il futuro è green e sprecone..
agonauta78
20-07-2022, 12:22
Con le schede video della scorsa generazione irreperibili e dai prezzi proibitivi dopo anni dall'uscita. Le nuove saranno altrettanto proibitive aldilà dei consumi, in ogni caso i prezzi ancora più alti e le disponibilità centellinate per smaltire le vecchie in magazzino, andranno avanti per anni.
nonsidice
20-07-2022, 12:29
Con le schede video della scorsa generazione irreperibili e dai prezzi proibitivi dopo anni dall'uscita. Le nuove saranno altrettanto proibitive aldilà dei consumi, in ogni caso i prezzi ancora più alti e le disponibilità centellinate per smaltire le vecchie in magazzino, andranno avanti per anni.
Ormai è un circolo vizioso.
Comunque presto sui nostri schermi: l'unboxing dei vari influencIer che l'hanno avuta gratis e i video dell'installazione del calciatore di turno.
Sintonizzatevi sul tutubo e godete ! :sofico:
Tanto avremo tutti la wallbox per la ricarica della nostra nuova auto elettrica. :O
Potremo attaccare direttamente il pc a quella quando lanceremo un 3DMark.
Con le schede video della scorsa generazione irreperibili e dai prezzi proibitivi dopo anni dall'uscita. Le nuove saranno altrettanto proibitive aldilà dei consumi, in ogni caso i prezzi ancora più alti e le disponibilità centellinate per smaltire le vecchie in magazzino, andranno avanti per anni.
Ma se le attuali sono irreperibili come fanno ad avere scorte di magazzino? :D
nickname88
20-07-2022, 12:56
Sembra sia anche stata leakata un'immagine dei nuovi alimentatori con gli ultimi standard in grado di supportare le prestazioni "da paura":
https://st.ilfattoquotidiano.it/wp-content/uploads/2021/01/18/centrale-nucleare-francia-1200-1.jpg
Oramai entrambi i produttori hanno perso la dignità !
Ci tocca aspettar la 4070 o la 4070Ti, il che significa attendere parecchio tempo dall'uscita dei primi modelli.
Oppure AMD con una proposta analoga a quella dell'attuale 6800 liscia, quindi una 7800 liscia ipotetica sperando che abbiano tenuto almeno i 300W per le top di gamma e non oltre.
supertigrotto
20-07-2022, 12:56
Si dice che la Panda raddoppierà la potenza,se prima aveva il motore 1000 Fire,ora ha un 2000 turbo.....
I 50 euro dal distributore non basteranno più e bisognerà fare 2 pieni a settimana....
Mi pare ovvio che la 4090 andrà di più,hanno raddoppiato i transistor quasi,se andasse meno della 3090 allora sì che mi preoccuperei.
Gringo [ITF]
20-07-2022, 13:04
I consumi delle Intel ARC sono contenuti, quindi se non si necessitano prestazioni, e non si vogliono tutti i titoli in 4k, una A770 e passano i dolori, hai i tuoi 16GB di Vram hai prestazioni da RTX3070 a metà consumi, con un prezzo che si aggirerà Sotto i 399$ e sarà con molta probabilità anche disponibile, unico neo è....
.... in che anno :3 Nyaaaaa!!!
;47893031']I consumi delle Intel ARC sono contenuti, quindi se non si necessitano prestazioni, e non si vogliono tutti i titoli in 4k, una A770 e passano i dolori, hai i tuoi 16GB di Vram hai prestazioni da RTX3070 a metà consumi, con un prezzo che si aggirerà Sotto i 399$ e sarà con molta probabilità anche disponibile, unico neo è....
.... in che anno :3 Nyaaaaa!!!Veramente i consumi di ARC sembrano significativamente superiori ad AMD e Nvidia a parità di performance.
nonsidice
20-07-2022, 13:07
Si dice che la Panda raddoppierà la potenza,se prima aveva il motore 1000 Fire,ora ha un 2000 turbo.....
I 50 euro dal distributore non basteranno più e bisognerà fare 2 pieni a settimana....
Mi pare ovvio che la 4090 andrà di più,hanno raddoppiato i transistor quasi,se andasse meno della 3090 allora sì che mi preoccuperei.
E grazie al c***0
se l'anno prossimo sostituiscono il 2000 turbo con un 3000, poi un 5000 e via avanti dove finiamo ??
A me serve una discreta barlina, non voglio ne la citycar ne una ferrari, che fo? mi attacco ?
Dirai che faranno la 4050 o giù di lì, ma sarà (come spesso) una 3050 rimarchiata che è una 2050 rimarchiata ecc. ecc. ?? Che ovviamente faranno pagare uno sproposito.
Una schedina sui 200€ NUOVA che tiene perfettamente il FHD e magari una puntatina al 2k sui giochi vecchiotti e non consuma uno sfacelo la faranno uscire ??
mi debbo tenere la 970 a vita ??
nickname88
20-07-2022, 13:18
;47893031']I consumi delle Intel ARC sono contenuti, quindi se non si necessitano prestazioni, e non si vogliono tutti i titoli in 4k, una A770 e passano i dolori, hai i tuoi 16GB di Vram hai prestazioni da RTX3070 a metà consumi, con un prezzo che si aggirerà Sotto i 399$ e sarà con molta probabilità anche disponibile, unico neo è....
.... in che anno :3 Nyaaaaa!!!Sono contenuti perchè fanno schifo anche le prestazioni.
Ciò che va guardato è infatti il rapporto performance/watt.
F1r3st0rm
20-07-2022, 13:52
@coschizza
se da un TGP > di 800 W con meno L2 e frequenze non definitive direi che è raddoppiato eccome visto che che il TGP della 3090 Ti è al max 450 W...
in pratica se prima per mettere quella scheda e un processore top dovevi avere un alimentatore da 900-1000 W adesso devi pensare ad un 1300-1500.
Scherziamo?
@coschizza
se da un TGP > di 800 W con meno L2 e frequenze non definitive direi che è raddoppiato eccome visto che che il TGP della 3090 Ti è al max 450 W...
in pratica se prima per mettere quella scheda e un processore top dovevi avere un alimentatore da 900-1000 W adesso devi pensare ad un 1300-1500.
Scherziamo?
ovvio :muro:
@coschizza
se da un TGP > di 800 W con meno L2 e frequenze non definitive direi che è raddoppiato eccome visto che che il TGP della 3090 Ti è al max 450 W...
in pratica se prima per mettere quella scheda e un processore top dovevi avere un alimentatore da 900-1000 W adesso devi pensare ad un 1300-1500.
Scherziamo?La 4090 neanche si avvicinerà a 800W e sarà probabilmente nello stesso range della 3090Ti.
Ma seriamente pensi che Nvidia non solo non sia stata in grado di migliorare le performance per watt, ma addirittura le abbia peggiorate a 2 anni da Ampere e con un enorme salto del processo produttivo da Samsung ad N5 o N4 di TSMC?
Un minimo di logica. :read:
avranno letto la mia email dove mi lamentavo delle prestazioni ridicole della 3090 ? :D
F1r3st0rm
20-07-2022, 15:03
Vabbeh allora non sapete leggere l'articolo...pace sopra parla di una 4090 Ti downcloccata e con l2 inferiore...e scrive >800W
mentre al 3090 Ti ha un TGP di 450 tanto basta per dire che il TGP è praticamente raddoppiato quindi prima di scrivere cavolate leggete cosa c'è scritto.
Vabbeh allora non sapete leggere l'articolo...pace sopra parla di una 4090 Ti downcloccata e con l2 inferiore...e scrive >800W
mentre al 3090 Ti ha un TGP di 450 tanto basta per dire che il TGP è praticamente raddoppiato quindi prima di scrivere cavolate leggete cosa c'è scritto.Tu invece hai letto?
Ci sono 2 leak diversi.
Il primo parla di una 4090, non Ti, non full AD102 e indica che il TPD è "low" e nel range della 3090Ti, ovvero circa 450W: https://twitter.com/kopite7kimi/status/1549430689833324544
Il secondo leaker neanche cita i Watt, ma ha avuto qualcosa da dire in merito giorni fa: https://twitter.com/XpeaGPU/status/1520965163603533824
Ripeto: AD102 non avrà performance per watt peggiori di GA102, è semplice logica.
F1r3st0rm
20-07-2022, 15:17
GPU AD102 completamente attiva, quindi un'ipotetica RTX 4090 Ti con un possibile TGP di 800W, sarebbe in grado di superare
questo c'è scritto 800 W di TGP magari sarà a piena potenza ma si tratta di un +80% rispetto alla 3090 Ti se è normale chiudo qua...cari nvidia fan boys...con la situazione attuale presentare una scheda che consumi anche solo solo poco di più di una attuale è brutto una che consuma l'80% in più di quella che sostituisce è semplicemente indecente e giusto per capire con le bollette voi mi pagate lo stipendio quindi a me farebbe solo piacere vedere i consumi che salgono se ci fossero le giuste condizioni.
nickname88
20-07-2022, 15:53
Come si fanno a dissipare 800W su una scheda VGA lo sapete solo voi
gd350turbo
20-07-2022, 15:58
Come si fanno a dissipare 800W su una scheda VGA lo sapete solo voi
io in bagno ho una stufetta elettrica appunto da 800w, forse usano quel sistema con al posto della resistenza il chip :sofico:
GPU AD102 completamente attiva, quindi un'ipotetica RTX 4090 Ti con un possibile TGP di 800W, sarebbe in grado di superare
questo c'è scritto 800 W di TGP magari sarà a piena potenza ma si tratta di un +80% rispetto alla 3090 Ti se è normale chiudo qua...cari nvidia fan boys...con la situazione attuale presentare una scheda che consumi anche solo solo poco di più di una attuale è brutto una che consuma l'80% in più di quella che sostituisce è semplicemente indecente e giusto per capire con le bollette voi mi pagate lo stipendio quindi a me farebbe solo piacere vedere i consumi che salgono se ci fossero le giuste condizioni.Nvidia fanboy... si, ok.
Guarda che i rumoreggiati 800W sono per il "power limit" di AD102. Le schede in vendita non ci andranno neanche vicine e il resto della lineup avrà consumi paragonabili ad Ampere e con performance per watt nettamente superiori.
nickname88
20-07-2022, 16:07
Nvidia fanboy... si, ok.
Guarda che i rumoreggiati 800W sono per il "power limit" di AD102. Le schede in vendita non ci andranno neanche vicine e il resto della lineup avrà consumi paragonabili ad Ampere e con performance per watt nettamente superiori.
Ho paura invece che ci sarà un rialzo medio di 50W per ogni modello.
Il livello di Ampere in teoria sarebbe dovuto essere una sorta di passaggio a causa del PP Samsung, ma con TSMC mi sarei aspettato un ritorno ai canonici 230-250W per le top di gamma.
StylezZz`
20-07-2022, 16:56
avranno letto la mia email dove mi lamentavo delle prestazioni ridicole della 3090 ? :D
Peccato che non ti sia lamentato anche dei consumi :O
Lobokill
20-07-2022, 17:03
La migliore Giefors di sempre... lol
CrapaDiLegno
20-07-2022, 19:14
Certo che c'è gente in questo forum che ha diversi problemi a capire un semplice testo scritto.
Gli 800W se li è inventati l'articolista perché in nessuno dei messaggi riportati c'è scritto quella quantità di energia assorbita. Si parla di "high power draw (whatever does it mean, maybe OC?)" che anche chi non sa l'inglese può facilmente farselo tradurre da Google ed evitare di sparare str0nzate riferendosi a "Nvidia fanboy quando è lui stesso che fa la figura dell'AF parlando di un test (dove è scritto chiaramente low TDP and reduced L2 cache, che vuol dire che probabilmente non tutti i canali di memoria erano attivi) e riferendosi a notizie vaghe dell'altro.
Ma poi, secondo voi, un chippetto che sarà al massimo di 800mm^2 può dissipare 800W?
Secondo quale ragionamento? Manco la densità di energia della superficie solare.
Magari immerso direttamente in refrigerante mosso da pompa ciclonica, ma a quel punto è uguale a parlare di record tramite azoto liquido. Ne produrranno 2 al mondo e le regaleranno entrambe giusto per avere i numeroni ai test, tipo la 6900XTX liquid cooled.
E' divertente vedere che c'è gente che proprio spera che Nvidia faccia schifo al prossimo giro così da continuare a sostenere la propria fede verso quell'altra casa. E nel fare ciò scrive le sciocchezze più esilaranti senza rendersi conto che esprimendosi così è come dimostrare di non saper fare 2+2.
Forse deve auto convincersi che gli ultimi acquisti sono stati una cosa saggia e che non c'era e non ci sarà di meglio disponibile dall'altra parte. Perché se invece così sarà (ed eventualmente dopo 4 anni parte un degno supporto all'RT) magari capiscono che non sono stati lungimiranti.
Ma magari è Nvidia che sbaglia e al prossimo giro si ritorna al raster puro con i poligoni elaborati dalle TMU che tanto le unità dedicate non servono a nulla "se non a rubare soldi ai fessi che comprano le schede porgendo il didietro, gli shader bastano e avanzano per fare tutto" (cit.).
F1r3st0rm
20-07-2022, 22:48
ingegneria elettronica del MIT quale anno di corso?
Certo che c'è gente in questo forum che ha diversi problemi a capire un semplice testo scritto.
Gli 800W se li è inventati l'articolista perché in nessuno dei messaggi riportati c'è scritto quella quantità di energia assorbita. Si parla di "high power draw (whatever does it mean, maybe OC?)" che anche chi non sa l'inglese può facilmente farselo tradurre da Google ed evitare di sparare str0nzate riferendosi a "Nvidia fanboy quando è lui stesso che fa la figura dell'AF parlando di un test (dove è scritto chiaramente low TDP and reduced L2 cache, che vuol dire che probabilmente non tutti i canali di memoria erano attivi) e riferendosi a notizie vaghe dell'altro.
Ma poi, secondo voi, un chippetto che sarà al massimo di 800mm^2 può dissipare 800W?
Secondo quale ragionamento? Manco la densità di energia della superficie solare.
Magari immerso direttamente in refrigerante mosso da pompa ciclonica, ma a quel punto è uguale a parlare di record tramite azoto liquido. Ne produrranno 2 al mondo e le regaleranno entrambe giusto per avere i numeroni ai test, tipo la 6900XTX liquid cooled.
E' divertente vedere che c'è gente che proprio spera che Nvidia faccia schifo al prossimo giro così da continuare a sostenere la propria fede verso quell'altra casa. E nel fare ciò scrive le sciocchezze più esilaranti senza rendersi conto che esprimendosi così è come dimostrare di non saper fare 2+2.
Forse deve auto convincersi che gli ultimi acquisti sono stati una cosa saggia e che non c'era e non ci sarà di meglio disponibile dall'altra parte. Perché se invece così sarà (ed eventualmente dopo 4 anni parte un degno supporto all'RT) magari capiscono che non sono stati lungimiranti.
Ma magari è Nvidia che sbaglia e al prossimo giro si ritorna al raster puro con i poligoni elaborati dalle TMU che tanto le unità dedicate non servono a nulla "se non a rubare soldi ai fessi che comprano le schede porgendo il didietro, gli shader bastano e avanzano per fare tutto" (cit.).
Io spero tanto che facciano un bel salto con queste nuove e che ci sia anche un bel salto nei consumi. Semplicemente sembra che la tecnologia in questo senso sia un po' arenata.
Comunque 800 W sono di potenza assorbita istantanea (magari di picco), non energia. :Prrr:
nickname88
21-07-2022, 10:27
Comunque 800 W sono di potenza assorbita istantanea (magari di picco), non energia. :Prrr:E sticaxxi, io sul mio alimentatore 800W seppur di picco non li voglio proprio vedere, scusa se ti sembra una richiesta esagerata.
Anzi ! 800W di picco intendevo dell'intero sistema, se è solo di VGA non ne voglio vedere nemmeno 400.
CrapaDiLegno
21-07-2022, 11:56
ingegneria elettronica del MIT quale anno di corso?
Sono argomenti di terza media. Probabilmente neanche a quella sei arrivato.
Io spero tanto che facciano un bel salto con queste nuove e che ci sia anche un bel salto nei consumi. Semplicemente sembra che la tecnologia in questo senso sia un po' arenata.
Comunque 800 W sono di potenza assorbita istantanea (magari di picco), non energia. :Prrr:
Per densità di energia intendevo energia da dissipare per unità di superficie.
Per quanto riguarda la tecnologia, sul mercato è disponibile da anni HW in grado di fare molto di più rispetto a quanto visto finora, ma poiché il monopolista di chip per console, il target dei motori grafici, è indietro di 4 anni almeno, e al momento di definire il design delle GPU per console pensava ancora al "super raster fatto solo con gli shader, che bastano a fare tutto" dobbiamo sorbirci ancora per un bel po' di tempo roba fatta con 4 poligoni sennò il motore geometrico sulle console collassa, niente mesh shading e RT con il contagocce altrimenti sempre i botoli vanno in slide show. Capacità AI non pervenuta.
In mancanza di tutto il resto però si possono pompare le texture, che di TMU e di banda ce n'è in abbondanza.
Magari al prossimo giro di console si può sperare che sia presentato un HW a livello di quello che la concorrenza ha presentato nel 2018.
Nel frattempo alziamo i TDP che gli shader sono affamati e se devono fare anche quello che potrebbero fare unità dedicate, bisogna overcloccarli e metterne molti di più.
E sticaxxi, io sul mio alimentatore 800W seppur di picco non li voglio proprio vedere, scusa se ti sembra una richiesta esagerata.
Anzi ! 800W di picco intendevo dell'intero sistema, se è solo di VGA non ne voglio vedere nemmeno 400.
Non ho mai detto che non mi sembri esagerata. Guarda il mio primo post. ;)
come ha risposto più di qualche utilizzatore del forum.. impianto fotovoltaico e passa la paura..
il futuro è green e sprecone..
Si, è vero, considerando che ormai quasi tutto va verso l elettrico, riscaldamento e "fornelli" compresi.
Peró serve un bell impianto, direi almeno 10-12 KW, nn è che basta un pannello sul tetto e una batteria da moto
E costa un impianto cosi!
Certo che quest anno chi ha l impianto fotovoltaico se lo gode tutto, tra il sole che c è 20ore al giorno e l elettricitá che costa un botto (agli altri)
Peró poi magari nel 2023 piove ogni 2 giorni ...
Si, è vero, considerando che ormai quasi tutto va verso l elettrico, riscaldamento e "fornelli" compresi.
Peró serve un bell impianto, direi almeno 10-12 KW, nn è che basta un pannello sul tetto e una batteria da moto
E costa un impianto cosi!
Certo che quest anno chi ha l impianto fotovoltaico se lo gode tutto, tra il sole che c è 20ore al giorno e l elettricitá che costa un botto (agli altri)
Peró poi magari nel 2023 piove ogni 2 giorni ...
Sarebbe anche il caso di rivisitare le reti e magari di cambiare un po' i costi dei tagli di potenza. Il 3.3 kW ormai è vecchio e insufficiente in ottica futura.
Sarebbe anche il caso di rivisitare le reti e magari di cambiare un po' i costi dei tagli di potenza. Il 3.3 kW ormai è vecchio e insufficiente in ottica futura.
Mah, dovremmo puntare a consumare meno, non di piu.
gd350turbo
21-07-2022, 12:44
Sarebbe anche il caso di rivisitare le reti e magari di cambiare un po' i costi dei tagli di potenza. Il 3.3 kW ormai è vecchio e insufficiente in ottica futura.
Quello è gia stato risolto da tempo, ora puoi avere fino a 6.6 pagando solo pochi euro in più al mese come quota potenza ma il prezzo al kwh rimane uguale.
Sarebbe anche il caso di rivisitare le reti e magari di cambiare un po' i costi dei tagli di potenza. Il 3.3 kW ormai è vecchio e insufficiente in ottica futura.
Certo
Se "prima" di elettrico c era solo la lavatrice e il frigorifero, adesso ci sono anche lavastoviglie, piano induzione, climatizzatore...
Di sicuro un 6 KW è il minimo oggi, meglio se superiore.
Ma io metterei anche un 18-24KW visto che il mio amico Sole mi manda l energia, il problema è il costo di un impianto del genere
Certo
Se "prima" di elettrico c era solo la lavatrice e il frigorifero, adesso ci sono anche lavastoviglie, piano induzione, climatizzatore...
Di sicuro un 6 KW è il minimo oggi, meglio se superiore.
Ma io metterei anche un 18-24KW visto che il mio amico Sole mi manda l energia, il problema è il costo di un impianto del genere
Si puo' vivere anche senza climatizzatore, e il piano a induzione e' economicamente (ma anche da un punto di vista di prestazioni e ambientale) peggio.
Dobbiamo consumare meno, non di piu.
CrapaDiLegno
21-07-2022, 18:12
Certo
Se "prima" di elettrico c era solo la lavatrice e il frigorifero, adesso ci sono anche lavastoviglie, piano induzione, climatizzatore...
Di sicuro un 6 KW è il minimo oggi, meglio se superiore.
Ma io metterei anche un 18-24KW visto che il mio amico Sole mi manda l energia, il problema è il costo di un impianto del genere
Il tuo amico solo manda energia, ma non è che l'impianto fotovoltaico è a impatto zero. Il costo energetico do un impianto da 24KW è 4 volte quello di un impianto da 6KW. E non è che sia così basso rispetto al rendimento totale dell'impianto stesso.
Si puo' vivere anche senza climatizzatore, e il piano a induzione e' economicamente (ma anche da un punto di vista di prestazioni e ambientale) peggio.
Dobbiamo consumare meno, non di piu.
Consumare di meno è sicuramente la parola d'ordine.
Ma se non metto il piano di induzione, nonostante il pannello fotovoltaico già installato, significa che devo provvedere ad una fornitura di gas che da qualche parte del mondo deve arrivare.
Consideriamo anche che il problema dell'efficienza dei vari elettrodomestici vari ce l'hai solo in estate, d'inverno qualsiasi inefficienza aiuta a riscaldare comunque la casa.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.