View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
In realtà mi piacerebbe ci fossero differenze notevoli così giustificherei l'acquisto della 5090 ormai alle porte ...
Considera che di base c'è già un RT implementato in Indiana, il Pt non fa altro che spingere di più e correttamente su illuminazione e rimbalzi rendendolo ancora migliore quindi magari ci sta che lo noti di meno
https://www.youtube.com/watch?v=eO5yKVjJ-B4
Qui le differenze in video
Sinceramente non vedo differenze significative ma soprattutto dovrebbero migliorare l'esperienza di gioco?
Cutter90
10-12-2024, 11:41
Sinceramente non vedo differenze significative ma soprattutto dovrebbero migliorare l'esperienza di gioco?
Beh, ma che discorso è? Guarda che poi stai vedendo la differenza tra Ray Tracing e Path tracing, non tra raster e Path tracing, che li si sarebbe enorme.
L'esperienza di gioco la grafica non la migliora mai... ma è un altro aspetto
Sinceramente non vedo differenze significative ma soprattutto dovrebbero migliorare l'esperienza di gioco?
Di base un bel gioco rimane sempre un bel gioco, ok?
Se un gioco è brutto non lo compro certo perchè ha la grafica stratosferica.
Rimane sugli scaffali, al più lo compro a 1€ giusto per vedere com'è tecnicamente e bon.
Appurato questo si, migliora l'esperienza di gioco, tutto ciò che aumenta l'immersione lo fa.
Altrimenti non avremmo nessun miglioramento tecnico/grafico/sonoro, tanto non serve comunque a niente.
Saved_ita
10-12-2024, 12:20
Sinceramente non vedo differenze significative ma soprattutto dovrebbero migliorare l'esperienza di gioco?
Le grosse differenze tra path tracing e ray tracing ci sono soprattutto negli ambienti aperti (vedi le prime immagini del prologo quando sono nella foresta) e gestisce molto meglio la gestione della diffusione delle ombre (ovvero i contorni delle ombre proiettate che diventano meno definiti a seconda di quanto distante è l'oggetto dalla superficie di proiezione) e la gestione dell'illuminazione riflessa (come si "mischiano" i colori su una superficie illuminata da diverse fonti) rispetto a qualunque altro tipo di illuminazione.
In giochi in cui l'immersione è importante, rendono l'ambientazione più realistica e "ingannano" meglio il cervello che potrebbe "dimenticarsi" che stai vivendo una realtà simulata aumentando il coinvolgimento (il motivo per cui cerchi di scansarti quando vedi arrivare un oggetto o un pugno).
La cosa è estremamente soggettiva e dipende anche da quando "ti vuoi lasciare ingannare" (perchè razionalmente puoi imporre al tuo sistema limbico di "notare" le imperfezioni del gioco e "riportarti alla realtà") in ogni caso, senza questi espedienti tecnici l'immersività, anche nei soggetti più "influenzabili", sarebbe estremamente limitata ed è un bene che ci siano.
Poi c'è l'aspetto "etico" ovvero se è più o meno corretto imporli e quindi fare giochi su cui non puoi disattivare certe impostazioni di fatto escludendo un certo tipo di HW e implementando una forma di obsolescenza programmata.
magic carpet
10-12-2024, 12:28
OT!
Le grosse differenze tra path tracing e ray tracing ci sono soprattutto negli ambienti aperti (vedi le prime immagini del prologo quando sono nella foresta) e gestisce molto meglio la gestione della diffusione delle ombre (ovvero i contorni delle ombre proiettate che diventano meno definiti a seconda di quanto distante è l'oggetto dalla superficie di proiezione) e la gestione dell'illuminazione riflessa (come si "mischiano" i colori su una superficie illuminata da diverse fonti) rispetto a qualunque altro tipo di illuminazione.
In giochi in cui l'immersione è importante, rendono l'ambientazione più realistica e "ingannano" meglio il cervello che potrebbe "dimenticarsi" che stai vivendo una realtà simulata aumentando il coinvolgimento (il motivo per cui cerchi di scansarti quando vedi arrivare un oggetto o un pugno).
La cosa è estremamente soggettiva e dipende anche da quando "ti vuoi lasciare ingannare" (perchè razionalmente puoi imporre al tuo sistema limbico di "notare" le imperfezioni del gioco e "riportarti alla realtà") in ogni caso, senza questi espedienti tecnici l'immersività, anche nei soggetti più "influenzabili", sarebbe estremamente limitata ed è un bene che ci siano.
Poi c'è l'aspetto "etico" ovvero se è più o meno corretto imporli e quindi fare giochi su cui non puoi disattivare certe impostazioni di fatto escludendo un certo tipo di HW e implementando una forma di obsolescenza programmata.
E c'è anche da pensare a quanto dicevo ai tempi della 2080TI, il Raytracing semplifica notevolmente e accorcia le tempistiche di produzione. Impostare un'illmuminazione raster è estremamente più dispendioso in termini di personale e risorse. Ci vanno persone che si mettono li e posizionano le singole fonti di luce, che scelgono la resa dei materiali, che ficcano lightbox a desta e amanca e che si sbattono per rendere il tutto credibile, in Raytracing tutto questo è superfluo, metti una luce il resto lo fa l'algoritmo.
Quindi perchè non c'è una versione raster con RT off che gira su schede del 2016? Beh semplice, si va avanti si ottimizza e si migliora. Se avessero dovuto dedicare la cura per il comparto tecnico su due fronti avremmo avuto o un gioco mediocre o il gioco tra 2 anni.
Che poi posso ancora capire quello con la 1080Ti che viene tagliato fuori o con la TitanX, ma quelli che si lamentano con una GTX1660 da 50 euro ma poi cosa ancora? :D :D Con una ArC A580 da 200 euro fate l'affare della vita, oppure con 20 euro di GeForce NOW e 10 di GamePass vivete sereni con una 4080 in cloud, che comunque vale come esperienza quanto 4 PS5pro.
Ma io sono d'accordo su tutto e certo che gli effetti grafici aumentano l immersività ma in questo caso bisogna perdere decine di FPS per vedere a stento qualcosa.
fraussantin
10-12-2024, 13:11
Anche a me senza PT, ma quando lo attivi completo gli FPS si dimezzano quasi.. e soprattutto io non ci vedo chissà quale miracolo dal punto di vista grafico.
Quello che mi dà più fastidio è che nelle scenette, che sono tante, gli FPS mi scendono a 60 di default, non capisco se ho impostato male qualcosa ...Le cut sono bloccate a 60 Non è che non ci sono differenze
Vi scoccia che vi fa perdere tanti frameLa differenza c'è eccome.
Poi uno sceglie di fare cosa vuole.
L'unica cosa che ho notato col path attivo noto un leggero blur sulle superfici.
Non ho capito se è un bug o cosa.
Ma io sono d'accordo su tutto e certo che gli effetti grafici aumentano l immersività ma in questo caso bisogna perdere decine di FPS per vedere a stento qualcosa.
Difatti ho optato per giocare s 160 fps col path spento .
Ma non si può dire che non cambia nulla.
Cutter90
10-12-2024, 13:17
Ma io sono d'accordo su tutto e certo che gli effetti grafici aumentano l immersività ma in questo caso bisogna perdere decine di FPS per vedere a stento qualcosa.
Eh ma dipende. Intanto non è che si vede a stento. in alcune scene cambia davvero tanto. Dopo aver giocato a Wukong path tracing o AW2 Path tracing, tonare a giocare giochi raster mi ha fatto davvero "Brutto".
Poi perdere decine di fps alla fine può essere un chissene. Dipende a quanti fps sei e quanti ne vuoi fare. Perchè fare 100 fps con PT o farne 160 senza per me PT tutta la vita. tanto sopra i 100 va alla grande.
Ripeto poi che il Frame gen li fa recuperare quasi tutti i frame parsi, quindi....
Saved_ita
10-12-2024, 13:24
E c'è anche da pensare a quanto dicevo ai tempi della 2080TI, il Raytracing semplifica notevolmente e accorcia le tempistiche di produzione. Impostare un'illmuminazione raster è estremamente più dispendioso in termini di personale e risorse. Ci vanno persone che si mettono li e posizionano le singole fonti di luce, che scelgono la resa dei materiali, che ficcano lightbox a desta e amanca e che si sbattono per rendere il tutto credibile, in Raytracing tutto questo è superfluo, metti una luce il resto lo fa l'algoritmo.
Quindi perchè non c'è una versione raster con RT off che gira su schede del 2016? Beh semplice, si va avanti si ottimizza e si migliora. Se avessero dovuto dedicare la cura per il comparto tecnico su due fronti avremmo avuto o un gioco mediocre o il gioco tra 2 anni.
Questo però attualmente non è del tutto vero.
Quando si parla di giochi studiati e diffusi solo per PC si potrebbe pensare che "non esista" l'illuminazione "tradizionale" e quindi tutto vero quello che dici: inutile sprecare tempo per gestire l'illuminazione quando tramite RT il 99% del lavoro lo fa l'algoritmo ma sappiamo che il 99% dei giochi viene sviluppato per console E PC.
Finchè esisteranno le console (le attuali odlgen almeno), esisterà l'illuminazione "vecchia scuola" e quindi difficile pensare che "quella versione" non la puoi importare anche su PC.
Credo che Indiana Jones sia il primo gioco che su HW di vecchia gen semplicemente non parta o faccia sparire le opzioni e, onestamente, questo mi sembra un passo "eccessivo" verso l'obsolesceza programmata (premesso che io sono stra-favorevole a nuove tech come RT, DLSS, FG, etc.)
Cutter90
10-12-2024, 13:28
Questo però attualmente non è del tutto vero.
Quando si parla di giochi studiati e diffusi solo per PC si potrebbe pensare che "non esista" l'illuminazione "tradizionale" e quindi tutto vero quello che dici: inutile sprecare tempo per gestire l'illuminazione quando tramite RT il 99% del lavoro lo fa l'algoritmo ma sappiamo che il 99% dei giochi viene sviluppato per console E PC.
Finchè esisteranno le console (le attuali odlgen almeno), esisterà l'illuminazione "vecchia scuola" e quindi difficile pensare che "quella versione" non la puoi importare anche su PC.
Credo che Indiana Jones sia il primo gioco che su HW di vecchia gen semplicemente non parta o faccia sparire le opzioni e, onestamente, questo mi sembra un passo "eccessivo" verso l'obsolesceza programmata (premesso che io sono stra-favorevole a nuove tech come RT, DLSS, FG, etc.)
Io sono in disaccordo. Graficamente con i giochi siamo fermi da anni e ancora ci trasciniamo giochi che devono partire su HDD ad esempio. Il tutto a svantaggio del progresso puro. Chiaro, io parlo così perchè il progresso me lo posso permettere.
In questo caso non si tratta affatto di obsolescenza programmata ma di tecnologie nuove che su hardware vecchio non vanno semplicemente perchè non "sono abbastanza".
Predator_1982
10-12-2024, 13:35
Le cut sono bloccate a 60 La differenza c'è eccome.
Poi uno sceglie di fare cosa vuole.
L'unica cosa che ho notato col path attivo noto un leggero blur sulle superfici.
Non ho capito se è un bug o cosa.
lo stavo per scrivere anche io prima, ma non penso sia dovuto al path ma al frame generator. Quel problema c'era anche nella release iniziale ed è davvero fastidioso.
Anche questo, come Stalker, lo giocherò minimo tra 6 mesi. Ormai si sa che i titoli escono in beta (se non pure peggio...)
Cutter90
10-12-2024, 13:48
lo stavo per scrivere anche io prima, ma non penso sia dovuto al path ma al frame generator. Quel problema c'era anche nella release iniziale ed è davvero fastidioso.
Anche questo, come Stalker, lo giocherò minimo tra 6 mesi. Ormai si sa che i titoli escono in beta (se non pure peggio...)
No beh, di questo indiana Jones si può dire davvero poco riguardo l'ottimizzazione. Scala bene, ha tutte le tecnologie disponibili ecc ecc. Non può essere certo perchè le cutscene girano a 60 che lo si può additare come una beta. E' davvero ingiusto
Predator_1982
10-12-2024, 14:02
No beh, di questo indiana Jones si può dire davvero poco riguardo l'ottimizzazione. Scala bene, ha tutte le tecnologie disponibili ecc ecc. Non può essere certo perchè le cutscene girano a 60 che lo si può additare come una beta. E' davvero ingiusto
intendevo piu che altro per un effetto blur nei movimenti veloci che è fatto maluccio
Cutter90
10-12-2024, 14:08
intendevo piu che altro per un effetto blur nei movimenti veloci che è fatto maluccio
Non ho notato nulla di tutto ciò nei video visti. Ne ho sentito analisi parlarne
Eh ma dipende. Intanto non è che si vede a stento. in alcune scene cambia davvero tanto. Dopo aver giocato a Wukong path tracing o AW2 Path tracing, tonare a giocare giochi raster mi ha fatto davvero "Brutto".
Poi perdere decine di fps alla fine può essere un chissene. Dipende a quanti fps sei e quanti ne vuoi fare. Perchè fare 100 fps con PT o farne 160 senza per me PT tutta la vita. tanto sopra i 100 va alla grande.
Ripeto poi che il Frame gen li fa recuperare quasi tutti i frame parsi, quindi....
Parlavo del video con il confronto tra rt e pt
Da rt a raster ovviamente spesso la differenza è netta
mikael84
10-12-2024, 15:13
Per tutti.
Il path tracing, sarà sicuramente un punto di forza delle 5000 (come lo è dalle 4000 in parte), e quindi ok, ma discutere del gioco in se è estremamente OT.
micronauta1981
10-12-2024, 16:25
Per vedere le differenze tra raytracing e pathtracing bisogna vedere il gioco dal vivo,non su YouTube ..e le differenze si vedono eccome...in qualsiasi gioco che ho giocato,con pathtracing certe scene cambiano drasticamente... è uno degli "effetti" che si vede più a schermo tra tutti quelli esistenti ..a volte passare da alto ad ultra,devi avere la kente d'ingrandimento...quando passi al pathtracing giocando in live cambia tantissimo..
StylezZz`
10-12-2024, 17:23
Per vedere le differenze tra raytracing e pathtracing bisogna vedere il gioco dal vivo,non su YouTube ..e le differenze si vedono eccome...in qualsiasi gioco che ho giocato,con pathtracing certe scene cambiano drasticamente... è uno degli "effetti" che si vede più a schermo tra tutti quelli esistenti ..a volte passare da alto ad ultra,devi avere la kente d'ingrandimento...quando passi al pathtracing giocando in live cambia tantissimo..
Per me è l'esatto contrario, quando gioco sono talmente preso dalla storia ecc...che non sto lì a notare se le ombre sono più sfumate o se le luci rimbalzano in un certo modo, deve essere qualcosa di davvero game changer che valga davvero la pena. Per esempio i riflessi raytracing sui vetri delle macchine o sugli edifici in Cyberpunk, quelli li trovo bellissimi da vedere soprattutto di notte mentre guido per Night City, ecco questo per me è un dettaglio che attira la mia attenzione e mi cambia l'esperienza di gioco, non ho bisogno delle comparative.
micronauta1981
10-12-2024, 17:28
Per me è l'esatto contrario, quando gioco sono talmente preso dalla storia ecc...che non sto lì a notare se le ombre sono più sfumate o se le luci rimbalzano in un certo modo, deve essere qualcosa di davvero game changer che valga davvero la pena. Per esempio i riflessi raytracing sui vetri delle macchine o sugli edifici in Cyberpunk, quelli li trovo bellissimi da vedere soprattutto di notte mentre guido per Night City, ecco questo per me è un dettaglio che attira la mia attenzione e mi cambia l'esperienza di gioco, non ho bisogno delle comparative.
Noti i riflessi sui finestrini,perché senza Path o raytracing non ci sono.. semplicemente non sai cosa guardare dove guardare, altrimenti la differenza è evidente in tantissime scene,sia in cyberpunk che Alan wake ecc.ecc..anche silent hill in raytracing cambia tantissimo...
micronauta1981
10-12-2024, 17:32
Io addirittura quando gioco ad un gioco che non ha raytracing,o path ormai noto tantissimo gli errori,soprattutto nei riflessi screenspace,o le ombre... purtroppo mi saltano subito all' occhio le magagne e a volte mi rovina l'immersivita. .in Stalker 2 per esempio i riflessi e le ombre sono oscene se paragonate ad un gioco con raytracing hardware ..
Alodesign
10-12-2024, 18:31
Saranno anche oscene, ma come dicevo altrove, se non sono funzionali al gioco passano in secondo piano.
Psycho77
10-12-2024, 22:44
Pensavo infatti di essere entrato per errore nel thread di indy.:fagiano:
https://wccftech.com/nvidia-presents-the-future-of-ai-compute-featuring-silicon-photonics-3d-gpu-dram-stacking/
Pure io voglio la gpu fotonica, sono un fan di daitarn 3.:sofico:
corbyale
11-12-2024, 08:20
la nuova serie 5000 adotterà il connettore 12V-2x6 giusto?
io con il mio ali ne ho uno con su stampato 450w basterà per la 5080 ?sicuramente per la 90 no visto i rumor di 600w
magic carpet
11-12-2024, 09:16
la nuova serie 5000 adotterà il connettore 12V-2x6 giusto?
io con il mio ali ne ho uno con su stampato 450w basterà per la 5080 ?sicuramente per la 90 no visto i rumor di 600wAl limite usi un 2x8pin pcie@12vhpwr (il 12v2x6 è solo il connettore lato psu o vga, il cavo è lo stesso).
fraussantin
11-12-2024, 09:46
la nuova serie 5000 adotterà il connettore 12V-2x6 giusto?
io con il mio ali ne ho uno con su stampato 450w basterà per la 5080 ?sicuramente per la 90 no visto i rumor di 600w
Devi cmq usarne 2 separati da 8 con l'adattatore.
Se invece è un 12 pin+ 4 nativo allora va bene
corbyale
11-12-2024, 10:00
Devi cmq usarne 2 separati da 8 con l'adattatore.
Se invece è un 12 pin+ 4 nativo allora va bene
si è un 12+4 sull'ali e viene fornito il cavo esce massimo però a 450w
--AleX--
11-12-2024, 10:27
io ho questo, direi che va bene anche per le future 5000, corretto?
https://www.moddiy.com/products/12VHPWR-600W-PCIe-5.0-Dual-8-Pin-to-16-Pin-Power-Cable-for-Cooler-Master.html
corbyale
11-12-2024, 10:38
io ho questo, direi che va bene anche per le future 5000, corretto?
https://www.moddiy.com/products/12VHPWR-600W-PCIe-5.0-Dual-8-Pin-to-16-Pin-Power-Cable-for-Cooler-Master.html
si questo
https://i.ibb.co/g9jBx1P/PXL-20241211-080633443.jpg
scorpion73
11-12-2024, 11:54
Adesso faccio una previsione: per me Darth Jacket dall'alto del lato oscuro dello sforzo caccia fuori con le 5000 qualcosa per far andare bene il path tracing all'interno del DLSS 4. Quello + le texture neurali. Tutto 5000 only ovviamente, solo per marketing.
Vediamo se ci azzecco.
--AleX--
11-12-2024, 13:05
Adesso faccio una previsione: per me Darth Jacket dall'alto del lato oscuro dello sforzo caccia fuori con le 5000 qualcosa per far andare bene il path tracing all'interno del DLSS 4. Quello + le texture neurali. Tutto 5000 only ovviamente, solo per marketing.
Vediamo se ci azzecco.
Beh, che il DLSS4 sarà esclusiva delle 5000 non è manco quotato... faticherei a crederci anche se dicesse lui in persona che è retrocompatibile con le 4000...
A mio avviso concordo con Scorpion73, ma aggiungo che la 4090 erediterá fin da subito le nuove tech, e prevedo disponibilità alla vendita o dal giorno seguente del Keynote o tempo 1 settimana per 5090 e 5080.
Quindi o il 7/1/25 o il 14/1/25.
Prezzo 5090 2299€.
scorpion73
11-12-2024, 16:50
A mio avviso concordo con Scorpion73, ma aggiungo che la 4090 erediterá fin da subito le nuove tech, e prevedo disponibilità alla vendita o dal giorno seguente del Keynote o tempo 1 settimana per 5090 e 5080.
Quindi o il 7/1/25 o il 14/1/25.
Prezzo 5090 2299€.
Cioé te dici che la 4090 erediterà texture neurali e DLSS 4?
Cioé te dici che la 4090 erediterà texture neurali e DLSS 4?
Si, ma non ci scommetterei su quelle inferiori, almeno non in prima battuta.
corbyale
11-12-2024, 17:50
Si, ma non ci scommetterei su quelle inferiori, almeno non in prima battuta.
Io non scommetterei su nessuna gpu della serie 4000, rimarrà un esclusiva della serie 5000 se no come fanno a vendere le nuove schede
Io non scommetterei su nessuna gpu della serie 4000, rimarrà un esclusiva della serie 5000 se no come fanno a vendere le nuove schede
La 5080 è il più grande mistero della prossima generazione, il vero nodo gordiano della questione. La 5090, ok, sarà incredibilmente potente, ma la 5080, con prestazioni vicine alla 4090, è davvero strana.
C’è solo una spiegazione: Giacchetta considera la serie 90 come prosumer, ma la vende come gaming quando gli conviene. Fin qui, nulla di strano. Ma se la 4090 non è una scheda gaming, allora per nVidia la top di gamma è la 4080 Super/TI.
Pensandola così, la 5080, con prestazioni simili alla 4090, rappresenterebbe un miglioramento del 35/40% nel gaming, mentre la 5090 offrirebbe un incremento del 40/50% nel settore prosumer.
Questo spiegherebbe come la 5080 possa avvicinarsi alle performance dell’attuale 4090 senza superarla, mantenendosi entro un margine del ±5%, e posizionarsi come la nuova top di gamma gaming, con un prezzo simile alla 4080 Ti Super.
Inoltre, si potrebbe ipotizzare l’esclusività di nuove funzionalità software per la serie 50xx fino alla 5080, con un’estensione alla 4090 in quanto prosumer, escludendo temporaneamente le schede dalla 4080 in giù.
Almeno, questo è quello che farei io :D :D , se fossi nVidia. Inoltre, getterei le basi per una serie prosumer sempre più marcata, con tagli di VRAM che non esistono nella serie gaming (nella mente di Giacchetta). In questo modo, eviterei la sovrapposizione di prodotti e impedirei che un professionista acquisti una 5080 perché costa meno e ha prestazioni simili alla 4090, ma con “poca VRAM”.
Tutti sanno che nel gaming 16/18GB di VRAM sono più che sufficienti, ma per l’IA e la modellazione, i 24GB della 4090 sono il minimo indispensabile.
Resta comunque il fatto che, alla presentazione, tutte le schede saranno vendute per qualsiasi utilizzo, gaming o altro, e Giacchetta non farà distinzioni.
E poi, non riesco a togliermi dalla testa che se la RTX 4090 si fosse chiamata PRO RTX 4090, ne avrebbero vendute la metà per puro gaming.
Iceman69
11-12-2024, 20:21
A mio avviso concordo con Scorpion73, ma aggiungo che la 4090 erediterá fin da subito le nuove tech, e prevedo disponibilità alla vendita o dal giorno seguente del Keynote o tempo 1 settimana per 5090 e 5080.
Quindi o il 7/1/25 o il 14/1/25.
Prezzo 5090 2299€.
Prezzo plausibile, diciamo un intorno di quel prezzo, dai 2099 ai 2499 per le custom.
Prezzo plausibile, diciamo un intorno di quel prezzo, dai 2099 ai 2499 per le custom.
sali sali, le custom top arriveranno a 3000.
Prezzo plausibile, diciamo un intorno di quel prezzo, dai 2099 ai 2499 per le custom.
Mah secondo me le custom partiranno da 2500, altrochè
Iceman69
12-12-2024, 08:26
Mah secondo me le custom partiranno da 2500, altrochè
Io non credo che ci sarà un aumento così consistente dei prezzi, salvo che per problemi di produzione manchi proprio il prodotto sugli scaffali come è il caso del 9800x3d.
Se il prodotto ci sarà fisicamente in quantità accettabili il prezzo sarà alto (perché è la top di gamma la sovra prezzano sempre), ma comunque su un livello non troppo lontano dall'attuale (cioè 2000 euro).
Se invece non riusciranno a produrre un numero sufficiente di pezzi si verificherà la solita menata dei prezzi senza senso, con il limite che, parlando di importi alti in assoluto, pochi potranno partecipare al gioco, quindi perché si verifichi devono esserci veramente pochi pezzi prodotti.
Io non credo che ci sarà un aumento così consistente dei prezzi, salvo che per problemi di produzione manchi proprio il prodotto sugli scaffali come è il caso del 9800x3d.
Se il prodotto ci sarà fisicamente in quantità accettabili il prezzo sarà alto (perché è la top di gamma la sovra prezzano sempre), ma comunque su un livello non troppo lontano dall'attuale (cioè 2000 euro).
Se invece non riusciranno a produrre un numero sufficiente di pezzi si verificherà la solita menata dei prezzi senza senso, con il limite che, parlando di importi alti in assoluto, pochi potranno partecipare al gioco, quindi perché si verifichi devono esserci veramente pochi pezzi prodotti.
Ma a me pare che le 4090 custom siano sempre state intorno ai 2200-2500€. La vedo difficile che le 5090 custom mantengano gli stessi prezzi della gen precedente. Poi magari ricordo male, comunque in ogni caso spero che con l'uscita delle 5000 si sgonfino un po' i prezzi delle 4000 in modo che le 5090 custom si possano allineare agli stessi prezzi
scorpion73
12-12-2024, 08:48
La 5080 è il più grande mistero della prossima generazione, il vero nodo gordiano della questione. La 5090, ok, sarà incredibilmente potente, ma la 5080, con prestazioni vicine alla 4090, è davvero strana.
C’è solo una spiegazione: Giacchetta considera la serie 90 come prosumer, ma la vende come gaming quando gli conviene. Fin qui, nulla di strano. Ma se la 4090 non è una scheda gaming, allora per nVidia la top di gamma è la 4080 Super/TI.
Pensandola così, la 5080, con prestazioni simili alla 4090, rappresenterebbe un miglioramento del 35/40% nel gaming, mentre la 5090 offrirebbe un incremento del 40/50% nel settore prosumer.
Questo spiegherebbe come la 5080 possa avvicinarsi alle performance dell’attuale 4090 senza superarla, mantenendosi entro un margine del ±5%, e posizionarsi come la nuova top di gamma gaming, con un prezzo simile alla 4080 Ti Super.
Inoltre, si potrebbe ipotizzare l’esclusività di nuove funzionalità software per la serie 50xx fino alla 5080, con un’estensione alla 4090 in quanto prosumer, escludendo temporaneamente le schede dalla 4080 in giù.
Almeno, questo è quello che farei io :D :D , se fossi nVidia. Inoltre, getterei le basi per una serie prosumer sempre più marcata, con tagli di VRAM che non esistono nella serie gaming (nella mente di Giacchetta). In questo modo, eviterei la sovrapposizione di prodotti e impedirei che un professionista acquisti una 5080 perché costa meno e ha prestazioni simili alla 4090, ma con “poca VRAM”.
Tutti sanno che nel gaming 16/18GB di VRAM sono più che sufficienti, ma per l’IA e la modellazione, i 24GB della 4090 sono il minimo indispensabile.
Resta comunque il fatto che, alla presentazione, tutte le schede saranno vendute per qualsiasi utilizzo, gaming o altro, e Giacchetta non farà distinzioni.
E poi, non riesco a togliermi dalla testa che se la RTX 4090 si fosse chiamata PRO RTX 4090, ne avrebbero vendute la metà per puro gaming.
Tutto vero, ma la 4080 e la 4090 condividono la medesima architettura, anche se con target diversi. Per cui una tecnologia se la implementi sulla 4090 la puoi implementare anche sulla 4080.
Magari andrà di meno, ovviamente, ma almeno per far venire l'acquolina in bocca e passare alla 5080 secondo me è possibile che lo facciano.
Altrimenti la fanno esclusiva della serie 5000 e basta.
Ma a me pare che le 4090 custom siano sempre state intorno ai 2200-2500€. La vedo difficile che le 5090 custom mantengano gli stessi prezzi della gen precedente. Poi magari ricordo male, comunque in ogni caso spero che con l'uscita delle 5000 si sgonfino un po' i prezzi delle 4000 in modo che le 5090 custom si possano allineare agli stessi prezzi
Si trovavano tranquille anche sui 1500-1800€ per un periodo, successivamente con le limitazioni cinesi ci fu un rincaro massivo e anche scarsa disponibilità nel nostro mercato.
Comunque fa fede sempre il prezzo di listino, poi ciò che succede nel mercato non è prevedibile, credo che almeno i listini rimarranno invariati per le varie fasce, già ADA ha lucrato per bene e avrebbe poco senso alzare il tiro, con molta probabilità faranno fede ai listini delle 4000 non super.
Iceman69
12-12-2024, 09:29
Si trovavano tranquille anche sui 1500-1800€ per un periodo, successivamente con le limitazioni cinesi ci fu un rincaro massivo e anche scarsa disponibilità nel nostro mercato.
Comunque fa fede sempre il prezzo di listino, poi ciò che succede nel mercato non è prevedibile, credo che almeno i listini rimarranno invariati per le varie fasce, già ADA ha lucrato per bene e avrebbe poco senso alzare il tiro, con molta probabilità faranno fede ai listini delle 4000 non super.
Concordo, è la strategia storica (e più logica) di Nvidia, solo con la serie 3000 aveva provato ad abbassare i prezzi, ma vista come è andata non credo lo farà più, non ne ha bisogno.
albero77
12-12-2024, 11:06
Concordo, è la strategia storica (e più logica) di Nvidia, solo con la serie 3000 aveva provato ad abbassare i prezzi, ma vista come è andata non credo lo farà più, non ne ha bisogno.
lungi da me voler iniziare una polemica sul discorso prezzi essendo anche io un fruitore, ma realisticamente siamo rimasti in pochi ad alimentare questo mercato e saremo sempre meno se la direzione è questa.
Adesso faccio una previsione: per me Darth Jacket dall'alto del lato oscuro dello sforzo caccia fuori con le 5000 qualcosa per far andare bene il path tracing all'interno del DLSS 4. Quello + le texture neurali. Tutto 5000 only ovviamente, solo per marketing.
Vediamo se ci azzecco.
Mettiamo sempre più roba che aumenta la latenza, il tutto per continuare a vendere vga con 8gb di ram...
https://www.digitaltrends.com/wp-content/uploads/2024/12/oneraichu-tweet.jpg
https://www.digitaltrends.com/wp-content/uploads/2024/12/oneraichu-tweet.jpg
Sbrodolo.
amon.akira
12-12-2024, 22:24
5080=4090 se è 30-40%
5080=4090 se è 30-40%
Ma certo, sarà 40% over next gen gaming :D :D la 5080 VS 4080 Super.
Se è vero, e mi sembra plausibile visti i numeri che girano, mi scende ancora di più l'entusiasmo per la 5080. Vuoi perché rispetto alla generazione precedente non alzerebbe in alcun modo l'asticella, vuoi perché ho il timore che giochi cuciti intorno alla 5090 possano metterla in ginocchio abbastanza presto. Voi direte, alla peggio basta abbassare qualche opzione e tutto girerà alla grande, ma parlando di schede da 1000-1500 il pensiero mi lascia un retrogusto amaro. Certo se Nvidia dovesse piazzarlo a 7-800 euro cime la 3080 le cose cambierebbero, ma ho il sospetto che sua meno probabile di Elon Musk che suona a casa mia per regalarmi una Model S.
Ovviamente poi sulle fasce inferiori meglio stendere un velo pietoso.
Iceman69
13-12-2024, 07:11
ma ho il sospetto che sua meno probabile di Elon Musk che suona a casa mia per regalarmi una Model S.
Che sarebbe più un dispetto che un regalo ... scusate OT
mikael84
13-12-2024, 10:10
Notizie assolutamente prive di fondamento.
Notizie assolutamente prive di fondamento.
Li chiamano "leaks" per un motivo
scorpion73
13-12-2024, 11:10
Significherebbe che, nuovamente, l'unica scheda con un senso sarebbe la 5090 risptto alla serie 4000. Che però il sor giacchetta nera ti farà pagare entrambi i reni. Per il resto, ci vediamo alla serie 6000.
La 5080 fosse così non sarebbe minimamente appetibile, almeno non per chi ha la 4090.
Considerando che la 90 era presa dalla 70 nelle pregresse serie, direi che è un nuovo passo nella politica di riposizionamento all'indietro delle fasce a fronte dell'aumento di prezzo da parte del sor giacchetta.
Sempre che sta roba sia vera ovviamente.
albero77
13-12-2024, 11:45
Significherebbe che, nuovamente, l'unica scheda con un senso sarebbe la 5090 risptto alla serie 4000. Che però il sor giacchetta nera ti farà pagare entrambi i reni. Per il resto, ci vediamo alla serie 6000.
La 5080 fosse così non sarebbe minimamente appetibile, almeno non per chi ha la 4090.
Considerando che la 90 era presa dalla 70 nelle pregresse serie, direi che è un nuovo passo nella politica di riposizionamento all'indietro delle fasce a fronte dell'aumento di prezzo da parte del sor giacchetta.
Sempre che sta roba sia vera ovviamente.
la cosa strana è che a questo punto doveva esserci già qualcosa in più di semplici leaks o rumors...se non mettono sul piatto qualcosa di grosso a parte i soliti chi li spende 2k+?!!il dlss4 a me non basta più
In effetti non nego che visto che in questi giorni devo andare a ritirare la ps5 pro sto valutando l'idea di farmi un anno con quella e poi vedere se esce una 5080 super/ti con 24 giga di RAM. D'altro canto la tentazione di poter giocare andando giù pesante di ray tracing o magari path tracing è forte ed è tutto da dimostrare che quando usciranno i benchmark a gennaio sarà facile resistere.
Sicuramente chi ha una 4000 non sbaglia a tenersela a meno di passare a una fascia superiore o ricavare un sacco di soldi vendendo la scheda di seconda mano.
Significherebbe che, nuovamente, l'unica scheda con un senso sarebbe la 5090 risptto alla serie 4000
Leggo +60/70% sulla 4090 :cool:
Banner promozionale di NVIDIA per il CES....
https://i.ibb.co/LJ9hMHx/NVIDIA-RTX-50-2000x1040-1.jpg
ho come l'impressione che quel "Powering Advanced AI" abbia molto a che fare con il futuro DLSS4
marbasso
13-12-2024, 12:44
Leggo +60/70% sulla 4090 :cool:
Roba da Star Trek.......
scorpion73
13-12-2024, 13:13
Banner promozionale di NVIDIA per il CES....
https://i.ibb.co/LJ9hMHx/NVIDIA-RTX-50-2000x1040-1.jpg
ho come l'impressione che quel "Powering Advanced AI" abbia molto a che fare con il futuro DLSS4
Con quel 50 stilizzato nel mezzo poi... path tracing via dlss?? onestaente ve lo dico, se fossero solo le altre tech, quelle dell'interazione con i personaggi, l'hype, che già non è a bomba di suo, scenderebbe a -40
scorpion73
13-12-2024, 13:14
Leggo +60/70% sulla 4090 :cool:
Si, la 5090 però... per questo dico che sarebbe l'unica con un senso.
La 5080 pareggerebbe nei fatti la 4090 o giù di lì, quindi in questo caso, almeno per me, non porterebbe affatto alcun hype.
Sarebbe un sidegrade con meno ram....
Iceman69
13-12-2024, 14:56
Ma è confermato che a gennaio arrivano le nuove schede? Perché di solito nel mese precedente la commercializzazione circolano molte più notizie e immagini (vere o inventate che siano).
A questo giro solo ipotesi che già si sanno da mesi ... sono stati più bravi a tenere tutto nascosto.
Ma è confermato che a gennaio arrivano le nuove schede? Perché di solito nel mese precedente la commercializzazione circolano molte più notizie e immagini (vere o inventate che siano).
A questo giro solo ipotesi che già si sanno da mesi ... sono stati più bravi a tenere tutto nascosto.
Hanno fatto un banner con scritto "GeForce at CES 2025" con un 50 disegnato in mezzo, direi che basta come conferma :asd:
Iceman69
13-12-2024, 15:18
Hanno fatto un banner con scritto "GeForce at CES 2025" con un 50 disegnato in mezzo, direi che basta come conferma :asd:
Sì, in effetti, ricevuta anche io ora la mail ...
Alodesign
13-12-2024, 15:22
Sì, in effetti, ricevuta anche io ora la mail ...
Quale sarà la disponibilità iniziale? All'ultimo giro non c'era stato il problema delle poche scorte?
Quale sarà la disponibilità iniziale? All'ultimo giro non c'era stato il problema delle poche scorte?
Boh e chi lo sa. C'è solo da sperare che a sto giro vada meglio
mikael84
13-12-2024, 18:11
Li chiamano "leaks" per un motivo
Certo, ed hai fatto bene a riportarlo, però sottolineavo il fatto di dargli la relativa importanza.
Al momento, non si ha una bozza di microarchitettura, di clock, viene davvero difficile stimare una previsione.
Con ADA, in questo periodo (fase bios), trapelavano già i 3dmark.
Quale sarà la disponibilità iniziale? All'ultimo giro non c'era stato il problema delle poche scorte?
Più che altro, la 5090 avrà rese disastrose, quasi 60 4090 vs 36-37 5090 per wafer. Quindi potrebbe esserci più carenza. Salvo non dedichi quasi il doppio di wafer per tale chip.
Quale sarà la disponibilità iniziale? All'ultimo giro non c'era stato il problema delle poche scorte?
50 si riferisce ovviamente ai pezzi di 5090 disponibili al lancio.
Iceman69
13-12-2024, 19:42
Certo, ed hai fatto bene a riportarlo, però sottolineavo il fatto di dargli la relativa importanza.
Al momento, non si ha una bozza di microarchitettura, di clock, viene davvero difficile stimare una previsione.
Con ADA, in questo periodo (fase bios), trapelavano già i 3dmark.
Più che altro, la 5090 avrà rese disastrose, quasi 60 4090 vs 36-37 5090 per wafer. Quindi potrebbe esserci più carenza. Salvo non dedichi quasi il doppio di wafer per tale chip.
Io spero che la presentino con 4 mesi di ritardo rispetto al solito perché così riescono ad averne un numero decente al lancio (ma ovviamente sono un illuso).
Comunque sono molto stupito che non ci sia un maggior numero notizie sulle prestazioni ecc... strano no?
EddieTheHead
13-12-2024, 20:03
50 si riferisce ovviamente ai pezzi di 5090 disponibili al lancio.
pensavo agli anni del mutuo
mikael84
13-12-2024, 21:10
Io spero che la presentino con 4 mesi di ritardo rispetto al solito perché così riescono ad averne un numero decente al lancio (ma ovviamente sono un illuso).
Comunque sono molto stupito che non ci sia un maggior numero notizie sulle prestazioni ecc... strano no?
Si, purtroppo a sto giro c'è molto silenzio, e siamo ad appena 3 settimane dalla presentazione.
E' pur vero che i prezzi, ed il DLSS3, ce li ha riferiti lui, però avevamo già fughe su clock, 3dmark ipotetico, e confermato quasi un mese prima, oltre che specifiche più dettagliate. Abbiamo passato l'estate a formulare la potenza prevvista.
La 4090 entrò in produzione di massa intorno il 20-25 agosto 2022, con presentazione per il 20 settembre. Qua a - 3 settimane dalla presentazione, non sappiamo neppure se sia entrata in produzione.
A sto giro fanno come quelli di rockstar con GTA VI, magari è solo una strategia per aumentare l'hype anche se poi in realtà è solo frustrante e basta. In ogni caso ormai manca pochissimo all'annuncio quindi fa poca differenza se trapelano o meno dati reali in questi ultimi giorni
LurenZ87
14-12-2024, 10:18
Secondo voi quale sarebbe la massima vga da abbinare ad un 5800x3D a 1440p??? Visto la sola presa sul mercatino, a sto giro voglio comprarla nuova di pacca, su Amazon o sul sito di Nvidia.
Inviato dal mio S24 Snapdragon utilizzando Tapatalk
Si, purtroppo a sto giro c'è molto silenzio, e siamo ad appena 3 settimane dalla presentazione.
E' pur vero che i prezzi, ed il DLSS3, ce li ha riferiti lui, però avevamo già fughe su clock, 3dmark ipotetico, e confermato quasi un mese prima, oltre che specifiche più dettagliate. Abbiamo passato l'estate a formulare la potenza prevvista.
La 4090 entrò in produzione di massa intorno il 20-25 agosto 2022, con presentazione per il 20 settembre. Qua a - 3 settimane dalla presentazione, non sappiamo neppure se sia entrata in produzione.
Pensando male, probabilmente tengono tutto in silenzio per non avere critiche sulla 5080, magari cercano veramente di ripropinare il giochino tentato con la 4080 12gb.
carloUba
14-12-2024, 11:21
Secondo voi quale sarebbe la massima vga da abbinare ad un 5800x3D a 1440p??? Visto la sola presa sul mercatino, a sto giro voglio comprarla nuova di pacca, su Amazon o sul sito di Nvidia.
Inviato dal mio S24 Snapdragon utilizzando Tapatalk
Io avevo la 4090, nessun problema. Salvo particolari allineamenti astrali sfavorevoli prenderò 5090 o 5080.
LurenZ87
14-12-2024, 12:11
Io avevo la 4090, nessun problema. Salvo particolari allineamenti astrali sfavorevoli prenderò 5090 o 5080.Ok, grazie, allora punterò sulla 5080 :)
Inviato dal mio S24 Snapdragon utilizzando Tapatalk
Secondo me Nvidia vuole solo limitare i leaks rispetto al lancio di ADA. Non ci saranno ritardi anche considerando che gli sviluppatori di videogiochi hanno le 5000 già a disposizione visto che il trailer di The witcher 4 (spettacolo!!!) presentato di recente girava su una 5000 (presumibilmente una 5090)
amon.akira
14-12-2024, 12:26
Secondo me Nvidia vuole solo limitare i leaks rispetto al lancio di ADA. Non ci saranno ritardi anche considerando che gli sviluppatori di videogiochi hanno le 5000 già a disposizione visto che il trailer di The witcher 4 (spettacolo!!!) presentato di recente girava su una 5000 (presumibilmente una 5090)
pre renderizzato su una 5000 per essere precisi, quindi no realtime :)
Si, la 5090 però... per questo dico che sarebbe l'unica con un senso.
La 5080 pareggerebbe nei fatti la 4090 o giù di lì, quindi in questo caso, almeno per me, non porterebbe affatto alcun hype.
Sarebbe un sidegrade con meno ram....
Per chi ha una 4090 la 5080 infatti non serve a un ciuffolo, chi ha la 4090 prende 5090 o niente.
Ma immagina tutti quelli che aspettano prestazioni 4090 Like al prezzo della 4080 :D :D Nooo niente Hype nono..
Comunque le schede secondo me sono già tutte belle pronte ed in volumi, io ho programmato ferie per il 7 ed il 14 gennaio, F5 a gogo e carta pronta.
mikael84
14-12-2024, 12:58
Pensando male, probabilmente tengono tutto in silenzio per non avere critiche sulla 5080, magari cercano veramente di ripropinare il giochino tentato con la 4080 12gb.
Le avranno, in quanto la 5080 sarà bollata come 5070/ti, la differenza tra le 2 è troppo elevata.
amon.akira
14-12-2024, 13:15
Le avranno, in quanto la 5080 sarà bollata come 5070/ti, la differenza tra le 2 è troppo elevata.
colmeranno subito con una bella 5080ti nel mezzo :D
Mi porto avanti e faccio una domanda:
ipotizzando di utilizzare la mia piattaforma in firma, magari con un upgrade della CPU a 5700X3D, una 5080 ci potrebbe stare bene?
Gioco @1440p con probabile upgrade ad un 34" UW
Per me questo silenzio profondo non promette niente di buono, prevedo che a presentazione finita ci saranno dei punti che non andranno per niente bene.
Va bene preservare le informazioni ma se hai il vino buono buono lo dici in qualche maniera.
marbasso
14-12-2024, 13:52
Per me questo silenzio profondo non promette niente di buono, prevedo che a presentazione finita ci saranno dei punti che non andranno per niente bene.
Va bene preservare le informazioni ma se hai il vino buono buono lo dici in qualche maniera.
Mancano 3 settimane
Cutter90
14-12-2024, 14:24
Mi porto avanti e faccio una domanda:
ipotizzando di utilizzare la mia piattaforma in firma, magari con un upgrade della CPU a 5700X3D, una 5080 ci potrebbe stare bene?
Gioco @1440p con probabile upgrade ad un 34" UW
Dipende dai giochi che fai e da quanti fps vuoi. Se la 5080 va come la 4090 sei al limite con quella cpu
[QUOTE=Maury;48672499]Va bene preservare le informazioni ma se hai il vino buono buono lo dici in qualche maniera.[/QUOTE
Prima uscivano le informazioni per far vedere alla concorrenza la forza bruta ora che AMD ha gettato la spugna mesi prima se la prende comoda.
Per chi ha una 4090 la 5080 infatti non serve a un ciuffolo, chi ha la 4090 prende 5090 o niente.
Ma immagina tutti quelli che aspettano prestazioni 4090 Like al prezzo della 4080 :D :D Nooo niente Hype nono..
Comunque le schede secondo me sono già tutte belle pronte ed in volumi, io ho programmato ferie per il 7 ed il 14 gennaio, F5 a gogo e carta pronta.
secondo me ti arriva la mail come la volta scorsa tipo prelazione
redbaron
14-12-2024, 14:48
Per me questo silenzio profondo non promette niente di buono, prevedo che a presentazione finita ci saranno dei punti che non andranno per niente bene.
Va bene preservare le informazioni ma se hai il vino buono buono lo dici in qualche maniera.
Nvidia non ha nessuna concorrenza , che il vino sia buono buono lo sanno tutti non c'e' bisogno di pubblicizzarlo.
Quello che manca veramente sono i vari leak ma visto che qualche sw house le ha gia' in mano direi che possiamo stare relativamente tranquilli.
Alodesign
14-12-2024, 14:50
[QUOTE=Maury;48672499]Va bene preservare le informazioni ma se hai il vino buono buono lo dici in qualche maniera.[/QUOTE
Prima uscivano le informazioni per far vedere alla concorrenza la forza bruta ora che AMD ha gettato la spugna mesi prima se la prende comoda.
Eh certo, perché la concorrenza ha bisogno di aspettare come un utonto di HWUpgrade per conoscere le "armi del nemico!".
secondo me ti arriva la mail come la volta scorsa tipo prelazione
Guarda ci conto e non poco! Speriamo, almeno l'acquisto senza patemi direttamente dal divano :D
Il vino buono dev'essere al nostro palato, che lo sia per nVidia non ho dubbi.
Vediamo alla degustazione chi gode :)
scorpion73
14-12-2024, 16:35
Per chi ha una 4090 la 5080 infatti non serve a un ciuffolo, chi ha la 4090 prende 5090 o niente.
Ma immagina tutti quelli che aspettano prestazioni 4090 Like al prezzo della 4080 :D :D Nooo niente Hype nono..
Comunque le schede secondo me sono già tutte belle pronte ed in volumi, io ho programmato ferie per il 7 ed il 14 gennaio, F5 a gogo e carta pronta.
Chi ha una 4080 può puntare a una 5080, bisogna vedere quanto costa e soprattutto in quanti l'hanno presa la 4080 al dayone sul PC principale, visto il prezzo folle che aveva.. A parte coloro che si so venduti la 4090 per prendere la 4080 super in attesa della 5090 ovviamente, perché questi ultimi punteranno probabilmente a quella. E quelli che ce l'hanno sul secondo PC, che non credo spenderanno soldi per un upgrade.
Per il resto, sei libero di pagare anche 6000 euro la VGA se vuoi... paga pure tanto chi compra a prescindere ci sarà sempre ed è su queste persone che conta il buon dark jackett...
[QUOTE=jaja36;48672529]
Eh certo, perché la concorrenza ha bisogno di aspettare come un utonto di HWUpgrade per conoscere le "armi del nemico!".
Utonto o no prima si sapeva come era fatta in toto e poi ci sono i depistaggi. Mi sa che ti sei fermato ai tempi della guerra fredda.
Chi ha una 4080 può puntare a una 5080, bisogna vedere quanto costa e soprattutto in quanti l'hanno presa la 4080 al dayone sul PC principale, visto il prezzo folle che aveva.. A parte coloro che si so venduti la 4090 per prendere la 4080 super in attesa della 5090 ovviamente, perché questi ultimi punteranno probabilmente a quella. E quelli che ce l'hanno sul secondo PC, che non credo spenderanno soldi per un upgrade.
Non penso che nessuno sano di mente si venda la 4090 per ricomprarsi una 4080 nell'attesa, quando con 20 euro te la noleggi su GeForce Now ;).
Poi per cosa? Per comprarsi nuovamente una simil 4090 con meno Vram.
Ma per favore.
OrazioOC
14-12-2024, 18:01
https://videocardz.com/newz/geforce-rtx-5070-ti-reportedly-features-16gb-gddr7-memory-and-gb203-300-gpu
Se avesse avuto 12gb di vram andavo nel loro HQ per menarli uno per uno. :)
StylezZz`
14-12-2024, 18:22
Se avesse avuto 12gb di vram andavo nel loro HQ per menarli uno per uno. :)
Però la liscia molto probabilmente ne avrà 12GB, quindi meriterebbero lo stesso di essere menati.
OrazioOC
14-12-2024, 18:30
Però la liscia molto probabilmente ne avrà 12GB, quindi meriterebbero lo stesso di essere menati.
Le cinghiate dovrebbero arrivare anche in caso di 5060 ti con 8gb di vram, li si che spero non facciano i tirchi. :doh:
scorpion73
14-12-2024, 18:36
Non penso che nessuno sano di mente si venda la 4090 per ricomprarsi una 4080 nell'attesa, quando con 20 euro te la noleggi su GeForce Now ;).
Poi per cosa? Per comprarsi nuovamente una simil 4090 con meno Vram.
Ma per favore.
Prova a dirlo a Predator che lo ha fatto, e non è il solo.
Inoltre se almeno leggessi quello che scrivo ho scritto che era una mossa per guadagnare dalla 4090 in attesa della 5090, non certo della 5080.
Può non essere una mossa condivisa ma qualcuno ha deciso comunque di farla.
scorpion73
14-12-2024, 18:39
https://videocardz.com/newz/geforce-rtx-5070-ti-reportedly-features-16gb-gddr7-memory-and-gb203-300-gpu
Se avesse avuto 12gb di vram andavo nel loro HQ per menarli uno per uno. :)
Quella è basata sul 203 quindi è di fatto più simile alla 4070ti super che alla 4070ti originaria.
Quindi è facile che abbia 16gb avendo bus a 256bit e non a 192bit
OrazioOC
14-12-2024, 18:41
Quella è basata sul 203 quindi è di fatto più simile alla 4070ti super che alla 4070ti originaria.
Quindi è facile che abbia 16gb avendo bus a 256bit e non a 192bit
Eh ma il mister Jensen è noto per tagliuzzare anche i bus, è un attimo che diventasse una 12gb/192 bit. :)
Non è solo questione di vram, ma anche di badwith ridotta che darebbe origine ad un ammacco da considerare.
Cutter90
14-12-2024, 19:34
Prova a dirlo a Predator che lo ha fatto, e non è il solo.
Inoltre se almeno leggessi quello che scrivo ho scritto che era una mossa per guadagnare dalla 4090 in attesa della 5090, non certo della 5080.
Può non essere una mossa condivisa ma qualcuno ha deciso comunque di farla.
Una mossa del genere, al di là di un notevole e inutile sbattimento per guadagnare forse qualche centello, andando ad acquistare 3 schede nuove, foraggiando la follia sui prezzi, significa fare la cresta quando già si stanno spendendo migliaia di euro.
Come comprare una Ferrari e poi frasi 15 km per andare al distributore dove la benzina costa 0,05 centesimi in meno
Il fatto che qualcuno faccia certe scelte mica vuol dire che sia la strada da seguire.
Cmq, vedremo
Ale55andr0
14-12-2024, 21:03
Le cinghiate dovrebbero arrivare anche in caso di 5060 ti con 8gb di vram, li si che spero non facciano i tirchi. :doh:
le cinghiate dovrebbero anche arrivare in caso di banda passante della 5080=5070ti...
bronzodiriace
14-12-2024, 21:39
Secondo me Nvidia vuole solo limitare i leaks rispetto al lancio di ADA. Non ci saranno ritardi anche considerando che gli sviluppatori di videogiochi hanno le 5000 già a disposizione visto che il trailer di The witcher 4 (spettacolo!!!) presentato di recente girava su una 5000 (presumibilmente una 5090)Può girare anche su un fermacarte, non c'è nulla in game.
mikael84
14-12-2024, 21:52
Eh ma il mister Jensen è noto per tagliuzzare anche i bus, è un attimo che diventasse una 12gb/192 bit. :)
Non è solo questione di vram, ma anche di badwith ridotta che darebbe origine ad un ammacco da considerare.
Si limiterà a mutilare la cache, portandola a 48mb vs 64mb, oltre le memorie che da 32 (previsti solo sulla x80), scendono a 28 (stesso lavoro effettuato sulla 4070 TIS).
Inoltre per scendere a 12gb, dovrebbe levare ben 64bit. Senza la cache, magari sarebbe sceso a 14.
Alodesign
15-12-2024, 00:42
Prova a dirlo a Predator che lo ha fatto, e non è il solo.
Inoltre se almeno leggessi quello che scrivo ho scritto che era una mossa per guadagnare dalla 4090 in attesa della 5090, non certo della 5080.
Può non essere una mossa condivisa ma qualcuno ha deciso comunque di farla.
Può essere utile solo se l'hai comprata a 1500 e rivenduta a 1600 euro due anni dopo.
Comunque io vedo i mercatini molto fermi. Non ne frequento molti e forse sono quelli sbagliati, ma c'è poca roba.
nagashadow
15-12-2024, 07:36
Si è molto fermo il mercato…anche su subito poca roba….si trovano giusto qualche FE sparate a 1900
scorpion73
15-12-2024, 07:42
Una mossa del genere, al di là di un notevole e inutile sbattimento per guadagnare forse qualche centello, andando ad acquistare 3 schede nuove, foraggiando la follia sui prezzi, significa fare la cresta quando già si stanno spendendo migliaia di euro.
Come comprare una Ferrari e poi frasi 15 km per andare al distributore dove la benzina costa 0,05 centesimi in meno
Il fatto che qualcuno faccia certe scelte mica vuol dire che sia la strada da seguire.
Cmq, vedremo
Io sono pienamente d’accordo con te, infatti è una mossa che non ho fatto e non condivido.
Ma il fulcro del mio discorso non era quello: avevo portato questo esempio solo per dire che non tutti quelli che hanno una 4080 punteranno alla 5080 perché la 4080 al day one fu presa da poca gente. E chi l’ha presa dopo può averla presa o per questa strategia o per un secondo pc, quindi in entrambi i casi non punterebbe alla 5080.
Poi certo c’è anche chi l’ha presa e dal cambio ci vede un update onesto ma quanti sono questi utenti? Secondo me non molti: la maggior parte punterebbe alla 5090, con tutto il casino del prezzo associato.
OrazioOC
15-12-2024, 09:15
le cinghiate dovrebbero anche arrivare in caso di banda passante della 5080=5070ti...
Si limiterà a mutilare la cache, portandola a 48mb vs 64mb, oltre le memorie che da 32 (previsti solo sulla x80), scendono a 28 (stesso lavoro effettuato sulla 4070 TIS).
Inoltre per scendere a 12gb, dovrebbe levare ben 64bit. Senza la cache, magari sarebbe sceso a 14.
This. :read:
In sostanza stesso scenario 4080 super vs 4070 ti super...
la maggior parte punterebbe alla 5090, con tutto il casino del prezzo associato.
Ora resta solo da vedere se davvero la gente è disposta a spendere la grossa cifra di cui si parla per la 5090, sono proprio curioso di sapere per quanto tempo resterà disponibile sul sito Nvidia la 5090 visto che la 4090, che costava molto meno, durò al dayone una buona decina di minuti e non ebbi nessuna difficoltà ad acquistarla, vedremo...
Ora resta solo da vedere se davvero la gente è disposta a spendere la grossa cifra di cui si parla per la 5090, sono proprio curioso di sapere per quanto tempo resterà disponibile sul sito Nvidia la 5090 visto che la 4090, che costava molto meno, durò al dayone una buona decina di minuti e non ebbi nessuna difficoltà ad acquistarla, vedremo...
Probabilmente succederà la stessa cosa, anzi la 5090 durerà 5 minuti. Alla fine mi sa che sarò costretto a virare su una custom :rolleyes:
Io sono pienamente daccordo con te, infatti è una mossa che non ho fatto e non condivido.
Ma il fulcro del mio discorso non era quello: avevo portato questo esempio solo per dire che non tutti quelli che hanno una 4080 punteranno alla 5080 perché la 4080 al day one fu presa da poca gente. E chi lha presa dopo può averla presa o per questa strategia o per un secondo pc, quindi in entrambi i casi non punterebbe alla 5080.
Poi certo cè anche chi lha presa e dal cambio ci vede un update onesto ma quanti sono questi utenti? Secondo me non molti: la maggior parte punterebbe alla 5090, con tutto il casino del prezzo associato.All'esordio il prezzo di 4080 era osceno, le uniche sku passabili erano le 4070 e 4090, tutto ciò nel mezzo e sotto la 4070 era prezzato malissimo...
Onestamente non é strano che sia stata snobbata, un po' meglio la situazione con l'introduzione delle super ma neanche tanto.
Inviato dal mio M2012K11AG utilizzando Tapatalk
Cutter90
15-12-2024, 11:19
Io sono pienamente d’accordo con te, infatti è una mossa che non ho fatto e non condivido.
Ma il fulcro del mio discorso non era quello: avevo portato questo esempio solo per dire che non tutti quelli che hanno una 4080 punteranno alla 5080 perché la 4080 al day one fu presa da poca gente. E chi l’ha presa dopo può averla presa o per questa strategia o per un secondo pc, quindi in entrambi i casi non punterebbe alla 5080.
Poi certo c’è anche chi l’ha presa e dal cambio ci vede un update onesto ma quanti sono questi utenti? Secondo me non molti: la maggior parte punterebbe alla 5090, con tutto il casino del prezzo associato.
Si ma chi ha preso la 4080 c'è caso che... si tenga anche la 4080 no?
Cioè qua sembra che tutti siano "obbligati" a cambiare gpu.
Bisogna intanto vedere cosa offre la serie 5000. In base a quello si saprà se e quando conviene cambiare. Lasciamo stare l utenza che cambia perché vuole avere il top (a patto di sfruttarlo) e quelli che fanno bench (cosa che non capisco, ma va beh), tutti gli altri devono valutare in base alle loro esigenze.
Io sogno un giorno in cui il pc gaming possa tornare ad essere più di nicchia come 15 anni fa in cui gli acquisti veniva fatto "a segno". Si aveva più consapevolezza e competenza nel mondo pc. Ma va beh, storia vecchia.
Io voglio solo vedere la 5090 cosa offrirà rispetto alla mia situazione di gaming.
amon.akira
15-12-2024, 12:02
Si ma chi ha preso la 4080 c'è caso che... si tenga anche la 4080 no?
Cioè qua sembra che tutti siano "obbligati" a cambiare gpu.
Bisogna intanto vedere cosa offre la serie 5000. In base a quello si saprà se e quando conviene cambiare. Lasciamo stare l utenza che cambia perché vuole avere il top (a patto di sfruttarlo) e quelli che fanno bench (cosa che non capisco, ma va beh), tutti gli altri devono valutare in base alle loro esigenze.
Io sogno un giorno in cui il pc gaming possa tornare ad essere più di nicchia come 15 anni fa in cui gli acquisti veniva fatto "a segno". Si aveva più consapevolezza e competenza nel mondo pc. Ma va beh, storia vecchia.
Io voglio solo vedere la 5090 cosa offrirà rispetto alla mia situazione di gaming.
si tolte le raw perf, il resto saranno tech che poi dovranno essere implementate nei titoli e si sa che per queste cose poi ci vuole tempo e va a finire alla gen successiva almeno.
scorpion73
15-12-2024, 13:06
Si ma chi ha preso la 4080 c'è caso che... si tenga anche la 4080 no?
Cioè qua sembra che tutti siano "obbligati" a cambiare gpu.
Bisogna intanto vedere cosa offre la serie 5000. In base a quello si saprà se e quando conviene cambiare. Lasciamo stare l utenza che cambia perché vuole avere il top (a patto di sfruttarlo) e quelli che fanno bench (cosa che non capisco, ma va beh), tutti gli altri devono valutare in base alle loro esigenze.
Io sogno un giorno in cui il pc gaming possa tornare ad essere più di nicchia come 15 anni fa in cui gli acquisti veniva fatto "a segno". Si aveva più consapevolezza e competenza nel mondo pc. Ma va beh, storia vecchia.
Io voglio solo vedere la 5090 cosa offrirà rispetto alla mia situazione di gaming.
Condivido anche questo, non potrei essere più d'accordo.
Io per quanto mi riguarda prima di cambiare valuterò molto bene prezzo, consumi e convenienze perché con la mia gioco perfettamente a tutto.
Sinceramente di rispendere 2400 carte per una VGA non sono a sto giro così entusiasta eh e la 5080 da come vedo è un sidegrade per cui non conviene.
Le tech come dice giustamente amon ci mettono per essere usate, per cui anche su quelle va fatto comunque un ragionamento.
Comunque a presentazione avvenuta valuterò con i dati reali alla mano e poi decido se fare qualcosa e in caso cosa fare.
micronauta1981
15-12-2024, 13:31
Mi sono portato avanti,arrivato l' nzxt c1500 atx3.1..ora manca solo la 5090 😂😂😂😂
marbasso
15-12-2024, 15:58
Mi sono portato avanti,arrivato l' nzxt c1500 atx3.1..ora manca solo la 5090 😂😂😂😂
Ottima scelta.
Mi sfugge il senso di un 1500w anche per una 5090 onestamente. Probabilmente pure un 1000w sarà più che sufficiente
Mi sfugge il senso di un 1500w anche per una 5090 onestamente. Probabilmente pure un 1000w sarà più che sufficiente
Togli pure il probabilmente :D :D :D .
marbasso
15-12-2024, 17:37
Togli pure il probabilmente :D :D :D .
:rolleyes:
Cutter90
15-12-2024, 17:43
Mi sono portato avanti,arrivato l' nzxt c1500 atx3.1..ora manca solo la 5090 😂😂😂😂
Ottima scelta.
Ecco, precisamente i discorsi che facevo poco sopra. Acquisti a caso, solo dettati dalla voglia e dalla possibilità economica.
Ma ottima scelta per cosa? Ma vi piace così tanto buttare soldi e foraggiare un mercato del genere? Lo capite che ci rimettono tutti così?
Mah
Mi sfugge il senso di un 1500w anche per una 5090 onestamente. Probabilmente pure un 1000w sarà più che sufficiente
Dipende, se la scheda tira i 600w+tutto il resto del pc+magari un oc, se vuoi stare intorno al 50% per l'efficienza facendo lavorare l'alimentatore "a riposo" ha senso anche un 1300-1500. Sicuramente, io avrei aspettato che fosse uscita la scheda per sapere dove andare a parare, quello sì.
Ecco, precisamente i discorsi che facevo poco sopra. Acquisti a caso, solo dettati dalla voglia e dalla possibilità economica.
Ma ottima scelta per cosa? Ma vi piace così tanto buttare soldi e foraggiare un mercato del genere? Lo capite che ci rimettono tutti così?
Mah
D'accordissimo. Premesso che ognuno coi propri euro ci fa quello che vuole, però si potrebbe capire anche che c'è gente fa dei sacrifici per soddisfare la propria passione e magari per rispetto non facciamo sempre quelli che "ce l'hanno più lungo" per una roba che poi è sicuramente superflua per le caratteristiche delle nuove VGA
:rolleyes:
Mica ho capito questa faccina:confused: :confused:
Che volevi dire?
Se era perplessità te la tolgo subito perchè è confermato dai produttori che la 5090 sarà alimentata da un solo attacco 16 pin, ciò vuol dire che con un buon 1000 W vai supertranquillo.
marbasso
15-12-2024, 18:12
Ecco, precisamente i discorsi che facevo poco sopra. Acquisti a caso, solo dettati dalla voglia e dalla possibilità economica.
Ma ottima scelta per cosa? Ma vi piace così tanto buttare soldi e foraggiare un mercato del genere? Lo capite che ci rimettono tutti così?
Mah
Ecco come al solito non ti fai mai gli affari tuoi andando a commentare questioni che probabilmente neanche conosci.
Ha fatto benissimo, il c1500 è la miglior piattaforma al momento disponibile presso CWT, oltre a ciò è ulteriormente modificata sotto richiesta da NZXT, performance eccellenti, otre ad una ottima efficienza.
Le psu non sono + quelle di una volta , tanto più quando hanno le spec 3.0 e ancor di + ovviamente (ci sarebbe da discurere) 3.1 e 5.1.
Questa psu 3.1 ha anche i connettori (2) 12v-2x6, che volente o nolente vanno a nozze con le 50 che usciranno (avranno anche loro il connettore 12v-2x6.
Detto ciò, personalmente uso un 1600, perchè quando gioco in oc ho un consumo di circa 750w (quando bencho ovviamente non guardo all' efficienza sarebbe pazzia, ma il bench è gran parte del mio divertimento col pc). Ora, guarda l' efficienza delle psu odierne al 45/50% di potenza. Hanno l' efficienza maggiore.
Va bene il mio Leadex 1600 titanium 3.1 col +95% di efficienza a 750w e l' altro mio ax1600i con il 97.3% di efficienza sempre a 750w.
Ora sai di quanti punti scende ad esempio su una psu da 1000w quando ne usi 750/800....scendi a 90/91.
E se a te non interessa a me si altrimenti avrei lesinato con altro.
Salfox non metterlo in mezzo perchè a lui basterebbero 650w, col la cpu a stock e la 4090 a 60hz.
Le tue scelte non sono sempre le migliori e mettiti in testa che non hai l' oro in bocca.
Esistono motivazioni che vanno al di la delle idee complottistiche, talvolta tecniche.
E di alimentatori posso parlarne per ore.
Dipende, se la scheda tira i 600w+tutto il resto del pc+magari un oc, se vuoi stare intorno al 50% per l'efficienza facendo lavorare l'alimentatore "a riposo" ha senso anche un 1300-1500. Sicuramente, io avrei aspettato che fosse uscita la scheda per sapere dove andare a parare, quello sì.
Secondo me sta storia dei 600w è una mezza bufala, ma vedremo
D'accordissimo. Premesso che ognuno coi propri euro ci fa quello che vuole, però si potrebbe capire anche che c'è gente fa dei sacrifici per soddisfare la propria passione e magari per rispetto non facciamo sempre quelli che "ce l'hanno più lungo" per una roba che poi è sicuramente superflua per le caratteristiche delle nuove VGA
Ma non si tratta di rispetto, ognuno spende i soldi come vuole punto e basta. Non è quello il problema, è che semplicemente mi sale il cringe nel leggere che acquisti di questo tipo sono ottimi acquisti tutto qua. Per me ti puoi prendere pure un alimentatore da 2000w se nella tua testa ti fa stare tranquillo, ma non venirmi a dire che è un acquisto sensato :asd:
marbasso
15-12-2024, 18:14
Mica ho capito questa faccina:confused: :confused:
Che volevi dire?
Se era perplessità te la tolgo subito perchè è confermato dai produttori che la 5090 sarà alimentata da un solo attacco 16 pin, ciò vuol dire che con un buon 1000 W vai supertranquillo.
Non c' entra una mazza.
Io in bench supero i 1000w.
In gioco sui 750/800.
Tu x me impostato come sei, e l' ho scritto sopra, per me non arrivi a 450 con tt il sistema, ci gioco le mutande.
Quindi tu saresti super tranquillo anche con un 650w Vultek.
marbasso
15-12-2024, 18:15
Secondo me sta storia dei 600w è una mezza bufala, ma vedremo
Ma non si tratta di rispetto, ognuno spende i soldi come vuole punto e basta. Non è quello il problema, è che semplicemente mi sale il cringe nel leggere che acquisti di questo tipo sono ottimi acquisti tutto qua. Per me ti puoi prendere pure un alimentatore da 2000w se nella tua testa ti fa stare tranquillo, ma non venirmi a dire che è un acquisto sensato :asd:
No è un acquisto eccellente al prezzo che si trova ora, 280 euro, perchè è il miglior alimentatore del 2024 prezzo/performance/qualità costruttiva/componenti/packaging.
NON C'è storia
marbasso
15-12-2024, 18:20
https://i.postimg.cc/6QHQM2x2/Screenshot-15.png
Salcomp non lo trovi, ax1600i guarda quanto costa.
A 280 euro scontato il C1500 è oro in tutto e soprattutto future proof, ed a parte che è venduto come un platinum per abbattere il prezzo ma è a tutti gli effetti un ottimo titanium.
Combatto ogni giorno per fermarmi dal prenderne uno....ma credo che cederò ad anno nuovo.
A meno che non esca una fantomatica nuova piattaforma Channel Well Technology a breve....ma tutta da vedere.
No è un acquisto eccellente al prezzo che si trova ora, 280 euro, perchè è il miglior alimentatore del 2024 prezzo/performance/qualità costruttiva/componenti/packaging.
NON C'è storia
Non sto dicendo che non sia un ottimo alimentatore, sto dicendo che comprarlo in ottica di una 5090 è inutile. Poi ripeto ognuno faccia quello che vuole
marbasso
15-12-2024, 18:29
Non sto dicendo che non sia un ottimo alimentatore, sto dicendo che comprarlo in ottica di una 5090 è inutile. Poi ripeto ognuno faccia quello che vuole
NO perchè mi si girano le balle, UN ALIMENTATORE BUONO E' A TUTTI GLI EFFETTI UN INVESTIMENTO per il proprio sistema.
E più sono recenti e più hanno feature globali molto migliori dei vecchi, dettate proprio dalle specifiche intel.
Un sistema con una 4090 da 3000/2500/2000 euro, non contando mobo,cpue ecc....con un alimentatore scrauso o economico come può essere un rm1000e....che dentro ha condensatori TEAPO ed ELITE e e mosfet GREAT POWER....ma dai......si studiano le cose e ci si informa prima di comprare.
Poi per carità, se prendi un 1000w ultima ruota del brand per la massa e lo usi al 45% della sua potenza ci può anche stare.
Ma non è per me.
Dipende se riescono a gestire picchi di potenza massicci che possono avere le vga dalla serie ampere in poi.
Che ne sai se la situazione con Blackwell è migliorata sotto questo aspetto o peggiorata.
Gli alimentatori entravano in crisi e si spegnevano per questo motivo.
Con le spec 3.0 non succede più in quanto devono reggere per un determinato tempo il doppio della loro potenza.
Ma poi ci sono tanti altri motivi che fanno un 3.0 molto migliore dei vecchi ali.
Hanno load regulation e ripple suppression minori, efficienze migliori, risposte ai transienti migliori, protezioni migliori.........ecc..ecc......ecc......ecc.....
BENVENGA chi investe oggi in un alimentatore serio e adatto alla realtà attuale.
Dipende se riescono a gestire picchi di potenza massicci che possono avere le vga dalla serie ampere in poi.
Che ne sai se la situazione con Blackwell è migliorata sotto questo aspetto o peggiorata.
Gli alimentatori entravano in crisi e si spegnevano per questo motivo.
Con le spec 3.0 non succede più in quanto devono reggere per un determinato tempo il doppio della loro potenza.
Ma poi ci sono tanti altri motivi che fanno un 3.0 molto migliore dei vecchi ali.
Hanno load regulation e ripple suppression minori, efficienze migliori, risposte ai transienti migliori, protezioni migliori.........ecc..ecc......ecc......ecc.....
Beh credo e spero che la situazione non possa che migliorare, d'altronde ci si aspetta questo dal progresso. Che poi il mio commento era solo riferito ai watt, io stesso ho preso un 3.1 con connettore 2x16 in vista delle 5000 ma onestamente non mi è nemmeno passato per la testa di spendere 100€ in più per un 1500w. A meno che non mi si venga a dire che le 5000 richiederanno un doppio connettore 2x16, ma qui siamo nel campo della fantascienza
Non c' entra una mazza.
Io in bench supero i 1000w.
In gioco sui 750/800.
Tu x me impostato come sei, e l' ho scritto sopra, per me non arrivi a 450 con tt il sistema, ci gioco le mutande.
Quindi tu saresti super tranquillo anche con un 650w Vultek.
Ciao Marbasso, mica volevo fare polemica, figurati ma con quella faccina volevi dire che una persona "normale" avrebbe comunque avuto bisogno di più di 1000W per alimentare la 5090 e ciò non è vero, capisco il tuo caso che ti porta a consumi esagerati ma anche in quel caso ti basterebbe lo stesso un 1000W considerando che il tuo discorso sull'efficienza varrebbe solo per quegli sporadici casi in cui benchi. Nell'uso normale (anche nel tuo caso) staresti come media sui 500W e saresti comunque nel range di efficienza massima di un buon 1000W.
Ecco, era solo una mia considerazione che anche tu a questo punto non potrai che condividere.
Considerazione finale sul mio uso della futura 5090 che prenderò sicuramente come ho già detto più volte non perchè realmente mi serva ma perchè è una mia passione e voglio avere nel mio computer la migliore VGA possibile.
marbasso
15-12-2024, 18:46
Beh credo e spero che la situazione non possa che migliorare, d'altronde ci si aspetta questo dal progresso. Che poi il mio commento era solo riferito ai watt, io stesso ho preso un 3.1 con connettore 2x16 in vista delle 5000 ma onestamente non mi è nemmeno passato per la testa di spendere 100€ in più per un 1500w. A meno che non mi si venga a dire che le 5000 richiederanno un doppio connettore 2x16, ma qui siamo nel campo della fantascienza
Non mi son spiegato bene allora.
una psu da 1500....la usi al 50% in game, lavorando, o come preferisci, hai una efficienza per ore del 94.24 nel caso proprio del c1500, sarà fresca e non farà casino la ventola.
Se tu prendi una psu da 750w come può essere il Seasonic Focus GX-750 V4 ATX v3.1, fresco fresco, e la usi al 100% nello stesso sistema, a parte che scalderà molto, farà molto rumore con la ventola, durerà meno ovviamente con una efficienza in load dell' 86.99...................
RENDO LA MIA IDEA ORA?
Tu pensa alla psu quando ti salutava qualche anno fa....si portava dietro altre periferiche quasi sempre.
Ricordo un anno mi bruciò vga e dischi rigidi...
marbasso
15-12-2024, 18:49
Ciao Marbasso, mica volevo fare polemica, figurati ma con quella faccina volevi dire che una persona "normale" avrebbe comunque avuto bisogno di più di 1000W per alimentare la 5090 e ciò non è vero, capisco il tuo caso che ti porta a consumi esagerati ma anche in quel caso ti basterebbe lo stesso un 1000W considerando che il tuo discorso sull'efficienza varrebbe solo per quegli sporadici casi in cui benchi. Nell'uso normale (anche nel tuo caso) staresti come media sui 500W e saresti comunque nel range di efficienza massima di un buon 1000W.
Ecco, era solo una mia considerazione che anche tu a questo punto non potrai che condividere.
Considerazione finale sul mio uso della futura 5090 che prenderò sicuramente come ho già detto più volte non perchè realmente mi serva ma perchè è una mia passione e voglio avere nel mio computer la migliore VGA possibile.
L' ho scritto sopra e anche sotto, in game in 4k io sto a 750w circa.
In bench supero i 1100w, arrivo a 1150 circa, salvo picchi sporadici.
Sulla 5090 come te voglio la miglior vga possibile anche io, ma per fare + fps però non per guardarmela SAL, e porco deo....
Non mi son spiegato bene allora.
una psu da 1500....la usi al 50% in game, lavorando, o come preferisci, hai una efficienza per ore del 94.24 nel caso proprio del c1500, sarà fresca e non farà casino la ventola.
Se tu prendi una psu da 750w come può essere il Seasonic Focus GX-750 V4 ATX v3.1, fresco fresco, e la usi al 100% nello stesso sistema, a parte che scalderà molto, farà molto rumore con la ventola, durerà meno ovviamente con una efficienza in load dell' 86.99...................
RENDO LA MIA IDEA ORA?
Tu pensa alla psu quando ti salutava qualche anno fa....si portava dietro altre periferiche quasi sempre.
Ricordo un anno mi bruciò vga e dischi rigidi...
Ma chi ha parlato di 750w? Ho detto appunto che già 1000w sarebbero più che sufficienti, ma poi continui a parlare di psu che si bruciano, siamo nel 2024 e sono ANNI che non sento più ste storie dell'orrore
Sulla 5090 come te voglio la miglior vga possibile anche io, ma per fare + fps però non per guardarmela SAL, e porco deo....
Io invece punto ai 60 fps fissi con Vsync con tutte le impostazioni al massimo come ho già detto, sarà anche per l'età, non vedo nessuna differenza quando supero i 60 fps, ho provato un'altra volta oggi pomeriggio su Forza motorsport e su Indiana Jones e confermo che preferisco di gran lunga 60 fps fissi con Vsync (per me importantissimo) che averne di più non stabili.
Ma chi ha parlato di 750w? Ho detto appunto che già 1000w sarebbero più che sufficienti, ma poi continui a parlare di psu che si bruciano, siamo nel 2024 e sono ANNI che non sento più ste storie dell'orrore
Confermo senza ombra di dubbio che se uno acquista alimentatori di ottime marche (Asus, Corsair, Seasonic etc.) può stare tranquillo che i componenti all'interno sono tutti di eccellente qualità e non ti esploderanno mai, tuttalpiù potrebbe verificarsi uno spegnimento del computer per l'intervento delle protezioni ma non ti danneggeranno mai gli altri componenti.
Legolas84
15-12-2024, 18:58
Io ho un Seasonic Prime atx 3.0 ma penso andrà comunque benissimo per la 5090. Non so che differenze ci siano con i nuovi 3.1..
Inviato dal mio iPhone utilizzando Tapatalk Pro
marbasso
15-12-2024, 18:59
Ma chi ha parlato di 750w? Ho detto appunto che già 1000w sarebbero più che sufficienti, ma poi continui a parlare di psu che si bruciano, siamo nel 2024 e sono ANNI che non sento più ste storie dell'orrore
Vai su reddit e guarda un pò di psu SEASONIC andate a male, tanto che quel marchio sta diventando un meme.
Non è che se non succede a te non succeda agli altri.
1000w al 75% con un bronze o gold stai sempre sugli 88%, per salire devi prendere un 1000 titanium, e lo paghi come il C1500.
marbasso
15-12-2024, 19:00
Io ho un Seasonic Prime atx 3.0 ma penso andrà comunque benissimo per la 5090. Non so che differenze ci siano con i nuovi 3.1..
Inviato dal mio iPhone utilizzando Tapatalk Pro
Si che andrà benone. Spero almeno un 1000w.
edit
hai un 1300 tit.....aivoglia.
Hai un tx-1300, bella macchina....tutti componenti top.
redbaron
15-12-2024, 19:06
Adesso dopo indiana jones é diventato il thread degli alimentatori?:O
Adesso dopo indiana jones é diventato il thread degli alimentatori?:O
No, stiamo parlando dei consumi della 5090 e siamo perfettamente in topic.
marbasso
15-12-2024, 19:14
No, stiamo parlando dei consumi della 5090 e siamo perfettamente in topic.
Se le voci sono vere, e la 5090 avrà un TDP di 600w, fattibilissimo se contiamo gli shader e i transistor in gioco, processo produttivo ecc ecc mikaeeeellll, significa che easy se porti le slide del vcore e del pl al massimo, cosa che chiunque può fare in 10 secondi, puoi arrivare a 780w con una FE se continua la tradizione.....
Do u undst?
Sal non è il tuo caso, tu sarai sempre sui 450 full sistem full load, ma per chi gioca ad alta ris ed fps free....insomma....
Kostanz77
15-12-2024, 19:34
No è un acquisto eccellente al prezzo che si trova ora, 280 euro, perchè è il miglior alimentatore del 2024 prezzo/performance/qualità costruttiva/componenti/packaging.
NON C'è storia
Se ne avessi avuto la necessità, a quel prezzo lo avrei preso pure io senza pensarci, ma per ora basta il mio Thermaltake GF3 1200W
Inviato dal mio iPhone utilizzando Tapatalk Pro
micronauta1981
15-12-2024, 19:39
Mi sfugge il senso di un 1500w anche per una 5090 onestamente. Probabilmente pure un 1000w sarà più che sufficiente
Ho già un 1000 in firma,non ricordo neanche più da quanti anni...siccome volevo cambiarlo l' ho preso un po' più grande di quello che mi serviva,tutto qui..
micronauta1981
15-12-2024, 19:41
Dipende, se la scheda tira i 600w+tutto il resto del pc+magari un oc, se vuoi stare intorno al 50% per l'efficienza facendo lavorare l'alimentatore "a riposo" ha senso anche un 1300-1500. Sicuramente, io avrei aspettato che fosse uscita la scheda per sapere dove andare a parare, quello sì.
Veramente dovevo già cambiarlo...se aspettavo l' uscita delle schede, sicuramente lo pagavo di più.. scommesse?
marbasso
15-12-2024, 19:43
Se ne avessi avuto la necessità, a quel prezzo lo avrei preso pure io senza pensarci, ma per ora basta il mio Thermaltake GF3 1200W
Inviato dal mio iPhone utilizzando Tapatalk Pro
Be ci credo, piattaforma CWT csz, la più diffusa su queste potenze, dentro tutta roba bbona....consensatori Rubycon e nippon chemicon, mosfets INFINEON..
Una garanzia.
micronauta1981
15-12-2024, 19:52
Che poi acquisti a caso cosa???ma siete seri? Bo...ho letto decine di recensioni,e l' avevo addocchiato da un po'...
marbasso
15-12-2024, 19:54
Veramente dovevo già cambiarlo...se aspettavo l' uscita delle schede, sicuramente lo pagavo di più.. scommesse?
Lascia fare e lascia dire, che solo a vederlo dentro è uno spettacolo...
Con 2460uF 420v di bulk caps è fuori dalla norma, ha molti più uF che watt....quando invece si cerca sempre un bilanciamento tra uf e potenza.
Ma poi di cosa vogliamo parlare, 280 euro......è come prendere un 9800x3d a 350€, o un 14900ks a 450.
https://i.postimg.cc/sg84QXvz/psu-angled-good-shot-topaz-sharpen.jpg
mikael84
15-12-2024, 19:54
Parlare di TDP, non significa parlare di alimentatori in generale.
Quindi stop! Vi ho lasciato discutere abbastanza.
Cutter90
15-12-2024, 23:50
Cmq i 600 watt saranno massimi. Anche perché con un cavo ci fai 600 watt max. E il doppio cavo la 5090 no. C'è.
Inoltre se Marbasso tu quando giochi usi 750 watt in 4k costanti sappi che stai buttando solo corrente e soldi in alimentatori costosi e over-dimesionati. Ingame con la 4090 in undervolt sto a 300-430 watt max. Efficienza e pensa un po il mio ali da 1000 watt lavora proprio al 50% circa con il resto del sistema. Ali di qualità pagato 140 euro, 3.0 (che è uguale al 3.1, cambia solo quanto sporgono i pin ma sono tutti compatibili tra di loro). .a come si fa a dire un alimentatore è un "investimento "? Ma sai cosa significa "investimento"? Secondi me no.
Tu butti soldi, io lavoro in altro modo cercando di ottimizzare quello che ho e risparmio andando uguale o perdendo perf trascurabili ma non per via dell ali di certo.
Come detto io mi aspetto una 5090 max a 600/700 watt in perante oc. Con le perf in gaimg normali in undervolt a 400/450 watt per ottimizzare la curva. Ma anche meno.
Vedremo. Chiudo con il discorso ali.
Come detto io mi aspetto una 5090 max a 600/700 watt in perante oc.
Correggi, sarà max 600W perchè quello è il massimo da specifica per l'attacco di alimentazione elettrica.
Aggiungo che in game a mio parere con le stesse impostazioni che usiamo oggi con la 4090 consumeremo di meno, esattamente come accaduto nel passaggio 3090 - 4090.
Iceman69
16-12-2024, 07:21
Cmq i 600 watt saranno massimi. Anche perché con un cavo ci fai 600 watt max. E il doppio cavo la 5090 no. C'è.
Inoltre se Marbasso tu quando giochi usi 750 watt in 4k costanti sappi che stai buttando solo corrente e soldi in alimentatori costosi e over-dimesionati. Ingame con la 4090 in undervolt sto a 300-430 watt max. Efficienza e pensa un po il mio ali da 1000 watt lavora proprio al 50% circa con il resto del sistema. Ali di qualità pagato 140 euro, 3.0 (che è uguale al 3.1, cambia solo quanto sporgono i pin ma sono tutti compatibili tra di loro). .a come si fa a dire un alimentatore è un "investimento "? Ma sai cosa significa "investimento"? Secondi me no.
Tu butti soldi, io lavoro in altro modo cercando di ottimizzare quello che ho e risparmio andando uguale o perdendo perf trascurabili ma non per via dell ali di certo.
Come detto io mi aspetto una 5090 max a 600/700 watt in perante oc. Con le perf in gaimg normali in undervolt a 400/450 watt per ottimizzare la curva. Ma anche meno.
Vedremo. Chiudo con il discorso ali.
Secondo me invece vedremo apparire il doppio cavo, se non sulla FE su molte custom come le Strix ci sarà.
Un Ali di qualità, salvo stravolgimenti come è accaduto per il 3.0, può essere considerato un investimento nel modo PC.
Per quanto mi riguarda è l'unico componente che supera sempre di slancio i 5 anni, arrivando anche a 10 a volte.
Sono curioso di vedere come si comporterà la 5090 con il discorso consumi, ma soprattutto gestione del calore, dato che i watt sono pure da dissipare, quindi ok 600/700 watt, ma come faccio raffreddare una fornace del genere, tutti a liquido?
Nemmeno la strix avrà il doppio connettore. Pura follia secondo me
Cutter90
16-12-2024, 07:51
Secondo me invece vedremo apparire il doppio cavo, se non sulla FE su molte custom come le Strix ci sarà.
Un Ali di qualità, salvo stravolgimenti come è accaduto per il 3.0, può essere considerato un investimento nel modo PC.
Per quanto mi riguarda è l'unico componente che supera sempre di slancio i 5 anni, arrivando anche a 10 a volte.
Sono curioso di vedere come si comporterà la 5090 con il discorso consumi, ma soprattutto gestione del calore, dato che i watt sono pure da dissipare, quindi ok 600/700 watt, ma come faccio raffreddare una fornace del genere, tutti a liquido?
Ma l'ali di qualità è assolutamente indipendente dal numero dei watt. Ormai tutti gli ali 80 plus gold hanno una componentistica di alto livello e durano tutti anni ed anni. Se si va su marche conosciute si è a posto. C'è ancora una concezione vecchia da parte di qualcuno sugli alimentatori, dove effettivamente 20 anni fa si, dovevi stare in occhio.
Investimento significa che in qualche modo i soldi ti ritornano. E un alimentatore non ti fa guadagnare soldi.
Io ho un ali di 850 watt montato sul pc 2 che l'anno prossimo ha 11 anni. Corsair, 80 plus gold. Mai avuto problemi, ventola inudibile e tirato anche tanto quando avevo la 3090 con picco durante i bench che feci anche di 740 watt di consumo totale. Mai una piega ed è lì che va.
PS: tra l'altro proprio NZXT, che dopo le truffe che ha combinato con i pc a noleggio andrebbe sabotata a prescindere per principio.
Cmq il doppio cavo non ha molto senso per distribuire 50-60 watt in più.
Salfox, il cavo passa 600 watt, ma la mobo può far passare anche 75-100 e passa watt se non erro che quindi si sommano
Cmq il doppio cavo non ha molto senso per distribuire 50-60 watt in più.
Salfox, il cavo passa 600 watt, ma la mobo può far passare anche 75-100 e passa watt se non erro che quindi si sommano
Lo slot PCI-E fornisce 75W da solo, quindi si avrebbe un totale di 675W. Secondo me è folle pensare che anche una custom necessiti di un secondo connettore 12V-2x6
micronauta1981
16-12-2024, 08:04
Non ho preso l'nzxt per il wattaggio,sono mesi che lo seguo,ho letto tutte le recensioni,e dicono tutti che è un gran alimentatore...per esempio il suo fratello da 1200 non c'entra nulla con lui...quando l' ho visto a 280€ l' ho preso,e non è buttare soldi,guardate quanto costa un Corsair 1200w...chiuso anche per me il discorso
Cutter90
16-12-2024, 08:10
Lo slot PCI-E fornisce 75W da solo, quindi si avrebbe un totale di 675W. Secondo me è folle pensare che anche una custom necessiti di un secondo connettore 12V-2x6
Eh, infatti. E andare sopra 675 watt significa che devono inventarsi e rivoluzionare il raffreddamento. Perchè ad aria trovo difficilissimo raffreddare come si deve le memorie, quando già con 600 watt si arriva al loro limite oltre i 100 gradi.
Per logica il ragionamento che tendo a fare è questo. Poi vedremo :D
Ragazzi, come il buon Mikael ha detto più volte, l'alimentazione tramite PCI express per una VGA non la usa più nessuno e le VGA moderne si alimentano solo con l'alimentazione diretta dall'alimentatore. Vedrete che anche la 5090 (pure le custom) sarà alimentata da un solo connettore a 16 pin ed avrà un TDP che sarà al massimo di 600W (ma prevedo qualcosa di meno 550?). Se non fosse così sarebbe un colossale fallimento di Nvidia che alla presentazione della nuova presa a 16 pin ci ha detto più volte che quella sarebbe stata il futuro delle alimentazioni delle VGA.
ray_hunter
16-12-2024, 08:32
Scusate ma io ancora non capisco quale può essere la possibile scelta di upgrade per chi ha una 4090.
Qui molti dicono che la 5080 andrà un 10% in più della suddetta e da qui penso che la 5070 TI sarà in linea con la 4090 per cui di sicuro non può essere un upgrade papabile.
Rimarrà solo la 5090 a 2500€ (se va bene) come opzione?
Se la 5070 TI sarà in linea con le perf della 4090 sarà importante conoscerne il prezzo per capire quale sarà il possibile prezzo di vendita dell'usato della 4090 stessa.
Ipotizzando un prezzo di 700€ per la 5070 TI vuol dire rivendere la 4090 a 550~600€?
micronauta1981
16-12-2024, 09:08
Scusate ma io ancora non capisco quale può essere la possibile scelta di upgrade per chi ha una 4090.
Qui molti dicono che la 5080 andrà un 10% in più della suddetta e da qui penso che la 5070 TI sarà in linea con la 4090 per cui di sicuro non può essere un upgrade papabile.
Rimarrà solo la 5090 a 2500€ (se va bene) come opzione?
Se la 5070 TI sarà in linea con le perf della 4090 sarà importante conoscerne il prezzo per capire quale sarà il possibile prezzo di vendita dell'usato della 4090 stessa.
Ipotizzando un prezzo di 700€ per la 5070 TI vuol dire rivendere la 4090 a 550~600€?
Per me la 5070ti non andrà mai come la 4090...poi c'è anche il discorso vram,la 4090 ha 24gb...
Scusate ma io ancora non capisco quale può essere la possibile scelta di upgrade per chi ha una 4090.
Qui molti dicono che la 5080 andrà un 10% in più della suddetta e da qui penso che la 5070 TI sarà in linea con la 4090 per cui di sicuro non può essere un upgrade papabile.
Rimarrà solo la 5090 a 2500€ (se va bene) come opzione?
Se la 5070 TI sarà in linea con le perf della 4090 sarà importante conoscerne il prezzo per capire quale sarà il possibile prezzo di vendita dell'usato della 4090 stessa.
Ipotizzando un prezzo di 700€ per la 5070 TI vuol dire rivendere la 4090 a 550~600€?
Se come dici tu la 5080 dovesse andare +10% sulla 4090 (improbabile, forse solo con le tech) e se la 5070TI dovesse essere in linea con la 4090 (impossibile, anche perché sarebbe a solo un 10% dalla eventuale 5080 di cui sopra) e ammesso e non concesso che il prezzo della 5070Ti sia 700€ (molto probabile), si .... chi ha una 4090 e non l'ha ancora venduta è un pollo.
Ma siccome la 5080 difficilmente arriverà a superare quelle che oggi sono le performance della 4090 e avrà anche meno VRAM, senza contare che la 4070TI si posizionerà almeno un 10/15% sotto la 5080, è impensabile che un utente di 4090 oggi possa anche solo minimamente valutare la serie XX70.
Un discorso più sensato potrebbe essere quello dove un utente attuale di 4090 rivendendola adesso, possa pensare:" ..a me la 4090 bastava, faccio cassa" e si prenderà la 5080 che costerà sicuramente meno della rivendita della 4090, "Free sidegrade, con efficiency bonus at same performance + special guest new tech from JJ".
Oppure caso 2: un attuale utente di 4090 se la tiene felice e non aggiorna perchè tanto lui gioca "Competitive oh YEAHHH" e sul suo monitor pixelloso 1080/1440P da 22" TN (perchè da 22 Oled non li fanno e lui ha il FOV concentrato super responsive in 6°) con la 4090 deve prima ancora trovare una cpu che la riesca a feedare per bene, e campa cavallo con 8 core AM5 Core2Duo style +cache e con i nuovi Ultra Intel, le magagne son altre, la gpu non è un suo problema.
Oppure caso 3: un attuale utente 4090 che ha già la piatta performante, gioca a risoluzione 4K e oltre, è su OLED, ma vuole più buuumba per ridurre l'impiego del Super Sampling, magari vorrebbe usare DSR o DLAA, ma restare comunque sempre maxato 4K, con tutti i "bells and whistle + eye candy a gogo", ha una sola opzione, va di 5090 e non ci sono alternative. Probabilmente il soggetto se l'è già venduta, si sta trastullando con con una scheda di fallback o GeForce Now improvvisata a costo zero, e sta con il dito sul grilletto pronto per comprare la 5090 Founders Edition al day one.
Oppure caso 4: un attuale utente di 4090, che sta bene, non è ricco, ma lavora ha un solo hobby, si vende la 4090 per fare cassa e impattare meno sulle finanze con l'acquisto della 5090 diciamo che ha ricavato 1800, poi si fa un abbonamento a GeForce Now per tamponare ste 3 settimane, a 20 euro al mense, ma scopre che a lui basta e avanza, e che con 1800 euro si paga 8 anni di gaming in streaming :D.
OrazioOC
16-12-2024, 09:22
https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-to-feature-16gb-vram-rtx-5060-reportedly-sticks-to-8gb
Chi preferirà la 5060 con 8gb di vram all'arc B580 è palesemente in malafede. :O
Cutter90
16-12-2024, 09:26
https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-to-feature-16gb-vram-rtx-5060-reportedly-sticks-to-8gb
Chi preferirà la 5060 con 8gb di vram all'arc B580 è palesemente in malafede. :O
A ridaje. La 5060 sarà una scheda full hd. IN full hd servono 8 gb? Bastano ed avanzano, per anni.
Non riesco a capire cosa di questo semplice concetto sei difficile da capire.
La 5060 si valuterà sulle perf e sulle tecnologie
ray_hunter
16-12-2024, 09:34
Per me la 5070ti non andrà mai come la 4090...poi c'è anche il discorso vram,la 4090 ha 24gb...
Se come dici tu la 5080 dovesse andare +10% sulla 4090 (improbabile, forse solo con le tech) e se la 5070TI dovesse essere in linea con la 4090 (impossibile, anche perché sarebbe a solo un 10% dalla eventuale 5080 di cui sopra) e ammesso e non concesso che il prezzo della 5070Ti sia 700€ (molto probabile), si .... chi ha una 4090 e non l'ha ancora venduta è un pollo.
Ma siccome la 5080 difficilmente arriverà a superare quelle che oggi sono le performance della 4090 e avrà anche meno VRAM, senza contare che la 4070TI si posizionerà almeno un 10/15% sotto la 5080, è impensabile che un utente di 4090 oggi possa anche solo minimamente valutare la serie XX70.
Un discorso più sensato potrebbe essere quello dove un utente attuale di 4090 rivendendola adesso, possa pensare:" ..a me la 4090 bastava, faccio cassa" e si prenderà la 5080 che costerà sicuramente meno della rivendita della 4090, "Free sidegrade, con efficiency bonus at same performance + special guest new tech from JJ".
Oppure caso 2: un attuale utente di 4090 se la tiene felice e non aggiorna perchè tanto lui gioca "Competitive oh YEAHHH" e sul suo monitor pixelloso 1080/1440P da 22" TN (perchè da 22 Oled non li fanno e lui ha il FOV concentrato super responsive in 6°) con la 4090 deve prima ancora trovare una cpu che la riesca a feedare per bene, e campa cavallo con 8 core AM5 Core2Duo style +cache e con i nuovi Ultra Intel, le magagne son altre, la gpu non è un suo problema.
Oppure caso 3: un attuale utente 4090 che ha già la piatta performante, gioca a risoluzione 4K e oltre, è su OLED, ma vuole più buuumba per ridurre l'impiego del Super Sampling, magari vorrebbe usare DSR o DLAA, ma restare comunque sempre maxato 4K, con tutti i "bells and whistle + eye candy a gogo", ha una sola opzione, va di 5090 e non ci sono alternative. Probabilmente il soggetto se l'è già venduta, si sta trastullando con con una scheda di fallback o GeForce Now improvvisata a costo zero, e sta con il dito sul grilletto pronto per comprare la 5090 Founders Edition al day one.
Oppure caso 4: un attuale utente di 4090, che sta bene, non è ricco, ma lavora ha un solo hobby, si vende la 4090 per fare cassa e impattare meno sulle finanze con l'acquisto della 5090 diciamo che ha ricavato 1800, poi si fa un abbonamento a GeForce Now per tamponare ste 3 settimane, a 20 euro al mense, ma scopre che a lui basta e avanza, e che con 1800 euro si paga 8 anni di gaming in streaming :D.
Partivo dal presupposto, riportato anche in questo forum, in qui la 5080 sarà un 10% sopra la 4090: anch'io son scettico su questo aspetto.
Dalle spec la 5070 TI non può che essere un 10 max 15% sotto la 5080 pertanto in linea o poco meno della 4090.
Questo nel caso forse più ottimistico sulle perf della serie 5000.
In poche parole per ricevere un po' di boost, l'unica è la 5090.
Sicuramente io mi dovrò tenere la 4090 fino all'acquisto di una nuova scheda.
Purtroppo nel mio caso Geforce now non è contemplabile in quanto ho starlink, che a livello di download mi garantisce 200-250Mb/s ma sulle latenze si viaggia dai 30 ai 50ms per cui giocare in streaming è impensabile.
OrazioOC
16-12-2024, 09:36
A ridaje. La 5060 sarà una scheda full hd. IN full hd servono 8 gb? Bastano ed avanzano, per anni.
Non riesco a capire cosa di questo semplice concetto sei difficile da capire.
La 5060 si valuterà sulle perf e sulle tecnologie
La scheda potrà anche andare bene, ma non significa che 8gb di vram nel 2025 si possano giustificare su schede da 350 euro. :rolleyes:
Un conto è debuttare con 8gb nel 2020 e quelle performance(iso rtx 3070), un altro sarà nel 2025. :doh:
Sono curioso di sapere cosa ci sarà sulla controparte amd, perchè se anche lei oltre alla arc b580, avrà 12gb o meglio 16gb, beh, la 5060 sarebbe da evitare a prescindere(a meno che non arrivi una variante 12gb della 5060 sfruttando la tripla densità).
Cutter90
16-12-2024, 09:41
La scheda potrà anche andare bene, ma non significa che 8gb di vram nel 2025 si possano giustificare su schede da 350 euro. :rolleyes:
Un conto è debuttare con 8gb nel 2020 e quelle performance(iso rtx 3070), un altro sarà nel 2025. :doh:
Sono curioso di sapere cosa ci sarà sulla controparte amd, perchè se anche lei oltre alla arc b580, avrà 12gb o meglio 16gb, beh, la 5060 sarebbe da evitare a prescindere(a meno che non arrivi una variante 12gb della 5060 sfruttando la tripla densità).
350 euro, ossia la fascia super bassa? Perchè parliamo di quella eh
Ma cosa c'entra l'anno o cosa offre la concorrenza? Personalmente l'unica cosa che conta è quanta vram serve davvero per giocare in 1080p nel 2025.
Cioè, se amd avesse 16 gb, andasse meno, non avesse la tecnologia a livello di nvidia RT+dlss tu diresti di evitare la 5060 per andare su amd? Solo perchè ha più vram, inutile nel caso?
OrazioOC
16-12-2024, 09:55
350 euro, ossia la fascia super bassa? Perchè parliamo di quella eh
Ma cosa c'entra l'anno o cosa offre la concorrenza? Personalmente l'unica cosa che conta è quanta vram serve davvero per giocare in 1080p nel 2025.
Cioè, se amd avesse 16 gb, andasse meno, non avesse la tecnologia a livello di nvidia RT+dlss tu diresti di evitare la 5060 per andare su amd? Solo perchè ha più vram, inutile nel caso?
C'è chi ne ha messi 12gb su una scheda da 250 euro vedi tu. :)
Secondo me 8gb di vram su una gpu da gaming nel 2025 a 350 euro non è giustificabile, e te lo dice uno che 4060 e 4060 ti le ha anche toccate con mano poche settimane fa(e sono anche possessore da inizio 21 di una 3060 ti). :O
E' anche questione di progresso, che non c'è per motivazioni di marketing.
350 euro, ossia la fascia super bassa? Perchè parliamo di quella eh
Ma cosa c'entra l'anno o cosa offre la concorrenza? Personalmente l'unica cosa che conta è quanta vram serve davvero per giocare in 1080p nel 2025.
Cioè, se amd avesse 16 gb, andasse meno, non avesse la tecnologia a livello di nvidia RT+dlss tu diresti di evitare la 5060 per andare su amd? Solo perchè ha più vram, inutile nel caso?
A mio avviso l'unica incognita è l'Unreal Engine e la funzione di compressione delle texture che si vociferava anni orsono da parte di JJ.
A 1080P (premetto che non ho praticamente esperienza a questa risoluzione) i giochi che dalle recensioni dell'ultimo anno, hanno dato problemi con schede <8 GB si contano sulle dita di una mano, ma ho paura che il trend sia in aumento.
Anche perchè se devi sviluppare texture per macchine con più vram e quindi ti prefiggi un vcerto livello qualitativo, poi dovresti rifarle tutte per macchine meno potenti, e di giochi che includano pacchetti texture separati ne vedo ben pochi. Senza contare che RT e DLSS/FSR/XESS occupano memoria. Vedi caso Indy, dove la struttura della BVH manco ci sta se non hai 12GB minimi e il RT non lo attivi.
Considerando quanto sopra e il fatto che l'Unreal Engine è l'engine di chi non ha modo/soldi/tempo/sbatti di lavorare (eccezzion fatta per i CDPR, che speriamo lo ribaltino come un calzino e magari ci mettano una pezza anche in coop con nVidia), non me li vedo a perdere tempo a comprimere pacchi di texture n volte per diverse fasce di prodotto. Già oggi spesso le texture su PC sono quelle di PS5/XBOX upscalate con ia e spacciate per 4k.
E nei rari casi dove invece sono 4k i giochi non girano sulle schede entry, prendi ad esempio il buon vecchio CP2077, io l'ho giocato moddato con 80GB di texture pack per praticamente qualunque cosa, e ricordo che saturavo completamente i 24GB di Vram della 4090, al punto che ogni tanto nelle lunghe sessioni dovevo interrompere e ricaricare la partita perchè la gestione dell Vram non è che fosse proprio pensata per quel tipo di carico, ma ero in 4k.
In 1080p non saprei ma comunque la vedo strettina, diciamo che da lunedì scorso dopo la B580, si è creato un AC/DC e comprare oggi una scheda con 8GB è veramente volersi male, ma magari JJ ci mette una pezza con l'IA e 8 GB varranno come 32 chi lo sa. :mbe:
Se partiamo dal presupposto che sotto i 400 euro siamo in fascia pezzenti e dovremmo essere contenti già di riuscire a installare i giochi su quelle schede (ovviamente sto usando iperboli) allora poi è ovvio che Nvidia ci spara i prezzi che vuole.
Intel propone la B580 per 250 dollari come scheda pensata anche per il 1440p e ci mette 12 giga di RAM, è quella la direzione in cui dobbiamo andare.
Intel propone la B580 per 250 dollari come scheda pensata anche per il 1440p e ci mette 12 giga di RAM, è quella la direzione in cui dobbiamo andare.
Esatto.
VanCleef
16-12-2024, 10:15
350 euro, ossia la fascia super bassa? Perchè parliamo di quella eh
Azz, e come si chiama la fascia sotto la super bassa? :sofico:
ninja750
16-12-2024, 10:29
A 1080P (premetto che non ho praticamente esperienza a questa risoluzione) i giochi che dalle recensioni dell'ultimo anno, hanno dato problemi con schede <8 GB si contano sulle dita di una mano, ma ho paura che il trend sia in aumento.
Anche perchè se devi sviluppare texture per macchine con più vram e quindi ti prefiggi un vcerto livello qualitativo, poi dovresti rifarle tutte per macchine meno potenti, e di giochi che includano pacchetti texture separati ne vedo ben pochi. Senza contare che RT e DLSS/FSR/XESS occupano memoria. Vedi caso Indy, dove la struttura della BVH manco ci sta se non hai 12GB minimi e il RT non lo attivi.
beh ma per gli sviluppatori che lo implementeranno, ci sarà un settaggio texture alto/medio/basso per chi ha 8/12/16+ gb di vram
chi compra una 5060 sa già oggi che non potrà attivare medio/alto, scelta sua, chiaro che nelle review dove il gioco viene testato maxato, nella colonnina 5060 ci saranno forse 8fps
Se partiamo dal presupposto che sotto i 400 euro siamo in fascia pezzenti e dovremmo essere contenti già di riuscire a installare i giochi su quelle schede (ovviamente sto usando iperboli) allora poi è ovvio che Nvidia ci spara i prezzi che vuole.
Intel propone la B580 per 250 dollari come scheda pensata anche per il 1440p e ci mette 12 giga di RAM, è quella la direzione in cui dobbiamo andare.
Aggiungo che anche se andassero bene adesso(8gb), la scheda si compra che almeno duri un paio di anni no(minimo sindacale)? E se già si sono visti titoli che non digeriscono gli 8gb, pensiamo veramente che la situazione possa invertirsi?
FrancoBit
16-12-2024, 10:42
Ecco, precisamente i discorsi che facevo poco sopra. Acquisti a caso, solo dettati dalla voglia e dalla possibilità economica.
Ma ottima scelta per cosa? Ma vi piace così tanto buttare soldi e foraggiare un mercato del genere? Lo capite che ci rimettono tutti così?
Mah
Ma io non capisco per quale motivo uno non può ragionare per i componenti del suo PC come razzo gli pare. Ma poi cosa parli di sprechi di soldi che hai una motherboard da 1000€ c'mon
Cutter90
16-12-2024, 10:45
Azz, e come si chiama la fascia sotto la super bassa? :sofico:
Non c'è infatti la fascia sotto. Si va di integrata, ossia schede non più da gaming....
Aggiungo che anche se andassero bene adesso(8gb), la scheda si compra che almeno duri un paio di anni no(minimo sindacale)? E se già si sono visti titoli che non digeriscono gli 8gb, pensiamo veramente che la situazione possa invertirsi?
"titoli che non digeriscono 8 gb". Quali scusa? In 1080p? Elencali
Non c'è infatti la fascia sotto. Si va di integrata, ossia schede non più da gaming....
"titoli che non digeriscono 8 gb". Quali scusa? In 1080p? Elencali
The Last of Us Part 1: Richiede oltre 8 GB di VRAM anche a 1080p con impostazioni elevate, portando a cali di frame e stuttering
Forspoken: Anche a 1080p ultra, il gioco utilizza più di 8 GB di VRAM, rendendo necessario abbassare le impostazioni per evitare cali di performance
Hogwarts Legacy: Consuma circa 10 GB di VRAM alle impostazioni massime, causando problemi con schede da 8 GB, specialmente in aree dense di dettagli
Cyberpunk 2077: Phantom Liberty (con ray tracing attivo): Anche con le tecnologie DLSS o FSR attive, il gioco può superare gli 8 GB di utilizzo, richiedendo compromessi su qualità grafica e fluidità
Star Wars Jedi: Survivor: Ha mostrato limiti significativi per GPU con 8 GB, in particolare con texture ad alta risoluzione e dettagli elevati
A Plague Tale: Requiem: Richiede oltre 11 GB di VRAM per funzionare senza problemi con impostazioni ultra, rendendo necessario abbassare la qualità delle texture
Indiana Jones and the Great Circle ha mostrato performance problematiche su GPU con 8 GB di VRAM, come la NVIDIA RTX 4060. In risoluzione 1080p, il gioco richiede più VRAM per gestire texture ad alta risoluzione e ray tracing, causando cali significativi di framerate.
Warhammer 40,000: Darktide - Simile ad altri giochi recenti, con texture complesse e ottimizzazioni carenti, ha portato al limite le schede con 8 GB, rendendo necessario abbassare le impostazioni grafiche
Resident Evil 4 Remake - Sebbene non sembri particolarmente esigente, il titolo presenta problemi di performance con settaggi massimi e ray tracing attivato, che stressano la memoria VRAM anche in 1080p
Cutter90
16-12-2024, 11:00
Ma io non capisco per quale motivo uno non può ragionare per i componenti del suo PC come razzo gli pare. Ma poi cosa parli di sprechi di soldi che hai una motherboard da 1000€ c'mon
Motherboard che terrò per 5 anni almeno, che era il top come specifiche tipo il pci-e 5.0, le entrate usb ecc ecc, costata 800 euro vs i 350 di una normale. Ma, al contrario di una li che non cambia niente nell'utilizzo visto che hanno la stessa cosa, qui c'è uan differenza proprio di specifiche. meno usb, niente 5.0 (ai tempi), meno funzioni debug, tasto clear cmos, led di errore ecc ecc. La mobo è il cervello del pc e lo ritengo un componente fondamentale si si vuole andare lunghi. E soprattutto quando ci sono standard nuovi ritengo sia importante averli.
Tutti siamo liberi di spendere i soldi come ci pare. Come tutti siamo liberi di commentare le scelte degli altri. Ti pare?
Siamo su un forum
No dai 8 giga sono una vera presa in giro, è una scheda da NON comprare.
C'è chi fa meglio e non chiede un rene...
FrancoBit
16-12-2024, 11:04
Motherboard che terrò per 5 anni almeno, che era il top come specifiche tipo il pci-e 5.0, le entrate usb ecc ecc, costata 800 euro vs i 350 di una normale. Ma, al contrario di una li che non cambia niente nell'utilizzo visto che hanno la stessa cosa, qui c'è uan differenza proprio di specifiche. meno usb, niente 5.0 (ai tempi), meno funzioni debug, tasto clear cmos, led di errore ecc ecc. La mobo è il cervello del pc e lo ritengo un componente fondamentale si si vuole andare lunghi. E soprattutto quando ci sono standard nuovi ritengo sia importante averli.
Tutti siamo liberi di spendere i soldi come ci pare. Come tutti siamo liberi di commentare le scelte degli altri. Ti pare?
Siamo su un forum
Gli alimentatori dei miei 2 sistemi hanno 9 anni, il discorso vale ancora di più per un alimentatore che riguardo alla motherboard. Comunque chiudo l'off topic, però credo che si, si possa commentare gli acquisti degli altri, ma c'è modo e modo. Oltretutto un concetto come quello che hai espresso nella prima critica si deve riferire a tutti i componenti, non solo quelli selezionati da te in base alle tue convinzioni (che possono essere diverse da quelle degli altri).
FrancoBit
16-12-2024, 11:05
No dai 8 giga sono una vera presa in giro, è una scheda da NON comprare.
C'è chi fa meglio e non chiede un rene...
Pienamente d'accordo
marbasso
16-12-2024, 11:06
Azz, e come si chiama la fascia sotto la super bassa? :sofico:
Fascia Ecocentro.
The Last of Us Part 1: Richiede oltre 8 GB di VRAM anche a 1080p con impostazioni elevate, portando a cali di frame e stuttering
Forspoken: Anche a 1080p ultra, il gioco utilizza più di 8 GB di VRAM, rendendo necessario abbassare le impostazioni per evitare cali di performance
Hogwarts Legacy: Consuma circa 10 GB di VRAM alle impostazioni massime, causando problemi con schede da 8 GB, specialmente in aree dense di dettagli
Cyberpunk 2077: Phantom Liberty (con ray tracing attivo): Anche con le tecnologie DLSS o FSR attive, il gioco può superare gli 8 GB di utilizzo, richiedendo compromessi su qualità grafica e fluidità
Star Wars Jedi: Survivor: Ha mostrato limiti significativi per GPU con 8 GB, in particolare con texture ad alta risoluzione e dettagli elevati
A Plague Tale: Requiem: Richiede oltre 11 GB di VRAM per funzionare senza problemi con impostazioni ultra, rendendo necessario abbassare la qualità delle texture
Indiana Jones and the Great Circle ha mostrato performance problematiche su GPU con 8 GB di VRAM, come la NVIDIA RTX 4060. In risoluzione 1080p, il gioco richiede più VRAM per gestire texture ad alta risoluzione e ray tracing, causando cali significativi di framerate.
Warhammer 40,000: Darktide - Simile ad altri giochi recenti, con texture complesse e ottimizzazioni carenti, ha portato al limite le schede con 8 GB, rendendo necessario abbassare le impostazioni grafiche
Resident Evil 4 Remake - Sebbene non sembri particolarmente esigente, il titolo presenta problemi di performance con settaggi massimi e ray tracing attivato, che stressano la memoria VRAM anche in 1080p
Aggiungici stalker 2, anche se resta un cantiere aperto, e per fortuna qualche mod aiuta.
Cutter90
16-12-2024, 11:10
The Last of Us Part 1: Richiede oltre 8 GB di VRAM anche a 1080p con impostazioni elevate, portando a cali di frame e stuttering
Forspoken: Anche a 1080p ultra, il gioco utilizza più di 8 GB di VRAM, rendendo necessario abbassare le impostazioni per evitare cali di performance
Hogwarts Legacy: Consuma circa 10 GB di VRAM alle impostazioni massime, causando problemi con schede da 8 GB, specialmente in aree dense di dettagli
Cyberpunk 2077: Phantom Liberty (con ray tracing attivo): Anche con le tecnologie DLSS o FSR attive, il gioco può superare gli 8 GB di utilizzo, richiedendo compromessi su qualità grafica e fluidità
Star Wars Jedi: Survivor: Ha mostrato limiti significativi per GPU con 8 GB, in particolare con texture ad alta risoluzione e dettagli elevati
A Plague Tale: Requiem: Richiede oltre 11 GB di VRAM per funzionare senza problemi con impostazioni ultra, rendendo necessario abbassare la qualità delle texture
Indiana Jones and the Great Circle ha mostrato performance problematiche su GPU con 8 GB di VRAM, come la NVIDIA RTX 4060. In risoluzione 1080p, il gioco richiede più VRAM per gestire texture ad alta risoluzione e ray tracing, causando cali significativi di framerate.
Warhammer 40,000: Darktide - Simile ad altri giochi recenti, con texture complesse e ottimizzazioni carenti, ha portato al limite le schede con 8 GB, rendendo necessario abbassare le impostazioni grafiche
Resident Evil 4 Remake - Sebbene non sembri particolarmente esigente, il titolo presenta problemi di performance con settaggi massimi e ray tracing attivato, che stressano la memoria VRAM anche in 1080p
Mm ok. Abbia test e fonti? Giusto per verificare la cosa e prenderne atto :)
Oh, intendiamoci più gb mettono meglio è. Ma secondo me non è la cosa più importante.
SU stalker da quello che vedo stu https://www.techpowerup.com/review/stalker-2-fps-performance-benchmark/5.html
Stiamo dentro agli 8gb e anche loro nelle conslusioni finali dicono che una 3070 8gb è perfetta per il full hd.....
Francobit, nel mio messaggio sopra c'è la risposta ad ognmi tua considerazione. Rileggila e cerca di capire meglio la differenza tra un ali e una mobo.
Fascia Ecocentro.
Questa è memorabile :D :D :D :D :D
https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-to-feature-16gb-vram-rtx-5060-reportedly-sticks-to-8gb
Chi preferirà la 5060 con 8gb di vram all'arc B580 è palesemente in malafede. :O
Una scheda che se avrà le prestazioni di una 4070 o giù di lì lo dovrebbe sfondare il full HD invece con quegli 8gb già oggi potrebbe costringere ad abbassare qualche dettaglio grafico. :doh:
Per fortuna le alternative ci sono quindi scaffale.
mikael84
16-12-2024, 11:49
Partivo dal presupposto, riportato anche in questo forum, in qui la 5080 sarà un 10% sopra la 4090: anch'io son scettico su questo aspetto.
Dalle spec la 5070 TI non può che essere un 10 max 15% sotto la 5080 pertanto in linea o poco meno della 4090.
Questo nel caso forse più ottimistico sulle perf della serie 5000.
In poche parole per ricevere un po' di boost, l'unica è la 5090.
Sicuramente io mi dovrò tenere la 4090 fino all'acquisto di una nuova scheda.
Purtroppo nel mio caso Geforce now non è contemplabile in quanto ho starlink, che a livello di download mi garantisce 200-250Mb/s ma sulle latenze si viaggia dai 30 ai 50ms per cui giocare in streaming è impensabile.
Al momento, sappiamo solo che la 5080 avrà 10752cc, mediamente i cuda della 4080/s (10240) con 64mb di cache e banda della 4090 (256 bit a 32gb/s).
Tutto il resto è ignoto.
Qualche vecchio rumour, parlava di clock molto alti, come 2,9 base (ma è tutto da vedere).
Di certo, qualora venissero confermati i TDP, una 5080 con 400watt, significherebbe andare oltre il 25%, perchè già a 320 watt, per via dei 4nmHP, guadagnerebbe in perf/watt.
La 5070TIS, sarà equivalente alla 4070TIS vs 4080/s, come cut, e prenderebbe la 4080 super ad appena 3100. Anche qua, se impostata a 320, vincerebbe per il perf/watt della nanometria.
magic carpet
16-12-2024, 11:50
Ipotizzando un prezzo di 700€ per la 5070 TI vuol dire rivendere la 4090 a 550~600€?La più economica 4090 nuova ora costa 2300€.
Anche se la 5080 dovesse pareggiarla in termini di prestazioni, la vedo dura, se non impossibile, trovare una 4090 usata a 500.
La più economica 4090 nuova ora costa 2300€.
Anche se la 5080 dovesse pareggiarla in termini di prestazioni, la vedo dura, se non impossibile, trovare una 4090 usata a 500.
Vabe c'è da dire che i prezzi attuali delle 4090 sono gonfiati a caso... bisognerà rivalutare tutto in seguito all'uscita delle 5000. Ma in ogni caso penso che nell'usato le 4090 continueranno ad andare forte, non credo le vedremo a meno di 1200
Capobianco Vincenzo
16-12-2024, 11:57
Buongiorno, chi mi fa un recap delle performance (aspettative) di 5090/5080 rispetto a 4090.
Grazie
mikael84
16-12-2024, 11:57
https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-to-feature-16gb-vram-rtx-5060-reportedly-sticks-to-8gb
Chi preferirà la 5060 con 8gb di vram all'arc B580 è palesemente in malafede. :O
Quindi 5060ti e 5060 su GB206 (full e cut), una clamshell ed una normale.
L'unica che rimane a 12gb sarà praticamente la 5070 liscia con 12gb, visto GB205.
Insomma, 5060 da scartare per la dotazione ram (da possessore di 10gb), meglio dirigersi su intel (o eventuale AMD da 12), mentre la 5060ti, se prenderà la 4070, o si avvicinerà per 399$ con 16gb, ecco che comincia ad essere appettibile su quella fascia, rispetto allo scempio storico della 4060ti 8gb.
Ale55andr0
16-12-2024, 12:31
No dai 8 giga sono una vera presa in giro, è una scheda da NON comprare.
C'è chi fa meglio e non chiede un rene...
parimenti 12 nel 2025 per una scheda da 600 euro almeno
Se a qualcuno interessa la Founders Edition 4070 Super 12GB :D è nuovamente disponibile. :D
Quindi 5060ti e 5060 su GB206 (full e cut), una clamshell ed una normale.
L'unica che rimane a 12gb sarà praticamente la 5070 liscia con 12gb, visto GB205.
Insomma, 5060 da scartare per la dotazione ram (da possessore di 10gb), meglio dirigersi su intel (o eventuale AMD da 12), mentre la 5060ti, se prenderà la 4070, o si avvicinerà per 399$ con 16gb, ecco che comincia ad essere appettibile su quella fascia, rispetto allo scempio storico della 4060ti 8gb.Senza nessuna Sku che benefici della tripla densità lo spazio di manovra é limitato.
GB206 alla fine é un chip che nella migliore delle ipotesi prende una 4070 liscia, se lo tagliuzzano andiamo sotto e penso ci ritroviamo una simil 3070ti se intendono stampare sia 5060 che 5060ti.
La base purtroppo é quella che é, ma il problema più grosso a mio parere sono solo i prezzi non tanto i chip in sé.
Pure GB205 é molto sottotono come chip.
Inviato dal mio M2012K11AG utilizzando Tapatalk
350 euro, ossia la fascia super bassa? Perchè parliamo di quella eh
Super bassa ...
350 euro ...
certo che il giacchetta ci ha addestrati bene sui prezzi :cry:
--AleX--
16-12-2024, 13:00
il giacchetta ci ha addestrati bene sui prezzi :cry:
Non c'entra il giacchetta... sono anni che ci si accapiglia comprando tutto il comprabile e anche di più... qualsiasi roba a qualsiasi prezzo... finché va così, avrebbero anche ragione. Scimmie varie e fomo sono DEVASTANTI
Ale55andr0
16-12-2024, 13:11
Super bassa ...
350 euro ...
certo che il giacchetta ci ha addestrati bene sui prezzi :cry:
in vero hanno addestrato lui i fottuti scalper durante la pandemia/mining selvaggio
StylezZz`
16-12-2024, 13:28
in vero hanno addestrato lui i fottuti scalper durante la pandemia/mining selvaggio
quoto, mi dissocio completamente da certi deliri :D
Cutter90
16-12-2024, 13:31
Super bassa ...
350 euro ...
certo che il giacchetta ci ha addestrati bene sui prezzi :cry:
Ehh purtroppo non dipende dalla cifra, ma da quanto va :O
AceGranger
16-12-2024, 13:41
in vero hanno addestrato lui i fottuti scalper durante la pandemia/mining selvaggio
sara invece che è aumentato tutto, ma in altri paesi negli ultimi anni sono aumentati anche gli stipendi ?
Il problema è qui, negli altri stati il costo di una GPU in proporzione allo stipendio è nettamente inferiore :stordita:
Italia 24K
Media Europa 28K ( e tutti gli altri stati che contano sono sopra i 28K )
Francia 31K
Germania 38K
sotto di noi solo gli spagnoli i greci e tutti gli staterelli soliti dove delocalizzano le fabbriche
si puo parlare quanto si vuole di costo della vita in ogni stato e bla bla bla, ma i beni di consumo a prezzo fisso in Europa impattano in modo molto differente in base allo stipendio medio.
non è che nVidia fa il prezzo in base al paese Italia, parlate come se fosse un prodotto nostrano in vendita solo da noi e che lui sia brutto e cattivo :asd:, lui fa il prezzo in base all'EUROPA.
è solo una questione soggettiva, per me non sono aumentate, ho aumentato le fatture :ciapet:
VanCleef
16-12-2024, 13:55
Ehh purtroppo non dipende dalla cifra, ma da quanto va :O
Questa è una tua opinione...
Per me le fasce restano legate alle cifre... :)
E considerare 350€ fascia super bassa è sintomo ce l'hanno "fatta".
Cutter90
16-12-2024, 14:01
Questa è una tua opinione...
Per me le fasce restano legate alle cifre... :)
E considerare 350€ fascia super bassa è sintomo ce l'hanno "fatta".
Scusa, ma tu valuti le fasce di prodotti in base al prezzo e non in base a quanto vanno?
Quindi la panda ibrida che costa 20.000 € per te è una fascia media?
Trovo strano il fatto di associare fascia e prezzo, poichè ogniuno ha delle idee ed esigenze diverse. 300 euro per me possono essere pochi, per te tantissimi. Quindi per te una gpu da 300 è fascia alta, per me è bassa. Anche perchè in bae a questo ragionamento durante la pandemia tutte le gpu sono diventate di "fascia alta"?
Ma le performance non sono soggettive e quindi danno un comune denominatore. Prezzo e pef sono due cose diverse. Se si alza tutto il listino di tutte le fascia la fascia bassa resta la più "scarsa" del lotto.
Quindi io valuto le gpu in base alle perf e la serie 60 è sempre stata fascia bassa.
Discorso stipendi lo vedo fare molto spesso. ma sapete che in germania un caffè costa 2,40 € circa? O che per mangiarsi una cotoletta partono 30 euro? ci sono molte cose che in Italia costano meno che all'estero, ma non mi sembra che tutti lo capiscano
Ale55andr0
16-12-2024, 14:06
sara invece che è aumentato tutto, ma in altri paesi negli ultimi anni sono aumentati anche gli stipendi ?
NI, un conto è un fisiologico aumento di prezzo dovuto all'inflazione negli anni, che ci sarà sempre, peggio per chi, come noi, non hanno gli stipendi che avanzano di pari passo, MA BEN altro conto è proprio furto legalizzato. Non mi pare che di colpo, chessò, l'olio di oliva a pari brand/litraggio lo paghiamo da 10 a 20 euro a bottiglia. Invece in pochissimi anni la "fascia media" è passata da 250/300 a esagerare al doppio esatto. La fascia "bassissima" pure peggio visto che le si comprava poco 150 euro mentre ora ne vogliono sui 350 per quei chip microscopici a 128bit. Non gettiamola sempre sugli stipendi bassi, che si' ci sono, ma dall'altra parte stanno semplicemente facendo la cresta in modo ridicolo
Questa è una tua opinione...
Per me le fasce restano legate alle cifre... :)
E considerare 350€ fascia super bassa è sintomo ce l'hanno "fatta".
esatto
micronauta1981
16-12-2024, 14:09
Scusa, ma tu valuti le fasce di prodotti in base al prezzo e non in base a quanto vanno?
Quindi la panda ibrida che costa 20.000 € per te è una fascia media?
Trovo strano il fatto di associare fascia e prezzo, poichè ogniuno ha delle idee ed esigenze diverse. 300 euro per me possono essere pochi, per te tantissimi. Quindi per te una gpu da 300 è fascia alta, per me è bassa. Anche perchè in bae a questo ragionamento durante la pandemia tutte le gpu sono diventate di "fascia alta"?
Ma le performance non sono soggettive e quindi danno un comune denominatore. Prezzo e pef sono due cose diverse. Se si alza tutto il listino di tutte le fascia la fascia bassa resta la più "scarsa" del lotto.
Quindi io valuto le gpu in base alle perf e la serie 60 è sempre stata fascia bassa.
Discorso stipendi lo vedo fare molto spesso. ma sapete che in germania un caffè costa 2,40 € circa? O che per mangiarsi una cotoletta partono 30 euro? ci sono molte cose che in Italia costano meno che all'estero, ma non mi sembra che tutti lo capiscano
Che c'entra???tutti hanno più soldi in questo modo,tu operaio,il datore di lavoro i commercianti ecc..girano più soldi,Tutti stanno meglio di noi...quindi secondo il tuo ragionamento in kazakistan dove la roba costa poco sono tutti più ricchi di noi perché risparmiamo 😂😂😂😂
scorpion73
16-12-2024, 14:13
Scusa, ma tu valuti le fasce di prodotti in base al prezzo e non in base a quanto vanno?
Quindi la panda ibrida che costa 20.000 € per te è una fascia media?
Si valuta in base al rapporto prezzo/prestazioni in base all'architettura.
Non si può valutare solo in base alle performance altrimenti le fasce non crescerebbero mai.
Il progresso dovrebbe portare ad avere sempre prestazioni maggiori a parità di fascia, non un appiattimento delle stesse.
Chiaramente mantenendo le distanze, non si può pretendere che una fascia media performi come una top, ma può raggiungere piano piano le top delle gen precedenti.
Per capirci: la fascia bassa della nuova gen deve almeno garantire le prestazioni della fascia medio-bassa della gen precedente, ma al prezzo di una fascia bassa, non della fascia successiva. Questo perché possa garantire, con i motori futuri, più complessi e pesanti, le medesime prestazioni che la fascia bassa garantisce sugli attuali.
Quindi a mio avviso bisogna considerare un pò tutto quando si vede questa cosa.
Anche perché i motori crescono come complessità e se le fasce non aumentano come prestazioni sui motori attuali, ti ritrovi poi che con i motori futuri con la Panda non ci vai manco sulla strada di casa....
AceGranger
16-12-2024, 14:19
NI, un conto è un fisiologico aumento di prezzo dovuto all'inflazione negli anni, che ci sarà sempre, peggio per chi, come noi, non hanno gli stipendi che avanzano di pari passo, MA BEN altro conto è proprio furto legalizzato. Non mi pare che di colpo, chessò, l'olio di oliva a pari brand/litraggio lo paghiamo da 10 a 20 euro a bottiglia.
non fai spesso la spesa è ? :p
https://agronotizie.imagelinenetwork.com/materiali/Varie/Image/Tommaso_Cinquemani/2024/prezziEVOO%20arete%201200.jpg
l'olio è passato da 6k euro la tonnellata a 10K la tonnellata in 2 anni, e se lo paghi uguale a prima è perchè ti stanno rifilando qualche cosa di differente e piu scadente di prima.
Invece in pochissimi anni la "fascia media" è passata da 250/300 a esagerare al doppio esatto. La fascia "bassissima" pure peggio visto che le si comprava poco 150 euro mentre ora ne vogliono sui 350 per quei chip microscopici a 128bit. Non gettiamola sempre sugli stipendi bassi, che si' ci sono, ma dall'altra parte stanno semplicemente facendo la cresta in modo ridicolo
ma sicuramente ci stanno marciando un po sopra come tutti ma il grosso è dato da altri fattori, anche perchè se fosse cosi venderebbero molto meno ovunque, e invece magari in Italia vendono meno ma nel resto d'Europa e in America continuano a vendere, anzi pure di più, perchè se non ricordo male è aumentato il comparto gaming, perchè l'aumento reale in proporzione agli stipendi "non esiste" ( dalle altre parti ).
bisognerebbe guardare il margine della divisione gaming in relazione ai volumi di vendita per fasce, ma non credo siano trovabili quei dati.
Capobianco Vincenzo
16-12-2024, 14:22
Semplicemente per rendere buona una scheda gen to gen, deve migliorare il rapporto fps/price.
Esempio:
3090 vs 4090 MSRP simile 1499$ vs 1599$
+70% di perormance, e 2-3x con FG.
Quindi ottima scheda.
3080 vs 4080 699$ 1200$ (+64% di price) a fronte di un amento di performance del 50-55%, con FG la saluta.
Pessima scheda.
A sto giro giacco venderà una 5080 a 1400 euro, facendola sembrare un affare, visto che la 4090 FE in EOL da mesi è classificata a 1799 euro, ma non trovandosi costa 2300.
Quanti ci cascheranno, prestazioni insufficiente per una 80 che dovrà far fronte a guochi nuovi.
Un pò come la 3090ti all'uscita della 4090, costava over 2000.
Si valuta in base al rapporto prezzo/prestazioni in base all'architettura.
Non si può valutare solo in base alle performance altrimenti le fasce non crescerebbero mai.
Il progresso dovrebbe portare ad avere sempre prestazioni maggiori a parità di fascia, non un appiattimento delle stesse.
Chiaramente mantenendo le distanze, non si può pretendere che una fascia media performi come una top, ma può raggiungere piano piano le top delle gen precedenti.
Per capirci: la fascia bassa della nuova gen deve almeno garantire le prestazioni della fascia medio-bassa della gen precedente, ma al prezzo di una fascia bassa, non della fascia successiva. Questo perché possa garantire, con i motori futuri, più complessi e pesanti, le medesime prestazioni che la fascia bassa garantisce sugli attuali.
Quindi a mio avviso bisogna considerare un pò tutto quando si vede questa cosa.
Anche perché i motori crescono come complessità e se le fasce non aumentano come prestazioni sui motori attuali, ti ritrovi poi che con i motori futuri con la Panda non ci vai manco sulla strada di casa....
Sono perfettamente d'accordo.
E se la guardiamo da questo punto di vista la 4060 di oggi è abbastanza equiparabile ad una 1080TI del 2017, tuttavia nel 2017 la 1080TI al lancio costava 800 euro che se li attualizziamo ad oggi con un inflazione media del 2% diventano 930 euro circa, ovvero quello che dovrebbe costare una rivale odierna della 1080Ti.
Ma se facciamo il contrario e prendiamo l'MSRP della 4060 329 euro e lo portiamo ad un ipotetico valore del 2016 diventano 286 euro che guarda caso sono molto vicini a quello che fu il prezzo della GTX1060 nel 2016, appunto circa 279 euro per la FE.
Quindi in fascia entry level in verità il prezzo è variato ben poco ma le prestazioni hanno scalato e di tanto anche. Il rapporto tuttavia è analogo in fascia entusiast dove le prestazioni hanno avuto un aumento più ripido e di conseguenza anche i prezzi.
Ale55andr0
16-12-2024, 14:35
non fai spesso la spesa è ? :p
l'olio è passato da 6k euro la tonnellata a 10K la tonnellata in 2 anni, e se lo paghi uguale a prima è perchè ti stanno rifilando qualche cosa di differente e piu scadente di prima.
.
la faccio eccome, a parte che io l'olio non lo compro a tonnellata, l'olio da che lo pagavo 8,99 ora lo pago 9.99...ma anche gli altri brand che non acquisto hanno avuto un aumento simile, non quello di quel grafico :sofico:
Quanto al sapore non è cambiata una virgola e la provenienza è chiaramente indicata in etichetta essendo pure del luogo.. (no, non è artigianale, ma di una catena famosa che non cito per ovvi motivi)
/OT
ma sicuramente ci stanno marciando un po sopra.
https://www.treccani.it/vocabolario/eufemismo/
Sono perfettamente d'accordo.
E se la guardiamo da questo punto di vista la 4060 di oggi è abbastanza equiparabile ad una 1080TI del 2017, tuttavia nel 2017 la 1080TI al lancio costava 800 euro che se li attualizziamo ad oggi con un inflazione media del 2% diventano 930 euro circa, ovvero quello che dovrebbe costare una rivale odierna della 1080Ti.
Ma se facciamo il contrario e prendiamo l'MSRP della 4060 329 euro e lo portiamo ad un ipotetico valore del 2016 diventano 286 euro che guarda caso sono molto vicini a quello che fu il prezzo della GTX1060 nel 2016, appunto circa 279 euro per la FE.
Quindi in fascia entry level in verità il prezzo è variato ben poco ma le prestazioni hanno scalato e di tanto anche. Il rapporto tuttavia è analogo in fascia entusiast dove le prestazioni hanno avuto un aumento più ripido e di conseguenza anche i prezzi.La 1080ti é praticamente la 4070ti Super di oggi, considerando il tdp di 250w, le dimensioni del chip e il tagliuzzamento...
Oggi la cosiddetta fascia alta ha anche raddoppiato consumi e calore, roba che al massimo vedevi sulle Dual GPU o in caso di sli/cross.
Non é così semplice rapportare i chip di oggi con quelli di ieri, ma la fascia media delle x60 é quella messa peggio, già da qualche anno la soglia dei 300€ non offre miglioramenti di rilievo delle prestazioni...
Se 5-6 anni fa trovavi la 2060 a 300€ oggi hai una 4060 che non ci prende manco un +40% a momenti...
Inviato dal mio M2012K11AG utilizzando Tapatalk
La 1080ti é praticamente la 4070ti Super di oggi, considerando il tdp di 250w, le dimensioni del chip e il tagliuzzamento...
Oggi la cosiddetta fascia alta ha anche raddoppiato consumi e calore, roba che al massimo vedevi sulle Dual GPU o in caso di sli/cross.
Non é così semplice rapportare i chip di oggi con quelli di ieri, ma la fascia media delle x60 é quella messa peggio, già da qualche anno la soglia dei 300€ non offre miglioramenti di rilievo delle prestazioni...
Se 5-6 anni fa trovavi la 2060 a 300€ oggi hai una 4060 che non ci prende manco un +40% a momenti...
Inviato dal mio M2012K11AG utilizzando Tapatalk
No non funziona, la 1080TI equivale oggi ad una 4060, la 4070Ti Super raggiunge risultati che sono più del doppio.
https://i.imgur.com/67hzr6Z.png
Le prestazioni di una odierna 4070Ti Super nel 2017 erano un miraggio riservato ai pochi che andavano di SLI e dove questo funzionava. Che significava 1600 eeuro dell'epoca,(1940 euro attuali) più tutto lo sbattimento annesso e connesso.
Cutter90
16-12-2024, 15:01
Si valuta in base al rapporto prezzo/prestazioni in base all'architettura.
Non si può valutare solo in base alle performance altrimenti le fasce non crescerebbero mai.
Il progresso dovrebbe portare ad avere sempre prestazioni maggiori a parità di fascia, non un appiattimento delle stesse.
Chiaramente mantenendo le distanze, non si può pretendere che una fascia media performi come una top, ma può raggiungere piano piano le top delle gen precedenti.
Per capirci: la fascia bassa della nuova gen deve almeno garantire le prestazioni della fascia medio-bassa della gen precedente, ma al prezzo di una fascia bassa, non della fascia successiva. Questo perché possa garantire, con i motori futuri, più complessi e pesanti, le medesime prestazioni che la fascia bassa garantisce sugli attuali.
Quindi a mio avviso bisogna considerare un pò tutto quando si vede questa cosa.
Anche perché i motori crescono come complessità e se le fasce non aumentano come prestazioni sui motori attuali, ti ritrovi poi che con i motori futuri con la Panda non ci vai manco sulla strada di casa....
Si ma se tutta l offerta delle vga si alza come prezzo si mantiene il discorso, giusto che fai tu cmq.
Già da tempo avviene il discorso di scalare la fascia, ma appunto le fasce sempre quelle rimangono. La 60 è una fascia da 1080p, il 1080p è la res Minima ora. Il trend è sempre quello della 60 che prende la 70 della serie prima. Proprio per l'avanzamento tecnologico dei motori.
Quindi è porprio in abase alle perf che le fasce continuano a rimanere quelle. La 60 è la fascia del 1080p da almeno la serie 1000. E ad ogni gen è rimasta la fascia da 1080p. Quindi come era la fascia bassa la 1060, resta bassa pure la 5060. Con la differenza che il prezzo di TUTTE le vga è traslato verso l'alto.
Cutter90
16-12-2024, 15:03
Che c'entra???tutti hanno più soldi in questo modo,tu operaio,il datore di lavoro i commercianti ecc..girano più soldi,Tutti stanno meglio di noi...quindi secondo il tuo ragionamento in kazakistan dove la roba costa poco sono tutti più ricchi di noi perché risparmiamo
Eh? se prendi 2000 e vivi con 2000 è la stessa identica cosa che prendere 1000 e vivere con 1000...... forse così è più chiaro :D
PS: ragazzi, L olio stava a 6-7 euro al litro quello delle marche conosciute al supermercato. Ora sta a 9-10.....
ZOTAC confirms GeForce RTX 5090 with 32GB GDDR7 memory, 5080 and 5070 series listed as well
https://videocardz.com/newz/zotac-confirms-geforce-rtx-5090-with-32gb-gddr7-memory-5080-and-5070-series-listed-as-well
AceGranger
16-12-2024, 15:25
la faccio eccome, a parte che io l'olio non lo compro a tonnellata, l'olio da che lo pagavo 8,99 ora lo pago 9.99...ma anche gli altri brand che non acquisto hanno avuto un aumento simile, non quello di quel grafico :sofico:
Quanto al sapore non è cambiata una virgola e la provenienza è chiaramente indicata in etichetta essendo pure del luogo.. (no, non è artigianale, ma di una catena famosa che non cito per ovvi motivi)
/OT
l'etichetta di dice da dove arriva non cosa c'è effettivamente dentro e il sapore.. si chiama chimica :sofico:, puoi arrivare a sapori simili per palati normali in modi differenti.
https://www.la7.it/piazzapulita/video/olio-extravergine-a-basso-costo-occhio-alla-truffa-linchiesta-29-03-2024-534292
oggi, 9,99, è un olio "extravergine" demmerda;
poi fai e credi quello che vuoi.
chiuso OT.
per le GPU, idem, credete pure che sia il giacchetta o lisona, ( no perchè non è che AMD stia vendendo a prezzi buoni... ) ad essere brutti e cattivi, ma la raltà sta altrove :p
No non funziona, la 1080TI equivale oggi ad una 4060, la 4070Ti Super raggiunge risultati che sono più del doppio.
https://i.imgur.com/67hzr6Z.png
Le prestazioni di una odierna 4070Ti Super nel 2017 erano un miraggio riservato ai pochi che andavano di SLI e dove questo funzionava. Che significava 1600 eeuro dell'epoca,(1940 euro attuali) più tutto lo sbattimento annesso e connesso.
Mi sa che hai preso fischi per fiaschi...
Non si parla di prestazioni bensì di bilanciamento del chip, una 1080ti per dimensioni del die e tdp é proporzionalmente una 4070ti super...
Che prestazionalmente una 4070ti Super vada più del doppio grazie al c...ielo 🤣
Cosa che tra l'altro non succede sulla fascia media visto che come specificato in 5-6 anni tra 2060 e 4060 ci passa un misero 38%
https://i.postimg.cc/V6Mdw6xZ/Screenshot-2024-12-16-17-05-51-851-com-microsoft-emmx-edit.jpg
Inviato dal mio M2012K11AG utilizzando Tapatalk
StylezZz`
16-12-2024, 16:05
La 4060 come chip andrebbe paragonata alla 1050/1050Ti, altro che 1060 :rolleyes:
La 4060 come chip andrebbe paragonata alla 1050/1050Ti, altro che 1060 :rolleyes:É quello il problema, é praticamente un francobollo over prezzato.
Inviato dal mio M2012K11AG utilizzando Tapatalk
mikael84
16-12-2024, 16:12
La 1080ti é praticamente la 4070ti Super di oggi, considerando il tdp di 250w, le dimensioni del chip e il tagliuzzamento...
Oggi la cosiddetta fascia alta ha anche raddoppiato consumi e calore, roba che al massimo vedevi sulle Dual GPU o in caso di sli/cross.
Non é così semplice rapportare i chip di oggi con quelli di ieri, ma la fascia media delle x60 é quella messa peggio, già da qualche anno la soglia dei 300€ non offre miglioramenti di rilievo delle prestazioni...
Se 5-6 anni fa trovavi la 2060 a 300€ oggi hai una 4060 che non ci prende manco un +40% a momenti...
Inviato dal mio M2012K11AG utilizzando Tapatalk
Il problema non da poco, è che oggi, quella 4070tis a mediamente quei listini, costa di più produrla, malgrado abbia una sigla x7.
Oltre alle spese logistiche, aumenti vari, il wafer costa oltre 3x.
Non a caso gli AIB stavano al 10% lordo in quegli anni, ora al 5%, tanto che EVGA si è defilata (e chissà che qualcuno non la segua)
https://i.postimg.cc/kGhnJ8L9/JPR-AIB-Gross-Margin-575px.png
Ci fu un rapporto di Igor, dove già per produrre una 4070 a tot.margine, centellinavano gli induttori/mostet, roba da pochi dollari, ma che su svariate unità facevano brodo, garantendogli un 10% aggiuntivo.
La 4060, è un chip risposta alla 7600, ne più ne meno. Quella veramente brutta brutta è la 4060ti, chip che di fatto ha creato un buco tra i 300 ed i 600 euro.
La 4060 come chip andrebbe paragonata alla 1050/1050Ti, altro che 1060 :rolleyes:
Non è che andrebbe paragonata, è una 4050. Il chip è derivato da AD107;)
Mi sa che hai preso fischi per fiaschi...
Non si parla di prestazioni bensì di bilanciamento del chip, una 1080ti per dimensioni del die e tdp é proporzionalmente una 4070ti super...
Che prestazionalmente una 4070ti Super vada più del doppio grazie al c...ielo
Cosa che tra l'altro non succede sulla fascia media visto che come specificato in 5-6 anni tra 2060 e 4060 ci passa un misero 38%
No no, non ho frainteso, ma non interessa a nessuno che cosa c'è dentro, solo a noi che siamo feticisti e invasati.
La sola cosa che conta è quanto va e quanto costa. Tutto il resto bla bla bla.
Sa cosa ne frega all'utente medio e a maggior ragione agli investitori, delle dimensioni del die, del TDP, del bus pci-ex, dei bit del Bus? Nulla.
Ed è anche il nulla che frega al reparto marketing quando le vende alle masse ed al reparto commerciale quando decide i prezzi. Guardano quanto va e quanto deve costare di conseguenza per marginare il giusto.
Quindi la 4060 è una X60 che paragonano con le X60.
La 4070 che dici tu si paragona con le x70 passate.
micronauta1981
16-12-2024, 17:52
Eh? se prendi 2000 e vivi con 2000 è la stessa identica cosa che prendere 1000 e vivere con 1000...... forse così è più chiaro :D
PS: ragazzi, L olio stava a 6-7 euro al litro quello delle marche conosciute al supermercato. Ora sta a 9-10.....
Ripeto ma che stai a di???��������la roba costa di più perché hanno più soldi...non è per niente la stessa cosa,qua tutti moriamo di fame, la tutti hanno i soldi ..ma veramente stiamo a discutere di sta cosa..forse tra studenti delle scuole medie fanno sti discorsi..forse ..
albero77
16-12-2024, 18:50
ZOTAC confirms GeForce RTX 5090 with 32GB GDDR7 memory, 5080 and 5070 series listed as well
https://videocardz.com/newz/zotac-confirms-geforce-rtx-5090-with-32gb-gddr7-memory-5080-and-5070-series-listed-as-well
Zotac apre le danze…Era ora…
Speriamo anche altri inizino ad aprirle ste danze... almeno abbiamo qualcosa di concreto di cui parlare :rolleyes:
Cutter90
16-12-2024, 20:28
Ripeto ma che stai a di???��������la roba costa di più perché hanno più soldi...non è per niente la stessa cosa,qua tutti moriamo di fame, la tutti hanno i soldi ..ma veramente stiamo a discutere di sta cosa..forse tra studenti delle scuole medie fanno sti discorsi..forse ..
Ma sei serio? La roba costa di più che da noi ed hanno più soldi. Ossia è la stessa cosa.
Cmq ottimo per Zotac molla fine tutte cose abbastanza "certe". Attendiamo altre succose notizie
Ale55andr0
16-12-2024, 20:29
mamma mia la 5080 è, letteralmente, la metà della 90 e in pratica ha le specs di una 4080S con le DDR7 :rolleyes:
mamma mia la 5080 è, letteralmente, la metà della 90 e in pratica ha le specs di una 4080S con le DDR7 :rolleyes:
https://i.imgur.com/PFYdNTjl.png
Eh butta malino, speriamo nei clock.
shauni86
16-12-2024, 21:11
la 5070ti quando dovrebbe arrivare su amazon?
la 5070ti quando dovrebbe arrivare su amazon?
Ma noi cosa ne dovremmo sapere? :asd:
mikael84
16-12-2024, 21:55
Eh butta malino, speriamo nei clock.
Quelli sono i clock della 4090, quelli relativi alla 5080, dovrebbero essere abbastanza più alti.
Se è data per 400watt (da confermare), deve andare almeno il 25% in più, considerando anche il PP HP leggermente migliore. Se poi sono chip solamente sparati, parliamo di fail.
Cmq, anche solo col clock +30% non lo prendi, quindi mi interesserebbe vedere la microarchitettura.
Legolas84
16-12-2024, 22:02
Bo io spero che cambi qualcosa.. cioè la 5080 dovrebbe pareggiare la 4090..
Tutto questo è il risultato dell’assenza di concorrenza nella fascia alta, dove quindi NVIDIA può davvero fare quel che vuole.
Ora almeno nel raster la 4080 uno pseudo avversario lo ha.. ma la 5080 correrà da sola e questo è il risultato :(
Inviato dal mio iPhone utilizzando Tapatalk Pro
Quelli sono i clock della 4090, quelli relativi alla 5080, dovrebbero essere abbastanza più alti.
Se è data per 400watt (da confermare), deve andare almeno il 25% in più, considerando anche il PP HP leggermente migliore. Se poi sono chip solamente sparati, parliamo di fail.
Cmq, anche solo col clock +30% non lo prendi, quindi mi interesserebbe vedere la microarchitettura.
Concordo pienamente solo di clock non fai il miracolo, c'è senza dubbio dell'altro sotto che non sappiamo.
Poi JH potrebbe sempre stupirci con un bello starting at 699 in stile Ampere :D , ma l'ultima volta che lo ha fatto si è visto il risultato. Ciccio pasticcio quando ha la polpa per le mani se la fa pagare.
Poi anche una cosa, in base al Leak di Zotac, la 5080 non esiste in una versione D, quindi potrebbe significare che non supera i requisiti per l'esportazione in Cina. Ergo rientra in quelle che sono le performance di una 4090D.
ray_hunter
17-12-2024, 08:04
Se dovessimo basarci sul fatto che teoricamente la 5090 è +50% sulla 4090, allora la 5080 che è la metà della 5090 dovrebbe andare un 75% rispetto alla 4090 (o la 4090 un ~30% in più della 5080) .
Tra parentesi la mia 4090 senza OC supera abbondantemente i 2520Mhz dichiarati e con un piccolissimo OC arriva senza batter ciglio a 2900Mhz, senza manco toccare la tensione e la ventola.
Non riesco proprio a capire come abbiano potuto fare un salto del genere tra 80 e 90. Penso non ci sia mai stato un GAP del genere. Ci si lamentava della 4080 sulla 4090, salto che invece a mio avviso c'è sempre stato ad eccezione della 3080 e 3090 che avevano una differenza irrisoria di perf.
Ricordiamo 980 su 980TI, 1080 su 1080TI e 2080 su 2080TI: c'è sempre stato circa un 25~35% di differenza che è passato ad un 10~15% tra 3080 e 3090 (o 3080TI) per tornare ad un 25~35% tra 4080 e 4090.
Qua tra 5080 e 5090 siamo ad un ~100%: veramente non capisco...
RoUge.boh
17-12-2024, 08:51
Se dovessimo basarci sul fatto che teoricamente la 5090 è +50% sulla 4090, allora la 5080 che è la metà della 5090 dovrebbe andare un 75% rispetto alla 4090 (o la 4090 un ~30% in più della 5080) .
Tra parentesi la mia 4090 senza OC supera abbondantemente i 2520Mhz dichiarati e con un piccolissimo OC arriva senza batter ciglio a 2900Mhz, senza manco toccare la tensione e la ventola.
Non riesco proprio a capire come abbiano potuto fare un salto del genere tra 80 e 90. Penso non ci sia mai stato un GAP del genere. Ci si lamentava della 4080 sulla 4090, salto che invece a mio avviso c'è sempre stato ad eccezione della 3080 e 3090 che avevano una differenza irrisoria di perf.
Ricordiamo 980 su 980TI, 1080 su 1080TI e 2080 su 2080TI: c'è sempre stato circa un 25~35% di differenza che è passato ad un 10~15% tra 3080 e 3090 (o 3080TI) per tornare ad un 25~35% tra 4080 e 4090.
Qua tra 5080 e 5090 siamo ad un ~100%: veramente non capisco...
Gli appassionati con i soldi (early adopeted) si lanceranno sicuramente sulla RTX 5090, mettendo in vendita le loro attuali 4090. Tuttavia, chi possiede già una 4090 o una 4080 e non ha un'esigenza specifica (no money) difficilmente sentirà la necessità di un upgrade, a meno che non si tratti di un salto prestazionale davvero netto.
Per questo si è creata questo gap (ipotetico).
Oggi, grazie al DLSS, anche schede come la 4060 pubblicizzano di giocare oltre i 100 FPS con buone impostazioni grafiche, rendendo inutile l'acquisto delle nuove schede per un utente comune.
NVIDIA mantiene una posizione dominante nel mercato (90% di market share), ma la situazione attuale è diversa rispetto al passato: tolta la prima ondata di acquirenti (che saranno sempre meno) le nuove schede rischiano di rimanere invendute se non proposte al giusto prezzo. (e qui ci sta anche l'analisi di: https://www.youtube.com/watch?v=TBTJG6cU7lY )
La realtà è che, a livello globale, le persone stanno dando priorità ad altre spese ( l'RGB e l'estetica AIO da 300 €:sofico: :sofico: )
Conosco molti giocatori che continuano a usare schede più datate, come la GTX 1070, che a 1080p con impostazioni medio-basse è ancora sufficiente.
Se e quando decideranno di fare un upgrade, punteranno al massimo su una RTX 4060.
--AleX--
17-12-2024, 08:58
acquirenti (che saranno sempre meno) le nuove schede rischiano di rimanere invendute se non proposte al giusto prezzo
E sivalletto :D
Per quanto sia brutto da dire ma visto l'andazzo di nvidia non penso che la 5080 pareggerà la 4090, e a quello ci penserà la 5080 super che probabilmente la supererà di qualcosa. E' la cosa più logica da pensare visto l'apparente enorme divario tra la 5080 e la 5090: lasciano un buco in mezzo da riempire con la 5080 super e la fanno andare qualcosa in più di una 4090 (che, per inciso, rimane una bestia). Ovviamente è una politica schifosa ma mi sto mettendo nei panni di giacchetta :fagiano:
--AleX--
17-12-2024, 09:04
Per quanto sia brutto da dire ma visto l'andazzo di nvidia non penso che la 5080 pareggerà la 4090, e a quello ci penserà la 5080 super che probabilmente la supererà di qualcosa. E' la cosa più logica da pensare visto l'apparente enorme divario tra la 5080 e la 5090: lasciano un buco in mezzo da riempire con la 5080 super e la fanno andare qualcosa in più di una 4090. Ovviamente è una politica schifosa ma mi sto mettendo nei panni di giacchetta :fagiano:
C'è tutto lo spazio per la 5080 Ti e la 5080 SUPER... i c/c di NVIDIA sono belli capienti
Capobianco Vincenzo
17-12-2024, 09:15
Si ma a quel punto se non superasse 4090 a 1199$ se la tira sui denti, sarebbe un fail anche a 999$n dai su solo con il clock fa +20% ma quando mai non avrà rivisto l'architettura, campa di rendita dal 2020 con ampere, ha solo aggiunto L2 con Ada, il resto l'ha fatto con il pp che ha permesso di raggiungere le frequenze monster.
A sto giro il pp è miserabile, deve per forza rivedere l'architettura, senza uno straccio di info su come sia fatto questo SM è impossibile determinare le performance
Se il prezzo del wafer è a 18.000 $ nel 2025 si parla di un aumento a 20.000$ stampare 5080/5070ti per lui è giocherellare, visto che su 300mm2 di wafer gliene escono tipo 180.
La 5090 con quei 750mm2 la prevedo molto costosa su un wafer ne stampa 70 di quei chip, con il prezzo a 18k costa circa 280$, con resa al 90%, sara sicuramente meno a livello di resa e comincerà a classificare chip e "fare legna" per eventuali release future di 5080ti su gb202 e li potrà fare ul cavolo che vuole con i bus a 448bit-384 ma a che modelli a 320bit visto l'enorme gap tra 5090 e 5080, stavolta se vuole può mungere come vuole.
Alla luce di ciò, e visto che monta anche un corposo 512 bit, la 5090 IMHO costerà 1799$ (se ci vorrà bene) 2100 da noi, un aumento di 200$ dalla 4090.
redbaron
17-12-2024, 09:15
nvidia-geforce-rtx-5080-tipped-to-feature-30-gbps-gddr7-memory
https://videocardz.com/newz/nvidia-geforce-rtx-5080-tipped-to-feature-30-gbps-gddr7-memory
RoUge.boh
17-12-2024, 09:19
https://videocardz.com/newz/nvidia-geforce-rtx-5080-tipped-to-feature-30-gbps-gddr7-memory
Senza contare Il DLSS 4.0
Primo commento da incorniciare:
"Daily 1-2 Nvidia 'news' nowadays, and we know nearly nothing about AMD RDNA 4 at this stage..." se la controparte è questa...
--AleX--
17-12-2024, 09:22
se la controparte è questa...
che gli frega, stiamo comprando tutti gli X3D prima ancora che li escano sugli scaffali... e non costano 100 euro l'uno...
mikael84
17-12-2024, 12:00
Concordo pienamente solo di clock non fai il miracolo, c'è senza dubbio dell'altro sotto che non sappiamo.
Poi JH potrebbe sempre stupirci con un bello starting at 699 in stile Ampere :D , ma l'ultima volta che lo ha fatto si è visto il risultato. Ciccio pasticcio quando ha la polpa per le mani se la fa pagare.
30% effettivo, l'ha preso ADA su Ampere clockando il 50% in più (anche oltre in OC), vorrebbe dire pareggiare la 4090 >4ghz.
Sui 699$ si, ma sono saranno in sparsity mode, quindi per 2.
Cmq, i costi per quel chip, sono i medesimi della 4080s, 999 o 1199 dovrebbe essere il suo listino.
Poi anche una cosa, in base al Leak di Zotac, la 5080 non esiste in una versione D, quindi potrebbe significare che non supera i requisiti per l'esportazione in Cina. Ergo rientra in quelle che sono le performance di una 4090D.
Si, perchè se migliori l'IPC per cuda, la potenza teorica è sempre quella.
Per il resto bella domanda. La 4090D è cuttata a 14592cc, quindi +35,7% (114/84 SM x 4 tensor) , ciò significa che a 3,7 supererebbe i 4800TPP. Quindi, solo a clock non ci arrivi.;)
Chiaro, i test, andrebbero fatti in scenari dove la 4090 spinge, non 1440p su far cry 6 su high.
Se dovessimo basarci sul fatto che teoricamente la 5090 è +50% sulla 4090, allora la 5080 che è la metà della 5090 dovrebbe andare un 75% rispetto alla 4090 (o la 4090 un ~30% in più della 5080) .
Tra parentesi la mia 4090 senza OC supera abbondantemente i 2520Mhz dichiarati e con un piccolissimo OC arriva senza batter ciglio a 2900Mhz, senza manco toccare la tensione e la ventola.
Non riesco proprio a capire come abbiano potuto fare un salto del genere tra 80 e 90. Penso non ci sia mai stato un GAP del genere. Ci si lamentava della 4080 sulla 4090, salto che invece a mio avviso c'è sempre stato ad eccezione della 3080 e 3090 che avevano una differenza irrisoria di perf.
Ricordiamo 980 su 980TI, 1080 su 1080TI e 2080 su 2080TI: c'è sempre stato circa un 25~35% di differenza che è passato ad un 10~15% tra 3080 e 3090 (o 3080TI) per tornare ad un 25~35% tra 4080 e 4090.
Qua tra 5080 e 5090 siamo ad un ~100%: veramente non capisco...
2560 è il boost base 0,95v circa, quello effettivo è mediamente sopra i 2700 per le FE (1,1v circa).
Sono 3 gli stadi di clock.
La 5090 supera del 102% circa la 5080, ma non scala di certo 1:1, anzi... se fa 50-60% è oro.
Tra 4090 e 4080 super c'è +56%, ma lo scaling è tra 25-35.
nvidia-geforce-rtx-5080-tipped-to-feature-30-gbps-gddr7-memory
https://videocardz.com/newz/nvidia-geforce-rtx-5080-tipped-to-feature-30-gbps-gddr7-memory
Già meno, era data per 32 vs i 28 delle altre.
magic carpet
17-12-2024, 12:04
ZOTAC confirms GeForce RTX 5090 with 32GB GDDR7 memory
https://videocardz.com/newz/zotac-confirms-geforce-rtx-5090-with-32gb-gddr7-memory-5080-and-5070-series-listed-as-well
RoUge.boh
17-12-2024, 12:43
ZOTAC confirms GeForce RTX 5090 with 32GB GDDR7 memory
https://videocardz.com/newz/zotac-confirms-geforce-rtx-5090-with-32gb-gddr7-memory-5080-and-5070-series-listed-as-well
https://videocardz.com/newz/acer-confirms-geforce-rtx-5090-32gb-and-rtx-5080-16gb-gddr7-graphics-cards
5090 32
5080 16
Orami qui non ci piove
Cutter90
17-12-2024, 12:46
https://videocardz.com/newz/acer-confirms-geforce-rtx-5090-32gb-and-rtx-5080-16gb-gddr7-graphics-cards
5090 32
5080 16
Orami qui non ci piove
O le 5000 hanno un metodo di compressione texture via driver che non dipende quindi dagli sviluppatori, oppure una 5080 a 16 gb è davvero terribile considerando che è una scheda per il 4k che deve ancora uscire
-10% con la nuova app NVIDA, si gettano le basi per le 5000 XD
https://videocardz.com/newz/nvidia-investigating-lower-performance-related-to-game-filters-in-nvidia-app
Hellhound
17-12-2024, 12:56
-10% con la nuova app NVIDA, si gettano le basi per le 5000 XD
https://videocardz.com/newz/nvidia-investigating-lower-performance-related-to-game-filters-in-nvidia-app
Easy:stordita: , io punto sulla 5070 ti
Cutter90
17-12-2024, 12:58
-10% con la nuova app NVIDA, si gettano le basi per le 5000 XD
https://videocardz.com/newz/nvidia-investigating-lower-performance-related-to-game-filters-in-nvidia-app
ne stavamo parlando di là
Ecco, infatti scavando più a fondo
"Attenzione: da fonti reddit varie dicono che non sia tanto l'Nvidia app a rovinare le prestazioni ma l'overlay. Da vari test, disabilitando quella opzione, le prestazioni tornano alla normalita.
Fonte: http://www.digitaltrends.com/computi...e-loss-tested/
"But when you keep the Nvidia App installed and disable the Nvidia overlay, something magical happens. Performance goes right back up to where it was with the app uninstalled. With Silent Hill 2, I actually saw slightly higher performance""
Quindi come immaginavo è colpa dell'overlay. Tanto riva tuner è il migliore, non capisco perchè usare quello nvidia.
Video anche da HU
https://www.youtube.com/watch?v=aBW_3tArLOY
L'overlay causa 1-2 fps di drop. In realtà nulla di strano, secondo me tutti gli overlay impattano qualcosina, suprattutto se si è cpu/gpu limited.
Cmq, basta non usarlo e si è a posto. L'app può rimanere installata
Non fare quelle battute che poi la gente malpensante ci crede ahahah
Infatti sotto nei commenti all'articolo la gente si scaglia a caso contro nivdia
Se dovessimo basarci sul fatto che teoricamente la 5090 è +50% sulla 4090, allora la 5080 che è la metà della 5090 dovrebbe andare un 75% rispetto alla 4090 (o la 4090 un ~30% in più della 5080) .
Tra parentesi la mia 4090 senza OC supera abbondantemente i 2520Mhz dichiarati e con un piccolissimo OC arriva senza batter ciglio a 2900Mhz, senza manco toccare la tensione e la ventola.
Non riesco proprio a capire come abbiano potuto fare un salto del genere tra 80 e 90. Penso non ci sia mai stato un GAP del genere. Ci si lamentava della 4080 sulla 4090, salto che invece a mio avviso c'è sempre stato ad eccezione della 3080 e 3090 che avevano una differenza irrisoria di perf.
Ricordiamo 980 su 980TI, 1080 su 1080TI e 2080 su 2080TI: c'è sempre stato circa un 25~35% di differenza che è passato ad un 10~15% tra 3080 e 3090 (o 3080TI) per tornare ad un 25~35% tra 4080 e 4090.
Qua tra 5080 e 5090 siamo ad un ~100%: veramente non capisco...
Mancanza di concorrenza, introiti AI esorbitanti che coprono i mancati guadagni. Nel peggiore dei casi la 5080 sarà l'ennesima fascia rinominata verso l'alto(5070ti) con i benchmarks che strizzano l'occhio al dlss. L'ipotetica 5080s o ti con 24gb di ram potrebbe essere la vera 5080, lo stacco sarà netto e non una presa in giro come tra 4080 e 4080s.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.