View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
scorpion73
24-09-2022, 22:36
Che sia preferibile uno nativo è chiaro.
Ma se uno ha GIÀ un alimentatore da 1000 w io aspetterei a buttare 400 euro aspettando cosa succederà.
Concordo sul fatto di attendere, anche perché ho letto di case che preparano cavi da 8 pin vs il nuovo connettore per le attuali PSU.
E' sull'adattatore che io personalmente sono poco convinto, perché sono comunque giunzioni (prima per la prolunga e poi per la convergenza di tre cavi su un unico connettore), ma sono mie paranoie. Le case lo danno penso si possa usare. Ma i test chiariranno spero anche questa cosa.
Un chiarimento. Perche 2x8 -> 14?
Non dovrebbero essere almeno 3x8?
Cmq su questi consumi credo sia più probabile puntare su un undervolt che su un overclock puro.
Perché se guardi il cavo del Thor è un 2x8 a sezione maggiorata rispetto a un normale cavo a 8 pin.
Questa sezione maggiorata ti consente di superare il limite di sicurezza dei 150W a connettore e avvicinarti al limite teorico di 282W a connettore che è quello che attualmente possono sopportare i connettori 8 pin.
fraussantin
24-09-2022, 22:37
In teoria dovrebbero esserci 4 da 8 pin nei adattatori. Forse lui intende, ma non sono un esperto in questo, che 2 da 8 pin erogano il doppio dei adattatori e sono migliori se non erro.Infatti 4x8 , specialmente se l'alimetatore ha 4 cavi separati regge.
Il problema rimane lato connettore nuovo che deve essere di ottima qualità, senno ci sta che si incendi. Almeno da quello che ho capito.
Vedremo.
Concordo sul fatto di attendere, anche perché ho letto di case che preparano cavi da 8 pin vs il nuovo connettore per le attuali PSU.
E' sull'adattatore che io personalmente sono poco convinto, perché sono comunque giunzioni (prima per la prolunga e poi per la convergenza di tre cavi su un unico connettore), ma sono mie paranoie. Le case lo danno penso si possa usare. Ma i test chiariranno spero anche questa cosa.
Perché se guardi il cavo del Thor è un 2x8 a sezione maggiorata rispetto a un normale cavo a 8 pin.
Questa sezione maggiorata ti consente di superare il limite di sicurezza dei 150W a connettore e avvicinarti al limite teorico di 282W a connettore che è quello che attualmente possono sopportare i connettori 8 pin.
Capito , era un discorso del thor.
scorpion73
24-09-2022, 22:37
Edit. Sono 4x8 da quel che vedo in giro o sbaglio ?
Cmq su questi consumi credo sia più probabile puntare su un undervolt che su un overclock puro.
Dipende: se la scheda è una versione OC si, se è rigorosamente senza OC sono 3x8 (450W)
Lo si può vedere sulle Zotac (dal sito) e anche dal sito Nvidia per le FE.
fraussantin
24-09-2022, 22:42
Dipende: se la scheda è una versione OC si, se è rigorosamente senza OC sono 3x8 (450W)
Lo si può vedere sulle Zotac (dal sito) e anche dal sito Nvidia per le FE.Cmq conviene aspettare e vedere come si evolve la cosa.
Poi è anche vero che 2200 euro di scheda fanno sembrare il costo dell' alimentatore una bazzecola .. ormai che uno è a spendere.
Il Seasonic vertex è attualmente l'unico che rispetta la piena compatibilità con ATX 3.0 e il Loki di ASUS ?
DJurassic
24-09-2022, 22:44
Lancio un sondaggio: chi ha intenzione di prendere una 4090 (anche non supercustom) usando l'attuale alimentatore e chi invece si prende un ali nuovo, considerando il discorso del connettore che si sente in giro sti giorni?
Io proverò a prendere una 4090 FE senza cambiare alimentatore. Ho un EVGA G2 1300w. È mia intenzione liquidarla il prima possibile come ho fatto con la 3080. Per il cavo sicuramente prenderò qualcosa di meglio quando inizieranno ad essere commercializzati.
fraussantin
24-09-2022, 22:45
Se ti fa stare piu sereno fai bene a farti paranoie anche io a volte ce le ho :) comunque io tempo fa collegavo due 8 pin ad un unico 8 pin di alimentatore. Tuttavia ora li separo sempre e metto uno che va al proprio punto senza attaccare lo sdoppiatore.
Edit: Comunque io credo che ne metteranno uno decente in bundle altrimenti se si bruciano non c'è diritto su qualcosa se hanno fatto loro danno? Secondo me per evitare problemi spenderanno qualche euro in più e ce lo mettono. D'altronde mica costano poco.Ma figurati , io ho tenuto la mia prima 3080 ( e pure la seconda per un po )collegata sempre con un cavo singolo sdoppiato su un ali sottodimensionato ( 650w)
Non è successo niente.
Le specifiche le devono rispettare con le buone o con le cattive.
Qui mi preoccupa di più i 4 cavi che vanno a saldarsi si un connettore troppo piccolo per quei watt. Basta poco per fare la frittata. ( Una piegata brusca in fase di assemblaggio , o un piccolo difetto di fabbricazione)
( Vorrei sapere cosa aveva in testa l'ingegnere che lo ha fatto così piccolo visto che va su schede da 30 cm non su smartphone)
Sonpazzo
24-09-2022, 22:52
Buonasera, scusatemi al di là del cavo nativo o meno un buon alimentatore da 1000 watt per una prossima 4090 tipo msi suprim o strix potrebbe non bastare in termini di potenza ?
Con 1000w alimenti 2
Lancio un sondaggio: chi ha intenzione di prendere una 4090 (anche non supercustom) usando l'attuale alimentatore e chi invece si prende un ali nuovo, considerando il discorso del connettore che si sente in giro sti giorni?
Penso di attedere le recensioni di tutto Nvidia e AMD e poi in base al Waterblock disponibile ed al PL maggiore vedrò il dafarsi.
Tentato comunque dalla 4090 ma frenato da una possibile 4090 Ti.
Sonpazzo
24-09-2022, 23:01
scusate ma è mia impressione nel notare una certa malattia terroristica sul preoccuparsi del nulla . Cioè seguo da anni il thread e mi sembra che ultimamente si esageri. Se non hai un alimentatore all'ultimo grido il pc non parte nemmeno. Se non hai una cpu con millemila core hai millemila bottiglie nel case. Non provate un certo terrorismo classico della vita reale(social) degli ultimi tempi? quando con una semplice vga da 300 euro spari sopra i 60fps qualsiasi cosa giri su windows? Anche maxato con le più inutili differenze da Alto?????
Vabbe ma la 4090 ti chissà quando esce :) magari sarà già a metà gen. Tanto vale aspettare la 5000 xD
Con tutto quello che ho da giocare in erretrato la 3090 mi potrebbe bastare anche fino alle 5090ti:D
Non ho nessuna fretta di comprare al D1.
albero77
24-09-2022, 23:12
scusate ma è mia impressione nel notare una certa malattia terroristica sul preoccuparsi del nulla . Cioè seguo da anni il thread e mi sembra che ultimamente si esageri. Se non hai un alimentatore all'ultimo grido il pc non parte nemmeno. Se non hai una cpu con millemila core hai millemila bottiglie nel case. Non provate un certo terrorismo classico della vita reale(social) degli ultimi tempi? quando con una semplice vga da 300 euro spari sopra i 60fps qualsiasi cosa giri su windows? Anche maxato con le più inutili differenze da Alto?????
Zio sei su hwup:asd:
Sonpazzo
24-09-2022, 23:21
Zio sei su hwup:asd:
Appunto, obiettività sconosciuta
mikael84
25-09-2022, 00:04
scusate ma è mia impressione nel notare una certa malattia terroristica sul preoccuparsi del nulla . Cioè seguo da anni il thread e mi sembra che ultimamente si esageri. Se non hai un alimentatore all'ultimo grido il pc non parte nemmeno. Se non hai una cpu con millemila core hai millemila bottiglie nel case. Non provate un certo terrorismo classico della vita reale(social) degli ultimi tempi? quando con una semplice vga da 300 euro spari sopra i 60fps qualsiasi cosa giri su windows? Anche maxato con le più inutili differenze da Alto?????
Tutto terrorismo, per far comprare gli ALI.
Se non si conoscono gli standard AWG, si parla sempre del nulla.
Ora nulla contro di chi lo vuole comprare, ma il terrorismo che se ne fa, è davvero assurdo.
AWG16: 10A tollerati, 8,3 con overhead
AWG18: 6 A
AWG20 standard 4,1 A per line.
1 cavo 16 pin nativo equivale a 2x8 pin da 8, infatti corsair il banale 2x8 lo fa compatibile. :)
https://www.corsair.com/eu/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284?_ga=2.255560335.626727555.1663703173-624612520.1642457431
Infatti 4x8 , specialmente se l'alimetatore ha 4 cavi separati regge.
Il problema rimane lato connettore nuovo che deve essere di ottima qualità, senno ci sta che si incendi. Almeno da quello che ho capito.
Vedremo.
Capito , era un discorso del thor.
Gli adattatori sono in AWG16 non 20, quindi possono tollerare 300 watt easy a cavo.
La 3090ti, che vi ho mostrato ripartisce benissimo la corrente, non esiste una ripartizione tutta su un cavo, non è mai esistito, solo nella loro prova.
Qualora lo facesse, un AWG16 2x8 pin è lo stesso di un cavo 16 pin nativo dove le linee anzichè 3 sono 6.
Es corsair.
https://www.corsair.com/eu/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284?_ga=2.255560335.626727555.1663703173-624612520.1642457431
amon.akira
25-09-2022, 00:18
Tutto terrorismo, per far comprare gli ALI.
Se non si conoscono gli standard AWG, si parla sempre del nulla.
Ora nulla contro di chi lo vuole comprare, ma il terrorismo che se ne fa, è davvero assurdo.
a ma pensa che io la collegherò al 750 quindi anche al di sotto del consigliato nvidia...poi con calma se riesco prendo un vertex 850 ma piu che altro per avere un filo solo XD
mikael84
25-09-2022, 00:20
alla fine è un migliorarsi con i mezzi che si hanno, ovviamente avere tutto non è possibile quindi si fanno compromessi, effettivamente ora con i 1/4 di frame + 1frame generato (7/8) non so come sia il risultato dovrò vederlo con i miei occhi, normalmente da 4k fino a bilanciato è accettabile, e quality è il top.
tra cosi e non usufruire del raytracing meglio la prima.
diciamo che ora si sono spinti forse un po troppo in la, ma voglio vedere il risultato finale di un ipotetico cyberpunk overdrive.
sicuramente saranno settings solo da 4090, come lo furono all inizio solo per le 2080ti
JHH investe tutto li ormai con l'HPC, dove ha margine più del gaming pro ormai. Quindi i tensor li ricicla nelle gaming successive, quindi nella prossima serie avremmo quelli a 512 OPS.:)
La mia era giusto una considerazione, sul fatto che paradossalmente, stiamo praticamente tornando ad ottenere frame a bassa precisione.
Io almeno, sui giochi che ho giocato, mi sono trovato bene, in alcuni essenziale, come DS, però non giudico neppure chi trova il DLSS non valido e preferisce la nativa, ma, se si vuole implementare qualcosa di non accessibile questo è...:)
Con la prossima serie 5000, JHH metterà i tensor di Hopper, con 2x OPS, quindi, DLSS4 forse.
Ma io personalmente trovo il DLSS un'ottima trovata ed un occhio lo posso pure chiudere a fronte di un guadagno prestazionale raddoppiato o addirittura quadruplicato. Il fatto e' che a questa tecnologia, sempre essendo una forma di upscaling, e' intrinseca la perdita di informazioni, che possono essere si' ricostruite, ma non saranno mai del tutto equivalenti ad una res nativa. Il metodo sara' sicuramente ulteriormente affinato nelle prossime iterazioni, tuttavia la sua introduzione sopperisce semplicemente alla ancora non sufficiente forza bruta per poter gestire l'effettistica introdotta da DXR/RTX/vattelapesca, e sara' ancora cosi' per gli anni a venire. Siamo ancora in un periodo di transizione. Forse ad un certo punto non ce ne sara' piu' bisogno.
Si concordo, pure io mi sono trovato bene in vari giochi, per carità, in alcuni quasi essenziale, tra la rimozione shimmering ed AA.:)
Ragionavo sul fatto, che a tanti il DLSS non piace, e che paradossalmente 3/4 di frame vengono fatti via matrice fp16, quando lo stesso JHH ebbe da dire sui calcoli fp16.:)
Per il resto conta ciò che vedo, non come lo ottengo alla fine.:)
Il fatto è che jhh ha esplicitamente detto che non si può contare sulla forza bruta , ma per ottenere più fps la via è questa .
Inviato dal mio iPhone X utilizzando Tapatalk
Avendo investito tutto sulle matrici, le usa. Con la prox serie, ci sarà un altro balzo deciso lato tensor.:)
Mika cosa mi hai ricordato Halo sulle Nvidia 5900 vs ati 9700pro :Puke:
:p
Quell'aborto era creato da nvidia ed ingegneri ex 3dfx.
Dalla serie dopo comincio la cavalcata...
mikael84
25-09-2022, 00:35
a ma pensa che io la collegherò al 750 quindi anche al di sotto del consigliato nvidia...poi con calma se riesco prendo un vertex 850 ma piu che altro per avere un filo solo XD
Al massimo quando la monti chiama i vigili del fuoco per sicurezza.:p
I tuoi cavi classici sono AWG18, tollerati per 6A 216 watt (430 x2-860x4). L'adattator è AWG16 (che poi 50 watt andranno al pci express, quindi ancora meno nei cavi).
Volendo puoi anche collegarla, mettere PL 60-70% e guardare la ripartizione, se tutti sono ripartiti correttamente, puoi fare il dito medio a chi di dovere.:)
mikael84
25-09-2022, 00:43
Dunque mi confermi che non serve avere un alimentatore nativo? Vabbe che io volevo aspettare il thor.
Fai bene se non te la senti di cambiarlo :)
Se hai un ALI di 5 anni fa, vecchiotto, visto che spendi 2000-2500 euro, cosa sono 300 euro per un ALI?
Se, hai appena comprato un ALI da 1000watt di buona fascia, cambiarlo per i cavetti, è totalmente inutile. Certo, la rottura di tutti quei cavi penzolanti rimane, ma non servirà chiamare i vigili del fuoco.
piperprinx
25-09-2022, 05:54
Lancio un sondaggio: chi ha intenzione di prendere una 4090 (anche non supercustom) usando l'attuale alimentatore e chi invece si prende un ali nuovo, considerando il discorso del connettore che si sente in giro sti giorni?
Mi tengo il Corsair in firma, magari con il nuovo cavo, a meno che non manifesti problemi.
nessuno29
25-09-2022, 06:12
Che cosa implica avere frame a bassa precisione rispetto a quelli che abbiamo sempre visto in fp32?
StrixyRoG
25-09-2022, 07:03
Lancio un sondaggio: chi ha intenzione di prendere una 4090 (anche non supercustom) usando l'attuale alimentatore e chi invece si prende un ali nuovo, considerando il discorso del connettore che si sente in giro sti giorni?
Ho il Thor 850W e non lo cambierei sicuramente, ma viste un po' le cose mi sta comunque passando l'hype della 4090, mi terrò la 3080ti fino al 2024 e poi si vedrà, sperando che nel frattempo escano giochi per i quali valga la pena cambiare scheda.
fraussantin
25-09-2022, 07:20
Tutto terrorismo, per far comprare gli ALI.
Se non si conoscono gli standard AWG, si parla sempre del nulla.
Ora nulla contro di chi lo vuole comprare, ma il terrorismo che se ne fa, è davvero assurdo.
AWG16: 10A tollerati, 8,3 con overhead
AWG18: 6 A
AWG20 standard 4,1 A per line.
1 cavo 16 pin nativo equivale a 2x8 pin da 8, infatti corsair il banale 2x8 lo fa compatibile. :)
https://www.corsair.com/eu/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284?_ga=2.255560335.626727555.1663703173-624612520.1642457431
Gli adattatori sono in AWG16 non 20, quindi possono tollerare 300 watt easy a cavo.
La 3090ti, che vi ho mostrato ripartisce benissimo la corrente, non esiste una ripartizione tutta su un cavo, non è mai esistito, solo nella loro prova.
Qualora lo facesse, un AWG16 2x8 pin è lo stesso di un cavo 16 pin nativo dove le linee anzichè 3 sono 6.
Es corsair.
https://www.corsair.com/eu/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284?_ga=2.255560335.626727555.1663703173-624612520.1642457431Nel caso il mio seasonic prime 1000 gold se non sbaglio ha 6 cavi singoli , quindi non dovrei avere pensieri .
Anche perche sono alimentatori pensati per nvlink di 3090ti, una scheda la devono reggere.
Poi ho anche la mente libera da pensieri dopo visto i prezzi 😂😂
Predator_1982
25-09-2022, 07:22
a ma pensa che io la collegherò al 750 quindi anche al di sotto del consigliato nvidia...poi con calma se riesco prendo un vertex 850 ma piu che altro per avere un filo solo XD
Pure io sarei tentato di fare così…nel caso non dovessi resistere a cliccare sul pulsantone acquista….sempre di vederlo :D
Lancio un sondaggio: chi ha intenzione di prendere una 4090 (anche non supercustom) usando l'attuale alimentatore e chi invece si prende un ali nuovo, considerando il discorso del connettore che si sente in giro sti giorni?
Se lo devi comprare nuovo aspetta i vertex e prenditi il nativo.
Se vuoi la 4090 è importante che vi sia il nativo rispetto all'adattatore perché sicuramente sarà progettato il cavo per quelle tensioni
L'adattatore funziona sui cavi attuali che avranno una sezione sicuramente minore del nativo.
Io per la 4090 consiglio il nativo o quantomeno, rigorosamente senza OC, un cavo come quello del Thor vs 8 pin ma nativo della casa a sezione maggiore.
Personalmente il thor se dovessi prendere un ali nuovo non lo prenderei, aspetterei il nativo.
Io ho un Corsair SFX 750 Platinum e un Ryzen7 5700X.
Nel caso in cui dovessi decidere di prendere una 4090 terrei il mio alimentatore, ma al posto di utilizzare l’adottare comprerei il nuovo cavo (https://www.corsair.com/it/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284#tab-overview) della Corsair per i "vecchi" alimentatori.
Stanno facendo del terrorismo per farci comprare i nuovi ali.
Vi consiglio di aspettare che il produttore del vostro alimentare metta in commercio il nuovo cavo come ha fatto Corsair. :D
Predator_1982
25-09-2022, 08:00
Io ho un Corsair SFX 750 Platinum e un Ryzen7 5700X.
Nel caso in cui dovessi decidere di prendere una 4090 terrei il mio alimentatore, ma al posto di utilizzare l’adottare comprerei il nuovo cavo (https://www.corsair.com/it/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284#tab-overview) della Corsair per i "vecchi" alimentatori.
Stanno facendo del terrorismo per farci comprare i nuovi ali.
Vi consiglio di aspettare che il produttore del vostro alimentare metta in commercio il nuovo cavo come ha fatto Corsair. :D
ma quello corsair io francamente non lo vedo ancora disponibile online, infatti io proverei francamente prima di cambiare alimentatore. A giudicare da quanto consuma il resto dei componenti, da quello che vedo, i 450W per la GPU a me sarebbero cmq garantiti. Se poi in uno stress test si spegnesse tutto di colpo..beh, allora è cambio obbligato.
Io ho un Corsair SFX 750 Platinum e un Ryzen7 5700X.
Nel caso in cui dovessi decidere di prendere una 4090 terrei il mio alimentatore
saresti fuori specifiche e fuori garanzia, Nvidia sul suo sito mette un 850w come minimo alimentatore richiesto...
Lancio un sondaggio: chi ha intenzione di prendere una 4090 (anche non supercustom) usando l'attuale alimentatore e chi invece si prende un ali nuovo, considerando il discorso del connettore che si sente in giro sti giorni?Io ho un Corsair AX1600i e non ci penso proprio a cambiarlo. Prenderò i cavi di Corsair che sono specificati fino a 600w. Nel secondo PC ho un EVGA 1600 T2 e spero che anche per quello EVGA fornisca cavi come ha fatto Corsair, giusto per avere anche questo ali future proof
Il mio piano iniziale era aggiornare il PC principale con una 4090 passare la 3080 ti nel secondo PC (è una MSI ventus 3x con PL bloccato ma undervoltata con una curva di voltaggio personalizzata resta fresca e funziona bene). Il problema è che dopo la presentazione la scimmia è a terra. Mi sarei aspettato un prezzo della 4090 intorno ai 1700/1800 per una buona custom. Non ci si prende nemmeno una 4080 Strix o Suprim con quei soldi... Io ho sempre speso per questo hobby, ho sfondato la soglia psicologica dei 1000 euro al lancio della prima Titan ma adesso non so se ce la faccio a superare la soglia dei 2000 anche se potrei permettermelo. Aspetto la presentazione delle AMD e poi valuterò con tutte le recensioni alla mano. Potrei anche dirottare la spesa su di un LG 42C2.
Predator_1982
25-09-2022, 08:41
Io ho un Corsair AX1600i e non ci penso proprio a cambiarlo.
non avresti nessun motivo per farlo infatti.
saresti fuori specifiche e fuori garanzia, Nvidia sul suo sito mette un 850w come minimo alimentatore richiesto...
Leggi bene. :D
In fondo in piccolo c'è scritto:"4 - Le prestazioni minime si basano su un PC configurato con processore Ryzen 9 5900X. I requisiti di alimentazione possono variare a seconda della configurazione del sistema.
E quindi alla fine i conti tornano: RTX 4090 + Ryzen 9 5900X = 850W.
Non solo ma ti dico anche che RTX 4090 +Ryzen 7 5700X = 700W e quindi con il mio 750W sono più che apposto :D
Il modo corretto per calcolare l'alimentatore è: (consumo Max GPU + consumo Max CPU) + 20% :D
Nel caso in cui ci troviamo difronte a build particolari, come un pc con una marea di ventole oppure particolari periferiche, si aggiunge anche il consumo delle suddette. :D
La 4090 FE consuma 450W e il calcolo va fatto su questo valore.
In caso di una custom con consumi maggiori si prenderà il relativo valore della scheda tecnica del produttore.
Predator_1982
25-09-2022, 08:48
Leggi bene. :D
In fondo in piccolo c'è scritto:"4 - Le prestazioni minime si basano su un PC configurato con processore Ryzen 9 5900X. I requisiti di alimentazione possono variare a seconda della configurazione del sistema.
E quindi alla fine i conti tornano: RTX 4090 + Ryzen 9 5900X = 850W.
Non solo ma ti dico anche che RTX 4090 +Ryzen 7 5700X = 700W e quindi con il mio 750W sono più che apposto :D
Il modo corretto per calcolare l'alimentatore è: (consumo Max GPU + consumo Max CPU) + 20% :D
Nel caso in cui ci troviamo difronte a build particolari, come un pc con una marea di ventole oppure particolari periferiche, si aggiunge anche il consumo delle suddette. :D
La 4090 FE consuma 450W e il calcolo va fatto su questo valore.
In caso di una custom con consumi maggiori si prenderà il relativo valore della scheda tecnica del produttore.
quoto in toto.
Ho sempre avuto una curiosità:Se Nvidia avesse realizzato una rtx 3080 a 5 nm, con le stesse frequenze, quale sarebbe stato il consumo?
Ed aumentando soltanto le frequenze quale sarebbero state le prestazioni?
Grazie a chi sarà vorrà aiutarmi a capire.
Cutter90
25-09-2022, 08:51
Io ho un Corsair AX1600i e non ci penso proprio a cambiarlo. Prenderò i cavi di Corsair che sono specificati fino a 600w. Nel secondo PC ho un EVGA 1600 T2 e spero che anche per quello EVGA fornisca cavi come ha fatto Corsair, giusto per avere anche questo ali future proof
Il mio piano iniziale era aggiornare il PC principale con una 4090 passare la 3080 ti nel secondo PC (è una MSI ventus 3x con PL bloccato ma undervoltata con una curva di voltaggio personalizzata resta fresca e funziona bene). Il problema è che dopo la presentazione la scimmia è a terra. Mi sarei aspettato un prezzo della 4090 intorno ai 1700/1800 per una buona custom. Non ci si prende nemmeno una 4080 Strix o Suprim con quei soldi... Io ho sempre speso per questo hobby, ho sfondato la soglia psicologica dei 1000 euro al lancio della prima Titan ma adesso non so se ce la faccio a superare la soglia dei 2000 anche se potrei permettermelo. Aspetto la presentazione delle AMD e poi valuterò con tutte le recensioni alla mano. Potrei anche dirottare la spesa su di un LG 42C2.
Non sto capendo. Il cavo che servirà sarà dentro la confezione della 4090. Perché tutto sto ragionamento con il cavo corsar?
Nelson Muntz
25-09-2022, 09:00
capisco gettare i soldi , ma cambiare alkimentatori da 1000 watt su ipotesi del tutto terroristiche e' semplicemente assurdo
seocndo voi faranno schede che abbisognano di alimnetatori di nuovo tipo ? ma non scherziamo dai !!!
un minimo di competenza su hwupgrade ci terrei ancora a leggerla , se no a sto punto scriviamo che debbano essere cambiati pure mouse e tastiera !
Predator_1982
25-09-2022, 09:00
Non sto capendo. Il cavo che servirà sarà dentro la confezione della 4090. Perché tutto sto ragionamento con il cavo corsar?
perchè il nuovo cavo è stato appositamente progettato e dimensionato per supportare gli assorbimenti previsti dallo standard Pcie 5.0. In ogni caso, il 90% delle cose che si leggono sono spesso seghe mentali, quindi prendi tutto con le pinze. Al limite uno adegua l'alimentatore sulla base del proprio sistema e delle specifiche previste da Nvidia.
quoto in toto.
Contenti voi...
I sinceramente affidare una 4090 da 2k euri ad un alimentatore tirato per il collo non ci penserei nemmeno a farlo.
Ovviamente ognuno è libero di pensarla come vuole ma a me me pare na stru...ata :D :D :D
Predator_1982
25-09-2022, 09:04
Contenti voi...
I sinceramente affidare una 4090 da 2k euri ad un alimentatore tirato per il collo non ci penserei nemmeno a farlo.
Ovviamente ognuno è libero di pensarla come vuole ma a me me pare na stru...ata :D :D :D
Salfox, si tratta anche di scegliere sulla base degli assorbimenti reali del proprio sistema e non solo su quello che dicono articoli e utenti...Alla peggio, come succedeva in passato, al primo bench se si spegne tutto, si cambia. Poi se uno sa di giocare con la CPU occata alla morte o di fare altrettanto con la GPU è un altra questione.
LA mia CPU in game non raggiungerebbe mai il TDP dichiarato e sono sicuro che nel 90% dei casi nemmeno una 4090. Può essere dunque un approccio altrettanto valido per provare a risparmiare qualcosa.
Ale55andr0
25-09-2022, 09:06
.
Non solo ma ti dico anche che RTX 4090 +Ryzen 7 5700X = 700W e quindi con il mio 750W sono più che apposto :D
.
"più che a posto" direi al pelo :fagiano: , inoltre non so quanti anni abbia la tua PSU ma col tempo perdono performance (condensatori)
Cutter90
25-09-2022, 09:11
perchè il nuovo cavo è stato appositamente progettato e dimensionato per supportare gli assorbimenti previsti dallo standard Pcie 5.0. In ogni caso, il 90% delle cose che si leggono sono spesso seghe mentali, quindi prendi tutto con le pinze. Al limite uno adegua l'alimentatore sulla base del proprio sistema e delle specifiche previste da Nvidia.
Beh ma scusa, il cavo nella confezione andrà bene ANCHE per il 5.0 non SOLO per il 5.0. Con il 4.0 passerà solo meno corrente dallo slot e di più dai 4 cavi. Cioè, se con 3 cavi e lo slot io pigliavo 500 watt con la mia 3090 non capisco come possa essere in crisi la situazione con la 4090 da 450 watt e 4 cavi dall alimentatore...
Scusate, ma non potete creare un thread apposito dove si parla di alimentatori ?
Inviato dal mio 21051182G utilizzando Tapatalk
Predator_1982
25-09-2022, 09:16
Beh ma scusa, il cavo nella confezione andrà bene ANCHE per il 5.0 non SOLO per il 5.0. Con il 4.0 passerà solo meno corrente dallo slot e di più dai 4 cavi. Cioè, se con 3 cavi e lo slot io pigliavo 500 watt con la mia 3090 non capisco come possa essere in crisi la situazione con la 4090 da 450 watt e 4 cavi dall alimentatore...
suppongo proprio di si, per quanto mi riguarda cosi come fatto con la 3080 Ti FE il cavo corsair mi serve solo ad avere meno cavi inutili
perchè il nuovo cavo è stato appositamente progettato e dimensionato per supportare gli assorbimenti previsti dallo standard Pcie 5.0. In ogni caso, il 90% delle cose che si leggono sono spesso seghe mentali, quindi prendi tutto con le pinze. Al limite uno adegua l'alimentatore sulla base del proprio sistema e delle specifiche previste da Nvidia.Esatto, il cavo come quello proposto da Corsair è una soluzione più "pulita" rispetto all'adattatore ma sono sicuro che chi ha un buon alimentatore di potenza adeguata non avrà il minimo problema con l'adattatore. Credo che siamo nel campo delle seghe mentali. Il problema qui è solamente che bisogna spendere da 1k abbondante a 2k abbondanti per avere la scheda a cui collegare questi famosi nuovi connettori....
No Life King
25-09-2022, 09:25
Lancio un sondaggio: chi ha intenzione di prendere una 4090 (anche non supercustom) usando l'attuale alimentatore e chi invece si prende un ali nuovo, considerando il discorso del connettore che si sente in giro sti giorni?
Con un evga Supernova 1200 penso che sarò a posto (sempre che evga si decida a produrre i cavi per le nuove schede :asd:)
StrixyRoG
25-09-2022, 09:26
Salfox, si tratta anche di scegliere sulla base degli assorbimenti reali del proprio sistema e non solo su quello che dicono articoli e utenti...Alla peggio, come succedeva in passato, al primo bench se si spegne tutto, si cambia. Poi se uno sa di giocare con la CPU occata alla morte o di fare altrettanto con la GPU è un altra questione.
LA mia CPU in game non raggiungerebbe mai il TDP dichiarato e sono sicuro che nel 90% dei casi nemmeno una 4090. Può essere dunque un approccio altrettanto valido per provare a risparmiare qualcosa.
Risparmiare e 4090 nella stessa frase non stanno bene :D Se si decide di fare un sistema di un certo tipo, andare a "lesinare" sui componenti mi pare un controsenso, soprattutto l'alimentatore che è fondamentale. E non sto dicendo che il tuo non andrà bene, è un discorso generale ;)
davide155
25-09-2022, 09:26
Beh ma scusa, il cavo nella confezione andrà bene ANCHE per il 5.0 non SOLO per il 5.0. Con il 4.0 passerà solo meno corrente dallo slot e di più dai 4 cavi. Cioè, se con 3 cavi e lo slot io pigliavo 500 watt con la mia 3090 non capisco come possa essere in crisi la situazione con la 4090 da 450 watt e 4 cavi dall alimentatore...Il ragionamento è quello del sito wccftech che ha fatto le prove. Cioè che può passare quasi l'intero assorbimento da un solo cavo, rischiando di aumentare il calore dei cavi di alimentazione ed il rischio di incendio :sofico:
La scheda non dovrebbe aver problemi perché le nuove 4000 hanno proprio dei ripartitori di corrente di nuova generazione (così ha detto giacchetta).
Come spiega jayztwocents nel suo ultimo video i nuovi connettori atx3.0 hanno degli ulteriori contatti adibiti solo al trasporto dati, in modo che la gpu può dialogare con la psu ed ottimizzare la quantità di corrente richiesta.
Ps: @mikael come faccio a vedere che awg hanno i cavi del mio ali? Se li misuro con un calibro riuscirei a scoprirlo? :sofico:
Non solo ma ti dico anche che RTX 4090 +Ryzen 7 5700X = 700W e quindi con il mio 750W sono più che apposto :D
Far lavorare una psu vicina al suo limite è poco indicato, praticamente non le dai margine, non so ma sinceramente sembra quasi piu una speranza che una situazione realmente praticabile.
Io con un 750 una 4090 avrei timore a montarla.
Thunder-74
25-09-2022, 09:56
Far lavorare una psu vicina al suo limite è poco indicato, praticamente non le dai margine, non so ma sinceramente sembra quasi piu una speranza che una situazione realmente praticabile.
Io con un 750 una 4090 avrei timore a montarla.
Più che altro basta un spike per spegnere il PC
scorpion73
25-09-2022, 09:58
A me quello che preoccupa di più di una soluzione non nativa è il fatto che stai saldando quattro cavi su un connettore unico piccolo. E che in mezzo ci metti anche la prolunga.
Perché con tutta quella corrente si fa presto a fare la botta.
Quantomeno il cavo tipo Corsair è fatto da loro con due cavi a sezione maggiore e non ha accrocchi. Manca la comunicazione dati ma la corrente passa bene.
Quello al limite ok ma non andrei con altri accrocchi sinceramente. Per lo meno con la 4090.
Inviato dal mio iPhone utilizzando Tapatalk
A me quello che preoccupa di più di una soluzione non nativa è il fatto che stai saldando quattro cavi su un connettore unico piccolo. E che in mezzo ci metti anche la prolunga.
Perché con tutta quella corrente si fa presto a fare la botta.
Quantomeno il cavo tipo Corsair è fatto da loro con due cavi a sezione maggiore e non ha accrocchi. Manca la comunicazione dati ma la corrente passa bene.
Quello al limite ok ma non andrei con altri accrocchi sinceramente. Per lo meno con la 4090.
Inviato dal mio iPhone utilizzando TapatalkSinceramente se spendo 2000€ di GPU mi orienterei anche per i nuovi PSU con atx 3.0, ed evito proprio le prolunghe...
Il voler riciclare il proprio PSU posso capirlo per i chip di fascia media.
Inviato dal mio M2012K11AG utilizzando Tapatalk
albero77
25-09-2022, 10:21
a ma pensa che io la collegherò al 750 quindi anche al di sotto del consigliato nvidia...poi con calma se riesco prendo un vertex 850 ma piu che altro per avere un filo solo XD
Ragazzi scusate non vorrei fare terrorismo gratuito, ma sulle spec. delle super custom io leggo 1000w come alimentatore per le 4090:mc:
Pensa che io preferisco il DLSS Quality alla res nativa. Oramai l’ho già spiegato tante di quelle volte che ho più voglia di farlo anche perché c’è il rischio che diventi noioso.
Si, in alcuni casi è meglio della res nativa, in altri no, quindi diciamo che le possiamo considerare alla pari e non farci troppi problemi.
Ora nulla contro di chi lo vuole comprare, ma il terrorismo che se ne fa, è davvero assurdo.
"Io aspetterei psu ATX3/pcie5 nativi" non è terrorismo.
Non sto capendo. Il cavo che servirà sarà dentro la confezione della 4090. Perché tutto sto ragionamento con il cavo corsar?
Dentro la confezione non trovi un cavo, ma un adottare.
Con Corsair hai un cavo che si attacca direttamente dall'alimentatore alla GPU. Questo sarà lo stesso cavo che verrà utilizzato nei nuovi alimentatori ATX 3 della Corsair. :D
Il cavo della Corsair verrà messo in vendita tra qualche giorno nello store ufficiale e verrà anche pubblicata la lista degli ali Corsair compatibili. ;)
Quindi, ragazzi, non dobbiamo comprare un nuovo ali, ma SOLO aspettare la vendita dei vari produttori dei cavo da 600W per i vecchi alimentatori.
Ovviamente nel caso in cui il vecchio alimentatore non sia modulare bisognerà comprare il nuovo ATX3 oppure vedere se i produttori di alimentatori commerceranno adattatori di buona qualità. :D
Predator_1982
25-09-2022, 10:42
"Io aspetterei psu ATX3/pcie5 nativi" non è terrorismo.
fatto sta che la stessa corsair afferma che non è necessario attendere ali ATX3/pci5, il che è un tutto dire
"There’s No Need To Wait For Future PSUs To Support Intel’s New ATX 3.0 Standard And CORSAIR’s Power Supplies Already Provide The Needed Reliability And Quality Components To Support The Higher Power Needs Of The Next Generation Of PC Hardware. Whether It’s An RM1000 That’s Seen Many Builds, Or A Brand New HX1500i, You Can Depend On Your CORSAIR PSU To Power Your Graphics Cards Into The Future."
amon.akira
25-09-2022, 10:43
Ragazzi scusate non vorrei fare terrorismo gratuito, ma sulle spec. delle super custom io leggo 1000w come alimentatore per le 4090:mc:
si ma io non la metto a pl max che neanche so quant'è e neanche m interessa s inceramente perchè sono ad aria, la fe è 450w quindi max quello oppure se ho problemi di temperature o rumore ventole (non ali) la metto a 400w come tenevo la 3090.
poi per non avere 3cavi appesi prenderei un vertex nativo da 850 o 1000massimo vedrò al momento.
e cmq bisogna vedere pure se si riescono a comprare :stordita:
Far lavorare una psu vicina al suo limite è poco indicato, praticamente non le dai margine, non so ma sinceramente sembra quasi piu una speranza che una situazione realmente praticabile.
Io con un 750 una 4090 avrei timore a montarla.
L'alimentatore non è assolutamente vicino al limite anzi :D
RTX 4090FE = 450W
Ryzen 7 5700x = 80W (reali)
Utilizzando la formula postata prima:
(450 + 80) + 20% = 636
Quindi il consumo reale con TUTTO al max (tipo stress test di AIDA64) e di circa 640W.
Sto al di sotto di ben 110W e quindi il mio Platimum continua ad avere l'efficienza del 94%. :D
Cutter90
25-09-2022, 10:55
Dentro la confezione non trovi un cavo, ma un adottare.
Con Corsair hai un cavo che si attacca direttamente dall'alimentatore alla GPU. Questo sarà lo stesso cavo che verrà utilizzato nei nuovi alimentatori ATX 3 della Corsair. :D
Il cavo della Corsair verrà messo in vendita tra qualche giorno nello store ufficiale e verrà anche pubblicata la lista degli ali Corsair compatibili. ;)
Quindi, ragazzi, non dobbiamo comprare un nuovo ali, ma SOLO aspettare la vendita dei vari produttori dei cavo da 600W per i vecchi alimentatori.
Ovviamente nel caso in cui il vecchio alimentatore non sia modulare bisognerà comprare il nuovo ATX3 oppure vedere se i produttori di alimentatori commerceranno adattatori di buona qualità. :D
Si ma io collego 4 cavi dall mio ali a questo adattatore e fine. Non vedo il problema.
Se nelle soluzioni attuali la corrente era distribuita equamente nei 3 cavi, non capisco perché con 4 non dovrebbe fare uguale.
Inoltre non c è un obbligo di acquistare cavi apposta, quindi significa che funziona benissimo con l adattatore. Altrimenti lo tendevano obbligatorio non pensi?
ada e ampere condividono la stessa architettura (cache a parte)
Ampere
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/images/arch2.jpg
ADA
https://www.hwupgrade.it/articoli/6381/nvidia-ad102-diagramma-sm.jpg
Sono ancora in forte attesa di vedere i bench in raster o RT con dlss2
L'alimentatore non è assolutamente vicino al limite anzi :D
RTX 4090FE = 450W
Ryzen 7 5700x = 80W (reali)
Utilizzando la formula postata prima:
(450 + 80) + 20% = 636
Quindi il consumo reale con TUTTO al max (tipo stress test di AIDA64) e di circa 640W.
Sto al di sotto di ben 110W e quindi il mio Platimum continua ad avere l'efficienza del 94%. :D
Hai aggiunto 20% a caso, considerando praticamente 100W per scheda madre e altre piccole cose, un'esagerazione. Un 750W gold, decente, basta e avanza anche con una 4090, non allarmatevi dove non serve
Sonpazzo
25-09-2022, 11:09
Esatto, il 20% è comprensibile per stare larghi
fraussantin
25-09-2022, 11:30
ada e ampere condividono la stessa architettura (cache a parte)
Ampere
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/images/arch2.jpg
ADA
https://www.hwupgrade.it/articoli/6381/nvidia-ad102-diagramma-sm.jpg
Sono ancora in forte attesa di vedere i bench in raster o RT con dlss2
Hai aggiunto 20% a caso, considerando praticamente 100W per scheda madre e altre piccole cose, un'esagerazione. Un 750W gold, decente, basta e avanza anche con una 4090, non allarmatevi dove non servePoi se non basta si spenge non è che scoppia
Se parliamo di alimentazione di qualità.
Discorso invece da chiarire quello dei cavi . Se il rischio è il surriscaldamento potrebbe essere pericoloso
ada e ampere condividono la stessa architettura (cache a parte)
Ampere
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/images/arch2.jpg
ADA
https://www.hwupgrade.it/articoli/6381/nvidia-ad102-diagramma-sm.jpg
Sono ancora in forte attesa di vedere i bench in raster o RT con dlss2
Hai aggiunto 20% a caso, considerando praticamente 100W per scheda madre e altre piccole cose, un'esagerazione. Un 750W gold, decente, basta e avanza anche con una 4090, non allarmatevi dove non serve
Il 20% si aggiunge per la gestione di eventuali spike della CPU e della GPU.
Per esempio una GPU da 450 potrebbe avere uno spike di oltre 500W :D
fraussantin
25-09-2022, 11:33
Il 20% si aggiunge per la gestione di eventuali spike della CPU e della GPU.
Per esempio una GPU da 450 potrebbe avere uno spike di oltre 500W :DSi scheda madre ssd ventolame pompe un po tirano.
Gli spike sono extra anche per l'alimentatore. Entro certi limiti
Si ma io collego 4 cavi dall mio ali a questo adattatore e fine. Non vedo il problema.
Il problema sono gli adattatori che a detta di Nvidia dopo 40 connessioni si rompono e addirittura nel lungo periodo si sciolgono :muro:
Thunder-74
25-09-2022, 11:43
fatto sta che la stessa corsair afferma che non è necessario attendere ali ATX3/pci5, il che è un tutto dire
"There’s No Need To Wait For Future PSUs To Support Intel’s New ATX 3.0 Standard And CORSAIR’s Power Supplies Already Provide The Needed Reliability And Quality Components To Support The Higher Power Needs Of The Next Generation Of PC Hardware. Whether It’s An RM1000 That’s Seen Many Builds, Or A Brand New HX1500i, You Can Depend On Your CORSAIR PSU To Power Your Graphics Cards Into The Future."
mi pare ovvio, è la sola che ad oggi non ha proposto ali ATX 3.0 hahahahahh
Stessa politica di ASUS con gli appena tirati fuori Thor V2.
Hanno paura dell'invenduto
mi pare ovvio, è la sola che ad oggi non ha proposto ali ATX 3.0 hahahahahh
Stessa politica di ASUS con gli appena tirati fuori Thor V2.
Infatti, quello è solo marketing.
5 pagine OT sugli alimentatori pero' anche no eh :D
Cutter90
25-09-2022, 12:02
ada e ampere condividono la stessa architettura (cache a parte)
Ampere
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/images/arch2.jpg
ADA
https://www.hwupgrade.it/articoli/6381/nvidia-ad102-diagramma-sm.jpg
Sono ancora in forte attesa di vedere i bench in raster o RT con dlss2
Hai aggiunto 20% a caso, considerando praticamente 100W per scheda madre e altre piccole cose, un'esagerazione. Un 750W gold, decente, basta e avanza anche con una 4090, non allarmatevi dove non serve
Bah. Con il sistema attuale in firma consumo 240 +450 ipotizzando cpu e gpu al 100 %. E fa 690 watt. Se uso il bios da 500 watt arrivo a 740... ok, la cpu ingame non raggiungerà mai i 240 watt, però con il margine di efficienza e delle altre componenti.... non vedo proprio come si potrà stare con una ali da 750 con la 4090.
Spendi 2000 euro di cpu e non 150 per un ali sicuro? Non mi pare abbia senso.
Il 20% si aggiunge per la gestione di eventuali spike della CPU e della GPU.
Per esempio una GPU da 450 potrebbe avere uno spike di oltre 500W :D
gli spike vengono retti anche dall'ali, devi contare la potenza media.
una 3080 aveva spike ben oltre a 500w, ma non per questo devi dimensionare un consumo sui 500w
Il problema sono gli adattatori che a detta di Nvidia dopo 40 connessioni si rompono e addirittura nel lungo periodo si sciolgono :muro:
il problema ce l'hanno solo i reviewer, per utenti normali il problema non si pone e non si è mai posto infatti
Bah. Con il sistema attuale in firma consumo 240 +450 ipotizzando cpu e gpu al 100 %. E fa 690 watt. Se uso il bios da 500 watt arrivo a 740... ok, la cpu ingame non raggiungerà mai i 240 watt, però con il margine di efficienza e delle altre componenti.... non vedo proprio come si potrà stare con una ali da 750 con la 4090.
Spendi 2000 euro di cpu e non 150 per un ali sicuro? Non mi pare abbia senso.
cpu e gpu non sono mai al 100%
se hai una scheda custom o con 300 fasi è un altro discorso, qui stiamo contando di picco (tutti gli ali possono lavorare un po' fuori specifica) 450w di gpu e cpu in game non siamo sicuramente a oltre 100w che sia intel o ancora meglio amd.
Poi ragazzi ovvio, se mettete bios da 600w e un 12900k a 5,3ghz che fa 250w solo lui cambia, ma parliamo di scenari normali
Il fatto di spendere 2000€ di gpu non implica doverne spendere altri in ali, se l'attuale è buono, non ha molti anni alle spalle e va bene. Anche perchè se hai un 750w buono, e ti fai almeno un 1000w (non togli un 750w per un 850, spero) buono altrochè 150€
Cutter90
25-09-2022, 12:17
gli spike vengono retti anche dall'ali, devi contare la potenza media.
una 3080 aveva spike ben oltre a 500w, ma non per questo devi dimensionare un consumo sui 500w
Un ali da 1000 watt sta tra i 150 e i 200 euro....
il problema ce l'hanno solo i reviewer, per utenti normali il problema non si pone e non si è mai posto infatti
cpu e gpu non sono mai al 100%
se hai una scheda custom o con 300 fasi è un altro discorso, qui stiamo contando di picco (tutti gli ali possono lavorare un po' fuori specifica) 450w di gpu e cpu in game non siamo sicuramente a oltre 100w che sia intel o ancora meglio amd.
Poi ragazzi ovvio, se mettete bios da 600w e un 12900k a 5,3ghz che fa 250w solo lui cambia, ma parliamo di scenari normali
Il fatto di spendere 2000€ di gpu non implica doverne spendere altri in ali, se l'attuale è buono, non ha molti anni alle spalle e va bene. Anche perchè se hai un 750w buono, e ti fai almeno un 1000w (non togli un 750w per un 850, spero) buono altrochè 150€
Guarda che il mio scenario normale è gpu al 100 % , anche 450 watt se non undervolto e cpu a più di 120 - 140 watt.
+ 80 watt per tutto il resto. Questo è il mio scenario normale. Ma non è che si può dimensionare l ali per lo scenario "normale". Va dimensionato nello scenario peggiore, ossia ipotizzando che ogni componente vada al 100%.
Almeno, io credo che sia la strada giusta questa
DJurassic
25-09-2022, 12:36
Questo potrebbe fare al caso mio per rimpiazzare quella zozzeria inclusa nella confezione:
https://www.moddiy.com/products/ATX-3.0-PCIe-5.0-600W-Triple-8-Pin-to-12VHPWR-16-Pin-Adapter-Cable.html
https://i.ibb.co/7Sx9vYh/2022-09-25-133741.png
StrixyRoG
25-09-2022, 12:47
Io adesso ho un 10700k ed una 3080ti LC, ed in alcuni giochi ho visto consumi intorno ai 620W di massimo, tutto stock. E non ho idea dei picchi. Quindi credo che sulla carta si possano fare tanti conti, mai poi dipende da tanti fattori, in primis la qualità dell'alimentatore, altrimenti quei numeri non vogliono dire nulla.
Rispetto ai miei consumi, con una 4090 conterei magari un 100w, così a spanne; poi si vedranno i test.
Cutter90
25-09-2022, 12:53
Questo potrebbe fare al caso mio per rimpiazzare quella zozzeria inclusa nella confezione:
https://www.moddiy.com/products/ATX-3.0-PCIe-5.0-600W-Triple-8-Pin-to-12VHPWR-16-Pin-Adapter-Cable.html
https://i.ibb.co/7Sx9vYh/2022-09-25-133741.png
Ma perché zozzeria? Non capisco sta cosa
StrixyRoG
25-09-2022, 13:01
Questo potrebbe fare al caso mio per rimpiazzare quella zozzeria inclusa nella confezione:
https://www.moddiy.com/products/ATX-3.0-PCIe-5.0-600W-Triple-8-Pin-to-12VHPWR-16-Pin-Adapter-Cable.html
Ocio con le prolunghe; ne provai una e dopo qualche tempo cominciò ad accendersi il led di alimentazione di quell'attacco, così ho dovuto metterli tutti e tre diretti. Poi magari dipende da quanto sia sensibile la scheda, non lo so, però adesso sono sempre un po' restio ad utilizzarli. Magari meglio aspettare un po' di mesi per vedere quante 4090 salteranno in aria :D
DJurassic
25-09-2022, 13:08
Ma perché zozzeria? Non capisco sta cosa
Perchè è antiestetica da morire e per di più è pure corta. Utilizzando quello in dotazione avresti tutti i connettori in bella vista nel punto di giunzione tra questo e i cavi del PSU.
Ocio con le prolunghe; ne provai una e dopo qualche tempo cominciò ad accendersi il led di alimentazione di quell'attacco, così ho dovuto metterli tutti e tre diretti. Poi magari dipende da quanto sia sensibile la scheda, non lo so, però adesso sono sempre un po' restio ad utilizzarli. Magari meglio aspettare un po' di mesi per vedere quante 4090 salteranno in aria :D
Ho già comprato da loro diverse volte e tuttora ho la 3080 collegata con un loro cavo che in 2 anni non mi ha dato mezzo problema. Farò la stessa cosa anche con un ipotetica 4090.
Cutter90
25-09-2022, 13:31
Perchè è antiestetica da morire e per di più è pure corta. Utilizzando quello in dotazione avresti tutti i connettori in bella vista nel punto di giunzione tra questo e i cavi del PSU.
Ho già comprato da loro diverse volte e tuttora ho la 3080 collegata con un loro cavo che in 2 anni non mi ha dato mezzo problema. Farò la stessa cosa anche con un ipotetica 4090.
Ah va beh, se è solo l estetica il problema siamo posto:)
DarkNiko
25-09-2022, 13:33
Il cavo migliore è quello modulare diretto da PSU a VGA, senza riduttori/adattatori nel mezzo e, ove possibile, di lunghezza variabile in base alle proprie specifiche esigenze.
Personalmente ho un HX1000i Corsair come PSU e non vedo ragione alcuna per cambiarlo, premesso che a questo giro, con me Giacchetta potrebbe serenamente attaccarsi. :D
thunderforce83
25-09-2022, 13:38
Ragazzi vi state a fare troppe fisse sulle psu, anche un 750 dovrebbe andare bene se il resto del sistema lo tieni a bada con i consumi, la cosa che vorrei sapere e'...quando escono ste 4090... odinabili!:D
dove? quale sito, quale piattaforma ecc ecc...
parliamo di cose serie per favore :sofico: :oink:
Predator_1982
25-09-2022, 13:47
Ragazzi vi state a fare troppe fisse sulle psu, anche un 750 dovrebbe andare bene se il resto del sistema lo tieni a bada con i consumi, la cosa che vorrei sapere e'...quando escono ste 4090... odinabili!:D
dove? quale sito, quale piattaforma ecc ecc...
parliamo di cose serie per favore :sofico: :oink:
Al solito thunder, giorno 12 ottobre le 4090 sul sito Nvidia…
ultimate trip
25-09-2022, 13:55
Ma le recensioni escono prima o dopo il 12 ottobre?
SnobWatch
25-09-2022, 14:05
ciao ragazzi vi seguo da un pò e finalmente mi sono iscritto :)
secondo voi riusciremo a comprare la 4090 il 12 ottobre o finiranno prima di riuscire a metterle in carrello come era successo per le serie 3?
qualcuno di voi qui prenderà una founders o aspetterete le custom?
thunderforce83
25-09-2022, 14:41
Al solito thunder, giorno 12 ottobre le 4090 sul sito Nvidia…
Io sono tradizionalista e punto ad una custom, come da tradizione asus o msi e non scendo sotto queste marche, se devo spendere a sto punto spendo bene, le schede nvidia non mi sono mai piaciute.
Predator_1982
25-09-2022, 14:56
ciao ragazzi vi seguo da un pò e finalmente mi sono iscritto :)
secondo voi riusciremo a comprare la 4090 il 12 ottobre o finiranno prima di riuscire a metterle in carrello come era successo per le serie 3?
qualcuno di voi qui prenderà una founders o aspetterete le custom?
Se mi convinco io, come da tradizione, mi butt sulla FE. I cassettoni degli altri non mi piacciono
phoenix79
25-09-2022, 15:00
Se mi convinco io, come da tradizione, mi butt sulla FE. I cassettoni degli altri non mi piacciono
Sei riuscito a prendere una FE? grande
Se mi convinco io, come da tradizione, mi butt sulla FE. I cassettoni degli altri non mi piacciono
Attento che la 3090 FE e anche la 4090 FE, al contrario della serie 3080, hanno un dissipatore enorme e sono dei bei cassettoni pure quelle, sono enormi.
phoenix79
25-09-2022, 15:05
Secondo voi con la mia configurazione potrei montare una 4090 oppure ci sono dei problemi?
Predator_1982
25-09-2022, 15:06
Attento che la 3090 FE e anche la 4090 FE, al contrario della serie 3080, hanno un dissipatore enorme e sono dei bei cassettoni pure quelle, sono enormi.
Si sì, ma adoro il loro stile
Thunder-74
25-09-2022, 15:11
Io se prenderò la 4090, lo farò da Amazon dove ho accumulato qualche buono regalatemi dall azienda per la quale lavoro (570 euro). Quindi no 12 ottobre, no FE. Spero che sui qualcuno possa riuscire il 12 a prenderla, così ci farà qualche bel bench indipendente ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Gigibian
25-09-2022, 15:15
Far lavorare una psu vicina al suo limite è poco indicato, praticamente non le dai margine, non so ma sinceramente sembra quasi piu una speranza che una situazione realmente praticabile.
Io con un 750 una 4090 avrei timore a montarla.
Considerando che in OC può tirare anche 630W la 4090, é assurdo prendere un 750W, considerando anche le tolleranze ai carichi di picco...
Obbligatorio almeno un 1000W di ottima qualità con quella bestia della 4090, se non vuoi avere problemi nel tempo.
amon.akira
25-09-2022, 15:17
Attento che la 3090 FE e anche la 4090 FE, al contrario della serie 3080, hanno un dissipatore enorme e sono dei bei cassettoni pure quelle, sono enormi.
spesso si 3slot+ ma 31cm x 14cm, le custom andranno dai 35 ai 36cm di lunghezza
Considerando che in OC può tirare anche 630W la 4090, é assurdo prendere un 750W, considerando anche le tolleranze ai carichi di picco...
Obbligatorio almeno un 1000W di ottima qualità con quella bestia della 4090, se non vuoi avere problemi nel tempo.
per ora non ci sono info dei powerlimit max delle varie custom, non penso che si spingeranno troppo in la, almeno spero per loro XD
Io se prenderò la 4090, lo farò da Amazon dove ho accumulato qualche buono regalatemi dall azienda per la quale lavoro (570 euro). Quindi no 12 ottobre, no FE. Spero che sui qualcuno possa riuscire il 12 a prenderla, così ci farà qualche bel bench indipendente ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Ammazza, da una o due persone che l'avrebbero presa siamo passati a quasi la maggioranza degli utenti del forum che la prenderebbero.
Mi sa che il 12 ottobre sarà durissima accaparrarsene una.
Le schede che secondo me faranno fatica ad essere vendute saranno le 4080 che costano davvero troppo per quello che offrono.
Predator_1982
25-09-2022, 15:21
Ammazza, da una o due persone che la avrebbero presa siamo passati a quasi la maggioranza degli utenti del forum che la prenderebbero.
Mi sa che il 12 ottobre sarà durissima accaparrarsene una.
Le schede che secondo me faranno fatica ad essere vendute saranno le 4080 che costano davvero troppo per quello che offrono.
Lo sarà a prescindere, al primo assalto vedrete che torneranno gli scalpers
Lo sarà a prescindere, al primo assalto vedrete che torneranno gli scalpers
Si ma a 2000 euro c'è poco da scalperare credo, il prezzo è troppo alto già di base.
Predator_1982
25-09-2022, 15:26
Si ma a 2000 euro c'è poco da scalperare credo, il prezzo è troppo alto già di base.
Se ci sarà moria fino a gennaio non saprei
Thunder-74
25-09-2022, 15:26
Ammazza, da una o due persone che l'avrebbero presa siamo passati a quasi la maggioranza degli utenti del forum che la prenderebbero.
Mi sa che il 12 ottobre sarà durissima accaparrarsene una.
Le schede che secondo me faranno fatica ad essere vendute saranno le 4080 che costano davvero troppo per quello che offrono.
Tranquillo, io non mi aggiungo al 12. Anche se non avessi avuto il buono su Amazon, avrei atteso review, perché non sono convito del tutto di queste nuove vga.
Inviato dal mio iPad utilizzando Tapatalk
SnobWatch
25-09-2022, 15:38
prima di comprare le schede vorrei vedere qualche recensione... non mi fido per niente di quello che hanno presentato...
non si sa nemmeno se il DLSS3 sarà veramente utilizzabile nello stato in cui lo presenteranno. se degradasse la qualità d'immagine come faceva il primo DLSS non sarebbe un grosso affare.
amon.akira
25-09-2022, 15:43
prima di comprare le schede vorrei vedere qualche recensione... non mi fido per niente di quello che hanno presentato...
non si sa nemmeno se il DLSS3 sarà veramente utilizzabile nello stato in cui lo presenteranno. se degradasse la qualità d'immagine come faceva il primo DLSS non sarebbe un grosso affare.
si be in quel caso avresti solo il classico +60% a pari condizioni.
Gigibian
25-09-2022, 15:47
Cmq 3090 TI a 1100 euro...3090 a 900...
Cmq 3090 TI a 1100 euro...3090 a 900...
Scusa, dove?
thunderforce83
25-09-2022, 16:07
Secondo voi con la mia configurazione potrei montare una 4090 oppure ci sono dei problemi?
Il 5600 lo vedo proprio sottodimensionato per una 4090
thunderforce83
25-09-2022, 16:08
Idem prima prendevo anche evga ma ormai solo queste
Si infatti, di custom fatte bene c'e' ne sono poche ormai, sempre le solite 4...
strix, tuf, trio e suprim...
Predator_1982
25-09-2022, 16:10
prima di comprare le schede vorrei vedere qualche recensione... non mi fido per niente di quello che hanno presentato...
Io penso che molto dipenderà pure da cosa presenterà AMD a breve, potrebbe davvero mandarci tutti in crisi.
phoenix79
25-09-2022, 16:14
Il 5600 lo vedo proprio sottodimensionato per una 4090
e infatti il mio dubbio era proprio la cpu
Io ho regalato a mio fratello, dato che li darò poi la 3090 che ho per il 4k, un 5800x, volevo il 3d ma non volevo strafare, e proveniva da un 3600 liscio.
Dunque già una bella differenza ma se giochi in 4k senza dlss secondo me va bene il tuo.
Nel caso massimo prenditi un 5800x con o senza 3d :)
Oppure prendi un 5700X che ha le stesse prestazioni del 5800X e consuma la metà :D
Io penso che molto dipenderà pure da cosa presenterà AMD a breve, potrebbe davvero mandarci tutti in crisi.
Pure io aspetto AMD e niente D1 per 4090.
Risparmiare e 4090 nella stessa frase non stanno bene :D Se si decide di fare un sistema di un certo tipo, andare a "lesinare" sui componenti mi pare un controsenso, soprattutto l'alimentatore che è fondamentale. E non sto dicendo che il tuo non andrà bene, è un discorso generale ;)
si confonde però anche "lesinare" con "esagerare" perchè siamo tuti d'accordo che un sistema deve essere bilanciato in tutti i suoi componenti e l'ali non è da sottovalutare, ma senza girarci troppo intorno, qui nel 90% dei commenti si propende per la strada dell'esagerazione...se un pc consuma mediamente 650-700W in game, solitamente il commento medio è "devo prendere un alimentatore almeno da 1000-1200-1500W....dai su :stordita:
Cmq 3090 TI a 1100 euro...3090 a 900...
se mantenessero questa proporzione e si trovasse una 3080Ti a 750€ ci farei un serio pensiero una volta viste le vere prestazioni della serie 4xxx dalle varie testate
Cutter90
25-09-2022, 17:16
si confonde però anche "lesinare" con "esagerare" perchè siamo tuti d'accordo che un sistema deve essere bilanciato in tutti i suoi componenti e l'ali non è da sottovalutare, ma senza girarci troppo intorno, qui nel 90% dei commenti si propende per la strada dell'esagerazione...se un pc consuma mediamente 650-700W in game, solitamente il commento medio è "devo prendere un alimentatore almeno da 1000-1200-1500W....dai su :stordita:
se mantenessero questa proporzione e si trovasse una 3080Ti a 750€ ci farei un serio pensiero una volta viste le vere prestazioni della serie 4xxx dalle varie testate
In mw2 beta ho appena guardato e vado in 4k a 120 fps con dlss su bilanciato (impiego gpu 70- 85%) e vado esattamente a 600 watt di consumo totale quasi. Fate k vostri conti....
.. avrei atteso review, perché non sono convito del tutto di queste nuove vga.
Inviato dal mio iPad utilizzando Tapatalk
Ho ascoltato il penultimo video di progitek, te lo consiglio, insieme agli addetti ai lavori, l'altro giorno nell'incontro con Nvidia c'erano anche loro... Per quanto riguarda il prezzo, quello giusto non esiste, è il mercato che lo decide, ma c'è il nostro prezzo che in una scala di valori possiamo attribuire ai nostri giocattoli, e su questo non si discute. Io aspettarei la controparte...non si sa mai.
Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
Pensate davvero che uscite le amd un'azienda come nvidia, quotata in borsa e che fattura miliardi dica "ah no abbiamo scherzato, siamo dei burloni, drop del prezzo del 20%"
I prezzi son questi, piaccia o no.
Io le vedo schede da tutto fuorché da gaming, infatti la maggior parte delle income non vengono da lì
Thunder-74
25-09-2022, 17:41
Ho ascoltato il penultimo video di progitek, te lo consiglio, insieme agli addetti ai lavori, l'altro giorno nell'incontro con Nvidia c'erano anche loro... Per quanto riguarda il prezzo, quello giusto non esiste, è il mercato che lo decide, ma c'è il nostro prezzo che in una scala di valori possiamo attribuire ai nostri giocattoli, e su questo non si discute. Io aspettarei la controparte...non si sa mai.
Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
l'ho visto, ma devo dire che quei due ragazzi non mi stanno più tanto piacendo, perchè incomincio a vedere che non sono più liberi di esprimere delle valutazioni obiettive. Sono pilotati dai brand.
fraussantin
25-09-2022, 17:43
Pensate davvero che uscite le amd un'azienda come nvidia, quotata in borsa e che fattura miliardi dica "ah no abbiamo scherzato, siamo dei burloni, drop del prezzo del 20%"
I prezzi son questi, piaccia o no.
Io le vedo schede da tutto fuorché da gaming, infatti la maggior parte delle income non vengono da lìPerderebbe credibilitá. Non puo .
Amd invece in questi giorni pottebbe mettere la 7800 ad un prezzo aggressivo e spiazzare nvidia.
Ma probabilmente sono d'accordo.
fraussantin
25-09-2022, 17:45
l'ho visto, ma devo dire che quei due ragazzi non mi stanno più tanto piacendo, perchè incomincio a vedere che non sono più liberi di esprimere delle valutazioni obiettive. Sono pilotati dai brand.Sono fanboy del cazzo. Sono riusciti a parlare al tizio col giacchetto di pelle antipatico e da come se ne vantano pare ci siano stati a letto :asd:
È chiaro dove vogliono parare.
Alekos Panagulis
25-09-2022, 18:42
Sono fanboy del cazzo. Sono riusciti a parlare al cinegro e da come se ne vantano pare ci siano stati a letto :asd:
È chiaro dove vogliono parare.
Cinegro?? Ma come parli? Ma che espressione è? Segnalato per razzismo.
fraussantin
25-09-2022, 18:49
Cinegro?? Ma come parli? Ma che espressione è? Segnalato per razzismo.Scusa mi è scappata , non era di certo un dispregiativo verso l'etnia , ma verso quella persona che non vale niente.
Mi è uscita male. Pardon
devAngnew
25-09-2022, 18:52
Cmq 3090 TI a 1100 euro...3090 a 900...
Non ci credo :D
devil_mcry
25-09-2022, 18:55
Non ci credo :D
immagino sia in US, fortunelli
devAngnew
25-09-2022, 18:58
immagino sia in US, fortunelli
No ha detto euro, se è quello che penso una volta cliccato sul link si trasforma in oltre i 1000 € :D
devil_mcry
25-09-2022, 18:59
No ha detto euro, se è quello che penso una volta cliccato sul link si trasforma in oltre i 1000 € :D
ah ok :D c'è la fregatura
ogni tanto su amazon qualche modello timidamente diventa best buy, ma dura pure pochissimo
Gigibian
25-09-2022, 19:05
Ho ascoltato il penultimo video di progitek, te lo consiglio, insieme agli addetti ai lavori, l'altro giorno nell'incontro con Nvidia c'erano anche loro... Per quanto riguarda il prezzo, quello giusto non esiste, è il mercato che lo decide, ma c'è il nostro prezzo che in una scala di valori possiamo attribuire ai nostri giocattoli, e su questo non si discute. Io aspettarei la controparte...non si sa mai.
Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
ma chi sono questi "progitek"? E' da molto che ne parlate come fossero dei messia, ma non ho trovato nessun riferimento online
thunderforce83
25-09-2022, 19:07
e infatti il mio dubbio era proprio la cpu
io ci abbinero' sicuramente almeno il 13600k, infatti lo sto aspettando all'uscita:D
anche se non nego che per stare piu' largo andrei di 13700k...
la potenza non e' mai troppa, sopratutto per il mio simulatore preferito...FS;)
fraussantin
25-09-2022, 19:07
ma chi sono questi "progitek"? E' da molto che ne parlate come fossero dei messia, ma non ho trovato nessun riferimento onlineSono 2 ragazzi che, non di capisce il motivo ,sono tra i maggiori infliencer italiani in ambito hardware
Gigibian
25-09-2022, 19:07
Sono 2 ragazzi che non di capisce il motivo sono tra i maggiori infliencer italiani in ambito hardware
se cerco su youtube non esce niente
fraussantin
25-09-2022, 19:08
se cerco su youtube non esce nientehttps://youtu.be/v0sxnw61ZJA
Tra l'altro sono gli unici in italia che ho sentito giustificare i prezzi di queste schede.
mikael84
25-09-2022, 19:09
Ho ascoltato il penultimo video di progitek, te lo consiglio, insieme agli addetti ai lavori, l'altro giorno nell'incontro con Nvidia c'erano anche loro... Per quanto riguarda il prezzo, quello giusto non esiste, è il mercato che lo decide, ma c'è il nostro prezzo che in una scala di valori possiamo attribuire ai nostri giocattoli, e su questo non si discute. Io aspettarei la controparte...non si sa mai.
Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
Lui ci marcia con i tensor core. Investe tantissimo nel settore HPC, quello che ormai è diventato più profittevole, superando pro e gaming.
Con questa serie, non ha fatto altro che utilizzare i tensor core di Ampere A100 e si è giocato questa carta.
Ormai con una scheda come la 4060 12, o 4080, come la si vuol chiamare, puoi fare alcuni tipi di calcoli fuori dal gaming, come gli facevi con le tesla da 10000$.
Vuole far capire che la direzione è quella.
AMD fa schede gaming e stop, le uniche matrici sono in CDNA, ma è un funzionamento diverso.
E'un pò AMD con la 3d cache nei ryzen, grande cosa 30$, 2 x prezzo di mercato.
Quello che non entra nulla è il prezzo aumentato, perchè si incide, ma non certo così molto, il die della 408012 viene 60-70$ oltre quello della 3060, che hanno un die analogo.
Con i 3nm e serie 5000, si parla di prezzi per wafer sui 30000$, quasi 2 volte quello 5nm, e li i prezzi per forza di cosa saliranno veramente, anche non volendo.
Lui cosa farà? Con Hopper ha raddoppiato ancora i tensor core, e su quelle schede mettere i tensor giganti di hopper, inventandosi qualche altro DLSS.
Gigibian
25-09-2022, 19:15
https://youtu.be/v0sxnw61ZJA
Tra l'altro sono gli unici in italia che ho sentito giustificare i prezzi di queste schede.
Oddio! O_o
Apparte che non ho capito come "prodigeek" è diventato "progitek" su sto thread...vabbè...
Ma ne ho visto (purtroppo) qualcuno di video loro anche io ...
Sono abbastanza incommentabili, e l'utente medio di questo thread ne sa il triplo di loro... non capisco come si possa anche solo parlane di sti due che fanno show comici ripetendo ovvietà.
DarkNiko
25-09-2022, 19:21
https://youtu.be/v0sxnw61ZJA
Tra l'altro sono gli unici in italia che ho sentito giustificare i prezzi di queste schede.
Ma sono solo io il fesso che nel video comparativo su Cyberpunk leggo RT ON e poi sotto in basso a sinistra RTX OFF? C'è qualquadra che non cosa. :D
NVidia dovrebbe mascherare meglio le prese per i fondelli a mio avviso.
OrazioOC
25-09-2022, 19:24
Ma scusate, a me sfugge una cosa nella presentazione nvidia, non ci sono dati indicativi sul guadagno % rispetto alla precedente gen in raster?
Anche solo per capire dove potenzialmente potrebbe andare a parare una ipotetica 4070/60 rispetto a ga104/06...
Predator_1982
25-09-2022, 19:34
Oddio! O_o
Apparte che non ho capito come "prodigeek" è diventato "progitek" su sto thread...vabbè...
Ma ne ho visto (purtroppo) qualcuno di video loro anche io ...
Sono abbastanza incommentabili, e l'utente medio di questo thread ne sa il triplo di loro... non capisco come si possa anche solo parlane di sti due che fanno show comici ripetendo ovvietà.
Vabbè dai, non più di tanti altri che ormai si improvvisano esperti di qualunque cosa. Lasciamoli campare :), siamo nell’era degli youtubers
Ma scusate, a me sfugge una cosa nella presentazione nvidia, non ci sono dati indicativi sul guadagno % rispetto alla precedente gen in raster?
Anche solo per capire dove potenzialmente potrebbe andare a parare una ipotetica 4070/60 rispetto a ga104/06...
Hai centrato il punto :D
JHH sta usando il DLSS3=4x per giustificare i prezzi.
Sulla rasterizzazione c'è poco o nulla.
Secondo me la 4080 16gb andrà male in rasterizzazione e si salverà con il DLSS3. Rispetto ad una 3090 avrà un miglioramento tale da non giustificarne il prezzo.
Le 4080 devono rimanere sugli scaffali :cool:
OrazioOC
25-09-2022, 19:47
Hai centrato il punto :D
JHH sta usando il DLSS3=4x per giustificare i prezzi.
Sulla rasterizzazione c'è poco o nulla.
Secondo me la 4080 16gb andrà male in rasterizzazione e si salverà con il DLSS3. Rispetto ad una 3090 avrà un miglioramento tale da non giustificarne il prezzo.
Le 4080 devono rimanere sugli scaffali :cool:
Infatti la mia paura è che una 4080 12gb si riveli un sidegrade rispetto alle 3080 ti/3090 che oggi costano anche qualcosa in meno della 4080 12gb(a listino s'intende).
E anche la variante da 16gb non potrebbe dare chissà quale stacco da quest'ultime(20 % più veloce della 4080 12gb?30% più veloce?). :rolleyes:
Thunder-74
25-09-2022, 19:59
Ma scusate, a me sfugge una cosa nella presentazione nvidia, non ci sono dati indicativi sul guadagno % rispetto alla precedente gen in raster?
Anche solo per capire dove potenzialmente potrebbe andare a parare una ipotetica 4070/60 rispetto a ga104/06...
Il non dire in una presentazione, vale più di 1000 parole, paragonabile ad una presentazione lunga come una stagione di Beautiful. ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Cinegro?? Ma come parli? Ma che espressione è? Segnalato per razzismo.
Il razzismo ormai lo buttate anche dentro l'insalata tra un po'. Ma che problemi hai? Fatti una sigaretta e rilassati.
Stiamo tutti calmi per piacere, è un forum di appassionati che cavolo!
devAngnew
25-09-2022, 20:34
Ma sono solo io il fesso che nel video comparativo su Cyberpunk leggo RT ON e poi sotto in basso a sinistra RTX OFF? C'è qualquadra che non cosa. :D
NVidia dovrebbe mascherare meglio le prese per i fondelli a mio avviso.
Secondo me con RTX off vuole indicare che una/o più delle "sue tecnologie" è spenta nel caso il DLSS. Aggiungo che in questo caso è meglio a sinistra :D
L'idea che qualcosa non vada per il verso giusto l'ho a dire il vero, troppo fumosa ed indirizzata questa presentazione. NVidia sta cercando di nascondere forse una verità scomoda, anche la distanza dalle recensioni rispetto al reveal non fa ben presagire. Spero di sbagliare.
Alekos Panagulis
25-09-2022, 21:11
Il razzismo ormai lo buttate anche dentro l'insalata tra un po'. Ma che problemi hai? Fatti una sigaretta e rilassati.
Stiamo tutti calmi per piacere, è un forum di appassionati che cavolo!Cioè non si può dare del razzista a chi usa una parola del genere?? Ma stiamo scherzando?
Cioè, uno dice CINEGRO, che è una crasi fra le parole CINESE e NEGRO, e tu dici a me di stare calmo?
Quindi posso dire anche "a fr**io" e "ebreo demm***a" e se qualcuno mi contesta intervieni tu e mi difendi?
E cmq non fumo e il mio problema è che non sopporto i razzisti e gli ipocriti.
L'utente ha chiesto scusa ammettendo l'errore ed è finita lì, non c'era bisogno del tuo intervento inutile.
Le parole sono importanti e non si può consentire di usare queste espressioni offensive. Per inciso, la parola in questione è offensiva nei confronti di qualche miliardo di persone.
Inviato dal mio CPH2305 utilizzando Tapatalk
mikael84
25-09-2022, 21:13
Ma scusate, a me sfugge una cosa nella presentazione nvidia, non ci sono dati indicativi sul guadagno % rispetto alla precedente gen in raster?
Anche solo per capire dove potenzialmente potrebbe andare a parare una ipotetica 4070/60 rispetto a ga104/06...
Questi 3 giochi, rappresentati in una tabella.
https://uploads.disquscdn.com/images/2fbbb8c97983f84bc311a38d9d7e44616fda057f9c099a606eb0fd2d0963e84b.png
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/relative-performance_3840-2160.png
DJurassic
25-09-2022, 21:21
cut
Pur avendo la ragione dalla tua sei riuscito a passare immediatamente al torto sfornando un post che è di gran lunga peggiore di quello che contestavi, utilizzando praticamente tutti i termini e gli epiteti dispregiativi verso le minoranze per cui sembravi dimostrare tanta solidarietà. :rolleyes:
bonzoxxx
25-09-2022, 21:21
Beh ammazza la 4090 spinge un botto
mikael84
25-09-2022, 21:22
Oddio! O_o
Apparte che non ho capito come "prodigeek" è diventato "progitek" su sto thread...vabbè...
Ma ne ho visto (purtroppo) qualcuno di video loro anche io ...
Sono abbastanza incommentabili, e l'utente medio di questo thread ne sa il triplo di loro... non capisco come si possa anche solo parlane di sti due che fanno show comici ripetendo ovvietà.
E' quasi inquietante che utenti esperti, stiano a guardare video per la massa, è come ascoltare il commesso di mediaworld.
caccapupu91
25-09-2022, 21:23
Lato alimentatore se hanno ragione, si saprà appena ne apriranno uno :asd:
Le aziende vendono ai loro prezzi finchè ci sarà gente che compra a quel prezzo (in ogni settore), se non vendono rinnovano
Comunque nel tempo ci siamo dimenticati che la fascia x090/titan non è proprio pensata al "gaming", non sottovalutate un buon monitor distanza/pollici/risoluzione/dpi molto meglio del dlss e antialiasing D:
SnobWatch
25-09-2022, 21:23
Ma voi prenderete la 4090 al day one o aspettate le custom?
Che consigliate?
bonzoxxx
25-09-2022, 21:26
Ma voi prenderete la 4090 al day one o aspettate le custom?
Che consigliate?
Personalmente salto a piedi pari, uno stipendio e mezzo per una GPU sono un'assurdità.
Certo per chi non ha problemi di soldi, la 4090 è l'unica che abbia senso imho.
mikael84
25-09-2022, 21:36
Infatti la mia paura è che una 4080 12gb si riveli un sidegrade rispetto alle 3080 ti/3090 che oggi costano anche qualcosa in meno della 4080 12gb(a listino s'intende).
E anche la variante da 16gb non potrebbe dare chissà quale stacco da quest'ultime(20 % più veloce della 4080 12gb?30% più veloce?). :rolleyes:
Con una però hai SER, DLSS3, ormai ha investito tutto sui tensor dell'HPC scorso A100. Ha fatto un pò il ryzen con la cache 3d, 30$ di cache, 2 per il prezzo al pubblico praticamente.
Da 4090 a 4080 12, ci passa il 70%, lo stesso ratio della 3090 vs 3060ti, che rimane il target di quella scheda, ovvero, media.
fraussantin
25-09-2022, 21:40
Cioè non si può dare del razzista a chi usa una parola del genere?? Ma stiamo scherzando?
Cioè, uno dice CINEGRO, che è una crasi fra le parole CINESE e NEGRO, e tu dici a me di stare calmo?
Quindi posso dire anche "a frocio" e "ebreo demmerda" e se qualcuno mi contesta intervieni tu e mi difendi?
E cmq non fumo e il mio problema è che non sopporto i razzisti e gli ipocriti.
L'utente ha chiesto scusa ammettendo l'errore ed è finita lì, non c'era bisogno del tuo intervento inutile.
Le parole sono importanti e non si può consentire di usare queste espressioni offensive. Per inciso, la parola in questione è offensiva nei confronti di qualche miliardo di persone.
Inviato dal mio CPH2305 utilizzando TapatalkHo chiesto scusa mi è scappata involontariamente , dobbiamo farne un affare di stato per forza?
Se volete bannarmi bannatemi , mi è scappata e sono in torto, ma la paternare potete risparmiarvela.
Per me la storia finisce qui.
Alekos Panagulis
25-09-2022, 21:41
Ho chiesto scusa mi è scappata involontariamente , dobbiamo farne un affare di stato per forza?
Se volete bannarmi bannatemi , mi è scappata e sono in torto, ma la paternare potete risparmiarvela.
Per me la storia finisce qui.
Infatti non ce l'avevo con te, che hai chiesto scusa e la cosa è finita lì.
Ce l'ho con chi è intervenuto a sproposito dopo di te.
davide155
25-09-2022, 21:46
Personalmente salto a piedi pari, uno stipendio e mezzo per una GPU sono un'assurdità.
Certo per chi non ha problemi di soldi, la 4090 è l'unica che abbia senso imho.
Ti posso assicurare che anche a chi relativamente non ha problemi di soldi (in senso figurato dato che mi alzo ogni mattina alle 5 e se ero pieno di soldi stavo volentieri a casa), gli gira le palle per questi prezzi e non prenderà in considerazione l'idea di pagare due testoni una scheda video. Tanto meno 1400 per una 4070.....ehmm 4080. Poi tutto può succedere ma i 400 euro in più rispetto agli americani proprio non li digerisco. Soprattutto poi nell'era in cui con una 3090 (ma anche 3080) ci fai girare il 99% dei giochi anche in 4k. Soprattutto nell'era del dlss dove con un tasto hai il 40% di prestazioni in più senza degradare la qualità. Soprattutto nell'era in cui i prossimi titoli next gen tripla A sono stati tutti rimandati a data da destinarsi.
Chi ha bisogno di una gpu adesso, si prende una Ampere e campa alla grande, salvaguardando parecchi soldi e senza dare corda a questa piega che ha preso il mercato pc. Diventando sempre più un lusso per pochi.
E lo dice uno che nei pc (come in ogni passione) ci spende secchiate di soldi.
Altroché.
OvErClOck82
25-09-2022, 21:48
Pur avendo la ragione dalla tua sei riuscito a passare immediatamente al torto sfornando un post che è di gran lunga peggiore di quello che contestavi, utilizzando praticamente tutti i termini e gli epiteti dispregiativi verso le minoranze per cui sembravi dimostrare tanta solidarietà. :rolleyes:non hai familiarità con il concetto di "esempio", vero ? :asd:
Inviato dal mio DN2103 utilizzando Tapatalk
Pensa che nelle loro live sono arrivati a 6000 persone e passa.
A me sono simpatici cmq.
Anche a me, al di là che Gianni e pinotto possano piacere o meno con le loro "markette" da YouTuber... di fatto, erano lì a fare domande a giacchetta ed a sentire cose, tra l'altro il magro viene da 10 anni di Tom hardware Italia, io no lo farei così sprovveduto...
Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
DJurassic
25-09-2022, 22:09
non hai familiarità con il concetto di "esempio", vero ? :asd:
Inviato dal mio DN2103 utilizzando Tapatalk
Ho capito ma non credo ci sia bisogno. Non siamo mica all'asilo. Poi si può sempre asteriscare che si capisce lo stesso.
Alekos Panagulis
25-09-2022, 22:12
non hai familiarità con il concetto di "esempio", vero ? :asd:
Inviato dal mio DN2103 utilizzando Tapatalk
Grazie, mi fa piacere che qualcuno ragioni.
Non ti ringrazio invece per aver quotato Djurassic, che - avendolo io saggiamente messo in ignore list - non avrei dovuto leggere. E invece l'ho letto, dio santo.
albero77
25-09-2022, 22:25
Personalmente salto a piedi pari, uno stipendio e mezzo per una GPU sono un'assurdità.
Certo per chi non ha problemi di soldi, la 4090 è l'unica che abbia senso imho.
Ma scusatemi per la serie 30xx tra shortage scalper e mining si è visto anche di peggio. Non voglio giustificare i prezzi ma non venitemi a raccontare che sia una novità. La differenza era che la 3090 staccava di poco la 3080 in maniera tale da renderla poco appetibile.
fraussantin
25-09-2022, 22:27
Ma scusatemi per la serie 30xx tra shortage scalper e mining si è visto anche di peggio. Non voglio giustificare i prezzi ma non venitemi a raccontare che sia una novità. La differenza era che la 3090 staccava di poco la 3080 in maniera tale da renderla poco appetibile.La differenza è che con le 3000 potevi comprarne una a prezzi umani perche ogni tanto si trovavano.
Adesso il prezzo base è già disumano.
bonzoxxx
25-09-2022, 22:33
Mettici anche qualche cosa di più di uno stipendio e mezzo :) dato che non tutti guadagnano piu di 1000 euro. A me proponevano lavori ben sotto. Per quello ci ho rinunciato.
Appunto, è assurdamente troppo.
Ti posso assicurare che anche a chi relativamente non ha problemi di soldi (in senso figurato dato che mi alzo ogni mattina alle 5 e se ero pieno di soldi stavo volentieri a casa), gli gira le palle per questi prezzi e non prenderà in considerazione l'idea di pagare due testoni una scheda video. Tanto meno 1400 per una 4070.....ehmm 4080. Poi tutto può succedere ma i 400 euro in più rispetto agli americani proprio non li digerisco. Soprattutto poi nell'era in cui con una 3090 (ma anche 3080) ci fai girare il 99% dei giochi anche in 4k. Soprattutto nell'era del dlss dove con un tasto hai il 40% di prestazioni in più senza degradare la qualità. Soprattutto nell'era in cui i prossimi titoli next gen tripla A sono stati tutti rimandati a data da destinarsi.
Chi ha bisogno di una gpu adesso, si prende una Ampere e campa alla grande, salvaguardando parecchi soldi e senza dare corda a questa piega che ha preso il mercato pc. Diventando sempre più un lusso per pochi.
E lo dice uno che nei pc (come in ogni passione) ci spende secchiate di soldi.
Altroché.
Concordo assolutamente, anche chi non ha problemi si soldi 2 conti se li deve fare 2000 e rotti euro di GPU è da pazzi.
Senza considerare poi il posizionamento delle 4080...
Ma scusatemi per la serie 30xx tra shortage scalper e mining si è visto anche di peggio. Non voglio giustificare i prezzi ma non venitemi a raccontare che sia una novità. La differenza era che la 3090 staccava di poco la 3080 in maniera tale da renderla poco appetibile.
Anche di peggio perché c'era il mining, ora er giacchetta ha visto che la GGGente compra a prescindere e ci prova, lo biasimo fino ad un certo punto perché alla fine lui deve fare cassa: però converrai con me che oltre 2000€ per una GPU è da folli, di questo passo la prossima 5090 quanto costerà, 3000€?
Senza contare il connettore di melma con le connessioni/disconnessioni contate
bha io onestamente non so se cercarmi una 3090 e vendere la 3080, cosi da stare ultra al sicuro per i prossimi 2 anni o aspettare amd, le 40xx quest'anno le salto, prezzi folli per un aumento prestazione ridicolo senza un dlss3. pensare a schede da 2000€ che necessitano di dlss per andare veloce mi fa cader le palle
bonzoxxx
25-09-2022, 22:36
Mah, con la 3080 stiamo a posto per parecchio, la 3090 non è tanto distante.
davide155
25-09-2022, 22:39
Ma scusatemi per la serie 30xx tra shortage scalper e mining si è visto anche di peggio. Non voglio giustificare i prezzi ma non venitemi a raccontare che sia una novità. La differenza era che la 3090 staccava di poco la 3080 in maniera tale da renderla poco appetibile.No alt, una ampere a prezzo di listino la potevi trovare, io ne ho prese due a msrp, nonostante gli scalper del caiser, la pandemia del tutti rinchiusi in casa, e la corsa ai videogiochi.
Qua il problema è proprio l'msrp che toglie ogni ragionevole dubbio.
Vuoi per il cambio col dollaro, vuoi perché non ci sono più gli sconti di nvidia sulle fe come con ampere, vuoi perché i chip costano di più, soprattutto la 4090, vuoi perché c'è sta guerra che ci sta segando le gambe a tutti, vuoi perché vogliono infrangere il record di fatturato. Eccoci qua, dove ti vendono un chip da fascia media devastato a 1200 euro, e la top di gamma a 2mila euro.
Che poi siano gpu devastanti sono il primo a dirlo.
Ma il quadro è profondamente diverso da due anni fa.
devAngnew
25-09-2022, 23:08
Con una però hai SER, DLSS3, ormai ha investito tutto sui tensor dell'HPC scorso A100. Ha fatto un pò il ryzen con la cache 3d, 30$ di cache, 2 per il prezzo al pubblico praticamente.
Da 4090 a 4080 12, ci passa il 70%, lo stesso ratio della 3090 vs 3060ti, che rimane il target di quella scheda, ovvero, media.
Mikael ma JHH non può vendere a questi prezzi: visto che si è scoperto che OFA è supportata da turing in sù, il fake frame forse introduce lag (da verificare con reflex) DLSS3 solo per le 4000, poi il SER non credo non possa essere implementato anche su architettura da turing a seguire è solo uno shader non abbisogna di hardware particolare. Non voglio polemizzare cerco solo di ragionare; certo le 4000 hanno un botto di cuda, tensor, OFA i vantaggi c'è li ha; ma mettere i bastoni tra le ruote cosi alle architetture precedenti anche no. :)
phoenix79
25-09-2022, 23:20
Io ho regalato a mio fratello, dato che li darò poi la 3090 che ho per il 4k, un 5800x, volevo il 3d ma non volevo strafare, e proveniva da un 3600 liscio.
Dunque già una bella differenza ma se giochi in 4k senza dlss secondo me va bene il tuo.
Nel caso massimo prenditi un 5800x con o senza 3d :)
Se riesco prenderò il 5900x, dovrebbe scaldare meno del 5800x.
mikael84
26-09-2022, 00:21
Mikael ma JHH non può vendere a questi prezzi: visto che si è scoperto che OFA è supportata da turing in sù, il fake frame forse introduce lag (da verificare con reflex) DLSS3 solo per le 4000, poi il SER non credo non possa essere implementato anche su architettura da turing a seguire è solo uno shader non abbisogna di hardware particolare. Non voglio polemizzare cerco solo di ragionare; certo le 4000 hanno un botto di cuda, tensor, OFA i vantaggi c'è li ha; ma mettere i bastoni tra le ruote cosi alle architetture precedenti anche no. :)
Mah, penso che il messaggio che hai quotato mio, ti dia già risposta.:p
La 4080 12, ha un die da x60, che risulta per i dati che abbiamo la x60ti di ampere, ma solo perchè la 4090 è già mezzo devastata (70% sta tra 3090 e 3060ti).
Per questo dicevo, aumento di costi si, ma un par de balle. Il die della 3060 costava circa 25$, quello della 4080 12 sta a circa 70-80$. Questo insieme a qualche induttore e dissi, fa 570$ di costi?:p
Quindi ci sta prendendo in giro. L'unica che ha costi più elevati è la 4090.
Lui ha riciclato i tensor di A100 e ne sta facendo un cavallo di battaglia.
Da lovelace alle altre è tutto uguale, tanto che Ampere in matrici fa le stesse operazioni di turing.
Lui fa capire, che i tensor vecchi, potrebbero, ma non sono in grado di sostenere un simile calcolo.
Ora potremmo fare un esempio, la 4090 può calcolare quasi 750tf fp16 no sparsity, la 3090 160.
Quando utilizziamo i tensor la gpu può utilizzare il 20% max.
Ora viene il bello... la 4060 con 144 TC supporterà DLSS3, bene, no sparsity arriva a 210 tf fp16.
Tra 3090 e 4060 ci sarà poco stacco, se una lo supporta bene e l'altra no, è voluto.
Per rendere l'idea metro necessitava di 10tf fp16.:)
Questo i prodigeek non l'hanno calcolato.
amon.akira
26-09-2022, 00:35
Mah, penso che il messaggio che hai quotato mio, ti dia già risposta.:p
La 4080 12, ha un die da x60, che risulta per i dati che abbiamo la x60ti di ampere, ma solo perchè la 4090 è già mezzo devastata (70% sta tra 3090 e 3060ti).
Per questo dicevo, aumento di costi si, ma un par de balle. Il die della 3060 costava circa 25$, quello della 4080 12 sta a circa 70-80$. Questo insieme a qualche induttore e dissi, fa 570$ di costi?:p
Quindi ci sta prendendo in giro. L'unica che ha costi più elevati è la 4090.
Lui ha riciclato i tensor di A100 e ne sta facendo un cavallo di battaglia.
Da lovelace alle altre è tutto uguale, tanto che Ampere in matrici fa le stesse operazioni di turing.
Lui fa capire, che i tensor vecchi, potrebbero, ma non sono in grado di sostenere un simile calcolo.
Ora potremmo fare un esempio, la 4090 può calcolare quasi 750tf fp16 no sparsity, la 3090 160.
Quando utilizziamo i tensor la gpu può utilizzare il 20% max.
Ora viene il bello... la 4060 con 144 TC supporterà DLSS3, bene, no sparsity arriva a 210 tf fp16.
Tra 3090 e 4060 ci sarà poco stacco, se una lo supporta bene e l'altra no, è voluto.
Per rendere l'idea metro necessitava di 10tf fp16.:)
Questo i prodigeek non l'hanno calcolato.
non so la butto li...forse implementandolo per ampere dovrebbero coprire tutta la linea fino alla 3060?
mikael84
26-09-2022, 00:37
Anche a me, al di là che Gianni e pinotto possano piacere o meno con le loro "markette" da YouTuber... di fatto, erano lì a fare domande a giacchetta ed a sentire cose, tra l'altro il magro viene da 10 anni di Tom hardware Italia, io no lo farei così sprovveduto...
Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk
Beh, avrei da ridire, soprattutto se entriamo sul tecnico.:p
Nvidia, ha solo riciclato i tensor della A100, dove ha investito per carità.
DLSS3 è supportato da tutta la gamma AD, anche la 4050-60. Il problema è che queste schede godrebbero del boost, avendo dei ratio simili o poco superiori ad Ampere di fascia alta.
Se non fossero markettari e tecnici avrebbero potuto dirli, quando ha parlato di aumento costi..."come giustifica un aumento costi della 4080 12 di 570$, quando l'aumento del die è di 55$ su oltre 200 die a wafer, rispetto la 3060.:)
mikael84
26-09-2022, 00:48
non so la butto li...forse implementandolo per ampere dovrebbero coprire tutta la linea fino alla 3060?
Beh, tra 3090ti e 2060 a livello di DLSS non cambia nulla, e la 2060 ha 16tf via matrice. Entrambe lo supportano al meglio in modo identico.:)
amon.akira
26-09-2022, 01:14
Beh, tra 3090ti e 2060 a livello di DLSS non cambia nulla, e la 2060 ha 16tf via matrice. Entrambe lo supportano al meglio in modo identico.:)
qui un tweet con bryan catanzaro...con qualche botta e risposta nei replies
https://twitter.com/ctnzr/status/1572330879372136449
in qualche reply lascia anche supporre che in futuro qualcosa si potrebbe vedere, ma ci credo poco :P
"It’s theoretically possible that with additional research and engineering that we could get this technology working on other cards, although it wouldn’t provide as much benefit. The current version only works on 4000-series cards."
mikael84
26-09-2022, 01:33
qui un tweet con bryan catanzaro...con qualche botta e risposta nei replies
https://twitter.com/ctnzr/status/1572330879372136449
in qualche reply lascia anche supporre che in futuro qualcosa si potrebbe vedere, ma ci credo poco :P
"It’s theoretically possible that with additional research and engineering that we could get this technology working on other cards, although it wouldn’t provide as much benefit. The current version only works on 4000-series cards."
Ecco, qua afferma quello de dicevo sopra. Se funziona su tutta la serie, funziona anche con le 3090 per dire.:)
L'unica cosa che cambia, nei tensor, sono alcuni tipi di calcolo a mantissa ed esponente variabile, che a noi non ci interessa (almeno noi gamer).
Anche la storia del SER, è una mezza pagliacciata. La microarchitettura, è 1:1 con Ampere (salvo i tensor e le cache), quindi applicabile anche su ampere.
Una delle variazioni, era l' independent thread scheduler di Volta, rattoppato da turing, che permetteva ai singoli cuda la programmazione autonoma, al contrario di Pascal.
Il resto è rimasto uguale.
amon.akira
26-09-2022, 02:06
Ecco, qua afferma quello de dicevo sopra. Se funziona su tutta la serie, funziona anche con le 3090 per dire.:)
L'unica cosa che cambia, nei tensor, sono alcuni tipi di calcolo a mantissa ed esponente variabile, che a noi non ci interessa (almeno noi gamer).
Anche la storia del SER, è una mezza pagliacciata. La microarchitettura, è 1:1 con Ampere (salvo i tensor e le cache), quindi applicabile anche su ampere.
Una delle variazioni, era l' independent thread scheduler di Volta, rattoppato da turing, che permetteva ai singoli cuda la programmazione autonoma, al contrario di Pascal.
Il resto è rimasto uguale.
sicuramente per loro presentare SER/DLSS3 per ampere/ada avrebbe ridimensionato alle giuste proporzioni le slide 4090 vs 3090ti, ma piu che altro non avrebbe potuto far esistere le 4080 cosi come sono state presentate.
veramente curioso di vedere come risponde amd e con quale fascia di prezzo/perf.
mikael84
26-09-2022, 02:26
sicuramente per loro presentare SER/DLSS3 per ampere/ada avrebbe ridimensionato alle giuste proporzioni le slide 4090 vs 3090ti, ma piu che altro non avrebbe potuto far esistere le 4080 cosi come sono state presentate.
veramente curioso di vedere come risponde amd e con quale fascia di prezzo/perf.
Esatto,
AMD, non avrà matrici, non farà BVH hardware, punterà tutto su die di calcolo raster, ma ha promesso oltre il 50% perf/watt. Ha un bios max clock di 3,75ghz, che su 6900 era di 2,8. Tuttavia boosterà meno, abbastanza meno.
Navi32 avrà un die raster (rt) di 200mm2 a 5nm e 140mm2 a 6nm cache, e può giò da li fare un 2x flops, che si può tradurre in un 50-60% perf su navi21, che già in raster è simil la "4060" 12.
Avrà le sue cartucce da sparare, soprattutto nella mid.
Da verificare le latenze dei collegamenti separati, uno svantaggio del monolitico. Come sai, se ho 90ns di latenza vs 60, le perf cambiano.
Cmq sui 300 watt, dovrebbe presentare qualcosa, che in raster andrà molto bene, e senza cavetti.
Andrà valutato il tutto, ma se già con 5120@2500-2600 prendono la 4060 12-3090, non immagino con 7680-12288 oltre i 3ghz..:)
nessuno29
26-09-2022, 06:28
bha io onestamente non so se cercarmi una 3090 e vendere la 3080, cosi da stare ultra al sicuro per i prossimi 2 anni o aspettare amd, le 40xx quest'anno le salto, prezzi folli per un aumento prestazione ridicolo senza un dlss3. pensare a schede da 2000€ che necessitano di dlss per andare veloce mi fa cader le palle
Ma perché dovresti fare una roba del genere per un guadagno misero spendere un botto di soldi...quando la 3080 on andrà più anche la 3090 stenterà.
Sto thread è diventato illeggibile nelle ultime 20 pagine io lo chiamerei Aspettando le nuove nvidia con paranoia.
PS: Cosa cambia tra un frame generato in fp32 ed uno quasi tutti in fp16 michael?
sertopica
26-09-2022, 07:20
Questo potrebbe fare al caso mio per rimpiazzare quella zozzeria inclusa nella confezione:
https://www.moddiy.com/products/ATX-3.0-PCIe-5.0-600W-Triple-8-Pin-to-12VHPWR-16-Pin-Adapter-Cable.html
cut
Quindi la compri sicuro. :asd:
PS: Cosa cambia tra un frame generato in fp32 ed uno quasi tutti in fp16 michael?
Qualche tempo fa avevo letto qualcosa a riguardo al training delle AI da parte di nvidia con operazioni in virgola mobile a 16 e 32 bit. Quello che succede e' che in fp16 riduci il consumo di memoria ed ottieni tempi di training ridotti rispetto a fp32, ma allo stesso tempo potresti ottenere dati spazzatura od un training non adeguato. Credo che nel corso degli anni siano riusciti a trovare una soluzione che eviti questo tipo di problemi, ovvero la mixed precision. Ma mikael ne sa sicuramente di piu'. :D
Predator_1982
26-09-2022, 07:41
Cmq sui 300 watt, dovrebbe presentare qualcosa, che in raster andrà molto bene, e senza cavetti.
si Mikael, resta il fatto che in RT continuerà ad essere (probabilmente) decisamente invalida rispetto alla controparte new gen, in un momento in cui ormai la tendenza è far sempre più ricorso a questa tecnologia per aumentare la resa visiva.
E' un gap secondo me importante, delle prestazioni raster pure importa ormai fino ad un certo punto. Per altro, io vedo le nuove RX 7000 come una tecnologia che, per l'approccio architetturale profondamente rivisto, porterà il meglio solo dalla prossima generazione.
Thunder-74
26-09-2022, 07:46
E' quasi inquietante che utenti esperti, stiano a guardare video per la massa, è come ascoltare il commesso di mediaworld.
A volte anche dal torbido si riesce a carpire qualche info in più. L'esperienza poi ti fa capire le minchiate da scartare :fagiano:
quindi non sono l'unico ad aver notato che gli unici che stanno facendo markette a nvidia sono questi tizi di prodigeek :asd:
personalmente ho fatto già una volta il pazzo inscimmiato per accaparrarmi la 3080 a prezzi assurdi, quindi a questo giro aspetterò le recensioni oggettive per vedere l'effettivo aumento della potenza e dell'efficienza prima di esprimere un giudizio definitivo, ma sicuramente non le comprerò al dayone :asd:
craesilo
26-09-2022, 09:54
così markettari che nell'ultimo video consigliano di prendere una rx e perculano nvidia :O
ma d'altronde gli utenti esperti sono quelli che spendono 4000 € per i videogiochini :asd:
Alekos Panagulis
26-09-2022, 10:00
E' quasi inquietante che utenti esperti, stiano a guardare video per la massa, è come ascoltare il commesso di mediaworld.
Io li ho ascoltati un paio di volte, per curiosità. Devo dire che sono rimasto impressionato dalla banalità dei contenuti, dalla mancanza di preparazione, dal numero di iscritti e visualizzazioni del canale (veramente immeritati). Il problema è che il panorama italiano è estremamente povero, quindi è facile spiccare se si ha una buona attitudine con la telecamera.
Al momento il mio canale preferito è Gamer Nexus, che fa contenuti veramente di altissimo livello.
Predator_1982
26-09-2022, 10:00
così markettari che nell'ultimo video consigliano di prendere una rx e perculano nvidia :O
ma d'altronde gli utenti esperti sono quelli che spendono 4000 € per i videogiochini :asd:
su dai, non credo sia necessario farne argomento di dibattito, se uno vuole seguirli ok, altrimenti amen...non tolgono il pane a nessuno. Youtube è pieno di bimbetti brufolosi che ormai recensiscono pure il cesso nuovo e in fin dei conti, ognuno valuta in base alle proprie necessità e possibilità.
davide155
26-09-2022, 10:00
I prodigeek non sanno nemmeno dove sono piantati, non riducono nulla e questo é tutto quello che sanno, anzi, gonfiano pure il petto, ho visto qualche video nel 2013 ho riaperto nel 2022 e a livello tecnico sono ancora li.
Per me youtuber=Gulag sopratutto in un campo come questo, dove parlare di tecnicismi con degli appassionati é sempre piú raro, visto che ormai é pieno di bimbi nutella, pronti a sfoderare l'HW migliore senza capirne un caxxo gli utenti esperti si contano sulle dita di una mano.
Comunque furbi e abili loro, hanno guadagnato un bel pó di soldi, ricordate ogni click che fate a sti individui, un mattone in piú nella loro casetta LOL
Ti posso fare esempi anche sugli orologi (altra passione ben piú onerosa dei pc) un tempo i rolex erano belli, ora sono solo oggetti da status symbol, cosi sono i componenti per pc.Non tutti sono malati di mente come noi.
Il 99% dei videogiocatori di oggi sono ragazzini. E non sanno la differenza tra le due 4080, figuriamoci sui tecnicismi.
I prodigeek hanno sfruttato questa onda ed hanno fatto soldi facendo video sull'hardware molto in generale. Ma per l'utente medio di youtube vanno più che bene perché alla fine i consigli che danno non sono per niente campati in aria.
Non tutti si iscrivono ad un forum, studiano e parlano con persone che per una domanda possono avere risposte anche dopo 5 giorni. Non nell'era dei social dove accade tutto e subito.
Non li difendo perché quando sbandierarono le case comprate coi soldi di YouTube in pandemia, mi fecero parecchio girare le balle.
Ma nemmeno vanno trattati come letame, perché su youtube c'è ben di peggio. E poi un po' mi fanno anche tenerezza.
così markettari che nell'ultimo video consigliano di prendere una rx e perculano nvidia :O
ma d'altronde gli utenti esperti sono quelli che spendono 4000 € per i videogiochini :asd:
ah quindi i titoli "UNO SCHIAFFO PER AMD E INTEL!!!111!!!" con relativo sottotitolo "Le schede sembrano davvero una bomba, un bello schiaffo per AMD soprattutto, che vedremo cosa tirerà fuori a novembre lato GPU. " e "ABBIAMO PARLATO CON IL CEO DI NVIDIA!!1111!!" me li sono sognati stanotte :asd:
craesilo
26-09-2022, 10:19
ah quindi i titoli "UNO SCHIAFFO PER AMD E INTEL!!!111!!!" con relativo sottotitolo "Le schede sembrano davvero una bomba, un bello schiaffo per AMD soprattutto, che vedremo cosa tirerà fuori a novembre lato GPU. " e "ABBIAMO PARLATO CON IL CEO DI NVIDIA!!1111!!" me li sono sognati stanotte :asd:
ovvio il fatto che hai censurato -ma a che prezzo- :asd:
non vedo gombloddi mi spiace, vabè torna a vendere schede a 2 milioni di € sul mercatino :asd:
su dai, non credo sia necessario farne argomento di dibattito
neanch'io, ma dillo agli altri :asd:
fraussantin
26-09-2022, 10:25
ah quindi i titoli "UNO SCHIAFFO PER AMD E INTEL!!!111!!!" con relativo sottotitolo "Le schede sembrano davvero una bomba, un bello schiaffo per AMD soprattutto, che vedremo cosa tirerà fuori a novembre lato GPU. " e "ABBIAMO PARLATO CON IL CEO DI NVIDIA!!1111!!" me li sono sognati stanotte :asd:
lo schiaffone celo ha tirato ma a noi :asd:
Thunder-74
26-09-2022, 10:30
Deciso!!! io prendo Hopper H100 :fagiano:
NVIDIA al lavoro su H100 con 120 GB
Una misteriosa scheda grafica basata su PCIe chiamata G100 da 120 GB
LINK (https://videocardz.com/newz/nvidia-hopper-h100-data-center-gpu-spotted-with-120gb-hbm2e-memory)
ovvio il fatto che hai censurato -ma a che prezzo- :asd:
non vedo gombloddi mi spiace, vabè torna a vendere schede a 2 milioni di € sul mercatino :asd:
neanch'io, ma dillo agli altri :asd:
Non c'era neanche bisogno di citarlo il "ma a che prezzo" dato che è incontrovertibile (prezzi MRSP quasi al doppio dei precedenti).
Il fatto è che qualcuno che fa degli articoli con dei titoli del genere o è in malafede (e il secondo video parrebbe dimostrare questo) o è incompetente.
Difatti praticamente tutti hanno capito e detto che ad oggi non c'è ancora un confronto sulla potenza pura ma il tanto decantato 2-3X è dato dall'RT e non da migliorie sul lato hardware.
Ps: poi mi spiegherai che cosa c'entra mettere in mezzo il vendere nel mercatino a peso d'oro(che poi ricordo a malapena una mia inserzione); carenza di argomentazione? ;)
PS2: bell'avatar
e per intenderci, alla fine mi interessa poco di sti tizi, stavo solo notando l'ovvio, cioè che sono i pochi che stanno decantando queste schede senza neanche avere dei bench reali in mano.
craesilo
26-09-2022, 10:57
stavo solo notando l'ovvio, cioè che sono i pochi che stanno decantando queste schede senza neanche avere dei bench reali in mano.
bene, appurato che i video non li hai visti/ascoltati.
ninja750
26-09-2022, 11:00
il tanto decantato 2-3X è dato dall'RT e non da migliorie sul lato hardware.
DLSS 3.0 :O
no_side_fx
26-09-2022, 11:07
Non li difendo perché quando sbandierarono le case comprate coi soldi di YouTube in pandemia, mi fecero parecchio girare le balle.
Ma nemmeno vanno trattati come letame, perché su youtube c'è ben di peggio. E poi un po' mi fanno anche tenerezza.
ma questo vale per loro come per tutti gli altri youtubers, ormai lo guardo solo per poter vedere immagini dei prodotti nel dettaglio ma per il resto faccio prima a metterli in "mute"
tutti sponsorizzati e pagati per dire e non dire certe cose
questi al day 1 avranno già in mano 4090/4080 tutto aggratis sai che gliene frega dell'msrp
nessuno29
26-09-2022, 11:08
Il vero marciume dei prodigeek è la loro community tossica sul gruppo telegram (dove fanno i $$$$), assurdo il livello dei commenti in quel gruppo.
ma questo vale per loro come per tutti gli altri youtubers, ormai lo guardo solo per poter vedere immagini dei prodotti nel dettaglio ma per il resto faccio prima a metterli in "mute"
tutti sponsorizzati e pagati per dire e non dire certe cose
questi al day 1 avranno già in mano 4090/4080 tutto aggratis sai che gliene frega dell'msrp
Coi giochi scelti da nvidia
bene, appurato che i video non li hai visti/ascoltati.
e invece li ho ascoltati, e il titolo clickbait lo hanno messo loro, non io
fraussantin
26-09-2022, 11:36
Il sogno di tutti gli influencer è rientrare nell'occhio delle grandi aziende quindi grandi sponsor.
E diventare la ferragni della situazione.
E capisco simpatia , altri hanno puntato su quello , vedi capellone , o linus , capisco sparare minchiate e fare video scazzoni , ma a livello di competenza cosa fanno?
Quello che sanno fare loro lo sappiamo fare più o meno tutti.
Non gli ho mai visto fare un assemblaggio eccelso con tubazioni particolari ecc , non l'ho mai visti fare test estremi di overclock o analisi tecniche su consumi voltaggi .
Non so neppure se hanno aperto mai una gpu in video
Testano giochi come fanno ovunque perche dovrei guardare i loro test e non quelli qui su hwu?
Cmq prima o poi aprono il loro sito in concorrenza a toms secondo me.
devAngnew
26-09-2022, 11:37
non so la butto li...forse implementandolo per ampere dovrebbero coprire tutta la linea fino alla 3060?
Si, ma non è che dalla 3060 alla 3090ti ci sia differenza per qualità dell'hardware ma solo di quantità . Se lo fanno ci fanno anche bella figura :)
Predator_1982
26-09-2022, 11:57
Frequento questo forum di HWU dal 2010...sono ormai 12 anni buoni e una cosa non è mai cambiata: nel thread "in attesa di...." quando si arriva quasi a fine attesa si divaga sempre su culi e muli :D :D
Thunder-74
26-09-2022, 11:57
Il sogno di tutti gli influencer è rientrare nell'occhio delle grandi aziende quindi grandi sponsor.
E diventare la ferragni della situazione.
E capisco simpatia , altri hanno puntato su quello , vedi capellone , o linus , capisco sparare minchiate e fare video scazzoni , ma a livello di competenza cosa fanno?
Quello che sanno fare loro lo sappiamo fare più o meno tutti.
Non gli ho mai visto fare un assemblaggio eccelso con tubazioni particolari ecc , non l'ho mai visti fare test estremi di overclock o analisi tecniche su consumi voltaggi .
Non so neppure se hanno aperto mai una gpu in video
Testano giochi come fanno ovunque perche dovrei guardare i loro test e non quelli qui su hwu?
Cmq prima o poi aprono il loro sito in concorrenza a toms secondo me.
io, come penso la maggior parte delle persone in questo forum, guardo i video su YT di questi ed altri, per vedere prodotti in anteprima. Canali seri per apprendere e crescere, sono altri. Però come dicevo, non trovo condannabile seguirli; l'intelligenza della persona che guarda, sta proprio nel capire cosa è utile e cosa scartare perchè viziato da imposizioni o fanboysmo. Per esempio... uno può prendere per buono i consigli di Davide, quando come ideologia ha quella di comprare sempre il top? Grazie al c...., così siamo capaci tutti :)
DJurassic
26-09-2022, 12:21
Quindi la compri sicuro. :asd:
Finora è solo un idea. Aspetto di vedere le recensioni, i test e gli approfondimenti ma si, sono abbastanza tentato :asd:
Predator_1982
26-09-2022, 12:23
Finora è solo un idea. Aspetto di vedere le recensioni, i test e gli approfondimenti ma si, sono abbastanza tentato :asd:
DJ, in verità in verità ti dico...tu giorno 12 esulterai con me per averla acquistata al day one, in barba a tutto il sacro santo, giusto e razionale comportamento che la logica suggerirebbe :read:
DJurassic
26-09-2022, 12:24
DJ, in verità in verità ti dico...tu giorno 12 esulterai con me per averla acquistata al day one :read:
Tu dici che la troviamo? :fagiano:
Predator_1982
26-09-2022, 12:25
Tu dici che la troviamo? :fagiano:
io dico di si....quanti pazzi sono disposti a pagare una ca...o di scheda FE 2000 euri? In fondo...spero che terminino in 2 millisecondi, altrimenti se vedo il tasto acquista mi parte subito embolo, scimmia e gorilla e non controllo le dita.
In compenso ho deciso di rinunciare ad upgradare ad iPhone 14 Pro max :rolleyes: :D
DJurassic
26-09-2022, 12:29
io dico di si....quanti pazzi sono disposti a pagare una ca...o di scheda FE 2000 euri?
Qualche anno fà ti avrei detto nessuno. Ad oggi non ne sono più tanto convinto. Il problema è che in Italia ne arriveranno tipo 10 in totale.
A 10 coglioni ci arriviamo credo, specie dopo aver visto i risultati elettorali. :sofico:
amon.akira
26-09-2022, 12:30
Si, ma non è che dalla 3060 alla 3090ti ci sia differenza per qualità dell'hardware ma solo di quantità . Se lo fanno ci fanno anche bella figura :)
si la buttavo li sul parallelismo quantità necessaria per ottenere il minimo accettabile in termini di latenze e iq, premesso che finche nn provo il dlss3 nn so se sarà usabile per i miei canoni, a naso al momento mi butto sulla 4090 per avere il +60% dall 3090...poi se il dlss3 sarà buono tanto di guadagnato.
il parallelismo era relativo ai tensor
esempio 4060 vs ga102 come minimo denominatore
cmq tutto è fattibile, è chiaro che hanno voluto aggiungere le ada alle ampere e nn sostituirle...tanto da citarle nella conference
Predator_1982
26-09-2022, 12:56
Qualche anno fà ti avrei detto nessuno. Ad oggi non ne sono più tanto convinto. Il problema è che in Italia ne arriveranno tipo 10 in totale.
A 10 coglioni ci arriviamo credo, specie dopo aver visto i risultati elettorali. :sofico:
non credo arriveranno direttamente in italia, sono sempre quelle che consegneranno in stock a LDLC
Thunder-74
26-09-2022, 13:04
ops...
https://www.gamersnexus.net/media/k2/items/cache/eef7e2a2e24225bd3a0e83ca47432483_XL.jpg
PCI-SIG, il gruppo che governa gli standard PCIe, ha inviato un'e-mail a tutti i suoi membri e ai loro fornitori in merito alla fusione dei cavi 12VHPWR. Quell'e-mail era tecnicamente privata, ma c'erano così tanti gruppi nell'e-mail che inevitabilmente è stata passata in giro ed è finita anche nelle nostre mani.
Ricordiamo che 12VHPWR è il nome ufficiale del nuovo cavo PCIe 5.0 12+4 pin utilizzato su alcune schede grafiche ad alta potenza attuali e future ed è in grado di gestire 600 W sostenuti su un singolo cavo.
Potresti aver già visto questa storia trattata su alcuni siti di voci che citano che il problema riguarda gli adattatori che si convertono in connettori PCIe a 8 pin, ma non è corretto e potrebbe essere basato su informazioni incomplete. Ecco cosa diceva l'e-mail:
“Si prega di notare che PCI-SIG è venuto a conoscenza del fatto che alcune implementazioni dei connettori e degli assiemi 12VHPWR hanno dimostrato una varianza termica, che potrebbe causare problemi di sicurezza in determinate condizioni. Sebbene le specifiche PCI-SIG forniscano le informazioni necessarie per l'interoperabilità, non tentano di comprendere tutti gli aspetti di una corretta progettazione, basandosi su numerosi metodi e pratiche di progettazione standard più noti del settore. Poiché i gruppi di lavoro PCI-SIG includono molti esperti nel campo della progettazione di connettori e sistemi, esamineranno le informazioni disponibili su questo problema del settore e assisteranno in qualsiasi risoluzione in qualsiasi misura sia appropriata.
“Man mano che emergono ulteriori dettagli, PCI-SIG potrebbe fornire ulteriori aggiornamenti. Nel frattempo, consigliamo ai membri di lavorare a stretto contatto con i loro fornitori di connettori e di esercitare la due diligence nell'utilizzo di connessioni ad alta potenza, in particolare laddove possono esistere problemi di sicurezza.
Il PDF spiega che Nvidia ha testato i connettori 12VHPWR per convalidare che i prototipi di alimentatori e cavi possono soddisfare le specifiche di 55A continui. Durante questo test, Nvidia ha riscontrato che alcune condizioni di instradamento dei cavi portavano a un calore eccessivo e, in alcuni casi, allo scioglimento.
Le condizioni richieste per l'eccesso di calore erano o sottoporre i cavi a forti flessioni o ad un numero elevato di cicli di accoppiamento (circa 40). I cavi testati in questi scenari hanno mostrato punti caldi a circa 2 ore e mezza e una fusione tra 10 e 30 ore. I connettori di più fornitori si sono guastati.
Questo con 55 A continui di corrente (o 660 W a 12 V), che non sarebbero una condizione di carico tipica, soprattutto non nei giochi. Nvidia non ha riscontrato guasti su connettori con cicli di accoppiamento bassi e senza alcuna piega.
Le foto fornite nel PDF mostrano uno scioglimento piuttosto raccapricciante e non si trova nella stessa area ogni volta. I guasti si sono verificati su pin diversi a seconda della direzione in cui è stato piegato il cavo. Questo potrebbe essere seriamente pericoloso.
Il documento include le misurazioni per pin effettuate durante il test. Poiché il cavo è stato piegato in varie direzioni, un grave squilibrio di corrente è risultato da enormi oscillazioni della resistenza. Useremo l'ultimo set di dati come esempio in quanto è il più grave. La resistenza nei pin 3 e 4 è stata elevata, in particolare nel pin 3, risultando in 36,4 A misurati su un singolo pin o 436 W su un singolo pin, portando a una temperatura dell'hotspot di 180 gradi centigradi. A proposito, la corrente nominale del 16AWG a trefoli è solo compresa tra 5 A e 7 A, quindi stiamo parlando da 5 a 7 volte la corrente nominale.
Il PDF prosegue ipotizzando che la flessione e il caricamento laterale facciano in modo che la spina si insedi in modo improprio nella presa, forse deformandola. Le condizioni di test potrebbero sembrare estreme, con il cavo piegato a pieno carico per ore e ore, ma questo genere di cose viene fatto per garantire un margine di sicurezza man mano che i prodotti vengono utilizzati e invecchiano in varie circostanze.
I membri del gruppo sono incoraggiati a eseguire test indipendenti e condividere i risultati con Nvidia, che si è anche offerta volontaria per collaborare con i produttori dei connettori per risolvere questo problema. Nvidia e PCI-SIG stanno cercando di anticipare un potenziale problema prima che si diffonda.
La nostra opinione è che mentre la situazione è seria e dovrebbe essere presa sul serio, non è probabile che questo sia un problema che incontrerai nei tuoi PC da gioco. Le condizioni di test sono volutamente estreme in un modo che probabilmente non avrai nel tuo sistema, soprattutto se fai attenzione a non sollecitare troppo i tuoi cavi e connettori. Non è mai una buona pratica spingere, piegare o stipare i cavi.
fonte (https://www.gamersnexus.net/news-pc/3692-intel-arc-isnt-dead-melting-gpu-cables)
Della serie, anche se si usa un cavo singolo nativo 16 pin to 16 pin, non va né piegato né a questo punto portato all'estremo dei 600w, oltre a fare attenzione a come si innesta. Questo quanto emerge.
davide155
26-09-2022, 13:18
Thunder quella foto l'avevo già vista ed è sconvolgente.
Non solo rischi lo scioglimento del cavo, ma rischi anche la gpu da 2mila euro e pure l'alimentatore da 300 euro.
Ok che sono casi limite. 600w per 10 ore, ok che le 4090 custom arriveranno al massimo a 550w da specifica, ma quando lascio la gpu a scaccolare su folding@home ci sta anche a giorni interi accesa alla massima potenza, e se devo rischiare che la casa mi prenda fuoco mentre sono a lavoro mi girerebbero le balle.
Ma poi consigliano di non piegare più di tanto i cavi altrimenti si rompe la sede dei connettori a lungo andare, e di non usare prolunghe, oppure di non staccarle e riattaccarle troppe volte.... Ma indo siamo (?!?!?!)
Secondo me la situazione gli sta sfuggendo di mano.
bonzoxxx
26-09-2022, 13:24
ops...
Della serie, anche se si usa un cavo singolo nativo 16 pin to 16 pin, non va né piegato né a questo punto portato all'estremo dei 600w, oltre a fare attenzione a come si innesta. Questo quanto emerge.
Oltre che costare un botto, hanno pure un connettore ingegnerizzato e realizzato con le zampe.
No vabbè..
Thunder quella foto l'avevo già vista ed è sconvolgente.
Non solo rischi lo scioglimento del cavo, ma rischi anche la gpu da 2mila euro e pure l'alimentatore da 300 euro.
Ok che sono casi limite. 600w per 10 ore, ok che le 4090 custom arriveranno al massimo a 550w da specifica, ma quando lascio la gpu a scaccolare su folding@home ci sta anche a giorni interi accesa alla massima potenza, e se devo rischiare che la casa mi prenda fuoco mentre sono a lavoro mi girerebbero le balle.
Ma poi consigliano di non piegare più di tanto i cavi altrimenti si rompe la sede dei connettori a lungo andare, e di non usare prolunghe, oppure di non staccarle e riattaccarle troppe volte.... Ma indo siamo (?!?!?!)
Secondo me la situazione gli sta sfuggendo di mano.
O più semplicemente chi ha progettato quel cavo è un deficiente.
Thunder-74
26-09-2022, 13:34
Sinceramente io avrei preferito 4 cavi da 8 pin e amen. Fa bene AMD a rimanere su soliti cavi a questo punto.
La serenità prima di tutto.
Inoltre qui non è terrorismo voluto per vendere i nuovi ali, qui si tratta di un nuovo standard ad avere problemi . Scrivere queste email, vuol dire rendere noto di aver toppato in qualche modo (PCI-SIG), vuol dire che nvidia solleva dei dubi sulle sue nuove schede. Quindi , sarò eccessivo io, ma ponderei bene il modo di usare sti cavi nel case o fare oc spinto su una 4090 custom
Inviato dal mio iPhone X utilizzando Tapatalk
bonzoxxx
26-09-2022, 13:37
Sinceramente io avrei preferito 4 cavi da 8 pin e amen. Fa bene AMD a rimanere su soliti cavi a questo punto.
Assolutamente.
Ingegnerizzato bene magari non avrebbe dato problemi ma è palese che, in qualche modo, abbiano toppato alla grande e non si tratta di rocket science, ziocan alla fine è un cavo con 16 fili dentro..
Nhirlathothep
26-09-2022, 13:43
oppure lasciate che facciano da alpha testers gli early adopters
anche per psu e cavi
tra un pò sarà tutto stabilizzato e in linea generale le future generazioni di psu sembrano solo migliori
chi prende queste gpu ora probabilmente avrà altri 3 pc di riserva per i sicuri problemi
Io per il futuro avrei proprio in mente di montare 2 bei pc : uno tutto AMD (CPU+GPU) e uno Intel+Nvidia. se solo le gpu intel fossero state decenti avrei fatto full intel
edit :
il pc full amd avrà un 7950x e non so che gpu
il pc intel-nvidia avrà una 4090ti ma non so che cpu
fraussantin
26-09-2022, 13:45
Sinceramente io avrei preferito 4 cavi da 8 pin e amen. Fa bene AMD a rimanere su soliti cavi a questo punto.
La serenità prima di tutto.
Inoltre qui non è terrorismo voluto per vendere i nuovi ali, qui si tratta di un nuovo standard ad avere problemi . Scrivere queste email, vuol dire rendere noto di aver toppato in qualche modo (PCI-SIG), vuol dire che nvidia solleva dei dubi sulle sue nuove schede. Quindi , sarò eccessivo io, ma ponderei bene il modo di usare sti cavi nel case o fare oc spinto su una 4090 custom
Inviato dal mio iPhone X utilizzando TapatalkÈ confermato che amd rimane sui cavi 8 pin ?
Thunder-74
26-09-2022, 13:46
Se dovessi prendere una 4090, metterei un sensore di temp sul cavo lato connettore vga e lo terrei monitorato insieme a tutti gli altri parametri che ho sotto aquasuite.
@Djurassic , vedi tu .
Inviato dal mio iPhone X utilizzando Tapatalk
scorpion73
26-09-2022, 14:06
Se dovessi prendere una 4090, metterei un sensore di temp sul cavo lato connettore vga e lo terrei monitorato insieme a tutti gli altri parametri che ho sotto aquasuite.
@Djurassic , vedi tu .
Inviato dal mio iPhone X utilizzando Tapatalk
Cioé io devo spendere 2000€ di VGA, 350€ di alimentatore e poi stare costretto pure a mettere un sensore di temperatura su un cavo e guardare un sensore di temperatura per paura che il cavo si sciolga e mi faccia buttare tutto al cesso?
Ma dico ci rendiamo conto di cosa stiamo dicendo?
Ma tenersi 2350€ in saccoccia invece di spenderli per fare da beta tester a loro no? Non è una buona alternativa?
Qui siamo fuori anche da qualsiasi concezione "ne vale la pena, non ne vale la pena" legata alle prestazioni, qui siamo all'assurdo..
Thunder-74
26-09-2022, 14:11
Cioé io devo spendere 2000€ di VGA, 350€ di alimentatore e poi stare costretto pure a mettere un sensore di temperatura su un cavo e guardare un sensore di temperatura per paura che il cavo si sciolga e mi faccia buttare tutto al cesso?
Ma dico ci rendiamo conto di cosa stiamo dicendo?
Ma tenersi 2350€ in saccoccia invece di spenderli per fare da beta tester a loro no? Non è una buona alternativa?
Qui siamo fuori anche da qualsiasi concezione "ne vale la pena, non ne vale la pena" legata alle prestazioni, qui siamo all'assurdo..
Hai ragione , ma il problema non si verifica con un uso normale e maneggiando con cura i cavi. I Test sono stati fatti esasperando il tutto. Diciamo che metterei il sensore per scrupolo e per essere più tranquillo, ma io sono un tantinello malato :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Magistercris
26-09-2022, 14:12
Se dovessi prendere una 4090, metterei un sensore di temp sul cavo lato connettore vga e lo terrei monitorato insieme a tutti gli altri parametri che ho sotto aquasuite.
@Djurassic , vedi tu .
Inviato dal mio iPhone X utilizzando Tapatalk
Corretto. Sempre essere prudenti. Ma cavolo, inizio a pensare... 4080 così così....4090 un mostro .... Anche se non full.. 2000 euro, se bastano....mi faccio una custom cazzata....andiamo oltre i 2400....e poi mi devo preoccupare di mettere i sensori sul cavo last generetion, cambio ali con quello nativo e poi faccio pure un impianto antincendio a casa perché non si sa mai?
No, questa cosa non la digerisco proprio. Se spendo 2, 2500 euro per un prodotto che non è nemmeno sicuro al 100 per cento e che mi fa pure preoccupare... Mi girano parecchio..... La scimmia sta andando a fuoco :)
bonzoxxx
26-09-2022, 14:24
Cioé io devo spendere 2000€ di VGA, 350€ di alimentatore e poi stare costretto pure a mettere un sensore di temperatura su un cavo e guardare un sensore di temperatura per paura che il cavo si sciolga e mi faccia buttare tutto al cesso?
Ma dico ci rendiamo conto di cosa stiamo dicendo?
Ma tenersi 2350€ in saccoccia invece di spenderli per fare da beta tester a loro no? Non è una buona alternativa?
Qui siamo fuori anche da qualsiasi concezione "ne vale la pena, non ne vale la pena" legata alle prestazioni, qui siamo all'assurdo..
Precisamente.
StylezZz`
26-09-2022, 14:47
Ma io non ho ancora capito se questi difetti valgono anche con le 3000 e gli adattatori forniti da nvidia che utilizziamo attualmente.
scorpion73
26-09-2022, 14:51
Ma io non ho ancora capito se questi difetti valgono anche con le 3000 e gli adattatori forniti da nvidia che utilizziamo attualmente.
Sono relativi al connettore, quindi valgono per tutto.
fraussantin
26-09-2022, 15:09
Sono relativi al connettore, quindi valgono per tutto.In teoria però revisionando il cavo in spessore e in materiali dovrebbero quanto meno tamponare il problema.
Ale55andr0
26-09-2022, 15:10
Non tutti sono malati di mente come noi.
Il 99% dei videogiocatori di oggi sono ragazzini. E non sanno la differenza tra le due 4080, figuriamoci sui tecnicismi.
I prodigeek hanno sfruttato questa onda ed hanno fatto soldi facendo video sull'hardware molto in generale. Ma per l'utente medio di youtube vanno più che bene perché alla fine i consigli che danno non sono per niente campati in aria.
Non tutti si iscrivono ad un forum, studiano e parlano con persone che per una domanda possono avere risposte anche dopo 5 giorni. Non nell'era dei social dove accade tutto e subito.
Non li difendo perché quando sbandierarono le case comprate coi soldi di YouTube in pandemia, mi fecero parecchio girare le balle.
Ma nemmeno vanno trattati come letame, perché su youtube c'è ben di peggio. E poi un po' mi fanno anche tenerezza.
Ho visto il video ma non mi pare abbiano detto che le hanno erette grazie a tubo, il secco lavorava come recensore da anni su tomshw (quindi tecnicamente uno sprovveduto non è, al massimo un prezzolato XD), l'altro lavora nell'ambito dell'elettronica industriale, con una canale con 200k iscritti in DUE non ti ci fai le case + terreno + fotovoltaico...
mikael84
26-09-2022, 15:15
Ma perché dovresti fare una roba del genere per un guadagno misero spendere un botto di soldi...quando la 3080 on andrà più anche la 3090 stenterà.
Sto thread è diventato illeggibile nelle ultime 20 pagine io lo chiamerei Aspettando le nuove nvidia con paranoia.
PS: Cosa cambia tra un frame generato in fp32 ed uno quasi tutti in fp16 michael?
Sostanzialmente campionando e scalando un'immagine in fp16, può far perdere dettaglio a vari shader con comparsa di glitch, perdita di dettaglio in alcuni shader, piattume etc. Quindi questo deve essere ben fatto.
Infatti ci sono categorie di persone, che non apprezzano.
Di contro, rispetto alla nativa, puoi anche avere delle migliorie, come l'eliminazione dello shimmering, o AA.
Va anche sottolineato che buona parte degli shader può essere anche programmato già di base in fp16, AMD ad esempio, aveva imbottito doom e fc5 di fp16.
Il vantaggio però, sta che utilizzando fp16, utilizzi metà dei resistri, occupando meno porzione di cache e banda, snellendo le operazioni, migliorando allo stesso tempo i consumi.:)
si Mikael, resta il fatto che in RT continuerà ad essere (probabilmente) decisamente invalida rispetto alla controparte new gen, in un momento in cui ormai la tendenza è far sempre più ricorso a questa tecnologia per aumentare la resa visiva.
E' un gap secondo me importante, delle prestazioni raster pure importa ormai fino ad un certo punto. Per altro, io vedo le nuove RX 7000 come una tecnologia che, per l'approccio architetturale profondamente rivisto, porterà il meglio solo dalla prossima generazione.
Si, sono daccordo su questo, soprattutto se guardiamo la 4090, ma bisogna guardare anche chi sta sotto quei parametri.
Se io voglio spendere 7-800 euro, vorrei una scheda che mi soddisfi per quel target, idem chi sta sotto quel budget. Bisogna prima vedere la loro opzione e valutare, poi decidere ciò che conviene.
Se poi ti aspetti una AMD che metà sotto una 4090 in RT ed equivalente DLSS3 al debutto, forse potresti rimanere deluso.:)
A volte anche dal torbido si riesce a carpire qualche info in più. L'esperienza poi ti fa capire le minchiate da scartare :fagiano:
Mah...
Io li ho ascoltati un paio di volte, per curiosità. Devo dire che sono rimasto impressionato dalla banalità dei contenuti, dalla mancanza di preparazione, dal numero di iscritti e visualizzazioni del canale (veramente immeritati). Il problema è che il panorama italiano è estremamente povero, quindi è facile spiccare se si ha una buona attitudine con la telecamera.
Al momento il mio canale preferito è Gamer Nexus, che fa contenuti veramente di altissimo livello.
Concordo appieno, la penso esattamente così.
Goofy Goober
26-09-2022, 15:24
Al momento il mio canale preferito è Gamer Nexus, che fa contenuti veramente di altissimo livello.
Grande Burke! Lo seguo da un sacco di anni anche io.
Io ogni tanto guardo anche i video di JayZ, mi fa ridere e mette di buon umore (e bacchetta Nvidia che è un piacere :asd: )
FrancoBit
26-09-2022, 15:27
Grande Burke! Lo seguo da un sacco di anni anche io.
Io ogni tanto guardo anche i video di JayZ, mi fa ridere e mette di buon umore (e bacchetta Nvidia che è un piacere :asd: )
Pure io, anche Linus, per me è uno stacco, spesso in pausa pranzo, per farmi due risate e non pensare al lavoro quell'oretta di cazzeggio.
A livello utilità magari può saltare fuori qualche magagna in un case o componente di cui non sono a conoscenza visto che non sono uno youtuber e non posso testare tutti i pezzi.
Aggiungo anche Der8auer tuttosommato fa alcuni video interessanti. Techno Jesus è interessante ma ha una cantilena un po' soporifera, pur essendo il più tecnico.
mikael84
26-09-2022, 15:38
Sinceramente io avrei preferito 4 cavi da 8 pin e amen. Fa bene AMD a rimanere su soliti cavi a questo punto.
La serenità prima di tutto.
Inoltre qui non è terrorismo voluto per vendere i nuovi ali, qui si tratta di un nuovo standard ad avere problemi . Scrivere queste email, vuol dire rendere noto di aver toppato in qualche modo (PCI-SIG), vuol dire che nvidia solleva dei dubi sulle sue nuove schede. Quindi , sarò eccessivo io, ma ponderei bene il modo di usare sti cavi nel case o fare oc spinto su una 4090 custom
Inviato dal mio iPhone X utilizzando Tapatalk
Igor aveva già testato il cavo, e gli si era fuso sopra i 700watt. Quindi 600 watt ad 8A per linea, è già elevato.
Non è normale avere quei picchi di corrente su singola linea. una linea AWG16 è garantita per 100 watt, non oltre 400, non è assolutamente normale che tutto il carico vada su un pin.
Mi chiedo perchè in quei 3 mesi di convalida non hanno fatto dei test seri e non convalidare il cablaggio.
Se vedo che ho costantemente sovraccarichi ai pin, metto due connettori e divido la corrente.
È confermato che amd rimane sui cavi 8 pin ?
Si, da Igor.
https://www.hwupgrade.it/forum/showpost.php?p=47937561&postcount=74322
Ale55andr0
26-09-2022, 15:55
Hai ragione , ma il problema non si verifica con un uso normale e maneggiando con cura i cavi. I Test sono stati fatti esasperando il tutto. Diciamo che metterei il sensore per scrupolo e per essere più tranquillo, ma io sono un tantinello malato :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
:asd:
Ale55andr0
26-09-2022, 15:56
Sinceramente io avrei preferito 4 cavi da 8 pin e amen. Fa bene AMD a rimanere su soliti cavi a questo punto.
giusto :O , del resto in gaming è rimasta pure sull solita cpu (5800x3d) con le 7000 :asd:
scorpion73
26-09-2022, 16:05
In teoria però revisionando il cavo in spessore e in materiali dovrebbero quanto meno tamponare il problema.
Secondo me dovrebbero sia revisionare il cavo in spessore, sia aumentare la dimensione del connettore, perché anche i pin sono troppo piccoli per reggere bene il calore derivante da tutta quella corrente.
Chissà, se AMD veramente mantiene i normali connettori che non escano versioni custom delle schede Nvidia ugualmente con connettori standard. A quel punto basterebbero normali cavi con sezioni maggiorate.
scorpion73
26-09-2022, 16:06
Hai ragione , ma il problema non si verifica con un uso normale e maneggiando con cura i cavi. I Test sono stati fatti esasperando il tutto. Diciamo che metterei il sensore per scrupolo e per essere più tranquillo, ma io sono un tantinello malato :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Maneggiando con cura i cavi? Con 2400€ spesi io i cavi li voglio attaccare e staccare in tranquillità senza farmi scrupoli e non stare li a chiedermi se ho fatto una curva un pò troppo marcata. L'unico scrupolo che mi deve venire è se vale la pena prestazionalmente spendere quei soldi, dopo che li ho spesi devo avere scrupoli zero su tutto il resto.
Abbi pazienza, ma pure con quelle cifre lo scrupolo non dovrebbe manco venirti per quanto dovrebbe essere tutto garantito da loro.
Sono i nostri soldi che stiamo spendendo, non i loro, non te lo dimenticare.
Sentire che un connettore si usura dopo 30 cicli di attacca e stacca non si può sentire.. scusate ma se devo cambiare pasta termica o pulire il PC, visto che le schede sono bestioni e impicciano, devo contare dopo quante paste termiche o soffiate butto via la scheda perché ho usurato il connettore? Con 2000€ spesi?
Io boh, sinceramente mi pare di vivere in un altro continente.. ste cose andrebbero tirate in faccia a Nvidia invece che trovare noi barbatrucchi per convincerci che sono passabili... la scimmia da prestazioni ha un limite eh...
E lo dice uno che si inscimmia molto facilmente tanto da avere comprato una 3090 perché non trovava 3080 disponibili all'epoca.. quindi so bene di cosa parliamo...
Secondo me dovrebbero sia revisionare il cavo in spessore, sia aumentare la dimensione del connettore, perché anche i pin sono troppo piccoli per reggere bene il calore derivante da tutta quella corrente.
Chissà, se AMD veramente mantiene i normali connettori che non escano versioni custom delle schede Nvidia ugualmente con connettori standard. A quel punto basterebbero normali cavi con sezioni maggiorate.
Ma perchè quei cavetti di una volta giallo-neri sono mai stati revisionati? :fagiano:
Appena avremo i nuovi PSU sul mercato la questione connettore andrà completamente in sordina
scorpion73
26-09-2022, 16:18
Ma perchè quei cavetti di una volta giallo-neri sono mai stati revisionati? :fagiano:
Appena avremo i nuovi PSU sul mercato la questione connettore andrà completamente in sordina
Beh, se AMD rimane sui connettori a 8 pin non credo, sarà una questione molto dibattuta secondo me perché anche loro inizialmente dovevano passare al nuovo connettore, se non lo fanno c'è un motivo, non è mica per sport.
Certo, se poi ci autoconvinciamo che la cosa è bypassabile e vogliamo passare le sessioni di gioco a guardare il monitorino del sensore cavo invece dello schermo, oppure giocare con una boccia d'acqua accanto beh per carità, ognuno è libero.
Guarda, io alla serie 40 ci avevo fatto più di un pensiero, su una 4090 mi ero anche inscimmiato, valutavo anche la 4080, ma sinceramente se le cose stanno così gliela lascio tranquillamente, per lo meno fino a che la cosa non si risolve, perché i soldi non li trovo sotto i sassi e se spendo certe cifre voglio dormire senza scrupoli. E succederà che usciranno con una revisione, fidati... Se non addirittura con versioni custom a 8 pin. Magari non subito..
E comunque resta sempre AMD da valutare eh, non esiste solo la verde...
fraussantin
26-09-2022, 16:46
Ma perchè quei cavetti di una volta giallo-neri sono mai stati revisionati? :fagiano:
Appena avremo i nuovi PSU sul mercato la questione connettore andrà completamente in sordina
Si e no.
Cmq ad ogni lancio nvidia c'è sempre qualche cosa che rompe le uova nel paniere.
Turing con gli alieni verdi a schermo , ampere con i black screen , qui con i pompieri sotto casa :asd:
Cmq è palese che verrà risolto a breve.
Amd è rimasta furbamente sul 3x8 perche abbassa il costo della migrazione. Un cavo o l'altro non cambia niente nelle prestazioni , ma aggiunge solo problemi
Si ma è un discorso già sentito, anche in passato quando iniziarono a uscire le prime gpu con connettore 8pin si sentivano pianti simili.
Il problema delle 4000 è uno solo, ovvero il lucro legalizzato da parte di nvidia :fagiano:
Ora non per qualcosa ma una volta ci beccavamo questi in bundle, quel molex probabilmente ti moriva al secondo stacca e attacca:
https://th.bing.com/th/id/OIP.CgSqzPqJ745pz9qN6vynAgHaFj
1000/2000 euri di spesa per giocare a cosa? (che richieda evidentemente tanta potenza)
Costa meno il pelo allora :D
Thunder-74
26-09-2022, 17:01
Maneggiando con cura i cavi? Con 2400€ spesi io i cavi li voglio attaccare e staccare in tranquillità senza farmi scrupoli e non stare li a chiedermi se ho fatto una curva un pò troppo marcata. L'unico scrupolo che mi deve venire è se vale la pena prestazionalmente spendere quei soldi, dopo che li ho spesi devo avere scrupoli zero su tutto il resto.
Abbi pazienza, ma pure con quelle cifre lo scrupolo non dovrebbe manco venirti per quanto dovrebbe essere tutto garantito da loro.
Sono i nostri soldi che stiamo spendendo, non i loro, non te lo dimenticare.
Sentire che un connettore si usura dopo 30 cicli di attacca e stacca non si può sentire.. scusate ma se devo cambiare pasta termica o pulire il PC, visto che le schede sono bestioni e impicciano, devo contare dopo quante paste termiche o soffiate butto via la scheda perché ho usurato il connettore? Con 2000€ spesi?
Io boh, sinceramente mi pare di vivere in un altro continente.. ste cose andrebbero tirate in faccia a Nvidia invece che trovare noi barbatrucchi per convincerci che sono passabili... la scimmia da prestazioni ha un limite eh...
E lo dice uno che si inscimmia molto facilmente tanto da avere comprato una 3090 perché non trovava 3080 disponibili all'epoca.. quindi so bene di cosa parliamo...
Comunque , come postai qualche pagina fa, anche i classici molex sono garantiti per 40 attacca/stacca. Sembra ridicolo e concordo con te. Non giustifico nulla... del resto sarebbe già arduo giustificare la spesa che alcuni di noi sono disposti a fare per una 4090.... titoli inesistenti per giocare upscalato ... :fagiano:
:asd:
T'è piaciuta è?... di la verità :D
sti cavi sono da gestire come i preliminari con una donna :oink: :sofico:
EDIT:
Intanto... Gigabyte RTX 4090 già in vendita a Hong Kong, due settimane prima del lancio
LINK (https://videocardz.com/newz/gigabyte-rtx-4090-already-on-sale-in-hong-kong-two-weeks-before-launch)
Questo vuol dire che prima del 20 avremo un po' di bench su YT
davide155
26-09-2022, 17:14
Si ma è un discorso già sentito, anche in passato quando iniziarono a uscire le prime gpu con connettore 8pin si sentivano pianti simili.
Il problema delle 4000 è uno solo, ovvero il lucro legalizzato da parte di nvidia :fagiano:
Ora non per qualcosa ma una volta ci beccavamo questi in bundle, quel molex probabilmente ti moriva al secondo stacca e attacca:
https://th.bing.com/th/id/OIP.CgSqzPqJ745pz9qN6vynAgHaFj
Il problema è che adesso da quel singolo cavo può passare più di 500w. Prima si e no arrivavi a 250-300w sulle top di gamma, con più connettori.
Adesso si stanno veramente mettendo alla prova i limiti fisici di quei cavetti. Il che è dato principalmente da quanto sono spessi, da li il numero AWG.
E se non si usa il nuovo cavetto 3.0 che ha assieme anche l'attacco dati per comunicare la suddivisione sui vari pin da parte della gpu alla psu, si rischia che si sciolga il connettore.
La situazione è ben diversa. Siamo arrivati ai limiti dei singoli pin, per me dovevano studiare si un cavetto diverso che soppiantasse ogni ragionevole dubbio, ma che al tempo stesso fosse sicuro anche con le psu più vecchie. Cosa che quell'adattatore non fa. Perchè se la gpu chiede più corrente per più tempo ed i cavetti sono piegati parecchio perchè toccano con la paratia del case (esempio) si rischia il fuoco.
E pure le Founders sono a rischio a questo punto secondo me, perchè quei test hanno portato risultati sulla base di ore di alto stress. E sulla base di stress più leggeri ma più prolungati? (giorni-mesi) che succederebbe?
Son queste incognite che sollevate a due settimane dalla vendita mi fanno accapponare la pelle.
Poi certo, si può dire tranquillamente SCAFFALE, ma la situazione fa ridere. Sia da parte di nvidia che da parte dell'ente che testa e da l'ok per i nuovi connettori.
Thunder-74
26-09-2022, 17:21
Il problema è che adesso da quel singolo cavo può passare più di 500w. Prima si e no arrivavi a 250-300w sulle top di gamma, con più connettori.
Adesso si stanno veramente mettendo alla prova i limiti fisici di quei cavetti. Il che è dato principalmente da quanto sono spessi, da li il numero AWG.
E se non si usa il nuovo cavetto 3.0 che ha assieme anche l'attacco dati per comunicare la suddivisione sui vari pin da parte della gpu alla psu, si rischia che si sciolga il connettore.
La situazione è ben diversa. Siamo arrivati ai limiti dei singoli pin, per me dovevano studiare si un cavetto diverso che soppiantasse ogni ragionevole dubbio, ma che al tempo stesso fosse sicuro anche con le psu più vecchie. Cosa che quell'adattatore non fa. Perchè se la gpu chiede più corrente per più tempo ed i cavetti sono piegati parecchio perchè toccano con la paratia del case (esempio) si rischia il fuoco.
E pure le Founders sono a rischio a questo punto secondo me, perchè quei test hanno portato risultati sulla base di ore di alto stress. E sulla base di stress più leggeri ma più prolungati? (giorni-mesi) che succederebbe?
Son queste incognite che sollevate a due settimane dalla vendita mi fanno accapponare la pelle.
Poi certo, si può dire tranquillamente SCAFFALE, ma la situazione fa ridere. Sia da parte di nvidia che da parte dell'ente che testa e da l'ok per i nuovi connettori.
vorrà dire che per essere safety si farà un undervolt a bestia in modo da avere praticamente una 3090 con DLSS3 :fagiano:
ovviamente è una trollagine la mia...
Per la cronaca appena viste le 4090 in pre-ordine da Cortex a 2490 consegna il 15 ottobre
Thunder-74
26-09-2022, 17:29
Con il nuovo Spiderman, è uscita una pagina nVidia interessante con questo grafico:
https://i.imgur.com/MRSYxg5.png
LINK (https://www.nvidia.com/en-gb/geforce/technologies/8k/)
fraussantin
26-09-2022, 17:39
Il problema è che adesso da quel singolo cavo può passare più di 500w. Prima si e no arrivavi a 250-300w sulle top di gamma, con più connettori.
Adesso si stanno veramente mettendo alla prova i limiti fisici di quei cavetti. Il che è dato principalmente da quanto sono spessi, da li il numero AWG.
E se non si usa il nuovo cavetto 3.0 che ha assieme anche l'attacco dati per comunicare la suddivisione sui vari pin da parte della gpu alla psu, si rischia che si sciolga il connettore.
La situazione è ben diversa. Siamo arrivati ai limiti dei singoli pin, per me dovevano studiare si un cavetto diverso che soppiantasse ogni ragionevole dubbio, ma che al tempo stesso fosse sicuro anche con le psu più vecchie. Cosa che quell'adattatore non fa. Perchè se la gpu chiede più corrente per più tempo ed i cavetti sono piegati parecchio perchè toccano con la paratia del case (esempio) si rischia il fuoco.
E pure le Founders sono a rischio a questo punto secondo me, perchè quei test hanno portato risultati sulla base di ore di alto stress. E sulla base di stress più leggeri ma più prolungati? (giorni-mesi) che succederebbe?
Son queste incognite che sollevate a due settimane dalla vendita mi fanno accapponare la pelle.
Poi certo, si può dire tranquillamente SCAFFALE, ma la situazione fa ridere. Sia da parte di nvidia che da parte dell'ente che testa e da l'ok per i nuovi connettori.Oltre che lo spessore in se il guaio è la strozzatura sul morsetto finale.
Se non la fai corretta inizia a riscaldarsi e si propaga per tutto il cavo dato che è di rame.
E come tutte le strozzature quando pieghi il cavo è li che vai a creare problemi e si potrebbe sfilacciare.
Avete presente il classico spinotto delle cuffie che rompe il cavo?
vorrà dire che per essere safety si farà un undervolt a bestia in modo da avere praticamente una 3090 con DLSS3 :fagiano:
ovviamente è una trollagine la mia...
Non stai trollando, ma dicendo la verità :D
E' da Pascal che le schede si undervoltano e poi si fa anche overclock con il risultato che la GPU consuma di meno, scalda di meno e va più forte :sofico:
La mia 1080 è undervoltata a 0.860 V e clockata a 2011 MHz.
Avrei potuta tirala ancora in OC ma avendo un case ITX ho preferito non esagerare per tenerla fresca. :D
No Life King
26-09-2022, 17:57
Per la cronaca appena viste le 4090 in pre-ordine da Cortex a 2490 consegna il 15 ottobre
Della serie che la FE sembra un affare :asd:
fraussantin
26-09-2022, 18:46
Su google segna su drako la tuf a 2099 euro della 4090 ma quando si clicca non è perordinabile per ora :DSee quello è buono di farti fare il preorder della tuf a 2099 e quando arriva te ne chiede 3000.
Non date soldi a quella gente poco seria.
Su google segna su drako la tuf a 2099 euro della 4090 ma quando si clicca non è perordinabile per ora :D
Teoricamente stando ai comunicati stampa, ogni marca dovrebbe mettere in commercio una 4090 a MRSP, quindi la Trinity Zotac, la Ventus MSI, la TUF Asus e così via dovrebbero costare tutte 1979 euro, vedremo....
no_side_fx
26-09-2022, 19:11
Teoricamente stando ai comunicati stampa, ogni marca dovrebbe mettere in commercio una 4090 a MRSP, quindi la Trinity Zotac, la Ventus MSI, la TUF Asus e così via dovrebbero costare tutte 1979 euro, vedremo....
secondo me le versioni con MSRP degli AIB saranno le "copie" delle FE, come i modelli "Turbo" che faceva Asus una volta mentre le varie TUF, Strix, Aorus, Ventus, ecc... saranno più alti
Marcellator
26-09-2022, 19:43
E' vero che devono essere garantiti ma un cavo stacca ed attacca si rovina a prescindere. E' una cosa normale infatti io li stacco il meno possibile e preferisco pulirlo di meno sopratutto se non c'è bisogno.
Comunque speriamo che la compro solo io la 4090 va :asd:
Diciamo speriamo che la compriamo solo io e te :D:D
L'affare è tenersi i soldi in tasca :asd:
mi sa che questo é l affare migliore sul hardware per i prossimi 2 anni.
albero77
26-09-2022, 20:04
Caseking pubblica prezzi delle 4090 zotac, tutto come da copione...:sofico:
DJurassic
26-09-2022, 20:22
Questo vuol dire che prima del 20 avremo un po' di bench su YT
Fammi capire, prima del 20 ottobre non arriveranno recensioni della 4090? :stordita:
Ale55andr0
26-09-2022, 20:58
vorrà dire che per essere safety si farà un undervolt a bestia in modo da avere praticamente una 3090 con DLSS3 :fagiano:
ovviamente è una trollagine la mia...
veramente non è mica male come idea :asd:
mikael84
26-09-2022, 21:15
vorrà dire che per essere safety si farà un undervolt a bestia in modo da avere praticamente una 3090 con DLSS3 :fagiano:
ovviamente è una trollagine la mia...
Basta prendersi la 4060 12 e risparmi 1000 euro:O una manli da bpm e magari con un 2x8 pin.:D
Quoto, sará interessante capire la curva di efficienza massima di Ada, su questo pp e relativi transistor, lo sweetspot dovrebbe richiedere voltaggi decisamente moderati(al netto della fortuna del chip) penso si guadagni parecchio in temp/frequenze e watt assorbiti.
Avevo una 2080ti FE fortunata giravo a 0,9v e superavo i 2ghz, tant'é che riuscivo a tenerla ad aria sui 60/65 gradi con quel termico non di certo all'altezza del chip montato..anche con le 3000 mi sono capitate varie gpu scul@te.
Il termico montato su 4090 FE con un buona curva volt/freq dovrebbe essere all'altezza, da vedere temperature vram/vrm.
Ho dubbi sull'oc, l'incremento percentuale spostando le barrette dovrebbe essere abbastanza contenuto, ormai é da pascal che sono giá tirate out of the box in oc, finiti i tempi di maxwell o di kepler con memorie samsung.
Lo sweet spot ideale, è quello del base boost che trovi su afterburner. Es la FE è a 0,87v. Fatto ciò overclocki. I max bin ovviamente sfruttano i 0,9v che è il best su certi silici .
Ovviamente su questi nm, bisogna vedere dove ha piombato il silicio.
mikael84
26-09-2022, 21:23
Il problema è che adesso da quel singolo cavo può passare più di 500w. Prima si e no arrivavi a 250-300w sulle top di gamma, con più connettori.
Adesso si stanno veramente mettendo alla prova i limiti fisici di quei cavetti. Il che è dato principalmente da quanto sono spessi, da li il numero AWG.
E se non si usa il nuovo cavetto 3.0 che ha assieme anche l'attacco dati per comunicare la suddivisione sui vari pin da parte della gpu alla psu, si rischia che si sciolga il connettore.
La situazione è ben diversa. Siamo arrivati ai limiti dei singoli pin, per me dovevano studiare si un cavetto diverso che soppiantasse ogni ragionevole dubbio, ma che al tempo stesso fosse sicuro anche con le psu più vecchie. Cosa che quell'adattatore non fa. Perchè se la gpu chiede più corrente per più tempo ed i cavetti sono piegati parecchio perchè toccano con la paratia del case (esempio) si rischia il fuoco.
E pure le Founders sono a rischio a questo punto secondo me, perchè quei test hanno portato risultati sulla base di ore di alto stress. E sulla base di stress più leggeri ma più prolungati? (giorni-mesi) che succederebbe?
Son queste incognite che sollevate a due settimane dalla vendita mi fanno accapponare la pelle.
Poi certo, si può dire tranquillamente SCAFFALE, ma la situazione fa ridere. Sia da parte di nvidia che da parte dell'ente che testa e da l'ok per i nuovi connettori.
Il problema non è quanto passa, ma come passa, di cavi pin sciolti ne vedevi pure prima.
AWG16 sono 100 watt a linea, AWG20 50. Se ci fai passare oltre 4 volte la corrente beh, è un casotto su entrambe.:)
mattxx88
26-09-2022, 21:27
L'affare è tenersi i soldi in tasca :asd:
articolo quinto, chi ha i schei in tasca ha vinto :O
detto ciò, a quando le review?
mattxx88
26-09-2022, 21:29
Il problema non è quanto passa, ma come passa, di cavi pin sciolti ne vedevi pure prima.
AWG16 sono 100 watt a linea, AWG20 50. Se ci fai passare oltre 4 volte la corrente beh, è un casotto su entrambe.:)
a proposito, ho provato a fidarmi del cavetto della corsair per la FE
:stordita:
https://i.ibb.co/DKDD8gR/IMG20220924142631.jpg (https://ibb.co/zfhh7H4)
mikael84
26-09-2022, 21:39
a proposito, ho provato a fidarmi del cavetto della corsair per la FE
:stordita:
Azz, cavi garantiti per 600 watt, con la tolleranza. Temo che gli stia sfuggendo la situazione di mano.
fraussantin
26-09-2022, 21:48
a proposito, ho provato a fidarmi del cavetto della corsair per la FE
:stordita:
https://i.ibb.co/DKDD8gR/IMG20220924142631.jpg (https://ibb.co/zfhh7H4)Li credo che ci sia stato un problema di innesti , forse non toccava bene per quello di è surriscaldato.
Ma eri con un bios maggiorato?
mattxx88
26-09-2022, 21:57
Azz, cavi garantiti per 600 watt, con la tolleranza. Temo che gli stia sfuggendo la situazione di mano.
almeno un 16 awg me lo sarei aspettato, mi ero gia accorto appena arrivato che era un 18 ma mi son detto vabbe, vuoi che fonda
e invece dopo 2 anni :sofico:
Li credo che ci sia stato un problema di innesti , forse non toccava bene per quello di è surriscaldato.
Ma eri con un bios maggiorato?
nah nessun problema di innesto
ovviamente :D
Thunder-74
26-09-2022, 22:04
Voi ancora che vi fidate in generale di Corsair . . . Vuole fare tutto , dalle psu agli articoli per il liquido , collezionato cappellate ovunque . Ok le tastiere e le ddr, ma per queste c è di meglio. Piccolo mio personale parere, non condivisibile sicuramente dalla maggioranza
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
26-09-2022, 22:16
almeno un 16 awg me lo sarei aspettato, mi ero gia accorto appena arrivato che era un 18 ma mi son detto vabbe, vuoi che fonda
e invece dopo 2 anni :sofico:
nah nessun problema di innesto
ovviamente :D
AWG18 è ciarpame ormai, cavi normali, giusto per i 6A. mediamente tengono 200 watt, di targa sono 215. Sono poco più che AWG20.
Molti ALI scarsi baravano pure, applicando un'isolamento spesso, per questo l'avevano tolto, e limitato al 20:p
Per queste schede AWG16 è il minimo, anche l'adattatore è AWG16.
Per carità per un uso classico vanno bene, ma non certo per i carichi che ci facevi passare tu, tra shunt etc.:) :p
mattxx88
26-09-2022, 22:25
Voi ancora che vi fidate in generale di Corsair . . . Vuole fare tutto , dalle psu agli articoli per il liquido , collezionato cappellate ovunque . Ok le tastiere e le ddr, ma per queste c è di meglio. Piccolo mio personale parere, non condivisibile sicuramente dalla maggioranza
Inviato dal mio iPhone X utilizzando Tapatalk
non é un discorso di fidarsi, é che era l'unica ad avere il cavetto, l'adattaore é peggio di un pugno in un occhio
il mio spacciatore all epoca aveva problemi a reperire i connettori micro a 16 pin :mc:
io sempre avuto cavi custom 16 awg :Prrr:
Voi ancora che vi fidate in generale di Corsair . . . Vuole fare tutto , dalle psu agli articoli per il liquido , collezionato cappellate ovunque . Ok le tastiere e le ddr, ma per queste c è di meglio. Piccolo mio personale parere, non condivisibile sicuramente dalla maggioranza
Corsair ha uno dei migliori servizi clienti del mondo, secondo solo a quello di EVGA USA per l'hardware.
Poi basta scegliere un prodotto buono nel vasto catalogo.
Marcellator
26-09-2022, 22:31
a proposito, ho provato a fidarmi del cavetto della corsair per la FE
:stordita:
https://i.ibb.co/DKDD8gR/IMG20220924142631.jpg (https://ibb.co/zfhh7H4)
Io ho lo stesso cavetto per la mia 3090 FE e pur overcloccandola non ho mai avuto problemi. Ci possono essere molte cause diverse tra cui un contatto non perfetto. Ho un ali HX1200i della Corsair che ho sempre trovato eccellente e che mi permetterà con apposito cavetto della stessa marca di far andare la 4090, mi sono sempre trovato bene con loro.
Thunder-74
26-09-2022, 22:38
Corsair ha uno dei migliori servizi clienti del mondo, secondo solo a quello di EVGA USA per l'hardware.
Poi basta scegliere un prodotto buono nel vasto catalogo.
Verissimo, purtroppo ne ho usufruito, preferisco scegliere altre marche più affidabili
Inviato dal mio iPhone X utilizzando Tapatalk
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.