View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
Thunder-74
09-06-2021, 16:43
Sotto nella descrizione Thunder.
non ci avevo fatto caso... bene :)
Grazie
Naaa, a me non importa nulla dei Battlefield e dei soliti noiosi fps multiplayer.
Io voglio il remake di Diablo 2 con tanto di path tracing :D
noooo tiger!!!! se non fosse per BFV non avrei un pc da gaming hahahahaha
E poi ci sono i carrarmatini che tanto ti piacciono :fagiano:
https://www.techpowerup.com/img/cHGZkAjsSKyxZAAZ.jpg
Per adesso l'unica vera nota negativa è che si tratta di un titolo cross gen e questo implicherà per forza di cose dei limiti sulla struttura stessa delle mappe, che da quello che hanno detto è la medesima per tutte le piattaforme.
Quel che cambia saranno il numero di giocatori che su old gen sarà limitato rispetto a PC, PS5 e XSX.
Per il salto grafico toccherà aspettare il prossimo BF, che non vuol dire che questo 2042 sarà brutto da vedere. Anzi credo che con molta probabilità sarà il primo BF che al lancio godrà di effetti RT estesi non solo ai riflessi, oltre che l'immancabile supporto al DLSS che in giochi come questo è d'obbligo sempre e comunque. Tra l'altro hanno anche confermato che il motore fisico è stato rifatto da zero per questo nuovo BF.
Però leggevo che si sarebbero concentrati parecchio sulla next gen e PC.
Si da subito RT e DLSS ..
TigerTank
09-06-2021, 16:53
non ci avevo fatto caso... bene :)
Grazie
noooo tiger!!!! se non fosse per BFV non avrei un pc da gaming hahahahaha
E poi ci sono i carrarmatini che tanto ti piacciono :fagiano:
Eheheh sapevo che avresti replicato :fagiano:
Certo che un Merkava israeliano nel 2042 è vintage :D
Di sicuro ci sfrutterai alla grande la tua schedozza con millemila ore di gameplay.
DJurassic
09-06-2021, 16:55
Però leggevo che si sarebbero concentrati parecchio sulla next gen e PC.
Si da subito RT e DLSS ..
Per adesso il livello del terreno di quella foto è uguale a quello di BFV che era uguale a quello di BF1 che era uguale a quello di BF4. Non a caso è lo stesso identico engine di sempre da 8 anni a questa parte, il Frostbyte 3. :rolleyes:
Micropoint_ITA
09-06-2021, 16:56
aggiungo piccola noticina per discorso liquido... togliendo led e ventolame per apporre il WB, si riducono i consumi. Nel mio caso sulla Strix ho recuperato 30W. Come se fossi passato da 450W a 480W. Diciamo che si vanno ad apprezzare magari su quelle VGA che hanno un PL più limitato.
comunque brutti sporcaccioni, fra meno di un'ora presentazione di Battlefield 2042...
LIVESTREAM (https://youtu.be/HP3wxNFnNbA)
https://overclock3d.net/gfx/articles/2021/06/09094725834s.jpg
Ambientato nel futuro quindi??
TigerTank
09-06-2021, 16:58
Ambientato nel futuro quindi??
Futuro di mezzo dopo che c'è stato Battlefield 2142 :D
Comunque su Guru3D hanno pubblicato la recensione della 3070Ti SuprimX, se può interessare.
Micropoint_ITA
09-06-2021, 17:08
Futuro di mezzo dopo che c'è stato Battlefield 2142 :D
Comunque su Guru3D hanno pubblicato la recensione della 3070Ti SuprimX, se può interessare.
Ah ok ok
Grazie
DJurassic
09-06-2021, 17:09
Futuro di mezzo dopo che c'è stato Battlefield 2142 :D
Comunque su Guru3D hanno pubblicato la recensione della 3070Ti SuprimX, se può interessare.
Sembra che stavolta la critica sia concorde nel definire la 3070Ti un inutile spreco di soldi. Cosa che si erano stranamente dimenticati di scrivere per la 3080Ti e per la 3090*
* A parte Steve e qualcun altro.
Thunder-74
09-06-2021, 17:12
Per adesso il livello del terreno di quella foto è uguale a quello di BFV che era uguale a quello di BF1 che era uguale a quello di BF4. Non a caso è lo stesso identico engine di sempre da 8 anni a questa parte, il Frostbyte 3. :rolleyes:
staremo a vedere... della grafica di BFV non mi lamento. La cosa che mi urta sono le animazione di alcuni oggetti con pochi frames.
TigerTank
09-06-2021, 17:18
Sembra che stavolta la critica sia concorde nel definire la 3070Ti un inutile spreco di soldi. Cosa che si erano stranamente dimenticati di scrivere per la 3080Ti e per la 3090*
* A parte Steve e qualcun altro.
Che tristezza...a questo punto davvero o troverò una 3080 LHR abbordabile o via direttamente alla prossima gen.
Tanto la mia 2080 credo stia per battere il record di scheda più longeva nei miei 23 anni di gaming su pc :asd: :sperem: :tie:
DJurassic
09-06-2021, 17:22
Che tristezza...a questo punto davvero o troverò una 3080 LHR abbordabile o via direttamente alla prossima gen.
Tanto la mia 2080 credo stia per battere il record di scheda più longeva nei miei 23 anni di gaming su pc :asd: :sperem: :tie:
Io spero che entro quest'anno la situazione migliori. Non che torni alla normalità perché è da escludere, ma peggio di così è difficile. Almeno tu sei rimasto con una 2080, c'è tanta gente che sta peggio di te. Tanto peggio.
Poi per Diablo 2 la scheda che hai basta e avanza :asd:
TigerTank
09-06-2021, 17:41
Io spero che entro quest'anno la situazione migliori. Non che torni alla normalità perché è da escludere, ma peggio di così è difficile. Almeno tu sei rimasto con una 2080, c'è tanta gente che sta peggio di te. Tanto peggio.
Poi per Diablo 2 la scheda che hai basta e avanza :asd:
Ehehehe vero.
E a livello generale più che mai che tutte le schede attualmente nei cases funzionino bene e a lungo.
Non solo Diablo2, in verità avrei preso anche Cyberpunk quasi al day one ma lo sto rinviando :asd:
...è da settembre che dicevo di aspettare le Ti.
Poi considerando che io sono malato ai miei occhi dalla 2080Ti:
3060 boh
3060Ti meh
3070 è un silicio rotto declassato, e comunque non abbastanza prestante;
3070Ti un GA104-400 pieno, non male ma poco prestante;
3080 è un silicio rotto di brutto, prestazioni quasi ok
3080Ti un GA102-225 appena scheggiato, prestazioni ok
3090 IL CHIPPONE, peccato per la troppa Vram e nvlink che ne fanno lievitare il prezzo inutilmente per il gaming.
Non escludo un futuro dove il GA102-300-A1 della 3090 finisca su una versione con 12 GB di Vram stile "3085Ti".
bagnino89
09-06-2021, 18:44
...è da settembre che dicevo di aspettare le Ti.
Poi considerando che io sono malato ai miei occhi dalla 2080Ti:
3060 boh
3060Ti meh
3070 è un silicio rotto declassato, e comunque non abbastanza prestante;
3070Ti un GA104-400 pieno, non male ma poco prestante;
3080 è un silicio rotto di brutto, prestazioni quasi ok
3080Ti un GA102-225 appena scheggiato, prestazioni ok
3090 IL CHIPPONE, peccato per la troppa Vram e nvlink che ne fanno lievitare il prezzo inutilmente per il gaming.
Non escludo un futuro dove il GA102-300-A1 della 3090 finisca su una versione con 12 GB di Vram stile "3085Ti".Lo vorrei tanto il silicio rotto di brutto della 3080...
DJurassic
09-06-2021, 18:52
...è da settembre che dicevo di aspettare le Ti.
Poi considerando che io sono malato ai miei occhi dalla 2080Ti:
3060 boh
3060Ti meh
3070 è un silicio rotto declassato, e comunque non abbastanza prestante;
3070Ti un GA104-400 pieno, non male ma poco prestante;
3080 è un silicio rotto di brutto, prestazioni quasi ok
3080Ti un GA102-225 appena scheggiato, prestazioni ok
3090 IL CHIPPONE, peccato per la troppa Vram e nvlink che ne fanno lievitare il prezzo inutilmente per il gaming.
Non escludo un futuro dove il GA102-300-A1 della 3090 finisca su una versione con 12 GB di Vram stile "3085Ti".
Quindi è da settembre che dici di aspettare la scheda più nosense dell'attuale generazione. Sei imbattibile :asd:
Nel frattempo quelli di Drako hanno prenotato una settimana alle Maldive senza sganciare un euro.
amon.akira
09-06-2021, 18:54
Quindi è da settembre che dici di aspettare la scheda più nosense dell'attuale generazione. Sei imbattibile :asd:
Nel frattempo quelli di Drako hanno prenotato una settimana alle Maldive senza sganciare un euro.
veramente la 3085ti deve ancora uscire :D
DJurassic
09-06-2021, 18:55
veramente la 3085ti deve ancora uscire :D
La domanda è uscirà in tempo per Dicembre? Quelli di Drako vorrebbero fare la settimana bianca vestiti da Babbi Natale :O
...è da settembre che dicevo di aspettare le Ti.
... a me pare che hanno avuto ragione quelli che l'hanno presa subito a prezzi ancora ancora "umani", invece :fagiano:
amon.akira
09-06-2021, 19:05
... a me pare che hanno avuto ragione quelli che l'hanno presa subito a prezzi ancora ancora "umani", invece :fagiano:
avrei preso cmq la liscia a prezzi standard, 719 vs 1199
TigerTank
09-06-2021, 19:05
...è da settembre che dicevo di aspettare le Ti.
Poi considerando che io sono malato ai miei occhi dalla 2080Ti:
3060 boh
3060Ti meh
3070 è un silicio rotto declassato, e comunque non abbastanza prestante;
3070Ti un GA104-400 pieno, non male ma poco prestante;
3080 è un silicio rotto di brutto, prestazioni quasi ok
3080Ti un GA102-225 appena scheggiato, prestazioni ok
3090 IL CHIPPONE, peccato per la troppa Vram e nvlink che ne fanno lievitare il prezzo inutilmente per il gaming.
Non escludo un futuro dove il GA102-300-A1 della 3090 finisca su una versione con 12 GB di Vram stile "3085Ti".
Sinceramente per me JHH ha sempre avuto ragione su una cosa.
Che la 3080 è la "flagship".
Ed è vero perchè alla fine IMHO la soluzione migliore di generazione come prezzo-prestazioni-vram dalla 3070 alla 3090 è stata quella di beccare una 3080 ai prezzi iniziali. :D
Thunder-74
09-06-2021, 19:20
La domanda è uscirà in tempo per Dicembre? Quelli di Drako vorrebbero fare la settimana bianca vestiti da Babbi Natale :O
hahahahaha
sai cos'hanno di bello quelli di Drako?
https://i.ytimg.com/vi/7Er0EFt6SX4/maxresdefault.jpg
dovrebbero mettere lei fissa e togliere sto lesso...
https://i.imgur.com/s5VAwGA.png
mikael84
09-06-2021, 19:23
Sinceramente per me JHH ha sempre avuto ragione su una cosa.
Che la 3080 è la "flagship".
Ed è vero perchè alla fine IMHO la soluzione migliore di generazione come prezzo-prestazioni-vram dalla 3070 alla 3090 è stata quella di beccare una 3080 ai prezzi iniziali. :D
Perchè a sto giro la 3080 è tagliata dal chippone, quindi tutto il resto ha poco senso. :)
DJurassic
09-06-2021, 19:33
hahahahaha
:asd:
La cosa che meno sopporto è che sono rimasti gli unici a continuare a indicare la scheda come ordinabile, prelevando i soldi per poi dirti arrivederci e grazie. Gente molto più seria come Next se la scheda non ce l'hanno non la puoi nemmeno comprare ne preordinare.
Non a caso se la metti nel carrello ti dice: "Prodotto non acquistabile e non pre-ordinabile a causa della scarsa disponibilità". Che lo trovo assolutamente corretto nei confronti del Cliente. Che senso ha la coda in questo momento quando questa sta diventando una pagliacciata con articoli che hanno oltre 260 persone che aspettano?
E' lampante che non hanno nessuna previsione di consegna, non hanno nessuna scheda in magazzino e non hanno la benchè minima idea di quando tutto questo vedrà una luce. Però continuano a prendere ordinazioni (e la gente a farle) E' tutta da ridere.
Thunder-74
09-06-2021, 19:42
:asd:
La cosa che meno sopporto è che sono rimasti gli unici a continuare a indicare la scheda come ordinabile, prelevando i soldi per poi dirti arrivederci e grazie. Gente molto più seria come Next se la scheda non ce l'hanno non la puoi nemmeno comprare ne preordinare.
Non a caso se la metti nel carrello ti dice: "Prodotto non acquistabile e non pre-ordinabile a causa della scarsa disponibilità". Che lo trovo assolutamente corretto nei confronti del Cliente. Che senso ha la coda in questo momento quando questa sta diventando una pagliacciata con articoli che hanno oltre 260 persone che aspettano?
E' lampante che non hanno nessuna previsione di consegna, non hanno nessuna scheda in magazzino e non hanno la benchè minima idea di quando tutto questo vedrà una luce. Però continuano a prendere ordinazioni (e la gente a farle) E' tutta da ridere.
e cosa triste , la coda non indica nulla ,dato che si sale e si scende di posizione.
Aspettare la Ti a 2199 euro. Un affare :asd:
mi riferivo alle 3080 a 800/900 euro di settembre-ottobre 2020... https://digilander.libero.it/arosati76/mrgreen.gif
Micropoint_ITA
09-06-2021, 19:53
Consiglio sui titoli migliori da sfruttare appieno con una 3000? Rigorosamente in rtx e dlss in 4k?
Mai visto in azione raytracing, consigliatemi qualcosa da spaccamascella (Metro Redux rientra tra questi?).
Grazie
fraussantin
09-06-2021, 20:26
Consiglio sui titoli migliori da sfruttare appieno con una 3000? Rigorosamente in rtx e dlss in 4k?
Mai visto in azione raytracing, consigliatemi qualcosa da spaccamascella (Metro Redux rientra tra questi?).
GrazieCyberpunk 2077 , metro Exodus , WD legion.
DJurassic
09-06-2021, 20:26
Consiglio sui titoli migliori da sfruttare appieno con una 3000? Rigorosamente in rtx e dlss in 4k?
Mai visto in azione raytracing, consigliatemi qualcosa da spaccamascella (Metro Redux rientra tra questi?).
Grazie
Assolutamente no. Se vuoi vedere l'RTX ti consiglio in ordine di importanza:
*Control
*Cyberpunk 2077
*Metro Exodus Enhanced Edition
*Watch Dogs Legion
A cui a breve si dovrebbe aggiungere Doom Eternal. Poi ci sono anche altri giochi che usano il RT ma non lo fanno in maniera così massiccia o si limitano solo ad alcune delle features, tra cui appunto BFV, RE Village, GodFall, Shadow of Tomb Raider, Wolfenstein: Youngblood, Crysis Remastered e GhostRunner.
Cyberpunk 2077 , metro Exodus , WD legion.
Ti sei dimenticato il più importante.
https://live.staticflickr.com/65535/51237300734_b1c66ef9bd_h.jpg (https://live.staticflickr.com/65535/51237300734_9875f69932_o.png)
davide155
09-06-2021, 20:28
:asd:
La cosa che meno sopporto è che sono rimasti gli unici a continuare a indicare la scheda come ordinabile, prelevando i soldi per poi dirti arrivederci e grazie. Gente molto più seria come Next se la scheda non ce l'hanno non la puoi nemmeno comprare ne preordinare.
Non a caso se la metti nel carrello ti dice: "Prodotto non acquistabile e non pre-ordinabile a causa della scarsa disponibilità". Che lo trovo assolutamente corretto nei confronti del Cliente. Che senso ha la coda in questo momento quando questa sta diventando una pagliacciata con articoli che hanno oltre 260 persone che aspettano?
E' lampante che non hanno nessuna previsione di consegna, non hanno nessuna scheda in magazzino e non hanno la benchè minima idea di quando tutto questo vedrà una luce. Però continuano a prendere ordinazioni (e la gente a farle) E' tutta da ridere.Veramente la mia aorus 3080 l'hanno tolta dal sito pure perché non ordinabile. Non esiste più se non nel mio storico ordini :asd:
Lo hanno sempre detto comunque in ogni live su twitch che non conviene pagare in anticipo per queste schede video perché non sanno quando e come arriveranno.
Solo un pazzo pagherebbe in anticipo una di queste vga....
DJurassic
09-06-2021, 20:34
Veramente la mia aorus 3080 l'hanno tolta dal sito pure perché non ordinabile. Non esiste più se non nel mio storico ordini :asd:
Lo hanno sempre detto comunque in ogni live su twitch che non conviene pagare in anticipo per queste schede video perché non sanno quando e come arriveranno.
Solo un pazzo pagherebbe in anticipo una di queste vga....
Vabbè ma chi è che segue le live di eshop?
Io ho provato a fare una simulazione ficcando dentro il carrello 3 schede della serie 3000 a caso. Potevo tranquillamente fare il checkout e pagare. Questo non dovrebbe essere consentito.
davide155
09-06-2021, 20:40
Vabbè ma chi è che segue le live di eshop?
Io ho provato a fare una simulazione ficcando dentro il carrello 3 schede della serie 3000 a caso. Potevo tranquillamente fare il checkout e pagare. Questo non dovrebbe essere consentito.Beh diciamo che non rubano nulla a nessuno. C'è scritto pure che in caso di rimborso con paypal loro si trattengono le fee di paypal.
Sconsigliano nel modo più assoluto perché è anche una menata per loro dare i rimborsi ai fenomeni che ci ripensano all'ultimo momento.
Poi certo, potrebbero mettere un avviso al checkout dove chiedono espressamente di non pagare finché la merce non arriva.
Ma comunque hanno un miliardo di cose a listino, sarebbe complicato fare la regola solo per chi acquista solo rtx3000.....
DJurassic
09-06-2021, 20:58
Beh diciamo che non rubano nulla a nessuno. C'è scritto pure che in caso di rimborso con paypal loro si trattengono le fee di paypal.
Sconsigliano nel modo più assoluto perché è anche una menata per loro dare i rimborsi ai fenomeni che ci ripensano all'ultimo momento.
Poi certo, potrebbero mettere un avviso al checkout dove chiedono espressamente di non pagare finché la merce non arriva.
Ma comunque hanno un miliardo di cose a listino, sarebbe complicato fare la regola solo per chi acquista solo rtx3000.....
Infatti non ho parlato di rubare, ci mancherebbe altro. E' un mio pensiero comunque, non obbligo nessuno a essere d'accordo con me.
bagnino89
09-06-2021, 21:04
Ti sei dimenticato il più importante.
Che gioco sarebbe?
davide155
09-06-2021, 21:10
Infatti non ho parlato di rubare, ci mancherebbe altro. E' un mio pensiero comunque, non obbligo nessuno a essere d'accordo con me.No ci mancherebbe, il mio discorso era in generale.
Dicevo solo che comunque come tutti gli shop se ci ripensi ti rimborsano tutto senza battere ciglio.
L'unica cosa su cui Alex si incaponiva a spiegare erano le fee di paypal che loro pagano su ogni transizione, e che se te ci ripensi ti rimborsano la cifra totale meno le fee. Ma quello è scritto in grassetto nelle clausule.
Sinceramente tutto questo accanimento contro drako non lo capisco.
Hanno dei prezzi allucinanti su alcune cose, molto concorrenziali invece su altre. Almeno per quanto mi riguarda sono gli unici che hanno sempre lavorato a carte scoperte in questo folle lancio delle rtx 3000.
TigerTank
09-06-2021, 21:16
Veramente la mia aorus 3080 l'hanno tolta dal sito pure perché non ordinabile. Non esiste più se non nel mio storico ordini :asd:
Lo hanno sempre detto comunque in ogni live su twitch che non conviene pagare in anticipo per queste schede video perché non sanno quando e come arriveranno.
Solo un pazzo pagherebbe in anticipo una di queste vga....
Vabbè ma chi è che segue le live di eshop?
Io ho provato a fare una simulazione ficcando dentro il carrello 3 schede della serie 3000 a caso. Potevo tranquillamente fare il checkout e pagare. Questo non dovrebbe essere consentito.
E' scritto anche nelle pagine delle schede.
Entrando per vedere una 3080TI c'era proprio l'avviso di non scegliere pagamento tramite paypal.
Che comunque concordo anch'io, potrebbero intercettare e rendere non selezionabile se X articolo viene messo a carrello...
DJurassic
09-06-2021, 21:18
Che gioco sarebbe?
Una mia immagine di Control scattata durante il gameplay. Per me resta la massima espressione di cosa è capace il RT se ci costruisci tutto il gioco intorno, invece di mettercelo alla fine per puro marketing. Control in rt cambia davvero completamente volto.
A me poi è piaciuto anche come gioco inteso a livello di storia e gameplay.
amon.akira
09-06-2021, 21:22
Una mia immagine di Control scattata durante il gameplay. Per me resta la massima espressione di cosa è capace il RT se ci costruisci tutto il gioco intorno, invece di mettercelo alla fine per puro marketing. Control in rt cambia davvero completamente volto.
A me poi è piaciuto anche come gioco inteso a livello di storia e gameplay.
concordo, gli manca solo parola (hdr), vediamo a novembre con l autohdr MS se ne viene fuori un buon compromesso :|
bagnino89
09-06-2021, 21:23
Una mia immagine di Control scattata durante il gameplay. Per me resta la massima espressione di cosa è capace il RT se ci costruisci tutto il gioco intorno, invece di mettercelo alla fine per puro marketing. Control in rt cambia davvero completamente volto.
A me poi è piaciuto anche come gioco inteso a livello di storia e gameplay.Non lo avevo riconosciuto, assolutamente d'accordo, giocone.
Micropoint_ITA
09-06-2021, 22:03
Cyberpunk 2077 , metro Exodus , WD legion.
Assolutamente no. Se vuoi vedere l'RTX ti consiglio in ordine di importanza:
*Control
*Cyberpunk 2077
*Metro Exodus Enhanced Edition
*Watch Dogs Legion
A cui a breve si dovrebbe aggiungere Doom Eternal. Poi ci sono anche altri giochi che usano il RT ma non lo fanno in maniera così massiccia o si limitano solo ad alcune delle features, tra cui appunto BFV, RE Village, GodFall, Shadow of Tomb Raider, Wolfenstein: Youngblood, Crysis Remastered e GhostRunner.
Ti sei dimenticato il più importante.
https://live.staticflickr.com/65535/51237300734_b1c66ef9bd_h.jpg (https://live.staticflickr.com/65535/51237300734_9875f69932_o.png)
Grazie a tutti.
Exodus Enhanced Edition è nel game pass per caso?
Quindi è da settembre che dici di aspettare la scheda più nosense dell'attuale generazione. Sei imbattibile :asd:
Nel frattempo quelli di Drako hanno prenotato una settimana alle Maldive senza sganciare un euro.
Probabilmente no sense per te ma io ho una 2080ti e la 3080 è no sense per me, l'unica alternativa valida era la 3090, ma di titan ne ho già avute e sono uno spreco.
In merito al rosik che leggo chiaramente, io voglio solo le ti o chip completi, il fattore economico non mi frega minimamente, o questo è diventato il topic dell'ABC dell'economia?
Ps: Control è uno spettacolo peccato che l'ho tritato al day one del raytracing, ma magari una seconda run per stiracchiale la nuova quando arriva prima di liquidarla, perché no.
Sinceramente per me JHH ha sempre avuto ragione su una cosa.
Che la 3080 è la "flagship".
Ed è vero perchè alla fine IMHO la soluzione migliore di generazione come prezzo-prestazioni-vram dalla 3070 alla 3090 è stata quella di beccare una 3080 ai prezzi iniziali. :D
Concordo, ma purtroppo i bei tempi andati non tornano, ed al prezzo attuale se arrivi da una super o peggio dalla ti precedente la 3080 è proprio misera come upgrade.
Cutter90
09-06-2021, 23:03
.Grazie a tutti.
Exodus Enhanced Edition è nel game pass per caso?
No. Quello nel gp non viene aggiornato alla Enanched da quello che so.
PS: con quella cpu andrai pesantemente in crisi con la 3080 ti. L avevo anche io, deliddata a 4.8.
Thunder-74
09-06-2021, 23:12
Concordo, ma purtroppo i bei tempi andati non tornano, ed al prezzo attuale se arrivi da una super o peggio dalla ti precedente la 3080 è proprio misera come upgrade.
Ma credi veramente che tra una 3080 e la ti ci sia un abisso? Si parla del 10 percento sui 2k e 4k. Già tra la 3080 alla 3090 non viene stravolta l esperienza ludica. In fhd, come giochi tu, la differenza si assottiglia per un problema di poter sfruttare decentemente tutti cuda core . Ci sono titoli dove 3080, 3080ti e 3090 vanno uguale e non è un problema di cpu limited come ho detto, perché con una 6800xt si fanno più fps a pari cpu
Parlare di scheda no sense è per il fatto che non si sentiva la necessità di tirar fuori una scheda con tali prestazioni , essendoci già una scheda che va poco meno, oltretutto ad in prezzo da listino +70 percento . Sarebbe stato meglio produrre più 3080 , invece di diversificare la produzione di GA102.
Come già detto , questa è la prima volta che tra una x80 liscia e una ti ci passa poco margine
Se poi uno si fissa sul fatto che se non si legge TI sulla scheda , la scheda non vale niente, vabbè , alzo le mani
Inviato dal mio iPhone X utilizzando Tapatalk
Micropoint_ITA
09-06-2021, 23:29
.
No. Quello nel gp non viene aggiornato alla Enanched da quello che so.
PS: con quella cpu andrai pesantemente in crisi con la 3080 ti. L avevo anche io, deliddata a 4.8.
Se abilito la fisica "estrema" nel menù di gioco sicuro...
Calcola che l'ho giocato con la 1080ti sempre a 4k limando le impostazioni e crolli sulla CPU non ne ho visti.
Ma forse anche perché non eseguo nessuno streaming o registrazione. Quando gioco chiudo qualsiasi app.
amon.akira
10-06-2021, 00:12
Ma credi veramente che tra una 3080 e la ti ci sia un abisso? Si parla del 10 percento sui 2k e 4k. Già tra la 3080 alla 3090 non viene stravolta l esperienza ludica. In fhd, come giochi tu, la differenza si assottiglia per un problema di poter sfruttare decentemente tutti cuda core . Ci sono titoli dove 3080, 3080ti e 3090 vanno uguale e non è un problema di cpu limited come ho detto, perché con una 6800xt si fanno più fps a pari cpu
Parlare di scheda no sense è per il fatto che non si sentiva la necessità di tirar fuori una scheda con tali prestazioni , essendoci già una scheda che va poco meno, oltretutto ad in prezzo da listino +70 percento . Sarebbe stato meglio produrre più 3080 , invece di diversificare la produzione di GA102.
Come già detto , questa è la prima volta che tra una x80 liscia e una ti ci passa poco margine
Se poi uno si fissa sul fatto che se non si legge TI sulla scheda , la scheda non vale niente, vabbè , alzo le mani
Inviato dal mio iPhone X utilizzando Tapatalk
magari avrà frainteso mikael quando diceva che è super tagliuzzata...ma tra una 3080 con 104full (3070ti) e una 3080 con 102super monco a 700euro meglio la seconda...se lo rifanno con la serie 4000 meglio cosi risparmio...infatti con turing presi la 2080ti a 1200
Kostanz77
10-06-2021, 00:42
da una super o peggio dalla ti precedente la 3080 è proprio misera come upgrade.
io sono passato da 2080Ti a 3080 e le prestazioni in più si vedono e sono pure marcate.....
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Cutter90
10-06-2021, 06:17
Se abilito la fisica "estrema" nel menù di gioco sicuro...
Calcola che l'ho giocato con la 1080ti sempre a 4k limando le impostazioni e crolli sulla CPU non ne ho visti.
Ma forse anche perché non eseguo nessuno streaming o registrazione. Quando gioco chiudo qualsiasi app.
No, semplicemente dipende da gioco a gioco. In tutti i giochi in cui superi i 60 fps ti farà da collo. In cp 2077 e in altri ti fa da collo senza nemmeno arrivarci ai 60 fps. E io avevo levato anche le patch spectre e meltdawn che fa guadagnare un 10% di performance oltre ad averlo a 4.8. Ma lo vedrai: quando la gpu non lavorerà al 100% saprai di chi è colpa.
Ma credi veramente che tra una 3080 e la ti ci sia un abisso? Si parla del 10 percento sui 2k e 4k. Già tra la 3080 alla 3090 non viene stravolta l esperienza ludica. In fhd, come giochi tu, la differenza si assottiglia per un problema di poter sfruttare decentemente tutti cuda core . Ci sono titoli dove 3080, 3080ti e 3090 vanno uguale e non è un problema di cpu limited come ho detto, perché con una 6800xt si fanno più fps a pari cpu
Parlare di scheda no sense è per il fatto che non si sentiva la necessità di tirar fuori una scheda con tali prestazioni , essendoci già una scheda che va poco meno, oltretutto ad in prezzo da listino +70 percento . Sarebbe stato meglio produrre più 3080 , invece di diversificare la produzione di GA102.
Come già detto , questa è la prima volta che tra una x80 liscia e una ti ci passa poco margine
Se poi uno si fissa sul fatto che se non si legge TI sulla scheda , la scheda non vale niente, vabbè , alzo le mani
Inviato dal mio iPhone X utilizzando Tapatalk
Si è questione di gusti, ovvio, ma almeno con la Ti posso continuare a fare downsampling sul monitor full hd e finalmente provare a giocare sul 4k senza troppi sbattimenti. In 4k dalla 3080 alla ti ci ballano mediamente 10 fps che sono tanta roba, sul fullhd nativo è no sense ma se renderizzi in 2k o 4k la solfa cambia e la resa a schermo anche, senza andare a scomodare DLSS che per quanto favoloso se posso evitare, meglio.
io sono passato da 2080Ti a 3080 e le prestazioni in più si vedono e sono pure marcate.....
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Certo che si vede ma per me un 25% scarso non è abbastanza, dal 30% in su mi sento molto meglio.
Poi chi mi conosce lo sa, se non maxo tutto sto male, mi viene la fobia da scatoletta.
Thunder-74
10-06-2021, 06:55
magari avrà frainteso mikael quando diceva che è super tagliuzzata...ma tra una 3080 con 104full (3070ti) e una 3080 con 102super monco a 700euro meglio la seconda...se lo rifanno con la serie 4000 meglio cosi risparmio...infatti con turing presi la 2080ti a 1200
Kiwidva lo conosco da tempo, è esperto di questo mondo e di hardware ne ha macinato nel tempo, per questo mi sorprende quello che ha scritto.
Ho timore solamente che il suo ragionamento sia dettato più da un blocco di chi passerebbe da una Ti a una liscia, indipendentemente dagli incrementi prestazionali forniti. Il perdere un giga di memoria, il sapere che non è il top di gamma escluse le Titan/3090.
Certo, a conti fatti avrebbe fatto molto meglio a prendere subito una 3090 che attendere la 3080ti, ma di certo nessuno poteva immaginare una situazione di mercato così.
Cutter90
10-06-2021, 06:56
Si è questione di gusti, ovvio, ma almeno con la Ti posso continuare a fare downsampling sul monitor full hd e finalmente provare a giocare sul 4k senza troppi sbattimenti. In 4k dalla 3080 alla ti ci ballano mediamente 10 fps che sono tanta roba, sul fullhd nativo è no sense ma se renderizzi in 2k o 4k la solfa cambia e la resa a schermo anche, senza andare a scomodare DLSS che per quanto favoloso se posso evitare, meglio.
Certo che si vede ma per me un 25% scarso non è abbastanza, dal 30% in su mi sento molto meglio.
Poi chi mi conosce lo sa, se non maxo tutto sto male, mi viene la fobia da scatoletta.
Aspetta aspetta aspetta. Hai preso la 3080 ti, per giocare in full hd, anche se in downsampling...... Ho capito bene? Dimmi di no :eek:
Thunder-74
10-06-2021, 07:04
Si è questione di gusti, ovvio, ma almeno con la Ti posso continuare a fare downsampling sul monitor full hd e finalmente provare a giocare sul 4k senza troppi sbattimenti. In 4k dalla 3080 alla ti ci ballano mediamente 10 fps che sono tanta roba, sul fullhd nativo è no sense ma se renderizzi in 2k o 4k la solfa cambia e la resa a schermo anche, senza andare a scomodare DLSS che per quanto favoloso se posso evitare, meglio.
Certo che si vede ma per me un 25% scarso non è abbastanza, dal 30% in su mi sento molto meglio.
Poi chi mi conosce lo sa, se non maxo tutto sto male, mi viene la fobia da scatoletta.
intendevi 10%... 10 FPS sono tanti, ma vuol dire che se la 3080ti sta facendo 110 fps , la 3080 ne fa 100...
https://tpucdn.com/review/nvidia-geforce-rtx-3080-ti-founders-edition/images/relative-performance_3840-2160.pnghttps://tpucdn.com/review/nvidia-geforce-rtx-3080-ti-founders-edition/images/average-fps_3840-2160.png
intendevi 10%... 10 FPS sono tanti, ma vuol dire che se la 3080ti sta facendo 110 fps , la ..
Si 10%, è mattino presto...:D e si mi ruga a bestia passare da un chippone ad un chippetto, e si avrei fatto meglio a prendere una 3090 appena uscita, con le 4090 mi organizzerò diversamente.
fraussantin
10-06-2021, 07:22
Si è questione di gusti, ovvio, ma almeno con la Ti posso continuare a fare downsampling sul monitor full hd e finalmente provare a giocare sul 4k senza troppi sbattimenti. In 4k dalla 3080 alla ti ci ballano mediamente 10 fps che sono tanta roba, sul fullhd nativo è no sense ma se renderizzi in 2k o 4k la solfa cambia e la resa a schermo anche, senza andare a scomodare DLSS che per quanto favoloso se posso evitare, meglio.
Certo che si vede ma per me un 25% scarso non è abbastanza, dal 30% in su mi sento molto meglio.
Poi chi mi conosce lo sa, se non maxo tutto sto male, mi viene la fobia da scatoletta.
10 FPS a fronte di +500 dollari di costo non sono poi tanti.
Se poi lo parsgoni alle 800-900 euro che costavano le 3080 6 mesi fa... E diciamo che sotto i 1000 si trovavano abbastanza anche se ci sembrava una follia comprarle
Poi ovvio che tanto uno piglia quello trova di questi tempi.
Ma imho aveva più senso pigliati subito una 3090 a questo punto , che anche quelle sui i 2000 su trovavano per quanto ci sembrasse osceno come prezzo.
Certo la sfera di cristallo non ce l'ha nessuno.
Aspetta aspetta aspetta. Hai preso la 3080 ti, per giocare in full hd, anche se in downsampling...... Ho capito bene? Dimmi di no :eek:
Ma certamente, per il 90% del tempo come minimo, poi sull'oled 4k mi ci metto quando ho voglia di svacco e divano. Quando faranno un microled da 24" massimo 27" 4k > 144hz e con gsync, allora cambierò il monitor da gaming, e chissà che nel mentre non escano schede in grado di gestire il 4k come adesso la2080ti gestisce il fullhd.
Cutter90
10-06-2021, 07:49
Ma certamente, per il 90% del tempo come minimo, poi sull'oled 4k mi ci metto quando ho voglia di svacco e divano. Quando faranno un microled da 24" massimo 27" 4k > 144hz e con gsync, allora cambierò il monitor da gaming, e chissà che nel mentre non escano schede in grado di gestire il 4k come adesso la2080ti gestisce il fullhd.
Lo sai vero che giocare con una 3080 ti su un full hd non ha nessun tipo di senso in nessun universo e/o sistema numerico? Cioè, sei conscio di ciò? Su un 24 pollici poi.... vorrei quasi non aver letto del tuo utilizzo guarda :doh:
Dovrebbe essere vietato l'acquisto di una 3080 ti per il 1080p... sorattutto ora che c'è gente che la userebbe sul serio per il 4k, ossia per come andrebbe usata.
Cutter90
10-06-2021, 07:52
Ma certamente, per il 90% del tempo come minimo, poi sull'oled 4k mi ci metto quando ho voglia di svacco e divano. Quando faranno un microled da 24" massimo 27" 4k > 144hz e con gsync, allora cambierò il monitor da gaming, e chissà che nel mentre non escano schede in grado di gestire il 4k come adesso la2080ti gestisce il fullhd.
Infatti io nel dubbio non mi sono mai fatto problemi di prezzo, aspettare ecc ecc. sono andato di 2080 ti e di 3090 da subito. Così smetto di pensare alle performance, alle consegne, ai prezzi agli sbattimenti e fine :D
E sia con la 2080 ti che con questa 3090 la mia "impazienza" è stata estremamente fruttuosa e vantaggiosa. Culo, occhio, intuito.... tutto quello che uno vuole
Micropoint_ITA
10-06-2021, 08:12
io sono passato da 2080Ti a 3080 e le prestazioni in più si vedono e sono pure marcate.....
Inviato dal mio iPhone 12 PRO utilizzando Tapatalk Pro
Non voglio entrare in merito perché non ho avuto una 2080ti ma sicuro la differenza c'è e eccome se c'è! Non ne parliamo poi con effetti rtx attivi vola proprio la 3080.
Ok che per quello che costano secondo me non vale proprio la pena l'upgrade, ma illudersi per auto convincersi è sbagliato. Lo stacco è netto.
Si 10%, è mattino presto...:D e si mi ruga a bestia passare da un chippone ad un chippetto, e si avrei fatto meglio a prendere una 3090 appena uscita, con le 4090 mi organizzerò diversamente.
Da come scrivi pare non renderti conto che tra 3080 e 3080ti NON c'è la differenza che c'era tra 2080 e 2080ti (il chip nelle due ampere è LO STESSO, eh!) :fagiano:
Micropoint_ITA
10-06-2021, 08:15
No, semplicemente dipende da gioco a gioco. In tutti i giochi in cui superi i 60 fps ti farà da collo. In cp 2077 e in altri ti fa da collo senza nemmeno arrivarci ai 60 fps. E io avevo levato anche le patch spectre e meltdawn che fa guadagnare un 10% di performance oltre ad averlo a 4.8. Ma lo vedrai: quando la gpu non lavorerà al 100% saprai di chi è colpa.
Ho appena letto che sia Metro che CP77 in effetti danno qualche problema con la mia CPU. Vabbè tengo duro fino ad ottobre quando aggiorno completamente il PC con gli Intel in uscita. Anzi, posterò presto i risultati e come si comporta con una CPU vecchia come la mia
Cutter90
10-06-2021, 08:18
Anche a 60hz? In firma ho una TV OLED
Quindi la domanda è: anche in Metro a 4k 60hz avrò sporadici cali di frame rate per colpa della CPU, senza avere nulla in background?
Il nuovo metro exodus non l'ho provato col il 6700k e la 3090. Lo giocai con la 2080 ti. Guardati qualche video sul tubo. Ma metti in conto, seriamente, un cambio di cpu da qui a qualche mese. Altrimenti vedere la 3080 ti che va a 80-90 % è u n colpo al cuore. Ad ora il vero collo lo si ha sopra i 60 fps. Ma ci sono eccezioni, come cp 2077 o anche WD legion. In generale, tutti i giochi moderni per il 6700k con una 3090 sono molto molto al limite
TigerTank
10-06-2021, 08:27
Concordo, ma purtroppo i bei tempi andati non tornano, ed al prezzo attuale se arrivi da una super o peggio dalla ti precedente la 3080 è proprio misera come upgrade.
Alla fine credo che purtroppo anche la 3080Ti sia un upgrade misero...perchè rispetto alla 3080 è solo un passetto prestazionale in più e ha solo 2GB di vram in più. Se poi la si paga addirittura 2000€ o più diventa una cosa del tutto insensata...salvo uno sia proprio disperato :muro: :mc:
Come giò scritto in precedenza, la situazione è talmente grama che pure chi agli inizi era stato "criticato" per aver speso 1700-1800€ o più per una 3090 ad uso solo gaming, a posteriori ha fatto una scelta migliore di una 3080Ti a tali prezzi oggi...
Ecco perchè alla fine una 3080 pagata tra le 800 e le 1000€ resta la situazione migliore considerando tutto il decorso dell'attuale generazione.
Poi hai ragione, è vero che i bei tempi delle 3080 sono andati e che a parte le poche FE a prezzo di listino che girano ancora(ma non in Italia) le 3080 sono tutte a prezzi ormai assurdi....ma è anche vero che pure le 3080Ti non meritano quel che costano, dal balzello al prezzo di listino di nvidia stessa fino alle scalperate ufficiali e non dal day one.
Discorso già diverso se almeno avessero avuto il loro bel 25-30% dalla 3080 e un pò più di vram. Idem la 3090 ma quella già si giustificava di più in quanto scheda ad uso anche pro tra i 24GB di vram e l'nvlink.
Poi beh lasciamo perdere la 3070Ti che imho è un totale no-sense.
Micropoint_ITA
10-06-2021, 08:28
Il nuovo metro exodus non l'ho provato col il 6700k e la 3090. Lo giocai con la 2080 ti. Guardati qualche video sul tubo. Ma metti in conto, seriamente, un cambio di cpu da qui a qualche mese. Altrimenti vedere la 3080 ti che va a 80-90 % è u n colpo al cuore. Ad ora il vero collo lo si ha sopra i 60 fps. Ma ci sono eccezioni, come cp 2077
Assolutamente sto aspettando ottobre per il passaggio dei nuovi Intel. Ti assicuro che se non davano alcun periodo di uscita avrei già avuto nel case un 5800x. Dato che la CPU a me dura parecchio, preferisco aspettare la nuova serie dato che avrà sostanziali miglioramenti nonostante i 10nm. Cp77 non è un problema, mi rifiuto di giocarlo nelle condizioni in cui versa, sicuro mi dedicherò a tempo debito a RdR2 che anche lui secondo me azzopperà la mia CPU in alcuni casi, ma credo nulla di imprescindibile.
PS: in metro ricordo crolli improvvisi con la mia CPU nei punti dove si deve camminare attraverso un telo, il movimento di quest'ultimo mi faceva crollare gli fps. Eviterò i lenzuoli :D
Una domanda per tutti:
I prezzi così alti a listino di Asus sono per contrastare gli scalper? O c'è qualcosa di più?
TigerTank
10-06-2021, 08:35
Una domanda per tutti:
I prezzi così alti a listino di Asus sono per contrastare gli scalper? O c'è qualcosa di più?
Semplicemente ne approfittano, Asus non ha mai regalato nulla, anzi.
I prezzi decenti stavano nei primi mesi sullo shop tedesco di Asus ma...niente spedizione in Italia. Solo qualcuno di noi ha preso qualcosa approfittando di mailbox.de o di intermediari fisici(amici o colleghi).
Altrimenti pure io avrei avuto una bella 3080TUF o Strix nel case da mesi :D
Vedi che a priori anche le 3080Ti FE, dai presunti $999 sono saltate ai $1199 alla faccia della politica "prezzo amico" che JHH aveva fatto agli inizi lanciando le 3080FE a soli $699, strabiliando il mondo e facendo "piangere" quelli che avevano ancora una 2080Ti nel case(che poi è diventata oro) :asd:
dinamite2
10-06-2021, 08:56
Premetto che quando ho sborsato ben 940 euro per la mia 3080 strix mi sono sentito quasi stupido, convinto che la stessi pagando cara…
Ma per chi deve acquistare oggi, alla luce dei prezzi che ci sono attualmente, è meglio spendere 1400/1600 per una 3080 oppure mettere piu vaselina, e spendere 1900/2100 per una 3080ti???
E vi confesso che un pensierino alla 3080ti ce l’ho fatto anche io, ma ho deciso di lasciar perdere, e di cambiare solo se trovo una 3090 sotto i 2000 eventualmente.
Micropoint_ITA
10-06-2021, 08:58
Semplicemente ne approfittano, Asus non ha mai regalato nulla, anzi.
I prezzi decenti stavano nei primi mesi sullo shop tedesco di Asus ma...niente spedizione in Italia. Solo qualcuno di noi ha preso qualcosa approfittando di mailbox.de o di intermediari fisici(amici o colleghi).
Altrimenti pure io avrei avuto una bella 3080TUF o Strix nel case da mesi :D
Vedi che a priori anche le 3080Ti FE, dai presunti $999 sono saltate ai $1199 alla faccia della politica "prezzo amico" che JHH aveva fatto agli inizi lanciando le 3080FE a soli $699, strabiliando il mondo e facendo "piangere" quelli che avevano ancora una 2080Ti nel case(che poi è diventata oro) :asd:
Io avrei pensato più che altro era per contrastare gli scalper, due piccioni con una fava sicuramente per Asus però, perlomeno, se un acquirente deve comunque "pagare per pagare" tanto vale dia i soldi direttamente al produttore. Certo però mi aspettavo una revisione di molti aspetti della scheda, aumentare la qualità dei semiconduttori eccetera...tanto per giustificare l'insensato aumento di prezzo.
Per quanto riguarda l'istallazione dei driver grafici, cosa mi consigli/consigliate di fare?
Ovviamente utilizzerò ddu ma la domanda è:
Va avviato una volta che ho montato la 3000? Oppure tutta l'operazione di pulizia va fatta con la scheda vecchia? Io a logica penso con la scheda nuova, dato che a fine operazione dovrò installare l'ultimo driver, no?
Pensavo di procedere così:
.scarico DDU
.scarico manualmente l'ultimo driver Nvidia disponibile e lo colloco sul desktop
.avvio in modalità provvisoria
.lancio ddu e pulisco i file Nvidia
.riavvio in modalità provvisoria
.installo l'ultimo driver
.fine
Le cartelle vecchie con i vecchi driver rimangono comunque a sistema o vanno cestinate manualmente?
Grazie
DJurassic
10-06-2021, 09:04
Aspetta aspetta aspetta. Hai preso la 3080 ti, per giocare in full hd, anche se in downsampling...... Ho capito bene? Dimmi di no :eek:
https://youtu.be/gfkts0u-m6w
:asd:
Cutter90
10-06-2021, 09:07
Io avrei pensato più che altro era per contrastare gli scalper, due piccioni con una fava sicuramente per Asus però, perlomeno, se un acquirente deve comunque "pagare per pagare" tanto vale dia i soldi direttamente al produttore. Certo però mi aspettavo una revisione di molti aspetti della scheda, aumentare la qualità dei semiconduttori eccetera...tanto per giustificare l'insensato aumento di prezzo.
Per quanto riguarda l'istallazione dei driver grafici, cosa mi consigli/consigliate di fare?
Ovviamente utilizzerò ddu ma la domanda è:
Va avviato una volta che ho montato la 3000? Oppure tutta l'operazione di pulizia va fatta con la scheda vecchia? Io a logica penso con la scheda nuova, dato che a fine operazione dovrò installare l'ultimo driver, no?
Pensavo di procedere così:
.scarico DDU
.scarico manualmente l'ultimo driver Nvidia disponibile e lo colloco sul desktop
.avvio in modalità provvisoria
.lancio ddu e pulisco i file Nvidia
.riavvio in modalità provvisoria
.installo l'ultimo driver
.fine
Le cartelle vecchie con i vecchi driver rimangono comunque a sistema o vanno cestinate manualmente?
Grazie
Lo fai con la vecchia gpu.Scarichi i nuovi driver per la 3080 ti e li piazzi sul desktop. Scarichi ddu lo avvii in modalità provvisoria e fai "puisci e spegni", che è utile per montare proprio la nuova gpu. Monti la gpu, accendi CON INTERNET STACCATO (se no windows ti installa i driver dall'update), poi installi i nuovi driver. Una volta installati riattacchi windows. Riavvii e sei a posto!
ninja750
10-06-2021, 09:19
Lo sai vero che giocare con una 3080 ti su un full hd non ha nessun tipo di senso in nessun universo e/o sistema numerico? Cioè, sei conscio di ciò? Su un 24 pollici poi.... vorrei quasi non aver letto del tuo utilizzo guarda :doh:
Dovrebbe essere vietato l'acquisto di una 3080 ti per il 1080p... sorattutto ora che c'è gente che la userebbe sul serio per il 4k, ossia per come andrebbe usata.
sempre questione di preferenze: spendere 2000€ per giocare a 60fps (4k) è meglio o peggio che giocare 100fps (1440P) o 165fps (1080p)?
Cutter90
10-06-2021, 09:25
sempre questione di preferenze: spendere 2000€ per giocare a 60fps (4k) è meglio o peggio che giocare 100fps (1440P) o 165fps (1080p)?
Ma quegli fps non li fai perchè hai una 3090, ma perchè hai una cpu che te li fa fare! 165 fps in 1080 te li fa anche una 3070-3060 ti che costano 3 volte in meno di una 3090/3080 ti.
Cioè, è come comprare un Ferrari e poi rispettare i limiti di velocità ovunque....
DJurassic
10-06-2021, 09:30
sempre questione di preferenze: spendere 2000€ per giocare a 60fps (4k) è meglio o peggio che giocare 100fps (1440P) o 165fps (1080p)?
Veramente in 4K si è abbondantemente sopra i 60fps in 4K con una 3080, considerando anche il boost dato dal Dlss nel caso di giochi impegnativi che fanno uso di RT. Così come siamo abbondantemente sopra i 100fps in 1440p. In ogni caso altissimi frame rate hanno senso solo nel caso si gioca prevalentemente ad fps competitivi. In tutti gli altri casi rappresenta più un capriccio che un beneficio tangibile. E come dice Cutter se giochi a 1080p sono frame rate perfettamente raggiungibili anche con schede di fascia inferiore a patto di avere CPU che riescono a stargli al passo.
TigerTank
10-06-2021, 09:39
Premetto che quando ho sborsato ben 940 euro per la mia 3080 strix mi sono sentito quasi stupido, convinto che la stessi pagando cara…
Ma per chi deve acquistare oggi, alla luce dei prezzi che ci sono attualmente, è meglio spendere 1400/1600 per una 3080 oppure mettere piu vaselina, e spendere 1900/2100 per una 3080ti???
E vi confesso che un pensierino alla 3080ti ce l’ho fatto anche io, ma ho deciso di lasciar perdere, e di cambiare solo se trovo una 3090 sotto i 2000 eventualmente.
Sinceramente al momento....nessuna delle 2 opzioni che hai scritto. Al massimo se proprio una 3080Ti vicina al prezzo della FE.
E purtroppo anche la 3070Ti non è un "ripiego" ed imho è peggio della 3070.
Tieniti stretta la tua che a posteriori è diventato l'acquisto migliore che si potesse fare, anche rispetto ad una 3080Ti FE a 1200€ :D
dinamite2
10-06-2021, 09:51
Sinceramente al momento....nessuna delle 2 opzioni che hai scritto. Al massimo se proprio una 3080Ti vicina al prezzo della FE.
E purtroppo anche la 3070Ti non è un "ripiego" ed imho è peggio della 3070.
Tieniti stretta la tua che a posteriori è diventato l'acquisto migliore che si potesse fare, anche rispetto ad una 3080Ti FE a 1200€ :D
Eh gia, forse hai proprio ragione.
Speriamo che con le future serie 4000 non si ripetano queste vicissitudini… :rolleyes:
In ogni caso altissimi frame rate hanno senso solo nel caso si gioca prevalentemente ad fps competitivi.
https://www.dailymotion.com/video/x4mtfyw
TigerTank
10-06-2021, 10:07
3080 vs 3080Ti vs 6900XT in "4K".
LINK (https://www.youtube.com/watch?v=hZCYUox15J8).
Thunder-74
10-06-2021, 10:15
https://youtu.be/gfkts0u-m6w
:asd:
:D :D :D :D ti adoro !!!! :D :D :D :D
DJurassic
10-06-2021, 10:25
:D :D :D :D ti adoro !!!! :D :D :D :D
oggi faccio la spesa pazza per il liquido :D
Micropoint_ITA
10-06-2021, 10:53
Lo fai con la vecchia gpu.Scarichi i nuovi driver per la 3080 ti e li piazzi sul desktop. Scarichi ddu lo avvii in modalità provvisoria e fai "puisci e spegni", che è utile per montare proprio la nuova gpu. Monti la gpu, accendi CON INTERNET STACCATO (se no windows ti installa i driver dall'update), poi installi i nuovi driver. Una volta installati riattacchi windows. Riavvii e sei a posto!
Grazie!
Thunder-74
10-06-2021, 11:01
oggi faccio la spesa pazza per il liquido :D
Bravo!!! sappi che stai entrando in un pozzo senza fondo... Veramente vale il detto, l'appetito vien mangiando... Molti di noi sono arrivati a spendere cifre per un impianto da farci un intero PC enthusiast, però da tanta soddisfazione.. Hai detto bene , si tratta di un livello superiore nel hobby PC, che si vuole provare, quando da tempo si sviscera la materia ;)
DJurassic
10-06-2021, 11:13
Bravo!!! sappi che stai entrando in un pozzo senza fondo... Veramente vale il detto, l'appetito vien mangiando... Molti di noi sono arrivati a spendere cifre per un impianto da farci un intero PC enthusiast, però da tanta soddisfazione.. Hai detto bene , si tratta di un livello superiore nel hobby PC, che si vuole provare, quando da tempo si sviscera la materia ;)
Ma infatti non posso più rimandare. Questa è stata una ricorrente per troppo tempo che poi per un motivo o per l'altro non ho mai abbracciato completamente.
Stavolta non mi ferma nessuno :sborone:
3080 vs 3080Ti vs 6900XT in "4K".
LINK (https://www.youtube.com/watch?v=hZCYUox15J8).
peccato solo per la schermata introduttiva coi prezzi totalmente farlocchi (lato verde) :asd:
3080 vs 3080Ti vs 6900XT in "4K".
LINK (https://www.youtube.com/watch?v=hZCYUox15J8).
aaaaaaaaaaaaaaaaah.... che scheda :eek:
https://media.tenor.com/images/47ee17d51894fdafb124a4e76cbda208/tenor.gif
DJurassic
10-06-2021, 11:46
3080 vs 3080Ti vs 6900XT in "4K".
LINK (https://www.youtube.com/watch?v=hZCYUox15J8).
Incredibile come Valhalla giri con le rosse. Forse è l'unico gioco dove si vedere uno stacco netto dovuto alla partnership che ha avuto Ubisoft con Amd.
Peccato non poter contare sul dlss in questi casi che per ovvie ragioni non verrà mai implementato.
amon.akira
10-06-2021, 11:48
peccato solo per la schermata introduttiva coi prezzi totalmente farlocchi (lato verde) :asd:
infatti 800$ invece è 699$
peccato solo per la schermata introduttiva coi prezzi totalmente farlocchi (lato verde) :asd:
oh oh oh
guardate come entra a petto gonfio il raven adesso :asd:
https://i.ibb.co/rxMsKGj/download.jpg (https://imgbb.com/)
infatti 800$ invece è 699$
... eh, certo! (che diventano 1200/1300 euro nei negozi europei, se le trovi) :asd:
oh oh oh
guardate come entra a petto gonfio il raven adesso :asd:
:rotfl:
dinamite2
10-06-2021, 12:19
raga, i drop del giovedi su amd piu o meno a che ora iniziano di norma??? :D :D :sofico:
raga, i drop del giovedi su amd piu o meno a che ora iniziano di norma??? :D :D :sofico:
se lo chiedi qui ti diranno alle 21:00
se lo chiedi di là, alle 17:30 <---
:ciapet:
infatti 800$ invece è 699$
https://i.ibb.co/m98Cwpd/tenor.gif (https://imgbb.com/)
dinamite2
10-06-2021, 12:32
se lo chiedi qui ti diranno alle 21:00
se lo chiedi di là, alle 17:30 <---
:ciapet:
naaa qui sono/siamo sportivi :D
Comunque grazie, vedo di organizzarmi :sofico:
naaa qui sono/siamo sportivi :D
Comunque grazie, vedo di organizzarmi :sofico:
https://thumbs.gfycat.com/IncomparableLargeGannet-size_restricted.gif
amon.akira
10-06-2021, 12:53
... eh, certo! (che diventano 1200/1300 euro nei negozi europei, se le trovi) :asd:
:rotfl:
pure le 6800xt spariscono in un nanosecondo su amazon a 1200
io ho preso la 3080 8mesi fa a 713euro tu hai preso la 6800xt a 650euro che vogliamo fare?
TigerTank
10-06-2021, 12:55
peccato solo per la schermata introduttiva coi prezzi totalmente farlocchi (lato verde) :asd:
Sì infatti l'ho segnalato! :D
Comunque quelli sono i prezzi di riferimento e nei commenti è tanta la gente che critica il $699 vs $1199 a fronte dello stacco prestazionale :D
Peggio che con le 3090 che almeno si "giustificavano" come schede più "d'elìte" e anche semi-pro tra vram a iosa ed nvlink.
Lo sai vero che giocare con una 3080 ti su un full hd non ha nessun tipo di senso in nessun universo e/o sistema numerico? Cioè, sei conscio di ciò? Su un 24 pollici poi.... vorrei quasi non aver letto del tuo utilizzo guarda :doh:
Dovrebbe essere vietato l'acquisto di una 3080 ti per il 1080p... sorattutto ora che c'è gente che la userebbe sul serio per il 4k, ossia per come andrebbe usata.
Beh, per esempio potresti giocare a 1080p con una 3080 Ti se hai intenzione di:
1) gicoare ad una risoluzione in game maggiore di quella del tuo monitor, molti giochi danno la possibilità di fare output di risoluzioni diverse da quelle native del monitor, sia verso il basos sia verso l'alto
2) usare i filtri NVIDIA, che per quanto mi riguarda provocano si un drastico miglioramento dell'immagine ma anche un calo di circa 25-30 fps
Cutter90
10-06-2021, 13:11
Beh, per esempio potresti giocare a 1080p con una 3080 Ti se hai intenzione di:
1) gicoare ad una risoluzione in game maggiore di quella del tuo monitor, molti giochi danno la possibilità di fare output di risoluzioni diverse da quelle native del monitor, sia verso il basos sia verso l'alto
2) usare i filtri NVIDIA, che per quanto mi riguarda provocano si un drastico miglioramento dell'immagine ma anche un calo di circa 25-30 fps
Si ma giocare a risoluzione maggiore su un fhd da 24 pollici è assolutamente uno spreco di risorse dato che vai a migliorare un po' l'AA. Ma un poco poco eh. Perchè alla fine della fiera sempre in 1080p giochi.
Non so che filtri nvidia usi te, ma nitidezza ad esempio cala 2-3 fps. Quali sono i filtri che ne calano 20-30 scusa?
Graphite600T
10-06-2021, 13:13
Vabbeh tanto visto che c'è shortage di gpu e console anche le software house stanno rallentando a far uscire titoli validi (da quando ho la 3080 non è ancora uscito un gioco che riuscisse a tenermi incollato allo schermo quindi non l'ho ancora sfruttata per bene) quindi a meno che non ci facciamo un pò di rendering o applicazioni del genere non ancora sono neanche utilizzabili :sofico:
TigerTank
10-06-2021, 13:13
Beh, per esempio potresti giocare a 1080p con una 3080 Ti se hai intenzione di:
1) gicoare ad una risoluzione in game maggiore di quella del tuo monitor, molti giochi danno la possibilità di fare output di risoluzioni diverse da quelle native del monitor, sia verso il basos sia verso l'alto
2) usare i filtri NVIDIA, che per quanto mi riguarda provocano si un drastico miglioramento dell'immagine ma anche un calo di circa 25-30 fps
Naaaa, la risoluzione nativa è sempre la migliore.
Se puoi permetterti una 3080Ti overpriced a quel punto io prenderei almeno un bel 21:9 3440x1440 da gaming con refresh bello maggiorato(144-160Hz) e gsync compatibile anche a meno di 1000€ (come l'LG su amazon).
E poi adesso c'è il DLSS per cui meglio anche una 4K + DLSS che usare ancora il DSR da una risoluzione più bassa. Ormai è "vintage"(e a me mai piaciuto particolarmente tra blur e lag, sempre preferito nativa + reshade).
io ho preso la 3080 8mesi fa a 713euro tu hai preso la 6800xt a 650euro che vogliamo fare?
festeggiare! https://digilander.libero.it/arosati76/sigh.gif
Ma infatti non posso più rimandare. Questa è stata una ricorrente per troppo tempo che poi per un motivo o per l'altro non ho mai abbracciato completamente.
Stavolta non mi ferma nessuno :sborone:
Io sono partito dalle pompe cinesi su alixp e ora sto guardando la Aquacomputer ULTITUBE D5 150 PRO con la D5 NEXT. Maledetti. :sofico:
FrancoBit
10-06-2021, 13:40
Io sono partito dalle pompe cinesi su alixp e ora sto guardando la Aquacomputer ULTITUBE D5 150 PRO con la D5 NEXT. Maledetti. :sofico:
Pompe cinesi suona malissssimo:oink:
amon.akira
10-06-2021, 13:41
festeggiare! https://digilander.libero.it/arosati76/sigh.gif
:yeah: :asd:
davide155
10-06-2021, 13:42
Vabbeh tanto visto che c'è shortage di gpu e console anche le software house stanno rallentando a far uscire titoli validi (da quando ho la 3080 non è ancora uscito un gioco che riuscisse a tenermi incollato allo schermo quindi non l'ho ancora sfruttata per bene) quindi a meno che non ci facciamo un pò di rendering o applicazioni del genere non ancora sono neanche utilizzabili :sofico:Vedi che le gpu Ampere vendute sono il doppio delle Touring a pari mesi di uscita.
Quindi le software house non stanno frenando nulla a causa dello shortage.
Lo shortage c'è perché c'è una domanda altissima. Tutto ciò che producono lo vendono subito. Nvidia ha RADDOPPIATO i ricavi nel settore vga dedicate.
Da 1 anno a questa parte pure il mio cane si è dato al gaming su pc.
Vai tranquillo che se uscisse un gioco in stile cyberpunk, verrebbe letteralmente preso d'assalto. Perché la base di pc installati è semore in nettissima crescita.
Vai tranquillo che nell'ultimo trimestre 2021 ne vedremo delle belle in quanto a uscite di giochi pc.
E son sicuro che il mercato dell'usato verrà inondato di una marea di Ampere.
È solo questione di tempo.
Inutile aspettare Lovelace secondo me..... Perché verrà presentata a fine 2022 e chissà quanto e se venderà come Ampere. Quindi chi aspetta le nuove gpu rischia di rimanere a bocca asciutta fino al 2023 inoltrato.
Ora come ora conviene aspettare, ma non troppo perché si rischia di aspettare in loop tutte le nuove generazioni senza mai fare il passaggio effettivo.
Thunder-74
10-06-2021, 13:49
NVIDIA GeForce Game Ready 466.77 WHQL
LINK (https://videocardz.com/driver/nvidia-geforce-game-ready-466-77-whql)
Game Ready for No Man’s Sky DLSS Patch
This new Game Ready Driver provides support for the latest new titles and updates, including the latest patch for No Man’s Sky which introduces NVIDIA DLSS technology. Additionally, this release also provides optimal support for The Persistence, Chivalry 2, Sniper Ghost Warrior Contracts 2, and the new NVIDIA Reflex integrations in War Thunder and Escape from Tarkov.
Gaming Technology
Includes support for the GeForce RTX 3080 Ti and GeForce RTX 3070 Ti GPUs.
Fixed Issues
[Crossfire HD]: Freestyle is not supported for the game. [200734448]
[Kepler/Turing GPUs]: Blue-screen crash with DPC Watchdog Violation error may occur. [3321668/3321735]
[VR]: If the GPU is connected to a 4K UHD TV, the system may freeze when launching a VR game. [3313315]
[RTX 20 series][GTX 16/10 series][HDMI]: 4K @ 120Hz display mode is not available from display settings. [3312401]
Known Issues
[NVIDIA Ampere GPU]: Colors may appear incorrect in games if sharpen Freestyle filter is used with HDR enabled. [200658208] This issue will be resolved in the next NVIDIA driver release.
[HDR]: Some specific HDMI displays might show some flickering in HDR mode. [200729987] If you experiencing flickering issues, reboot the system.
[World of Warcraft: Shadowlands]: Random flicker may occur in certain locations in the game [3206341]
[Batman Arkham Knight]: The game crashes when turbulence smoke is enabled. [3202250]
[Steam VR game]: Stuttering and lagging occur upon launching a game while any GPU hardware monitoring tool is running in the background. [3152190]
[YouTube]: Video playback stutters while scrolling down the YouTube page. [3129705]
Display may flicker or lose signal when launching a game on an adaptive-sync VRR monitor in multi-monitor configuration when sharing the same display mode [3314055]
Naaaa, la risoluzione nativa è sempre la migliore.
Se puoi permetterti una 3080Ti overpriced a quel punto io prenderei almeno un bel 21:9 3440x1440 da gaming con refresh bello maggiorato(144-160Hz) e gsync compatibile anche a meno di 1000€ (come l'LG su amazon).
E poi adesso c'è il DLSS per cui meglio anche una 4K + DLSS che usare ancora il DSR da una risoluzione più bassa. Ormai è "vintage"(e a me mai piaciuto particolarmente tra blur e lag, sempre preferito nativa + reshade).
Io il DLSS sono contento di averlo e devo dire che da un boost notevole, ma l'immagine risulta decisamente meno nitida e se devo sniperare dalla distanza diventa davvero dura tenerlo attivato.
Sicuro in altre tipologie di giochi è una vera e propria rivoluzione
Cutter90
10-06-2021, 14:11
Io il DLSS sono contento di averlo e devo dire che da un boost notevole, ma l'immagine risulta decisamente meno nitida e se devo sniperare dalla distanza diventa davvero dura tenerlo attivato.
Sicuro in altre tipologie di giochi è una vera e propria rivoluzione
Pannello nvidia - nitidezza a 0.55, problema risolto ;)
Pompe cinesi suona malissssimo:oink:
ammetto di averlo notato e non aver cambiato la frase :D
DJurassic
10-06-2021, 14:29
Io il DLSS sono contento di averlo e devo dire che da un boost notevole, ma l'immagine risulta decisamente meno nitida e se devo sniperare dalla distanza diventa davvero dura tenerlo attivato.
Sicuro in altre tipologie di giochi è una vera e propria rivoluzione
Forse l'hai impostato su performance o peggio, perchè se usi il quality dubito sia come dici. Non dimentichiamoci che diversamente avresti il TAA attivo che è molto più nutelloso in movimento.
Micropoint_ITA
10-06-2021, 14:47
Domanda, so che con il mio ali in firma sono strettino ma potrebbe andare bene. guardando gli slot PCIe saranno sufficienti? La 3080ti ha bisogno di ben 3 slot da 8 PIN! Non ci avevo proprio pensato Santo Dio.
Thunder-74
10-06-2021, 14:51
Domanda, so che con il mio ali in firma sono strettino ma potrebbe andare bene. guardando gli slot PCIe saranno sufficienti? La 3080ti ha bisogno di ben 3 slot da 8 PIN! Non ci avevo proprio pensato Santo Dio.
fatti un regalo... se non hai tre cavi separati disponibili, dovrai usare uno sdoppiatore.. brrrr . Non si può comprare Varenne e usare una sella di cartone
Micropoint_ITA
10-06-2021, 15:01
fatti un regalo... se non hai tre cavi separati disponibili, dovrai usare uno sdoppiatore.. brrrr . Non si può comprare Varenne e usare una sella di cartone
Che ali mi consigli?
In previsione di rifare tutto il resto a ottobre un ali mi servirebbe comunque
Cutter90
10-06-2021, 15:07
Che ali mi consigli?
In previsione di rifare tutto il resto a ottobre un ali mi servirebbe comunque
Io avevo il tuo stesso ali anche. Avevo il corsair RM750 i. Tecnicamente parlando anche con il cambio cpu ci staresti con il 750, ma saresti tirato. Io sono passato al 1000 tagliando la testa al toro
Micropoint_ITA
10-06-2021, 15:11
Io avevo il tuo stesso ali anche. Avevo il corsair RM750 i. Tecnicamente parlando anche con il cambio cpu ci staresti con il 750, ma saresti tirato. Io sono passato al 1000 tagliando la testa al toro
Bene, valuto l'850 dovrei comunque starci, grazie :)
dinamite2
10-06-2021, 15:13
Io avevo il tuo stesso ali anche. Avevo il corsair RM750 i. Tecnicamente parlando anche con il cambio cpu ci staresti con il 750, ma saresti tirato. Io sono passato al 1000 tagliando la testa al toro
chiedo scusa per l'ot, ma il tuo g3 1000w è rumoroso? ho trovato una buona occasione e sono indeciso se cambiarlo al posto del mio g2 750.
Ho letto qualche rewiew e non ne esce proprio benissimo per via delle dimensioni e del rumore che produce...
TigerTank
10-06-2021, 15:15
Bene, valuto l'850 dovrei comunque starci, grazie :)
Io ora come ora butterei un occhio al Seasonic Focus GX-850 80 plus Gold.
Meno di 140€ venduto e spedito da amazon.
mikael84
10-06-2021, 15:16
magari avrà frainteso mikael quando diceva che è super tagliuzzata...ma tra una 3080 con 104full (3070ti) e una 3080 con 102super monco a 700euro meglio la seconda...se lo rifanno con la serie 4000 meglio cosi risparmio...infatti con turing presi la 2080ti a 1200
Beh, ovviamente GA102 devastato, non si può paragonare ad un full GA104.:)
Sono i nomi che metto io, ma relativi al chip.:)
3080 vs 3080Ti vs 6900XT in "4K".
LINK (https://www.youtube.com/watch?v=hZCYUox15J8).
Il meglio sono i clock, una quasi a 2,4 fissi, le altre scendono a 1750.
Ampere con un salto nodo vero, poteva realmente spingere.:)
Incredibile come Valhalla giri con le rosse. Forse è l'unico gioco dove si vedere uno stacco netto dovuto alla partnership che ha avuto Ubisoft con Amd.
Peccato non poter contare sul dlss in questi casi che per ovvie ragioni non verrà mai implementato.
Merito dello scheduler hardware. Con nvidia bene o male sfrutti 3/4 della potenza.:)
Se osservi il consumo della scheda con AC, noti che il TDP è particolarmente basso.
Bene, valuto l'850 dovrei comunque starci, grazie :)
Secondo me meglio un mille, considera che sulla scatola della mia Strix 3090 è richiesto come minimo un 750 ma so di molte persone che anche con l'850 hanno continue accensioni dei led sui pin della strix che è molto schizzinosa su questo (la strix ha i led rossi che lampeggiano quando c'è un'irregolarità di alimentazione).
Io ho il corsair RM 1000 che è abbastanza economico ma che non mi ha mai fatto accendere i LED.
TigerTank
10-06-2021, 15:19
Il meglio sono i clock, una quasi a 2,4 fissi, le altre scendono a 1750.
Ampere con un salto nodo vero, poteva realmente spingere.:)
E hai visto i Watts? :stordita:
Ste ampère ciucciano parecchio....presumo anche per vie delle gddr6x.
Cutter90
10-06-2021, 15:19
Bene, valuto l'850 dovrei comunque starci, grazie :)
No, per 100 watt non ne vale la pena secondo me. Che cpu andrai a prendere? perchè se vai su un i9 lascia perdere l' 850 watt
Cutter90
10-06-2021, 15:21
chiedo scusa per l'ot, ma il tuo g3 1000w è rumoroso? ho trovato una buona occasione e sono indeciso se cambiarlo al posto del mio g2 750.
Ho letto qualche rewiew e non ne esce proprio benissimo per via delle dimensioni e del rumore che produce...
Finora è semplicemente perfetto. Rumore una tomba e zero problemi. le dimensioni... che problemi dovrebbero dare?
Thunder-74
10-06-2021, 15:21
Che ali mi consigli?
In previsione di rifare tutto il resto a ottobre un ali mi servirebbe comunque
Come ti hanno consigliato , 850w andrebbe bene, ma dato che è un complente che si cambia relativamente spesso, io farei cifra tonda (1000w), in modo da farlo lavorare mediamente al 50x100 del suo carico. Quindi in efficienza e senza stressarlo, così dura di più .
Inviato dal mio iPad utilizzando Tapatalk
Il meglio sono i clock, una quasi a 2,4 fissi, le altre scendono a 1750.
Ampere con un salto nodo vero, poteva realmente spingere.:)
il pp samsung ha salvato la disponibilità produzione però...altrimenti col cavolo che facevano questi record di vendita (ai miners cough cough cough!)
non si può avere la moglie piena e la botte ubriaca......oh, wait :stordita:
Finora è semplicemente perfetto. Rumore una tomba e zero problemi. le dimensioni... che problemi dovrebbero dare?
con le ventole della 3090 come le tieni tu penso che non sentiresti manco un jet che decolla dalla via sotto casa, figurarsi un ali :asd:
mikael84
10-06-2021, 15:25
E hai visto i Watts? :stordita:
Ste ampère ciucciano parecchio....presumo anche per vie delle gddr6x.
Si però li, torniamo sempre al fallimento di quelle ram. Vedi la 3070ti. Il GPU core stock sta sui 2/220 non di più.:)
Certo, tra tutti i difetti chi le ha prese a prezzi "giusti" ha fatto il miglior affare. A quei prezzi, poco prima ci prendevi le 2080.:)
Come ti hanno consigliato , 850w andrebbe bene, ma dato che è un complente che si cambia relativamente spesso, io farei cifra tonda (1000w), in modo da farlo lavorare mediamente al 50x100 del suo carico. Quindi in efficienza e senza stressarlo, così dura di più .
Inviato dal mio iPad utilizzando Tapatalk
l'anno prossimo arrivano le mobo con le nuove alimentazioni però :stordita: certo, bsiogna vedere quanto intende tenere la nuova piattaforma....però ecco c'è da tenerne conto....
Cutter90
10-06-2021, 15:26
con le ventole della 3090 come le tieni tu penso che non sentiresti manco un jet che decolla dalla via sotto casa, figurarsi un ali :asd:
Ma anche se le tieni stock che arrivano al 70-80 % fanno cmq più romore di quella dell'ali. Cioè, qualsiasi sia la ventola, cpu o case che sia fa più rumore di quella dell'ali.... mica si tiene il pc in ufficio scusa :)
Micropoint_ITA
10-06-2021, 15:32
Io ora come ora butterei un occhio al Seasonic Focus GX-850 80 plus Gold.
Meno di 140€ venduto e spedito da amazon.
Secondo me meglio un mille, considera che sulla scatola della mia Strix 3090 è richiesto come minimo un 750 ma so di molte persone che anche con l'850 hanno continue accensioni dei led sui pin della strix che è molto schizzinosa su questo (la strix ha i led rossi che lampeggiano quando c'è un'irregolarità di alimentazione).
Io ho il corsair RM 1000 che è abbastanza economico ma che non mi ha mai fatto accendere i LED.
No, per 100 watt non ne vale la pena secondo me. Che cpu andrai a prendere? perchè se vai su un i9 lascia perdere l' 850 watt
Come ti hanno consigliato , 850w andrebbe bene, ma dato che è un complente che si cambia relativamente spesso, io farei cifra tonda (1000w), in modo da farlo lavorare mediamente al 50x100 del suo carico. Quindi in efficienza e senza stressarlo, così dura di più .
Inviato dal mio iPad utilizzando Tapatalk
A sto punto se pure a 850w sono al limite valuto il 1000 , CPU chi lo sa, a ottobre sarà il nuovo Intel 10nm, consumi non ne ho idea, speriamo la situazione migliori dato che gli attuali sono energivori. Grazie per i consigli dell'alimentatore a tutti
TigerTank
10-06-2021, 15:34
Si però li, torniamo sempre al fallimento di quelle ram. Vedi la 3070ti. Il GPU core stock sta sui 2/220 non di più.:)
Certo, tra tutti i difetti chi le ha prese a prezzi "giusti" ha fatto il miglior affare. A quei prezzi, poco prima ci prendevi le 2080.:)
Concordo...
Se poi hai visto i primi prezzi delle 3070Ti (dai 1100 ai 1300€), doppio flop imho.
Meglio le "furono" 3070 lisce da 700€ o meno.
Sì guarda...se penso che la 2080 la presi con calma su amazon a 770€...e pure una custom maggiorata.
A sto punto se pure a 850w sono al limite valuto il 1000 , CPU chi lo sa, a ottobre sarà il nuovo Intel 10nm, consumi non ne ho idea, speriamo la situazione migliori dato che gli attuali sono energivori. Grazie per i consigli dell'alimentatore a tutti
Figurati, dipende anche dal tuo budget.
Ad esempio per stare in tema con la tua vga, amazon dal 28 giugno darebbe disponibile anche l'Asus Strix da 1000W e 10 anni di garanzia a 220€ :D
mikael84
10-06-2021, 15:35
il pp samsung ha salvato la disponibilità produzione però...altrimenti col cavolo che facevano questi record di vendita (ai miners cough cough cough!)
non si può avere la moglie piena e la botte ubriaca......oh, wait :stordita:
Su questo nulla da dire. Di certo fa storcere il naso vedere schede lavorare come i 16nm di TSMC.
Concordo...
Se poi hai visto i primi prezzi delle 3070Ti (dai 1100 ai 1300€), doppio flop imho.
Meglio le "furono" 3070 lisce da 700€ o meno.
Sì guarda...se penso che la 2080 la presi con calma su amazon a 770€...e pure una custom maggiorata.
Esatto.:rolleyes:
Thunder-74
10-06-2021, 15:47
l'anno prossimo arrivano le mobo con le nuove alimentazioni però :stordita: certo, bsiogna vedere quanto intende tenere la nuova piattaforma....però ecco c'è da tenerne conto....
brutta storia... vero... 3,3v e 5v gestiti dalla mobo e l'ali solo 12v con connettore più piccolo... ci sarà poco da fare, non credo in adattatori per utilizzare i "vecchi" ali ...
FrancoBit
10-06-2021, 15:50
brutta storia... vero... 3,3v e 5v gestiti dalla mobo e l'ali solo 12v con connettore più piccolo... ci sarà poco da fare, non credo in adattatori per utilizzare i "vecchi" ali ...
Potrebbe essere che i nuovi collegamenti dell'alimentazione vengano implementati solo sulle OEM, almeno nei primi periodi. Vedremo. Ho sentito sta cosa da Der8auer
Thunder-74
10-06-2021, 15:53
Potrebbe essere che i nuovi collegamenti dell'alimentazione vengano implementati solo sulle OEM, almeno nei primi periodi. Vedremo. Ho sentito sta cosa da Der8auer
si, è intel che spinge per l'adozione del ATX12VO, ma sembra che sarà sulle schede entry level di OEM
Intel incoraggia l'adozione dello standard ATX12VO sulle schede madri Alder Lake-S
Lo standard di alimentazione ATX12VO è una nuova specifica per gli alimentatori desktop che vanta un'efficienza notevolmente maggiore rispetto ai normali alimentatori desktop. Il nuovo standard richiede una scheda madre compatibile con un connettore di alimentazione a 10 pin insieme a un alimentatore compatibile che dispone solo di binari da 12 V. Lo standard richiede che qualsiasi conversione di tensione superiore o inferiore a 12 V debba essere eseguita direttamente sulla scheda madre, il che aumenta la complessità e il costo per i produttori di schede madri. Intel è interessata a promuovere lo standard con le prossime schede madri della serie 600 per Alder Lake-S, tuttavia è improbabile che la maggior parte delle schede degli appassionati presenti lo standard. Lo standard può trovare una maggiore adozione con schede madri entry-level per integratori di sistemi e fornitori precostruiti che devono soddisfare le rigide normative governative sull'efficienza energetica.
FrancoBit
10-06-2021, 16:10
Tutti su Epic raga regalano Control, non i preservativi vé :oink:
TigerTank
10-06-2021, 16:20
Tutti su Epic raga regalano Control, non i preservativi vé :oink:
Ce l'ho già completo su Epic...ma non ancora giocato per carenza di 3080(un pò come te) :sofico:
FrancoBit
10-06-2021, 16:22
Ce l'ho già completo su Epic...ma non ancora giocato per carenza di 3080(un pò come te) :sofico:
Lo giocherò apposta col FXAA a palla e dirò che non si può vedere :Prrr:
DJurassic
10-06-2021, 16:22
Tutti su Epic raga regalano Control, non i preservativi vé :oink:
Ne parlavo giusto ieri. Infatti ero venuto qui a darvi la lieta notizia ma mi hai preceduto.
Prendetelo senza pensarci 2 volte. E' un grande gioco e un Must have per il Raytracing. :read:
TigerTank
10-06-2021, 16:38
Ne parlavo giusto ieri. Infatti ero venuto qui a darvi la lieta notizia ma mi hai preceduto.
Prendetelo senza pensarci 2 volte. E' un grande gioco e un Must have per il Raytracing. :read:
Da gustare con l'espressione del tuo avatar, soprattutto perchè aggratis! :cool:
Giovamas
10-06-2021, 17:10
A sto punto se pure a 850w sono al limite valuto il 1000 , CPU chi lo sa, a ottobre sarà il nuovo Intel 10nm, consumi non ne ho idea, speriamo la situazione migliori dato che gli attuali sono energivori. Grazie per i consigli dell'alimentatore a tutti
vai di 1000 uno tipo il mio. mi trovo benissimo. mai lesinare sull'alimentatore
Micropoint_ITA
10-06-2021, 17:11
Control aggratis???
Eh la Madonna!
Stamattina ho preso metro Exodus a 5,99
Micropoint_ITA
10-06-2021, 17:14
vai di 1000 uno tipo il mio. mi trovo benissimo. mai lesinare sull'alimentatore
Grazie. Comunque stavo notando, il mio ali ha cavi alimentazione (2) con PCI separati, più un altro da aggiungere alla terza "porta" sulla 3080ti (da collegare ai PIN in uscita dall'ali). Quindi a regola sono tutti separati.
Boh stasera provo. Se non tiene pace, cambio alimentatore.
TigerTank
10-06-2021, 17:14
Control aggratis???
Eh la Madonna!
Stamattina ho preso metro Exodus a 5,99
Con lo sconto Epic di 10€ c'è anche Ghostrunner a 4,99€.
Avendo DLSS e ray tracing magari potrebbe interessare come spuntino per le schedozze :D
dinamite2
10-06-2021, 17:15
Grazie. Comunque stavo notando, il mio ali ha cavi alimentazione con PCI separati, più un altro da aggiungere alla terza "porta" sulla 3080ti (da collegare ai PIN in uscita dall'alto). Quindi a regola sono tutti separati.
Boh stasera provo. Se non tiene pace, cambio alimentatore.
Tiene, tiene vai tranquillo :)
Micropoint_ITA
10-06-2021, 17:32
Con lo sconto Epic di 10€ c'è anche Ghostrunner a 4,99€.
Avendo DLSS e ray tracing magari potrebbe interessare come spuntino per le schedozze :D
Tutto assieme, passerò l'estate a casa :rolleyes:
Tiene, tiene vai tranquillo :)
Comunque ho scritto un macello, ho corretto, ora è più leggibile.
Grazie. Comunque stavo notando, il mio ali ha cavi alimentazione (2) con PCI separati, più un altro da aggiungere alla terza "porta" sulla 3080ti (da collegare ai PIN in uscita dall'ali). Quindi a regola sono tutti separati.
Boh stasera provo. Se non tiene pace, cambio alimentatore.
In ogni caso te ne accorgi subito dai led sulle alimentazioni, se iniziano a lampeggiare vuol dire che la scheda non è alimentata bene.
Micropoint_ITA
10-06-2021, 17:55
In ogni caso te ne accorgi subito dai led sulle alimentazioni, se iniziano a lampeggiare vuol dire che la scheda non è alimentata bene.
Bene, stasera provo.
DJurassic
10-06-2021, 18:43
Da gustare con l'espressione del tuo avatar, soprattutto perchè aggratis! :cool:
:D
Comunque Epic tra Battlefront 2,Alien: Isolation, Rage 2, Metro: Last Light Redux e Jurassic Park Evolution sta regalando bella roba da un pò di tempo. Control è un colpaccio visto che su Steam la Ultimate (che aggiunge poco e niente a livello di trama rispetto al gioco) costa ancora 40€.
aaaaaaaaaaaaaaaaah.... che scheda :eek:
https://media.tenor.com/images/47ee17d51894fdafb124a4e76cbda208/tenor.gif
Mi sto quasi pentendo di cambiare la 6900xt che ho con una 3090 che mi sta arrivando :muro: sopratutto perché la 6900xt se ne sta paciosa a 2,5ghz con meno di 300w di consumo.
Purtroppo la founders edition mi era rimasta sempre sulla spalla come un gorilla ed ora avendo avuto la possibilità di prenderla al suo mrsp, non ho potuto resistere.
Ma per eliminare l’orribile adattatore a 12p, l’unica soluzione è cablemod con un ali corsair?
Cutter90
10-06-2021, 22:18
Bene, stasera provo.
Vai tranquillo. Con il tuo stesso ali davo 500 watt alla mia 30i0 con due cavi e una sdoppiato. E funziona alla perfezione.
DJurassic
10-06-2021, 22:42
Ma per eliminare l’orribile adattatore a 12p, l’unica soluzione è cablemod con un ali corsair?
No, puoi anche prendere questo da modDIY.com a 27,35€ ordinando un Custom Sleeved PCIE Modular Cable for NVIDIA RTX 30 Series Mini 12 Pin. Te lo costruiscono in base al tipo di alimentatore. Io ad esempio l'ho preso per l'EVGA G2 1300 che ho, visto che non trovavo alternative in EU.
L'unica cosa è che ci mette un pò ad arrivare ma la qualità non si discute. Il cavo ha una flessibilità estrema ed è molto morbido come materiale usato.
https://live.staticflickr.com/65535/51239026398_4ff1722a2d_h.jpg
nickname88
10-06-2021, 23:03
:D
Comunque Epic tra Battlefront 2,Alien: Isolation, Rage 2, Metro: Last Light Redux e Jurassic Park Evolution sta regalando bella roba da un pò di tempo. Control è un colpaccio visto che su Steam la Ultimate (che aggiunge poco e niente a livello di trama rispetto al gioco) costa ancora 40€.
Non credo abbiano distribuito la Ultimate.
La ultimate comunque la trovo a poco più di 10€
La standard sui 6€
I prezzi di Steam sono sempre stati da furto.
No, puoi anche prendere questo da modDIY.com a 27,35€ ordinando un Custom Sleeved PCIE Modular Cable for NVIDIA RTX 30 Series Mini 12 Pin. Te lo costruiscono in base al tipo di alimentatore. Io ad esempio l'ho preso per l'EVGA G2 1300 che ho, visto che non trovavo alternative in EU.
L'unica cosa è che ci mette un pò ad arrivare ma la qualità non si discute. Il cavo ha una flessibilità estrema ed è molto morbido come materiale usato.
https://live.staticflickr.com/65535/51239026398_4ff1722a2d_h.jpg
Grazie, vado a controllare subito
mattxx88
10-06-2021, 23:16
Grazie, vado a controllare subito
io ho preso il corsair perche il moddy non arrivava piu, pensavo l"avessero perso (ci ha messo 3 mesi e mezzo e alla fine e arrivato)
quindi mi avanza e non lo uso se lo vuoi
ps se vi interessa per i cavi custom , ho trovato un cinesino TOP che mi ha fatto il kit di cavi in siolicone per il Dan Case (mi servivano cavi molto morbidi visto le curve strette e gli spazi allucinanti) ha prezzi ottimi, cavi fatti da dio, vi fa scegliere l'AWG dei cavi ed é velocissimo a spedire
googolate DreambigbyRayMOD su store cinese ETSY
DJurassic
10-06-2021, 23:26
io ho preso il corsair perche il moddy non arrivava piu, pensavo l"avessero perso (ci ha messo 3 mesi e mezzo e alla fine e arrivato)
quindi mi avanza e non lo uso se lo vuoi
ps se vi interessa per i cavi custom , ho trovato un cinesino TOP che mi ha fatto il kit di cavi in siolicone per il Dan Case (mi servivano cavi molto morbidi visto le curve strette e gli spazi allucinanti) ha prezzi ottimi, cavi fatti da dio, vi fa scegliere l'AWG dei cavi ed é velocissimo a spedire
googolate DreambigbyRayMOD su store cinese ETSY
Tra quello Corsair e quello Moddiy quale reputi migliore per curiosità?
La mia comunque è stata una scelta obbligata avendo il SuperNova.
Micropoint_ITA
11-06-2021, 07:22
Montata ieri. Alla fine intanto il mio ali sembra reggere bene, nessuna spia led a stock , il PC boh, devo provare.
Cosa ne pensate di questi punteggi Time Spy?
https://ibb.co/S3YnvBk
https://ibb.co/mBt2w6R
19472 punti graphic score in stock.
Thunder-74
11-06-2021, 07:56
Che periodo ragazzi
Intel potrebbe realizzare GPU NVIDIA (in caso di emergenza)
LINK (https://www.guru3d.com/news-story/intel-could-make-nvidia-gpus-(in-case-of-emergency).html)
Predator_1982
11-06-2021, 08:07
Che periodo ragazzi
Intel potrebbe realizzare GPU NVIDIA (in caso di emergenza)
LINK (https://www.guru3d.com/news-story/intel-could-make-nvidia-gpus-(in-case-of-emergency).html)
a 14nm? :D :D :sofico: :fagiano:
Predator_1982
11-06-2021, 08:07
Tra quello Corsair e quello Moddiy quale reputi migliore per curiosità?
La mia comunque è stata una scelta obbligata avendo il SuperNova.
io presi quello corsair, molto soddisfatto.
Shadow Man
11-06-2021, 08:12
a 14nm? :D :D :sofico: :fagiano:
Fra quello e gli 8nm Samsung è una bella gara :D
fraussantin
11-06-2021, 08:19
Cmq vada( 8 Samsung o 10 Intel ) ci aspettano delle 4000 belle calde ... Conviene comprarsi alimentatori da 1000 e in su :asd:
E se fanno una scelta del genere è perché i 5 nm tsmc saranno tragici come lo sono i 7 adesso .
Gigibian
11-06-2021, 08:23
Ma la Zotac 3080 trinity OC è tanto pessima?
L'ho trovata ad un buon prezzo, ragionando come costi relativi, +250 euro dalla vendita della mia 2080 ti...
Cutter90
11-06-2021, 08:29
Montata ieri. Alla fine intanto il mio ali sembra reggere bene, nessuna spia led a stock , il PC boh, devo provare.
Cosa ne pensate di questi punteggi Time Spy?
https://ibb.co/S3YnvBk
https://ibb.co/mBt2w6R
19472 punti graphic score in stock.
Te l avevo detto che avresti avuto problemi. Si, mi sembra un ottimo bench
Cutter90
11-06-2021, 08:30
Ma la Zotac 3080 trinity OC è tanto pessima?
L'ho trovata ad un buon prezzo, ragionando come costi relativi, +250 euro dalla vendita della mia 2080 ti...
E' la entry level delle 3080 in pratica. Ma sicuramente va di più della 2080, ovviamente
Micropoint_ITA
11-06-2021, 08:34
Te l avevo detto che avresti avuto problemi. Si, mi sembra un ottimo bench
Forse hai dimenticato un "NON" :)
oggi proverò a vedere quanto schifo farà la CPU in game. Intanto rdr2 tutto al massimo (solo TAA attivo, resto AA off a default) 60 fps fiss
PS:comunque problemi ne ho avuti, ieri la scheda andava , led accesi, ventole ok ma a schermo nulla. NULLA. come se non passasse alcun segnale dato che non partiva nemmeno il bios. Alla fine ho smontato e rimontato le RAM ed è partito
PS:comunque problemi ne ho avuti, ieri la scheda andava , led accesi, ventole ok ma a schermo nulla. NULLA. come se non passasse alcun segnale dato che non partiva nemmeno il bios. Alla fine ho smontato e rimontato le RAM ed è partito
Classico problema di cattiva alimentazione, stai attento, in ogni caso se i led sono accesi l'alimentazione ha problemi. I led in condizioni normali devono essere assolutamente spenti.
Thunder-74
11-06-2021, 08:55
a 14nm? :D :D :sofico: :fagiano:
si, ma più che altro, ora che intel entra in gioco con le sue VGA, ti fideresti di un chip prodotto da loro per la concorrenza? RMA sicuro dopo un mese hahahahah
Micropoint_ITA
11-06-2021, 09:18
Classico problema di cattiva alimentazione, stai attento, in ogni caso se i led sono accesi l'alimentazione ha problemi. I led in condizioni normali devono essere assolutamente spenti.
Sono spenti.
Questo scherzo me lo aveva fatto anche ai tempi quando montai la 1080ti.
Finora in un oretta di test nessun led mai acceso
Cutter90
11-06-2021, 09:18
Forse hai dimenticato un "NON" :)
oggi proverò a vedere quanto schifo farà la CPU in game. Intanto rdr2 tutto al massimo (solo TAA attivo, resto AA off a default) 60 fps fiss
PS:comunque problemi ne ho avuti, ieri la scheda andava , led accesi, ventole ok ma a schermo nulla. NULLA. come se non passasse alcun segnale dato che non partiva nemmeno il bios. Alla fine ho smontato e rimontato le RAM ed è partito
Si si, era NON ovviamente
Può capitare. Ma il pc era acceso e non arrivava solo il segnale video oppure proprio non partiva il pc?
Cutter90
11-06-2021, 09:19
Classico problema di cattiva alimentazione, stai attento, in ogni caso se i led sono accesi l'alimentazione ha problemi. I led in condizioni normali devono essere assolutamente spenti.
Ma non è vero. Poteva anche essere solo il segnale video che saltava, non è nulla di anormale
Micropoint_ITA
11-06-2021, 09:22
Si si, era NON ovviamente
Può capitare. Ma il pc era acceso e non arrivava solo il segnale video oppure proprio non partiva il pc?
Partiva tutto.
Non arrivava proprio il segnale a schermo come se fosse rotto il cavo HDMI.
Smontate e rimontate e tutto ok.
Ho notato però una cosa strana, se potete verificare mi fate un piacere : rdr2 tutto al massimo 2160p il consumo di RAM visualizzabile nel menù opzioni è di "soli" 5 massimo 6 GB. Con la 1080ti ricordo 9 o 10 gb di utilizzo.
Poteva anche essere solo il segnale video che saltava, non è nulla di anormale
Scusa ma tu hai una gigabyte o una strix?
Non capisco perchè devi confutare ogni cosa che dico (per esperienza visto che ho una strix da ottobre e la conosco come le mie tasche).
Senza offesa eh...
In ogni caso un'altra cosa che non capisco è come possa essere normale un segnale video che salta..... mah.....
Di nuovo senza offesa eh...
DJurassic
11-06-2021, 09:36
Che periodo ragazzi
Intel potrebbe realizzare GPU NVIDIA (in caso di emergenza)
LINK (https://www.guru3d.com/news-story/intel-could-make-nvidia-gpus-(in-case-of-emergency).html)
Se non è emergenza questa probabilmente aspettano che ci scappa il morto :asd:
Cutter90
11-06-2021, 09:40
Scusa ma tu hai una gigabyte o una strix?
Non capisco perchè devi confutare ogni cosa che dico (per esperienza visto che ho una strix da ottobre e la conosco come le mie tasche).
Senza offesa eh...
In ogni caso un'altra cosa che non capisco è come possa essere normale un segnale video che salta..... mah.....
Di nuovo senza offesa eh...
Te lo spiego subito. Perchè lui usa il pc attaccato al tv. Il tv è più rognoso dal punto di vista del segnale video, soprattutto con le serie 3000. E non dipende assolutamente dalla scheda, ma dai driver, del cavo e da windows.
E' assolutamente normale che il segnale sul c8 salti, normale nel senso che capita.
Cutter90
11-06-2021, 09:41
Partiva tutto.
Non arrivava proprio il segnale a schermo come se fosse rotto il cavo HDMI.
Smontate e rimontate e tutto ok.
Ho notato però una cosa strana, se potete verificare mi fate un piacere : rdr2 tutto al massimo 2160p il consumo di RAM visualizzabile nel menù opzioni è di "soli" 5 massimo 6 GB. Con la 1080ti ricordo 9 o 10 gb di utilizzo.
Come scrivo sopra è "normale". Assicurati di avere windows aggiornato e anche il c8. Se ti risuccede stacca e riattacca l'hdmi, vedrai che ti funziona. Se usi il pc sul C8 poi avrei qualche consiglio per evitare il burn in, del desktop soprattutto.
nickname88
11-06-2021, 10:14
a 14nm? :D :D :sofico: :fagiano:
Ovviamente a 10nm, che è superiore a livello di densità sia al 7nm di TSMC che del Samsung, quest'ultimo ossia l'8nm poi lascia a desiderare su molte aree anche rispetto al 14nm.
Penso comunque sia da sempre che Intel dovrebbe aprirsi alla produzione per conto di altri produttori USA.
Graphite600T
11-06-2021, 10:40
Scusa ma tu hai una gigabyte o una strix?
Non capisco perchè devi confutare ogni cosa che dico (per esperienza visto che ho una strix da ottobre e la conosco come le mie tasche).
Senza offesa eh...
In ogni caso un'altra cosa che non capisco è come possa essere normale un segnale video che salta..... mah.....
Di nuovo senza offesa eh...
Più che normale su quei pannelli per colpa delle 3000
Thunder-74
11-06-2021, 11:09
Comunque qualcosa di irrisolto nei drivers con Ampere c'è in fatto di segnale video o altro. sussistono ancora problemi di flash se si spostano le finestre di alcuni browser o visualizzando video YT o altre pippagini varie...
dagli ultimi drivers...
Windows 10 Issues
- [NVIDIA Ampere GPU]: Colors may appear incorrect in games if sharpen Freestyle filter is used with HDR enabled. [200658208]
This issue will be resolved in the next NVIDIA driver release.
- [HDR]: Some specific HDMI displays might show some flickering in HDR mode. [200729987]
If you experiencing flickering issues, reboot the system.
- [YouTube]: Video playback stutters while scrolling down the YouTube page.
- [3129705]Display may flicker or lose signal when launching a game on an adaptive-sync VRR monitor in multi-monitor configuration when sharing the same display mode [3314055]
diciamo che nvidia non riesce a risolvere alcuni problemi legati al segnale video e questo si legge ormai da parecchi changelog
Micropoint_ITA
11-06-2021, 11:14
Come scrivo sopra è "normale". Assicurati di avere windows aggiornato e anche il c8. Se ti risuccede stacca e riattacca l'hdmi, vedrai che ti funziona. Se usi il pc sul C8 poi avrei qualche consiglio per evitare il burn in, del desktop soprattutto.
Con la 1080ti mi capitava una volta tantum che dovevo staccare e riattaccare l'hdmi perché perdeva il segnale. Per il burn in a desktop credo di essere tranquillo, tengo disattivato HDR e comunque luce OLED non sparata. Screensaver ogni 3 minuti. Raro comunque utilizzi il PC a desktop
Gilgamessh
11-06-2021, 11:22
Come scrivo sopra è "normale". Assicurati di avere windows aggiornato e anche il c8. Se ti risuccede stacca e riattacca l'hdmi, vedrai che ti funziona. Se usi il pc sul C8 poi avrei qualche consiglio per evitare il burn in, del desktop soprattutto.
Il problema HDMI è molto accentuato sopra i 2 metri di cavo ma si può verificare a volte gia con cavi dal metro metri in su, il massimo supportabile sono 3 metri poi il deterioramento è improponibile quindi non li producono. Per ovviare basta comprare cavi hdmi in fibra ottica che non hanno questo problema (su HDMI 2.1 poi li trovo imprescindibili per la qualità del segnale)
Cutter90
11-06-2021, 11:32
Con la 1080ti mi capitava una volta tantum che dovevo staccare e riattaccare l'hdmi perché perdeva il segnale. Per il burn in a desktop credo di essere tranquillo, tengo disattivato HDR e comunque luce OLED non sparata. Screensaver ogni 3 minuti. Raro comunque utilizzi il PC a desktop
Il deskotop lo usi sempre ogni volta che installi qualsiasi cosa, quindi per forza lo usi. IO oltre allo screen saverho anche fatto:
-Hdr lo puoi usare tranquillamente
-tema dark di windows
-disattivazione schermo dopo 3 minuti
- spengo il tv quando so che lo lascio lì per un po'
Il problema HDMI è molto accentuato sopra i 2 metri di cavo ma si può verificare a volte gia con cavi dal metro metri in su, il massimo supportabile sono 3 metri poi il deterioramento è improponibile quindi non li producono. Per ovviare basta comprare cavi hdmi in fibra ottica che non hanno questo problema (su HDMI 2.1 poi li trovo imprescindibili per la qualità del segnale)
Tutto ciò però se il problema è il cavo. Purtroppo non solo per colpa di esso, ma anche dei driver e del tv. Sopra i 2 metri per il 2.1 ci vuole quello in fibra, si. Ma sotto non per forza
Micropoint_ITA
11-06-2021, 12:24
Il problema HDMI è molto accentuato sopra i 2 metri di cavo ma si può verificare a volte gia con cavi dal metro metri in su, il massimo supportabile sono 3 metri poi il deterioramento è improponibile quindi non li producono. Per ovviare basta comprare cavi hdmi in fibra ottica che non hanno questo problema (su HDMI 2.1 poi li trovo imprescindibili per la qualità del segnale)mi sa me ne prenderò uno. Il mio è 3 metri e infatti qualche problema lo da
Micropoint_ITA
11-06-2021, 12:27
Il deskotop lo usi sempre ogni volta che installi qualsiasi cosa, quindi per forza lo usi. IO oltre allo screen saverho anche fatto:
-Hdr lo puoi usare tranquillamente
-tema dark di windows
-disattivazione schermo dopo 3 minuti
- spengo il tv quando so che lo lascio lì per un po'
Tutto ciò però se il problema è il cavo. Purtroppo non solo per colpa di esso, ma anche dei driver e del tv. Sopra i 2 metri per il 2.1 ci vuole quello in fibra, si. Ma sotto non per forza
Io ho dei dubbi sull HDR a desktop. Sinceramente preferisco attivarlo solo quando gioco titoli che supportano HDR (che poi è una cosa comunque scomoda perché se non sbaglio non si può tenere attivo l'hdr solo per il gaming, ma va in HDR anche io desk).
L'hdr spara troppo sul bianco e il rischio, più che burn in, è quello del deterioramento dei pixel.
Io lo terrei spento.
Cutter90
11-06-2021, 13:01
Io ho dei dubbi sull HDR a desktop. Sinceramente preferisco attivarlo solo quando gioco titoli che supportano HDR (che poi è una cosa comunque scomoda perché se non sbaglio non si può tenere attivo l'hdr solo per il gaming, ma va in HDR anche io desk).
L'hdr spara troppo sul bianco e il rischio, più che burn in, è quello del deterioramento dei pixel.
Io lo terrei spento.
Beh ma guarda che l'hdr funziona in maniera analoga anche sui film e nei giochi su console. Se guardi un qualsiasi contenuto in hdr da qualsiasi fonte, non c'è ragione per non attivarlo anche su pc. Conta che il deterioramento dei pixel è un problema delle primissime serie oled. La perdita di luminosità nel tempo è sempre presente, ma in maniera esigua a dir poco.
Più che altro i giochi per pc non hanno tutti un buon hdr, anzi. Alcuni ce l'hanno proprio rotto ed è sconveniente usarlo. Ma altri ce l'hanno implementato benissimo e non usarlo è un delitto, visto che l'immagine guadagna davvero tantissimo.
Micropoint_ITA
11-06-2021, 13:05
Beh ma guarda che l'hdr funziona in maniera analoga anche sui film e nei giochi su console. Se guardi un qualsiasi contenuto in hdr da qualsiasi fonte, non c'è ragione per non attivarlo anche su pc. Conta che il deterioramento dei pixel è un problema delle primissime serie oled. La perdita di luminosità nel tempo è sempre presente, ma in maniera esigua a dir poco.
Più che altro i giochi per pc non hanno tutti un buon hdr, anzi. Alcuni ce l'hanno proprio rotto ed è sconveniente usarlo. Ma altri ce l'hanno implementato benissimo e non usarlo è un delitto, visto che l'immagine guadagna davvero tantissimo.
Ok grazie,
Ieri stavo lanciando rdr2 e stranamente non c'è più un menù opzione HDR, l'hanno tolto? Ricordo faceva comunque schifo.
Per caso, Undervolt l'hai fatto? A quanti milliampere conviene alzare la curva?
830?
L'ideale sarebbe, se 830 fosse corretto, prima abbassare le frequenze di clock (esempio -290), poi salire con la curva partendo da 830 e arrivare alla frequenza di circa 1850 (quindi salendo ben oltre la curva impostata quando abbiamo abbassato di -290)?
TigerTank
11-06-2021, 13:15
Se non è emergenza questa probabilmente aspettano che ci scappa il morto :asd:
Eheheheh più che altro, nessuno fa nulla per nulla, soprattutto tra colossi di quel livello.
Imho Intel teme che senza vga meno gente potrebbe essere propensa all'upgrade di piattaforma :D
O i preassemblati da gaming, senza vga :sofico:
Gilgamessh
11-06-2021, 13:21
mi sa me ne prenderò uno. Il mio è 3 metri e infatti qualche problema lo da
fai bene, elimini in modo sicuro un motivo di problema, se posso permettermi valuta MOSHOU 8K, costano ma sono il top del top.
Micropoint_ITA
11-06-2021, 13:38
fai bene, elimini in modo sicuro un motivo di problema, se posso permettermi valuta MOSHOU 8K, costano ma sono il top del top.
Mi darai del pazzo ma sono della convinzione che un cavo in fibra "uno vale l'altro". In realtà il più corto che ho trovato su Amazon è a 29,99 e i prezzo mi sembra più giusto ;)
Cutter90
11-06-2021, 13:39
Ok grazie,
Ieri stavo lanciando rdr2 e stranamente non c'è più un menù opzione HDR, l'hanno tolto? Ricordo faceva comunque schifo.
Per caso, Undervolt l'hai fatto? A quanti milliampere conviene alzare la curva?
830?
L'ideale sarebbe, se 830 fosse corretto, prima abbassare le frequenze di clock (esempio -290), poi salire con la curva partendo da 830 e arrivare alla frequenza di circa 1850 (quindi salendo ben oltre la curva impostata quando abbiamo abbassato di -290)?
Devi attivarlo da windows se no il gioco "pensa" che il tuo pannello non ce l'abbia.
Micropoint_ITA
11-06-2021, 13:40
Nessuno con una strix 3080/3090/ti che mi sa dire a quanto potrei reggere frequenze e milliampere (MHz/mv)? L'idea è di consumare meno corrente e ridurre le temperature, a costo di perdere mezzo fps.
Grazie ragazzi
Micropoint_ITA
11-06-2021, 13:42
Devi attivarlo da windows se no il gioco "pensa" che il tuo pannello non ce l'abbia.
Ah grazie, ma hanno risolto con le patch? Ricordo quando uscito era un HDR orribile a dir poco....comunque me lo ricordavo "più bello" rdr2, sto giocando ora days gone e per certi versi è decisamente migliore.
Tra un ora ho tutto il pomeriggio per me, mi sento come un bambino a natale.
Gilgamessh
11-06-2021, 13:42
Mi darai del pazzo ma sono della convinzione che un cavo in fibra "uno vale l'altro". In realtà il più corto che ho trovato su Amazon è a 29,99 e i prezzo mi sembra più giusto ;)
no caro, hanno un chip interno e quella marca certifica la compatibilità con la serie 3000 nvidia, altri scrivono proprio che per ora non sono compatibili.
dinamite2
11-06-2021, 13:44
Nessuno con una strix 3080/3090/ti che mi sa dire a quanto potrei reggere frequenze e milliampere (MHz/mv)? L'idea è di consumare meno corrente e ridurre le temperature, a costo di perdere mezzo fps.
Grazie ragazzi
Io la mia la tengo a 1995@850mv, sta bella fresca e consuma il giusto.
Parlo di una rtx3080 :)
Micropoint_ITA
11-06-2021, 13:49
no caro, hanno un chip interno e quella marca certifica la compatibilità con la serie 3000 nvidia, altri scrivono proprio che per ora non sono compatibili.
Ah ok ok, non lo sapevo proprio. Io non ho mai creduto alle certificazioni hdmi, non ne ero a conoscenza
Micropoint_ITA
11-06-2021, 13:50
Io la mia la tengo a 1995@850mv, sta bella fresca e consuma il giusto.
Parlo di una rtx3080 :)
Cavoli a 1995mhz riesci a stare così basso con il voltaggio? Io pensavo di scendere anche a 1850 per un minor consumo, anche sull'alimentazione
Thunder-74
11-06-2021, 13:54
Nessuno con una strix 3080/3090/ti che mi sa dire a quanto potrei reggere frequenze e milliampere (MHz/mv)? L'idea è di consumare meno corrente e ridurre le temperature, a costo di perdere mezzo fps.
Grazie ragazzi
dipende dalla bontà del tuo silicio, poco dipende il modello di VGA.
solito discorso, per testare la stabilità , usare giochi in RT in modo da tenere sotto stress tutte le componenti del chip. Ottimo in tal senso è Control
Cutter90
11-06-2021, 14:02
no caro, hanno un chip interno e quella marca certifica la compatibilità con la serie 3000 nvidia, altri scrivono proprio che per ora non sono compatibili.
Io ne presi uno, consigliato da Vincent Theo, che non ha la certificazione (allora non c'era ancora del 2.1) ma funziona molto bene. Ed è 2.1. Lui avendo il c8 non ha bisogno del 2.1, quindi qualsiasi 2.0 va benissimo
dinamite2
11-06-2021, 14:08
Cavoli a 1995mhz riesci a stare così basso con il voltaggio? Io pensavo di scendere anche a 1850 per un minor consumo, anche sull'alimentazione
Guarda,ora non no sono al pc e sono fuori casa. Ma a memoria mi ricordo si stare in quel modo. Piu tardi comunque verifico, ma sono sicuro di quei valori.
Però se non ricordo male, la 3080 ha frequenze base piu alte della 3080ti, o sbaglio?
TigerTank
11-06-2021, 14:32
Io ne presi uno, consigliato da Vincent Theo, che non ha la certificazione (allora non c'era ancora del 2.1) ma funziona molto bene. Ed è 2.1. Lui avendo il c8 non ha bisogno del 2.1, quindi qualsiasi 2.0 va benissimo
Io non faccio molto testo ma per collegare il pc alla tv via HDMI ho preso direttamente un IBRA (https://ibraonline.com/ibra-orange-2-1-hdmi-cable-2m-8k-ultra-high-speed-48gbps-lead-supports-8kat60hz-4kat120hz-4320p-compatible-with-fire-tv-3d-support-ethernet-function-8k-uhd-3d-xbox-playstation-ps3-ps4-pc-etc.html)(ditta dell'UK) da 2M e mi trovo bene.
Cavo di buona fattura e sta su amazon sui 15€.
Micropoint_ITA
11-06-2021, 14:40
https://ibb.co/nskyhQc
Perché vedo così il grafico? Cosa sto sbagliando?
Dattofree
11-06-2021, 14:41
Nessuno con una strix 3080/3090/ti che mi sa dire a quanto potrei reggere frequenze e milliampere (MHz/mv)? L'idea è di consumare meno corrente e ridurre le temperature, a costo di perdere mezzo fps.
Grazie ragazzi
Ma scusami perchè vuoi spendere 5 centesimi di bolletta in meno al giorno e privarti di tutta la potenza di una Strix? Non scaldano nulla, sono silenziosissime, hanno il bios quiet nel caso qualcuno avesse problemi a spingerla troppo.
Hai pure un 6700 che la sfrutta solo in parte. Veramente non vi capisco. 1500 euro e vi perdete per 5 centesimi di bolletta.
Micropoint_ITA
11-06-2021, 14:51
Ma scusami perchè vuoi spendere 5 centesimi di bolletta in meno al giorno e privarti di tutta la potenza di una Strix? Non scaldano nulla, sono silenziosissime, hanno il bios quiet nel caso qualcuno avesse problemi a spingerla troppo.
Hai pure un 6700 che la sfrutta solo in parte. Veramente non vi capisco. 1500 euro e vi perdete per 5 centesimi di bolletta.
Ma stai scherzando che lo faccio per abbassare la bolletta?:rolleyes:
I motivi sono ben altri: VGA più fredda, minor impatto sul mio ali, stesse prestazioni.
Mica poco.
Dattofree
11-06-2021, 14:55
Ma stai scherzando che lo faccio per abbassare la bolletta?:rolleyes:
I motivi sono ben altri: VGA più fredda, minor impatto sul mio ali, stesse prestazioni.
Mica poco.
Ok adesso però scrivi la verità :asd:
Cutter90
11-06-2021, 15:04
https://ibb.co/nskyhQc
Perché vedo così il grafico? Cosa sto sbagliando?
Aggiorna immediasubito Afterburner..... hai uan versione di 20 anni fa :D :eek:
Micropoint_ITA
11-06-2021, 15:09
Aggiorna immediasubito Afterburner..... hai uan versione di 20 anni fa :D :eek:
Hai ragione ora funziona :muro:
Micropoint_ITA
11-06-2021, 15:12
Ok adesso però scrivi la verità :asd:
https://ibb.co/FKvjcSS
https://ibb.co/xhtJ0dL
Questa è la verità.
Questa mattina a stock facevo 70 gradi.
E il punteggio è praticamente lo stesso
Sto rilanciando timespy. Vediamo come va.
Dattofree
11-06-2021, 15:20
https://ibb.co/FKvjcSS
https://ibb.co/xhtJ0dL
Questa è la verità.
Questa mattina a stock facevo 70 gradi.
E il punteggio è praticamente lo stesso
Sto rilanciando timespy. Vediamo come va.
Te lo dico come se fossi tuo amico: quelle schede sono delicatissime e si prestano davvero poco a qualsiasi modifica di voltaggio o altro. Io ti porto l'esperienza di diversi smanettoni che ne hanno cotte non poche. Poi ovviamente la scheda è tua e sei libero di trattarla come vuoi.
P.S. Meglio i giochi dei benchmark.
Micropoint_ITA
11-06-2021, 15:27
Te lo dico come se fossi tuo amico: quelle schede sono delicatissime e si prestano davvero poco a qualsiasi modifica di voltaggio o altro. Io ti porto l'esperienza di diversi smanettoni che ne hanno cotte non poche. Poi ovviamente la scheda è tua e sei libero di trattarla come vuoi.
P.S. Meglio i giochi dei benchmark.
https://ibb.co/dtHpMQw
https://ibb.co/SwWNjJ6
10 gradi in meno di stamattina.
Punteggio inferiore di 20 o 25 punti, non ricordo.
Manin che senso cuocerla? Ma sto facendo Undervolt, un overclock al contrario, io non capisco di cosa parli sinceramente :D
Cutter90
11-06-2021, 15:31
https://ibb.co/dtHpMQw
https://ibb.co/SwWNjJ6
10 gradi in meno di stamattina.
Punteggio inferiore di 20 o 25 punti, non ricordo.
Manin che senso cuocerla? Ma sto facendo Undervolt, un overclock al contrario, io non capisco di cosa parli sinceramente :D
In parte purtroppo ha ragione. Ci sono giochi che non digeriscono nemmeno l'undervolt purtroppo. Altri invece vanno benissimo. Poi a seconda dei giochi e del tipo di undervolt, perdi, oltre a 10 gradi anche 5-10 fps in 4k
Micropoint_ITA
11-06-2021, 15:45
In parte purtroppo ha ragione. Ci sono giochi che non digeriscono nemmeno l'undervolt purtroppo. Altri invece vanno benissimo. Poi a seconda dei giochi e del tipo di undervolt, perdi, oltre a 10 gradi anche 5-10 fps in 4k
Si ok ma se parliamo di abbassamento di frequenze e temperature il rischio di cuocere è reale? Sputtanare una scheda quando si sparano i voltaggi in alto ok, ma qui parliamo di abbassare voltaggi e, magari, frequenze
amon.akira
11-06-2021, 15:46
In parte purtroppo ha ragione. Ci sono giochi che non digeriscono nemmeno l'undervolt purtroppo. Altri invece vanno benissimo. Poi a seconda dei giochi e del tipo di undervolt, perdi, oltre a 10 gradi anche 5-10 fps in 4k
impossibile, se undervolti senza overcloccare lo stesso punto sei sempre a frequenza default se mi metti +200 su 0.900mv stai overclokkando di 200mhz
ovviamente ti capiterà il gioco piu esoso che ti fa crashare. metti +0 su 0.900mv e vedi che non crashi.
Micropoint_ITA
11-06-2021, 15:57
impossibile, se undervolti senza overcloccare lo stesso punto sei sempre a frequenza default se mi metti +200 su 0.900mv stai overclokkando di 200mhz
ovviamente ti capiterà il gioco piu esoso che ti fa crashare. metti +0 su 0.900mv e vedi che non crashi.
Se le temperature sono discrete tengo 1900/887.
Mi stanno mettendo paura, preferisco a sto punto tenere un core più Altino e più stabile in ogni evenienza, anche se potrei scendere con il core, e di parecchio.
Gilgamessh
11-06-2021, 15:58
Io ne presi uno, consigliato da Vincent Theo, che non ha la certificazione (allora non c'era ancora del 2.1) ma funziona molto bene. Ed è 2.1. Lui avendo il c8 non ha bisogno del 2.1, quindi qualsiasi 2.0 va benissimo
io ho imparato a mie spese, da cialtrone comprai un cavo in fibra 2.1 (anche costoso) quando arrivò non funzionava ma andando a leggere cera scritto grosso come una casa che non era compatibile con serie 3000 (come per la maggior parte dei cavi attuali).
Adesso ne ho uno di 5 metri perfetto, mai neanche uno sfarfallio.
amon.akira
11-06-2021, 16:05
Se le temperature sono discrete tengo 1900/887.
Mi stanno mettendo paura, preferisco a sto punto tenere un core più Altino e più stabile in ogni evenienza, anche se potrei scendere con il core, e di parecchio.
il miglior rapporto è decidere un powerlimit entro il quale le temperature ti soddisfano, che ne sono max 400watt per dirti visto che hai una strix e impostare un clock/voltaggio in modo che tagli poco o nulla con quel tetto massimo.
esempio a caso, se metti 1v 2100mhz e pl a 400 e nel 50% dei casi ti sega a 2010, tanto vale togliere voltaggio e calare di un po i mhz e paradossalmente potresti avere un 2055fisso ed essere anche piu performante nonche piu fresco.
Micropoint_ITA
11-06-2021, 16:07
il miglior rapporto è decidere un powerlimit entro il quale le temperature ti soddisfano, che ne sono max 400watt per dirti visto che hai una strix e impostare un clock/voltaggio in modo che tagli poco o nulla con quel tetto massimo.
esempio a caso, se metti 1v 2100mhz e pl a 400 e nel 50% dei casi ti sega a 2010, tanto vale togliere voltaggio e calare di un po i mhz e paradossalmente potresti avere un 2055fisso ed essere anche piu performante nonche piu fresco.
Perfetto. Io a sto punto il voltaggio che ho indicato non è eccessivo, se le temperature restano ottime tengo questo e bon, anche perché giustamente un conto sono i benchmark, un conto invece la stabilità in gioco.
amon.akira
11-06-2021, 16:09
Perfetto. Io a sto punto il voltaggio che ho indicato non è eccessivo, se le temperature restano ottime tengo questo e bon, anche perché giustamente un conto sono i benchmark, un conto invece la stabilità in gioco.
puoi anche divertirti a trovarne i limiti...regge +100? o arriva a +150? poi se incontri problemi ingame ti autolivelli :P
Micropoint_ITA
11-06-2021, 16:12
puoi anche divertirti a trovarne i limiti...regge +100? o arriva a +150? poi se incontri problemi ingame ti autolivelli :P
Bene grazie, ora provo il mio primo titolo in rtx.
Exodus.
alexxx19
11-06-2021, 16:35
raga quale è la voce sulle impostazioni di afterburner per vedere a schermo le info di voltaggio attuale?
mi sembra di non trovarlo :wtf:
amon.akira
11-06-2021, 16:38
raga quale è la voce sulle impostazioni di afterburner per vedere a schermo le info di voltaggio attuale?
mi sembra di non trovarlo :wtf:
gpu voltaggio, potenza per vedere i watt
alexxx19
11-06-2021, 16:40
gpu voltaggio, potenza per vedere i watt
ok provo grazie
Micropoint_ITA
11-06-2021, 17:54
Ho fatto questo qualche test. Purtroppo ancora non con Exodus bensì rdr2. Vabbè è senza senso sta scheda in 4k tutto ad ultra. 'na belva. Ho notato (mi pare ) che la CPU venga utilizzata meno rispetto alla ex 1080ti. Rdr2 non è uno di quei titolo lo che usa parecchia CPU? Grazie
dinamite2
11-06-2021, 18:47
Perfetto. Io a sto punto il voltaggio che ho indicato non è eccessivo, se le temperature restano ottime tengo questo e bon, anche perché giustamente un conto sono i benchmark, un conto invece la stabilità in gioco.
ricordavo male, io la tengo a 2000 con 875mv, e sembra reggere.
Ormai è da settimane che la tengo cosi.
https://i.postimg.cc/HLQnVPL5/unswrvolt.jpg (https://postimg.cc/06yP4nD2)
DJurassic
11-06-2021, 18:52
ricordavo male, io la tengo a 2000 con 875mv, e sembra reggere.
Ormai è da settimane che la tengo cosi.
Hai provato qualche gioco oltre che i bench? Perchè solitamente sono quelli che danno più problemi con l'oc se non assolutamente rock solid.
Micropoint_ITA
11-06-2021, 19:21
ricordavo male, io la tengo a 2000 con 875mv, e sembra reggere.
Ormai è da settimane che la tengo cosi.
https://i.postimg.cc/HLQnVPL5/unswrvolt.jpg (https://postimg.cc/06yP4nD2)
Io uguale ma a 1900
dinamite2
11-06-2021, 19:28
Hai provato qualche gioco oltre che i bench? Perchè solitamente sono quelli che danno più problemi con l'oc se non assolutamente rock solid.
solamente outriders e days gone, e problemi non me ne hanno dati.
Almeno per il momento.
nickname88
11-06-2021, 20:17
solamente outriders e days gone, e problemi non me ne hanno dati.
Almeno per il momento.
Non sono titoli che mettono sotto torchio la GPU, proprio per niente.
Prova Cyberpunk, Red Dead Redemption 2 o a Metro Enhanced Edition.
Micropoint_ITA
11-06-2021, 20:45
Un paio d'ore con rdr2 e un oretta con Exodus Enhanced Edition:
Qualcuno mi aveva scritto di cali con la mia CPU in Metro, ebbene, tutto su ultra, rtx ultra, 4k, dlss su qualita', GPU utilizzata forse ho visto un 80% massimo, CPU che massimo l'ho vista al 65/70%, mai un calo, ho giocato fino alla sessione stealth dopo che mi hanno sparato e buttato nella fossa, possibile non riesco mai a vedere il mio sistema andare in crisi? Ho provato quindi a disattivare il dlss e ovviamente la GPU al 99% e frame rate poco sotto i 60 fps.
Secondo me queste 3000 salvano parecchio la CPU spostando quasi tutto il carico sulla GPU.
Micropoint_ITA
11-06-2021, 20:57
Non sono titoli che mettono sotto torchio la GPU, proprio per niente.
Prova Cyberpunk, Red Dead Redemption 2 o a Metro Enhanced Edition.
Io con il suo stesso voltaggio ma a 1900mhz nessun problema con rdr2, ne Metro Enhanced Edition.
Cutter90
11-06-2021, 20:59
Un paio d'ore con rdr2 e un oretta con Exodus Enhanced Edition:
Qualcuno mi aveva scritto di cali con la mia CPU in Metro, ebbene, tutto su ultra, rtx ultra, 4k, dlss su qualita', GPU utilizzata forse ho visto un 80% massimo, CPU che massimo l'ho vista al 65/70%, mai un calo, ho giocato fino alla sessione stealth dopo che mi hanno sparato e buttato nella fossa, possibile non riesco mai a vedere il mio sistema andare in crisi? Ho provato quindi a disattivare il dlss e ovviamente la GPU al 99% e frame rate poco sotto i 60 fps.
Secondo me queste 3000 salvano parecchio la CPU spostando quasi tutto il carico sulla GPU.
E ma grazie tante. Intanto la prova va fatta con la gpu al 99%... altrimenti grazie.
Poi mica è detto che vedi il gioco calare 20 fps. Magari ne perdi 5-10 e non te ne rendi.
Inoltre dipende chiaramente da gioco a gioco. Mica ti ho detto che in tutti i giochi avresti avuto cali di 20 fps XD
Ti ho detto che dove sali sopra i 60 fps avrai un collo con la cpu e che in alcuni giochi lo avrai anche sotto i 60...
TigerTank
11-06-2021, 21:01
Micropoint ricordati che queste schede in quanto a frequenza gpu vanno a step di 15MHz(come le precedenti Turing). Ad esempio se vedi lo screen di dinamite è a 1995 per cui avrà appunto step tipo 1980-1995-2010-2025, ecc...
Giusto per puntualizzare :)
mattxx88
11-06-2021, 21:28
Secondo me queste 3000 salvano parecchio la CPU spostando quasi tutto il carico sulla GPU.
é la risoluzione a cui giochi che fa pendere il carico su cpu o su gpu in realta :D
a 1080p la serie 3000 spara tanti di quei frame che ti scioglie la cpu
Se volete comunque farvi una idea di massima di quanto la CPU vi limiti con una data scheda video in rapporto alla risoluzione, c'è questo calcolatore:
https://pc-builds.com/calculator/
amon.akira
11-06-2021, 23:27
Se volete comunque farvi una idea di massima di quanto la CPU vi limiti con una data scheda video in rapporto alla risoluzione, c'è questo calcolatore:
https://pc-builds.com/calculator/
miglior calcolatore è ingame, se gpu sta sotto 99% e arranchi fps è la cpu :D
a volte sono momenti ma qualche minimo lo si guadagna sempre con cpu piu performanti.
tutti gli ubisoft sono cpu hungry :P
mikael84
11-06-2021, 23:50
Secondo me queste 3000 salvano parecchio la CPU spostando quasi tutto il carico sulla GPU.
No. Il carico non viene spostato, anzi, nvidia con lo sheduler software, deve sprecare svariati cicli ed utilizzare il MT.
La CPU, che tu sia in 720p o in 8k, fa la stessa cosa.
La CPU simula il mondo di gioco e prepara istruzioni e draw calls, poi la GPU disegna:)
In parole poverissime, uno deve stare al passo dell'altro.
Ampere è particolarmente CPU limited sotto il 4k, con CPU non top.
fraussantin
11-06-2021, 23:55
Un paio d'ore con rdr2 e un oretta con Exodus Enhanced Edition:
Qualcuno mi aveva scritto di cali con la mia CPU in Metro, ebbene, tutto su ultra, rtx ultra, 4k, dlss su qualita', GPU utilizzata forse ho visto un 80% massimo, CPU che massimo l'ho vista al 65/70%, mai un calo, ho giocato fino alla sessione stealth dopo che mi hanno sparato e buttato nella fossa, possibile non riesco mai a vedere il mio sistema andare in crisi? Ho provato quindi a disattivare il dlss e ovviamente la GPU al 99% e frame rate poco sotto i 60 fps.
Secondo me queste 3000 salvano parecchio la CPU spostando quasi tutto il carico sulla GPU.
dipende dai giochi .
io col 4690k soffrivo tanto con origin odyssey , ma anche altri OW
poi dipende anche che target di fps hai. 60 fps con il 6700 li dovresti tenere sempre.
se punti ai 144 .....
Micropoint_ITA
12-06-2021, 06:30
E ma grazie tante. Intanto la prova va fatta con la gpu al 99%... altrimenti grazie.
Poi mica è detto che vedi il gioco calare 20 fps. Magari ne perdi 5-10 e non te ne rendi.
Inoltre dipende chiaramente da gioco a gioco. Mica ti ho detto che in tutti i giochi avresti avuto cali di 20 fps XD
Ti ho detto che dove sali sopra i 60 fps avrai un collo con la cpu e che in alcuni giochi lo avrai anche sotto i 60...
Allora devo trovare un titolo che mi sfrutti la GPU al 100%. Comunque anche disattivando il dlss e quindi GPU al 99% la CPU rimane sfruttata poco.
Micropoint_ITA
12-06-2021, 06:32
Micropoint ricordati che queste schede in quanto a frequenza gpu vanno a step di 15MHz(come le precedenti Turing). Ad esempio se vedi lo screen di dinamite è a 1995 per cui avrà appunto step tipo 1980-1995-2010-2025, ecc...
Giusto per puntualizzare :)
Se non sbaglio la curva l'ho messa a 1900 tondi tondi, non uno in più ne uno mi meno.
Micropoint_ITA
12-06-2021, 06:34
No. Il carico non viene spostato, anzi, nvidia con lo sheduler software, deve sprecare svariati cicli ed utilizzare il MT.
La CPU, che tu sia in 720p o in 8k, fa la stessa cosa.
La CPU simula il mondo di gioco e prepara istruzioni e draw calls, poi la GPU disegna:)
In parole poverissime, uno deve stare al passo dell'altro.
Ampere è particolarmente CPU limited sotto il 4k, con CPU non top.
Si per carità, non voglio giustificare la mia CPU ma ho solo sottolineato che in almeno due titoli è andato tutto liscio a 60hz e 2160p. Oggi dovrei restare control che a quanto sembra dovrebbe mettermi in crisi anche la mia vecchia CPU.
Micropoint_ITA
12-06-2021, 07:22
dipende dai giochi .
io col 4690k soffrivo tanto con origin odyssey , ma anche altri OW
poi dipende anche che target di fps hai. 60 fps con il 6700 li dovresti tenere sempre.
se punti ai 144 .....
Odissey mi ricordo in bench un disastro con la 1080ti, davo colpa alla CPU, dovrei riprovare ma non avendo più l'abbonamento a Ubi non posso verificare. Control sulla CPU potrebbe impattare parecchio esatto?
Exodus in HDR mi dà comunque grattacapi nelle impostazioni gamma, con rtx non capisco a quanto devo settare la luminosità: se metto al minimo non è comunque sufficente e perde di effettistica rtx risultando tutto su spento. Su medio fasci di luce visibili ma tutto troppo luminoso, anche nella metro
Thunder-74
12-06-2021, 08:41
Se volete comunque farvi una idea di massima di quanto la CPU vi limiti con una data scheda video in rapporto alla risoluzione, c'è questo calcolatore:
https://pc-builds.com/calculator/
grazie per l'info, ma mi è bastato leggere questo nel test, per capire che non è poi così attendibile
RAM recommendation
Random-access memory is a form of computer data storage which stores frequently used program instructions to increase the general speed of a system.
NVIDIA GeForce RTX 3080 will need at least 64GB of RAM to work well
e poi ci sono delle incongruenze sulle percentuali riportate di bottleneck: mi dice che sono più limitato in 4k che non in FHD.. vabbè...
Cutter90
12-06-2021, 09:06
Odissey mi ricordo in bench un disastro con la 1080ti, davo colpa alla CPU, dovrei riprovare ma non avendo più l'abbonamento a Ubi non posso verificare. Control sulla CPU potrebbe impattare parecchio esatto?
Exodus in HDR mi dà comunque grattacapi nelle impostazioni gamma, con rtx non capisco a quanto devo settare la luminosità: se metto al minimo non è comunque sufficente e perde di effettistica rtx risultando tutto su spento. Su medio fasci di luce visibili ma tutto troppo luminoso, anche nella metro
La regolazione del gamma in metro in hdr è sbagliata. nel senso che è sbagliata nel menù di regolazione. Io ho trovato un buon compromesso impostando il nero su basso dal tv (invece che su auto come sempre) e regolando l hdr a 4-5 colpi partendo da tutto a sinistra. Diciamo che questo è uno di quei giochi in cui l'hdr o è rotto (tipo valhalla e cp 2077) oppure non so. Anche perchè il fatto che non lo sistemino è stranissimo
Micropoint_ITA
12-06-2021, 09:24
Edit doppio
Micropoint_ITA
12-06-2021, 09:27
La regolazione del gamma in metro in hdr è sbagliata. nel senso che è sbagliata nel menù di regolazione. Io ho trovato un buon compromesso impostando il nero su basso dal tv (invece che su auto come sempre) e regolando l hdr a 4-5 colpi partendo da tutto a sinistra. Diciamo che questo è uno di quei giochi in cui l'hdr o è rotto (tipo valhalla e cp 2077) oppure non so. Anche perchè il fatto che non lo sistemino è stranissimo
Grazie per la risposta.
Allora,
Io ho nero sempre su basso.
L'unica cosa che in effetti potrei provare è questa: non so come tu hai messo impostazioni nel pannello Nvidia, io dopo decine di prove , con HDMI 2.0, la soluzione migliore trovata per garantire un flusso a 4k 60hz è mettere 4:2:2 anziché RGB, così posso impostare 12 bit e hai sfumature che vanno dal nero al grigio migliori, nel senso che che a differenza di un segnale full RGB che ti obbliga a tenere il pannello a 8 bit hai così tutte le sfumature di grigio (in RGB hai o neri o grigi chiari, ovviamente fino al bianco, tutto risulta più contrastato e nelle zone buie tutto fin troppo scuro).
Forse in Exodus in RGB e 8 bit si avranno zone più scure?
Dovrei provare .
Tu immagino hai lasciato RGB? Di base Nvidia setta in automatico RGB 8bit su HDMI 2.0 ma ti assicuro che 4:2:2 e 12 bit sarebbe a regola la migliore impostazione visiva a livello cromatico.
Cutter90
12-06-2021, 12:07
Grazie per la risposta.
Allora,
Io ho nero sempre su basso.
L'unica cosa che in effetti potrei provare è questa: non so come tu hai messo impostazioni nel pannello Nvidia, io dopo decine di prove , con HDMI 2.0, la soluzione migliore trovata per garantire un flusso a 4k 60hz è mettere 4:2:2 anziché RGB, così posso impostare 12 bit e hai sfumature che vanno dal nero al grigio migliori, nel senso che che a differenza di un segnale full RGB che ti obbliga a tenere il pannello a 8 bit hai così tutte le sfumature di grigio (in RGB hai o neri o grigi chiari, ovviamente fino al bianco, tutto risulta più contrastato e nelle zone buie tutto fin troppo scuro).
Forse in Exodus in RGB e 8 bit si avranno zone più scure?
Dovrei provare .
Tu immagino hai lasciato RGB? Di base Nvidia setta in automatico RGB 8bit su HDMI 2.0 ma ti assicuro che 4:2:2 e 12 bit sarebbe a regola la migliore impostazione visiva a livello cromatico.
Direi di fare un discorso completo su questo aspetto. Premetto che gioco su pc su oled dall'ormai lontano 2016 in cui attaccai la Titan X su lg C6 55 pollici. Mi sono informato davvero molto da allora e ho fatto una vagone di test tecnici. Non penso che sia OT, perchè chiunque abbia una serie 3000 attaccata ad un tv potrebbe essere interessato.
I discorsi cardine e importanti sono due:
PRIMO:
- 8-10-12 bit non so che in realtà sinonimi di sdr, hdr e dolby vision. O meglio: per avere effettivamente quei bit impostati e reali nelle immagini vanno "attivati" tramite un qualcosa, ossia l0'sdr, l'hdr e il dolby vison (è un estremizzazione, ma serve per far capire il concetto). Ne viene da se, che se da windows si attiva l'hdr, automaticamente siamo pronti a sfruttare i 10 bit di profondità di colore.
Seguendo questo ragionamento, se tu imposti 12 bit da pannello, ma non hai il dolby vision attivo, di fatto i 12 bit non solo non vengono sfruttati, ,ma peggiorano la resa dato che tu il contenuto ce l'hai in hdr o sdr. Il dolby vision su pc ancora non c'è per i giochi, quindi i 12 bit al momento, sono completamente inutili e dannosi.
Poi c'è il discorso della crominanza: con hdmi 2.0 il massimo di banda disponibile garantisce 10 bit (ossia hdr) in 4:2:2 e non in rgb. L'rgb (o 4:4:4) è chiaramente la crominanza migliore e scalare in 4:2:2 o 4:2:0 significa perdere dettaglio sul colore. In 8bit (sdr) invece la banda passante in 2.0 permette l'rgb. Almomento pannelli in 12 bit, tra l'latro non esistono, non nativi
Quindi ricapitoliamo: con hdmi 2.0, il miglior settaggio possibile è hdr in 4:2:2, mentre in sdr in RGB (4k a 60 fps). Con 2.1 invece la banda è sufficiente ampiamente anche il l'hdr in rgb e in un futuro i 12 bit in DV RGB.
SECONDO:
Discorso gamma limitata vs completa. E' un altro aspetto importante. Oramai quasi la totalità del giochi esce in gamma completa, ossia 0-255. Mentre la gamma limitata è 16-255. Ossia si vanno a perdere sfumature vicino al nero.
Ecco, sul tv, si può forzare l'una o l'altra gamma cambiando semplicemente la voce "livello nero" nel menù. "basso" significa limitata (lo si vede chiaramente, poichè se si imposta basso i neri vanno ad affogarsi completamente perdendo un sacco di sfumature del grigio), "alto" significa completa.
Nei tv lg in particolare se si cambia l'etichetta della fonte (da console giochi a pc ad esempio) si ha anche l'impostazione "auto", ossia il tv, riconosce se la fonte esce in limitata o completa e si adatta. L'importate è che la gamma del tv corrisponda a quella della fonte per non creare problemi con le sfumature del grigio.
Sento erroneamente a questo proposito alcuni dire " ma con il livello del nero su basso c'è più contrasto". E' vero, ma è un contrasto completamente sbagliato. Per vedere se si è in gamma giusta basta caricare un gioco o un contenuto in cui siamo sicuri ci sia tanto nero. Se il nero risulta nero anche con l'impostazione su "alto" nel tv allora è la gamma giusta. In ogni caso se si mette su auto si risolve il problema.
Per concludere, a me sembra che i giochi con hdr rotto come valhalla, cp 2077 una volta in hdr sembra switchino in una sorta di gamma limitata. Per quello che la resa aumenta tantissimo se si mette in gamma limitata anche il tv con nero su basso.
Spero di non avervi annoiato :D
Micropoint_ITA
12-06-2021, 12:16
Direi di fare un discorso completo su questo aspetto. Premetto che gioco su pc su oled dall'ormai lontano 2016 in cui attaccai la Titan X su lg C6 55 pollici. Mi sono informato davvero molto da allora e ho fatto una vagone di test tecnici. Non penso che sia OT, perchè chiunque abbia una serie 3000 attaccata ad un tv potrebbe essere interessato.
I discorsi cardine e importanti sono due:
PRIMO:
- 8-10-12 bit non so che in realtà sinonimi di sdr, hdr e dolby vision. O meglio: per avere effettivamente quei bit impostati e reali nelle immagini vanno "attivati" tramite un qualcosa, ossia l0'sdr, l'hdr e il dolby vison (è un estremizzazione, ma serve per far capire il concetto). Ne viene da se, che se da windows si attiva l'hdr, automaticamente siamo pronti a sfruttare i 10 bit di profondità di colore.
Seguendo questo ragionamento, se tu imposti 12 bit da pannello, ma non hai il dolby vision attivo, di fatto i 12 bit non solo non vengono sfruttati, ,ma peggiorano la resa dato che tu il contenuto ce l'hai in hdr o sdr. Il dolby vision su pc ancora non c'è per i giochi, quindi i 12 bit al momento, sono completamente inutili e dannosi.
Poi c'è il discorso della crominanza: con hdmi 2.0 il massimo di banda disponibile garantisce 10 bit (ossia hdr) in 4:2:2 e non in rgb. L'rgb (o 4:4:4) è chiaramente la crominanza migliore e scalare in 4:2:2 o 4:2:0 significa perdere dettaglio sul colore. In 8bit (sdr) invece la banda passante in 2.0 permette l'rgb. Almomento pannelli in 12 bit, tra l'latro non esistono, non nativi
Quindi ricapitoliamo: con hdmi 2.0, il miglior settaggio possibile è hdr in 4:2:2, mentre in sdr in RGB (4k a 60 fps). Con 2.1 invece la banda è sufficiente ampiamente anche il l'hdr in rgb e in un futuro i 12 bit in DV RGB.
SECONDO:
Discorso gamma limitata vs completa. E' un altro aspetto importante. Oramai quasi la totalità del giochi esce in gamma completa, ossia 0-255. Mentre la gamma limitata è 16-255. Ossia si vanno a perdere sfumature vicino al nero.
Ecco, sul tv, si può forzare l'una o l'altra gamma cambiando semplicemente la voce "livello nero" nel menù. "basso" significa limitata (lo si vede chiaramente, poichè se si imposta basso i neri vanno ad affogarsi completamente perdendo un sacco di sfumature del grigio), "alto" significa completa.
Nei tv lg in particolare se si cambia l'etichetta della fonte (da console giochi a pc ad esempio) si ha anche l'impostazione "auto", ossia il tv, riconosce se la fonte esce in limitata o completa e si adatta. L'importate è che la gamma del tv corrisponda a quella della fonte per non creare problemi con le sfumature del grigio.
Sento erroneamente a questo proposito alcuni dire " ma con il livello del nero su basso c'è più contrasto". E' vero, ma è un contrasto completamente sbagliato. Per vedere se si è in gamma giusta basta caricare un gioco o un contenuto in cui siamo sicuri ci sia tanto nero. Se il nero risulta nero anche con l'impostazione su "alto" nel tv allora è la gamma giusta. In ogni caso se si mette su auto si risolve il problema.
Per concludere, a me sembra che i giochi con hdr rotto come valhalla, cp 2077 una volta in hdr sembra switchino in una sorta di gamma limitata. Per quello che la resa aumenta tantissimo se si mette in gamma limitata anche il tv con nero su basso.
Spero di non avervi annoiato :D
Grazie,
Molto interessante, ho letto due volte per chiarirmi qualsiasi dubbio.
In sostanza, tu mi consigli di switchare ogni volta da 4:2:2 a RGB in base al gioco se questo supporta o meno HDR?
Esempio Exodus e rdr2 dato che supportano HDR quindi vado con 4:2:2? Pannello impostato comunque a 10 bit? Che è praticamente quello che ho messo io , però impostando 12 bit.
Grazie
Cutter90
12-06-2021, 12:18
Grazie,
Molto interessante, ho letto due volte per chiarirmi qualsiasi dubbio.
In sostanza, tu mi consigli di switchare ogni volta da 4:2:2 a RGB in base al gioco se questo supporta o meno HDR?
Esempio Exodus e rdr2 dato che supportano HDR quindi vado con 4:2:2? Pannello impostato comunque a 10 bit? Che è praticamente quello che ho messo io , però impostando 12 bit.
Grazie
La cosa "figa" è che tu non devi switchare nulla. Lo fa windows da solo quando attivi e disattivi l'hdr. Da pannello lascia "impostazioni predefinite"
amon.akira
12-06-2021, 12:18
metti 8bit 444 tanto in hdr si attiva il dithering (lo leggi anche da win) e cmq la tv è 8bit+frc (dithering)
Cutter90
12-06-2021, 12:20
metti 8bit 444 tanto in hdr si attiva il dithering (lo leggi anche da win) e cmq la tv è 8bit+frc (dithering)
No, il c8 è 10 bit nativo. Sono i monitor che sono 10 bit simulati ossia 8 bit+ dithering. Questo è uno dei motivi per cui nei monitor l'hdr è terribile
amon.akira
12-06-2021, 12:43
No, il c8 è 10 bit nativo. Sono i monitor che sono 10 bit simulati ossia 8 bit+ dithering. Questo è uno dei motivi per cui nei monitor l'hdr è terribile
andiamo troppo ot cmq non è l frc a rendere l hdr terribile semmai altre caratteristiche dei svariati centinaia di pannelli. quindi inutile fare c8 vs all monitors.
Micropoint_ITA
12-06-2021, 12:46
La cosa "figa" è che tu non devi switchare nulla. Lo fa windows da solo quando attivi e disattivi l'hdr. Da pannello lascia "impostazioni predefinite"
Ah, quindi io da pannello lascio le impostazioni dello schermo (bit colore, gamma limitata o completa ecc...) tutto su "auto" mi sembra di aver capito. Se non sbaglio in auto dovrebbe impostarmi RGB 8bit e gamma completa (o forse addirittura limitata).
Poi in automatico si autoregola in base al contenuto HDR o meno.
Giusto?
Cutter90
12-06-2021, 12:58
Ah, quindi io da pannello lascio le impostazioni dello schermo (bit colore, gamma limitata o completa ecc...) tutto su "auto" mi sembra di aver capito. Se non sbaglio in auto dovrebbe impostarmi RGB 8bit e gamma completa (o forse addirittura limitata).
Poi in automatico si autoregola in base al contenuto HDR o meno.
Giusto?
Esattamente. Quando attivi l hdr da windows passa in 10 bit a 4:2:2 che è il massimo possibile per il 2.0
Cutter90
12-06-2021, 12:59
andiamo troppo ot cmq non è l frc a rendere l hdr terribile semmai altre caratteristiche dei svariati centinaia di pannelli. quindi inutile fare c8 vs all monitors.
Infatti ho detto "anche". Il fatto che un pannello non sia 10 bit nativo comporta differenze, mi sembra ovvio.
Chiuso ot
Micropoint_ITA
12-06-2021, 13:15
Esattamente. Quando attivi l hdr da windows passa in 10 bit a 4:2:2 che è il massimo possibile per il 2.0
Ma quindi teoricamente se io attivo dalle impostazioni Windows "HDR acceso" dovrei vedere nelle impostazioni pannello Nvidia automaticamente i valori 4:2:2 10 bit? Non ci avevo mai fatto caso.
Comunque molto interessante, avevo letto che i possessori di HDMI 2.1 con le rtx 3000 potrebbero incorrere a problematiche sopra i 60hz, ma non è il nostro caso.
Comunque le temperature di sta scheda sono fenomenali. Con il giusto voltaggio sono a 60 gradi di picco con ventole al 70% dopo diversi test su Time Spy
bagnino89
12-06-2021, 15:05
miglior calcolatore è ingame, se gpu sta sotto 99% e arranchi fps è la cpu :D
*
Allora devo trovare un titolo che mi sfrutti la GPU al 100%. Comunque anche disattivando il dlss e quindi GPU al 99% la CPU rimane sfruttata poco.
Non devi guardare l'occupazione della CPU, di fatto non vuol dire nulla... Devi vedere solo l'occupazione GPU.
Micropoint_ITA
12-06-2021, 16:39
*
Non devi guardare l'occupazione della CPU, di fatto non vuol dire nulla... Devi vedere solo l'occupazione GPU.
Allora devo sbloccare il frame rate oltre i 60hz per vedere a quanto spinge, dato che la TV è 60 hz non ho mani pensato di andare oltre.
Una domanda sulle memorie di queste schede:
Alzare le frequenze è sconsigliato?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.