View Full Version : [Thread Ufficiale] nVidia RTX 4070 - 5070 - 4060 - 5060 - 5050 series.
Pagine :
1
[
2]
3
4
5
6
7
8
9
10
11
12
Daedra007
26-01-2023, 13:35
Oddio, zotac molto peggio di inno3d per mia esperienza. Sulla serie trinity hanno sempre usato ventole scadenti con bug sistematici . Inno3D tira fuori prodotti meno elaborata, abbastanza basilari ma senza problemi di solito.
addirittura? non credevo che le ventole delle zotac facessero cosi' pena, addirittura peggio di manli ed inno 3d. magari a sto giro le hanno migliorate?
Zotac la preferirei anche per i 5 anni di garanzia...
Ecco fatti due domande sul perchè... sono schede importate dalla cina dai classici eshop con i prezzi più bassi.:)
Cmq, sono tutte valide, però andrei su amazon, tanto se la differenza è 100 euro, meglio pararsi.
la manli si trova a 870/880 speduta nello store piu' affidabile, mentre la zotac trinity si trova sull'amazzonia a 920euro, anche meglio di 100euro.
mikael84
26-01-2023, 13:45
addirittura? non credevo che le ventole delle zotac facessero cosi' pena, addirittura peggio di manli ed inno 3d. magari a sto giro le hanno migliorate?
Zotac la preferirei anche per i 5 anni di garanzia...
la manli si trova a 870/880 speduta nello store piu' affidabile, mentre la zotac trinity si trova sull'amazzonia a 920euro, anche meglio di 100euro.
L'unica che trovo è la pny a 963, venduta e spedita da loro. Quindi massimo supporto.
Manli la trovi a 100 euro in meno su bpm, ma sono schede importate dalla cina (sappiamo come), in caso di RMA sono volatili per diabetici letteralmente.
Ecco che per me, conviene decisamente spendere quelle 100 euro in più.
Ovviamente da amazon solo spedito da loro comprerei. Meglio se venduta e spedita.
Daedra007
26-01-2023, 13:56
L'unica che trovo è la pny a 963, venduta e spedita da loro. Quindi massimo supporto.
Manli la trovi a 100 euro in meno su bpm, ma sono schede importate dalla cina (sappiamo come), in caso di RMA sono volatili per diabetici letteralmente.
Ecco che per me, conviene decisamente spendere quelle 100 euro in più.
Ovviamente da amazon solo spedito da loro comprerei. Meglio se venduta e spedita.
Si infatti la penso come te. Meglio non risparmiare che se poi hai problemi ecc...che e' una scheda costosa gia' la piccola 4070ti:p
KampMatthew
26-01-2023, 14:02
L'unica che trovo è la pny a 963, venduta e spedita da loro. Quindi massimo supporto.
Manli la trovi a 100 euro in meno su bpm, ma sono schede importate dalla cina (sappiamo come), in caso di RMA sono volatili per diabetici letteralmente.
Ecco che per me, conviene decisamente spendere quelle 100 euro in più.
Ovviamente da amazon solo spedito da loro comprerei. Meglio se venduta e spedita.
E' lo stesso ragionamento che faccio io da sempre, la garanzia vale tutti i soldi in più e devo dire che non è raro avere anche il prezzaccio, basta saper aspettare e spesso ho preso da Amazon prodotti Prime a meno degli shop economici, dove poi però in caso di garanzia son dolori.
Comunque approfitto per chiedere una cosa sui risultati del 3dmark, premettendo che son passato a piattaforma am4 da poco per cui sono molto niubbo, ancora non ho avuto tempo di studiarmi il bios e come funziona un po' tutto.
La questione è che non mi trovo con la cpu score che si è abbassato di parecchio con la 4070 rispetto alla 1080.
Con la 1080:
https://i.postimg.cc/SRZm7CWx/3dmark1-5800-X.jpg
Con la 4070:
https://i.postimg.cc/fy1rNbsv/3dmark1-5800-X-4070-TI.jpg
Come mai succede questa cosa?
KampMatthew
26-01-2023, 14:52
Cosa strana: avevo lasciato Ryzen Master aperto, ma ancora non lo so usare perchè non conosco le varie funzioni, comunque l'ho chiuso e adesso il punteggio è risalito a 11.000, quasi come il bench con la 1080, pure la 4070 ha fatto qualche punticino in più...bho..
https://www.3dmark.com/3dm/87974416?
Veramente strano, adesso si comincia con le cose che non si capiscono: normalmente uso MSI Afterburner, ho chiuso anche quello ed ho fatto un'altra run. Il punteggio della cpu è salito ancora :eek:
https://www.3dmark.com/3dm/87976414?
Ora riavvio e riprovo di nuovo con Ryzen Master e MSI Afterburner in esecuzione :asd:
Edit 2: si devo confermare che se tengo Ryzen Mater aperto il punteggio della cpu scende parecchio. Non so spiegarmi il perchè, farà interferenza con il 3dmark, non lo so, sta di fatto che il punteggio con il solo MSI AB aperto scende un po', ma con il Rizen Master è sceso nuovamente di un botto:
https://www.3dmark.com/3dm/87978287?
dovrei essere anche io intorno ai 19400 mi pare, cmq ho fatto delle prove a 0,95v 2700mhz ma non tiene provo ad alzare un pelino ( 80w in meno di consumo )
KampMatthew
26-01-2023, 16:17
dovrei essere anche io intorno ai 19400 mi pare, cmq ho fatto delle prove a 0,95v 2700mhz ma non tiene provo ad alzare un pelino ( 80w in meno di consumo )
No a me è tutto a default, sia cpu che gpu. Però come vedi mi ero focalizzato su un'altra cosa.
A proposito, tu per la vga cosa usi? MSI AB o qualche altro software? Perchè vedo che da MSI AB non posso cambiare il voltaggio, solo che ora non ho tempo, devo finire un lavoro. Appena riesco mi ci metto. Ciao.
No a me è tutto a default, sia cpu che gpu. Però come vedi mi ero focalizzato su un'altra cosa.
A proposito, tu per la vga cosa usi? MSI AB o qualche altro software? Perchè vedo che da MSI AB non posso cambiare il voltaggio, solo che ora non ho tempo, devo finire un lavoro. Appena riesco mi ci metto. Ciao.
Zotac ha un suo software ma mi pare non puoi fare undervolt, cmq si uso AB anche io... per il voltaggio devi sbloccarlo e poi agire sulle curve ma basta che cerchi guida undervolt e la trovi facilmente
mikael84
26-01-2023, 16:31
No a me è tutto a default, sia cpu che gpu. Però come vedi mi ero focalizzato su un'altra cosa.
A proposito, tu per la vga cosa usi? MSI AB o qualche altro software? Perchè vedo che da MSI AB non posso cambiare il voltaggio, solo che ora non ho tempo, devo finire un lavoro. Appena riesco mi ci metto. Ciao.
Come detto su, la tensione in positivo non serve a nulla su queste schede (ma anche su ampere), puoi lavorare solo in negativo con la curva.
Ovviamente AB aggiornalo.;)
Come detto su, la tensione in positivo non serve a nulla su queste schede (ma anche su ampere), puoi lavorare solo in negativo con la curva.
Ovviamente AB aggiornalo.;)
Esatto, io uso 4.65 beta 4 l'ultima versione
KampMatthew
26-01-2023, 16:41
Come detto su, la tensione in positivo non serve a nulla su queste schede (ma anche su ampere), puoi lavorare solo in negativo con la curva.
Ovviamente AB aggiornalo.;)
Eh si, ma anche in negativo, il voltaggio non me lo fa proprio toccare, è bloccato. Ho appena scaricato la 4.6.4 stabile, io ho la 4.6.2. Stasera se riesco la provo.
Zotac ha un suo software ma mi pare non puoi fare undervolt, cmq si uso AB anche io... per il voltaggio devi sbloccarlo e poi agire sulle curve ma basta che cerchi guida undervolt e la trovi facilmente
Si so come funziona, uso questo sw dalla primissima versione.
Comunque grazie per le risposte, spero di riuscire in serata.
Ma del mistero del post di prima che ne pensate?
Con la Palit e un 5800X3D sono allineato a voi (22.454 graphics e 11.250 CPU tutto stock)
mikael84
26-01-2023, 16:49
Eh si, ma anche in negativo, il voltaggio non me lo fa proprio toccare, è bloccato. Ho appena scaricato la 4.6.4 stabile, io ho la 4.6.2. Stasera se riesco la provo.
Si so come funziona, uso questo sw dalla primissima versione.
Comunque grazie per le risposte, spero di riuscire in serata.
Ma del mistero del post di prima che ne pensate?
Ma in negativo non lo puoi toccare da li, devi farlo tramite la curva, come con la 1080.
Apri AB, premi CTRL+F e modifichi la curva tensione x clock da li.:)
OrazioOC
26-01-2023, 17:53
https://i.imgur.com/KsWN86Y.png
Stock
https://i.imgur.com/03IqXWW.png
Undervolt, picco massimo sui 180w. :D
Undervolt, picco massimo sui 180w. :D
che undervolt e frequenza hai messo?
https://i.ibb.co/WcT52S5/04.jpg (https://ibb.co/MRXSCqS)
https://i.ibb.co/9bdKppW/02.jpg (https://ibb.co/7n0MSSK)
https://i.ibb.co/X4yKvcb/03.jpg (https://ibb.co/b3HC8cP)
https://i.ibb.co/JvmdqNg/05.jpg (https://ibb.co/VgJNxd5)
:D
La mia preferita tra tutte resta la suprim, la piu' bella a vedersi insieme alla trio ed elettricamente la migliore a mio parere
Le galax/kfa2 sono molto più belle. Il design della serie 4000 asus è orripilante.
OrazioOC
26-01-2023, 19:25
che undervolt e frequenza hai messo?
https://i.imgur.com/rOb46R9.jpg
La "curva" che ho applicato per l'undervolt stabile. :D
mikael84
26-01-2023, 19:29
La "curva" che ho applicato per l'undervolt stabile. :D
Mi sale il crimine quando vedo post con foto.:D
Basta usare paint, e poi con un host come postimage le caricate.:)
StylezZz`
26-01-2023, 19:32
A me invece sale il crimine a vedere la 4070 Ti che gira da dio sotto i 200W, sarebbe stata una perfetta 4060 (ti) prezzata il giusto, maledetto giacchetta.
OrazioOC
26-01-2023, 19:33
Mi sale il crimine quando vedo post con foto.:D
Basta usare paint, e poi con un host come postimage le caricate.:)
Si scusa mate ma l'ho fatta un po' alla buona a sto giro. XD
Comunque AD104 da' risultati interessanti sicuramente, ma più verso il basso che verso l'alto con i tweak. :)
A me invece sale il crimine a vedere la 4070 Ti che gira da dio sotto i 200W, sarebbe stata una perfetta 4060 (ti) prezzata il giusto, maledetto giacchetta.
Presente, con quella curva che ho impostato nel 3dmark ha girato con un picco di 180w, assurdo 100w in meno per un 5% di performance di differenza.:doh:
La "curva" che ho applicato per l'undervolt stabile. :D
grazie, io ho provato intanto un 0,975 a 2700mhz :p
buonasera, arrivata anche a me la 4070 ti palit, bellissima, ma vorrei chiedere come mai in cyberpunk non vedo le opzioni nuove diciamo, tipo il frame generator.....
StylezZz`
26-01-2023, 21:02
buonasera, arrivata anche a me la 4070 ti palit, bellissima, ma vorrei chiedere come mai in cyberpunk non vedo le opzioni nuove diciamo, tipo il frame generator.....
Perchè ancora lo devono aggiornare.
Perchè ancora lo devono aggiornare.
era una patch beta per i recensori
Daedra007
27-01-2023, 02:10
Le galax/kfa2 sono molto più belle. Il design della serie 4000 asus è orripilante.
delle asus si salva solo la tuf, mentre la strix sembra un blocchetto di cemento:D
per il resto delle custom io preferisco sempre msi trio e suprim
era una patch beta per i recensori
quindi non uscirà per tutti?
nagashadow
27-01-2023, 07:10
Io L ho un po’ overclockkata invece,tanto rispetto alla 3090 che avevo prima i consumi sono più bassi. Col time Spy arrivo a 23102 di grafic score
StylezZz`
27-01-2023, 10:47
quindi non uscirà per tutti?
Uscirà per tutti con il prossimo aggiornamento, non si sa quando.
KampMatthew
27-01-2023, 15:55
Ho fatto giusto una prova veloce, per sfizio, dando +100 mhz alla gpu senza toccare altro. Normalmente di suo boosta a 2800 e qualcosa con una freq. media di poco sotto i 2800. Con +100 arriva a 2910 con freq. media di 2853. Sembra promettere bene. :D
https://www.3dmark.com/3dm/88033537?
Devo ancora ggiornare MSI AB. Poi faccio anche le prove di UV.
qualcuno ha idea e/o può aiutarmi con il settaggio delle ventole della 4070 ti EAGLE della Gigabyte?
Tramite il software Gigabyte Contro Center non è possibile settare le ventole sotto al 30%. Con attivo il "Fan Stop", la ventola è spenta fino a 50° e poi sale al 30%, e se disattivo il "Fan Stop", il minimo impostabile è il 30%.
Con MSI Afterburner (aggiornato con l'ultima beta) le ventole vanno alla veolcità stabilita, ma fanno un on/off continuo per riportarsi da 0% al valore impostato < 30% (indipendentemente da quale esso sia)
https://i.ibb.co/HGPbJMt/GCC-Settaggio-ventola-x-gestione-MSI-Afterburner.jpg (https://ibb.co/BT6Q17y)
https://i.ibb.co/1L2P1cx/MSI-Afterburner-Settaggio-gestione-ventola-01.jpg (https://imgbb.com/)
https://i.ibb.co/FVz0m2h/MSI-Afterburner-Settaggio-gestione-ventola-02.jpg (https://ibb.co/cLQCk0y)
Avete idee/suggerimenti?
qualcuno ha idea e/o può aiutarmi con il settaggio delle ventole della 4070 ti EAGLE della Gigabyte?
Tramite il software Gigabyte Contro Center non è possibile settare le ventole sotto al 30%. Con attivo il "Fan Stop", la ventola è spenta fino a 50° e poi sale al 30%, e se disattivo il "Fan Stop", il minimo impostabile è il 30%.
Con MSI Afterburner (aggiornato con l'ultima beta) le ventole vanno alla veolcità stabilita, ma fanno un on/off continuo per riportarsi da 0% al valore impostato < 30% (indipendentemente da quale esso sia)
https://i.ibb.co/HGPbJMt/GCC-Settaggio-ventola-x-gestione-MSI-Afterburner.jpg (https://ibb.co/BT6Q17y)
https://i.ibb.co/1L2P1cx/MSI-Afterburner-Settaggio-gestione-ventola-01.jpg (https://imgbb.com/)
https://i.ibb.co/FVz0m2h/MSI-Afterburner-Settaggio-gestione-ventola-02.jpg (https://ibb.co/cLQCk0y)
Avete idee/suggerimenti?
per quello che ne so il minimo è 30, io con palit game rock ho fatto curva a partire da 30 in su. ps.....vga clamorosa!!!! voltaggio a 0,995 e frequenze fisse a 2805 e temperature nei giochi sotto i 50 gradi (e per sotto intendo sui 45...)!!!!! con bf2042 i consumi sono sui 145w. incredibile!!!! in pratica impostata cosi consuma meno della 3070 e 2060 super che ho avuto prima, le ventole che arrivano massimo al 35 per cento. se me lo dicevano prima non ci avrei mai creduto. senza dire come è fatta questa game rock, tutta in alluminio spazzolato sopra e sotto, infatti pesa il doppio della 3070 che avevo prima che era tutta in plastica, dico gia da subito che è la migliore vga che ho mai avuto!!!! che poi alla fine pagata 880 euro, non pochi per carità ma se penso che 6 mesi fa avevo preso la 3070 a 700 ed era un buon prezzo.....
tornando alla tua richiesta non ho capito se vuoi impostare un minimo di 30 sempre, per dire come ho fatto io che non mi piace il fanless, preferisco che giri ad un minimo anche al desktop e stia sempre piu fresca che fanless ma una decina di gradi in piu sempre. anche se questa palit in fanless tiene la vga sotto i 30 gradi sempre ad essere sincero. cmq a me sotto il 30 per cento non lo prende, ed era cosi anche per la 3070 e 2070 super che avevo. nemmeno io ho mai capito il perche sinceramente.
io vorrei solo impostare le ventole al 10-15% da 0 a 50° .... :(
con la GTX 1070 della Gigabyte non c'era alcun problema (anche lei aveva il "Fan Stop")
KampMatthew
30-01-2023, 08:45
io vorrei solo impostare le ventole al 10-15% da 0 a 50° .... :(
con la GTX 1070 della Gigabyte non c'era alcun problema (anche lei aveva il "Fan Stop")
Provato a togliere la spunta alla voce Firmware control mode?
io vorrei solo impostare le ventole al 10-15% da 0 a 50° .... :(
con la GTX 1070 della Gigabyte non c'era alcun problema (anche lei aveva il "Fan Stop")secondo me dalle serie 2000 il limite è 30, se trovo il modo di aiutare vorrei tanto anche io mettere il 10 per cento a salire. ricordo benissimo anche io che con le 1000 si poteva fare, per cui seguo con interesse la tua discussione. ciao
Inviato dal mio 2201116SG utilizzando Tapatalk
KampMatthew
30-01-2023, 09:10
Si il minimo è 30%. Ho consigliato di togliere quella spunta solo per il fatto che tende continuamente a scendere a zero rpm nonostante abbia la curva personalizzata. Almeno così ho capito.
Si il minimo è 30%. Ho consigliato di togliere quella spunta solo per il fatto che tende continuamente a scendere a zero rpm nonostante abbia la curva personalizzata. Almeno così ho capito.
se tolgo la spunta, le ventole fanno on/off continuo da 0% a quanto impostato fino ai 50° (anche se l'ovveride del "Fan Stop" è selezionato)
https://i.ibb.co/8xgBtqB/immagine.png (https://ibb.co/Wzv3jZ3)
KampMatthew
30-01-2023, 10:15
E' strano perchè quella spunta serve a fare una cosa diversa, la curva personalizzata dovrebbe funzionare ugualmente, ma comunque partendo da un minimo di 30%. Io infatti la tengo deselezionata.
Secondo me MSI AB fa a cazzotti con qualche altro software che gestisce le funzionalità della scheda. Lo so che è una rottuta ma devi provare a disinstallare il software della Gigabyte e usare solo MSI AB.
Ad ogni modo a me se imposto qualsiasi valore sotto i 30 il minimo a cui gira la ventola è sempre 30, ma si capisce anche dal fatto che c'è quella linea tratteggiata.
Il motivo secondo me è che con tensioni troppo basse le ventole possono danneggiarsi, non come quando hai una tensione troppo alta dove le bruci subito, ma con una tensione troppo bassa è come se andassero sotto sforzo, cercano di partire ma non ce la fanno, e questo a lungo andare le rovina, poi dipende dalle caratteristiche delle ventole che montano, ma immagino sia impossibile reperire i datasheet di queste ventole.
Edit: qualcuno ha mai provato ad usare l'oc scanner di MSI AB? Io non lo avevo mai provato, stamattina mi è venuto lo sfizio di provare, arrivato al 50% del test il pc ha fatto una specie di riavvio, tipo quando uno si disconnette con l'utente e poi rientra, infatti si è riavviato tutto, anche lo stesso MSI AB e non ha complketato il test. Mi sa che è meglio il buon vecchio metodo manuale.
E' strano perchè quella spunta serve a fare una cosa diversa, la curva personalizzata dovrebbe funzionare ugualmente, ma comunque partendo da un minimo di 30%. Io infatti la tengo deselezionata.
Secondo me MSI AB fa a cazzotti con qualche altro software che gestisce le funzionalità della scheda. Lo so che è una rottuta ma devi provare a disinstallare il software della Gigabyte e usare solo MSI AB.
Ad ogni modo a me se imposto qualsiasi valore sotto i 30 il minimo a cui gira la ventola è sempre 30, ma si capisce anche dal fatto che c'è quella linea tratteggiata.
Il motivo secondo me è che con tensioni troppo basse le ventole possono danneggiarsi, non come quando hai una tensione troppo alta dove le bruci subito, ma con una tensione troppo bassa è come se andassero sotto sforzo, cercano di partire ma non ce la fanno, e questo a lungo andare le rovina, poi dipende dalle caratteristiche delle ventole che montano, ma immagino sia impossibile reperire i datasheet di queste ventole.
Edit: qualcuno ha mai provato ad usare l'oc scanner di MSI AB? Io non lo avevo mai provato, stamattina mi è venuto lo sfizio di provare, arrivato al 50% del test il pc ha fatto una specie di riavvio, tipo quando uno si disconnette con l'utente e poi rientra, infatti si è riavviato tutto, anche lo stesso MSI AB e non ha complketato il test. Mi sa che è meglio il buon vecchio metodo manuale.quoto tutto quello che hai scritto tranne il disinstallare software proprietario. basta tenerlo spento e ovviamente non farlo partire con Windows, deve partire solo AB. dico se uno non vuole disinstallarlo perché in giorno magari vuole cambiare il colore dei led della vga .. in quel caso basta fare inverso, si spegne ab e si fa le modifiche con software proprietario, e poi si rimette in avvio ab. almeno io faccio così. per il discorso ventole condivido tutto quello che hai scritto
Inviato dal mio 2201116SG utilizzando Tapatalk
anche non avviando il GCC, sotto il 30% da MSI Afterburner non riesco a gestirle :(
anche non avviando il GCC, sotto il 30% da MSI Afterburner non riesco a gestirle :(non si può mi sa, ma scusa cosa ti cambia se la lasci a 30? ripeto che ti capisco perché volevo mettere anche io il 20 o meno. ma poco cambia, nemmeno si sentono
Inviato dal mio 2201116SG utilizzando Tapatalk
KampMatthew
30-01-2023, 20:30
anche non avviando il GCC, sotto il 30% da MSI Afterburner non riesco a gestirle :(
Eh ma allora non hai letto. 30% è il minimo. E' impostato da firmware. Quando stanno proprio spente per cominciare a girare il motore delle ventola richiede un certo spunto e se la tensione è troppo bassa la corrente non è abbastanza, di conseguenza non ce la fa. Avrebbero anche potuto ovviare montando delle ventole con range di tensione di ingresso più largo, ma sarebbero costate di più. Tra l'altro se quel valore percentuale è davvero lineare, il 10% di 12V corrisponde a 1.2V. Dove le trovi delle ventole da 12 V che girano a 1.2V? Io credo che la percentuale non sia nemmeno lineare perchè già il 30% è un valore parecchio basso, corrisponde a 3.6V, ma potrebbe anche essere. Verificare è facile, metti al 30%, prendi un multimetro e misura sul connettore della ventola quanto ci arriva.
non si può mi sa, ma scusa cosa ti cambia se la lasci a 30? ripeto che ti capisco perché volevo mettere anche io il 20 o meno. ma poco cambia, nemmeno si sentono
Inviato dal mio 2201116SG utilizzando Tapatalk
Le mie al 30% si sentono, non sono fastidiose ma si sentono (considera che come dissipatore per la CPU ho un Arctic 420mm che al minimo è come se fosse spento, come le altre ventole Corsair ML da 120 e 140mm).
Amen :stordita:
Eh ma allora non hai letto. 30% è il minimo. E' impostato da firmware. Quando stanno proprio spente per cominciare a girare il motore delle ventola richiede un certo spunto e se la tensione è troppo bassa la corrente non è abbastanza, di conseguenza non ce la fa. Avrebbero anche potuto ovviare montando delle ventole con range di tensione di ingresso più largo, ma sarebbero costate di più. Tra l'altro se quel valore percentuale è davvero lineare, il 10% di 12V corrisponde a 1.2V. Dove le trovi delle ventole da 12 V che girano a 1.2V? Io credo che la percentuale non sia nemmeno lineare perchè già il 30% è un valore parecchio basso, corrisponde a 3.6V, ma potrebbe anche essere. Verificare è facile, metti al 30%, prendi un multimetro e misura sul connettore della ventola quanto ci arriva.
Letto ho letto, ma se sulla GTX era fattibile ed in 6 anni non hanno avuto problemi, speravo che le ventole della 4070ti non avessero questa limitazione, o magari, fosse solo una limitazione della Eagle (così avrei cambiato modello)
Letto ho letto, ma se sulla GTX era fattibile ed in 6 anni non hanno avuto problemi, speravo che le ventole della 4070ti non avessero questa limitazione, o magari, fosse solo una limitazione della Eagle (così avrei cambiato modello)
palit game rock idem...stessa cosa sulla 3070 sempre palit che avevo e idem ancora sulla 2070 super della gigabyte, per cui penso sia fatto proprio per non danneggiare le ventole a bassi regimi. a quel punto allora se ti da fastidio tienila fanless tanto almeno la mia sta fredda cmq, queste schede hanno dei chip davvero freddi
Si, farò così. Anche la Gigabyte Eagle in idle ha temperature bassissime (con ventole a 0% siamo sui 29/30° con 18-19° di temperatura ambiente nel case Corsair 7000D Airflow con tutte le ventole al minimo possibile)
P.s.
Proverò il settings "quite" (tramite switch sulla VGA) e se cambia qualcosa ve lo dico .... Provato ma come immaginato, non cambia :)
Si, farò così. Anche la Gigabyte Eagle in idle ha temperature bassissime (con ventole a 0% siamo sui 29/30° con 18-19° di temperatura ambiente nel case Corsair 7000D Airflow con tutte le ventole al minimo possibile)
P.s.
Proverò il settings "quite" (tramite switch sulla VGA) e se cambia qualcosa ve lo dico .... Provato ma come immaginato, non cambia :)grazie della dritta sulla modalità silence, così evito di provare!! ciao caro
Inviato dal mio 2201116SG utilizzando Tapatalk
Cyberpunk 2077 dopo la nuova patch ...
1440p con tutto al massimo del massimo (con Campo Visivo = 100) e DLSS su Qualità e Frame Generator attivo, quando sta per usicre/esce dal bar e c'è la pozzanghera ci sono 3-4 secondi di CPU al 100% e lagga (vedi frame minimi)....
https://i.ibb.co/w6wJ7Rx/20230131183257-1.jpg (https://ibb.co/w6wJ7Rx) https://i.ibb.co/8srtchw/20230131183149-1.jpg (https://ibb.co/8srtchw) https://i.ibb.co/YZFR3Cd/20230131183157-1.jpg (https://ibb.co/YZFR3Cd) https://i.ibb.co/GMJcT5g/20230131183205-1.jpg (https://ibb.co/GMJcT5g) https://i.ibb.co/vDV8sB7/20230131183209-1.jpg (https://ibb.co/vDV8sB7) https://i.ibb.co/XxQWD5p/20230131183245-1.jpg (https://ibb.co/XxQWD5p) https://i.ibb.co/3m2xWPh/20230131183248-1.jpg (https://ibb.co/3m2xWPh) https://i.ibb.co/wKByPJK/20230131183254-1.jpg (https://ibb.co/wKByPJK) https://i.ibb.co/VDJf7yY/20230131183225-1.jpg (https://ibb.co/VDJf7yY) https://i.ibb.co/WvMgckY/20230131183233-1.jpg (https://ibb.co/WvMgckY)
Senza Frame Generator, solitamente sta sui 59-67 fps (con punte di 49-74 ; quelle che vedo eh :O ) e la VGA al max sul 89-90%
la CPU è proprio alla frutta :D
KampMatthew
31-01-2023, 19:18
Che cpu hai? Scusa la mia ignoranza ma il frame generator che roba è? Una funzionalità del gioco o nvidia?
Intel I7-7700K :stordita: ... in attesa di qualcosa di buono....
Ho scritto "Frame Generator" ma correttamente è "Frame Generation", direi il DLSS "3" (https://www.hwupgrade.it/news/skvideo/nvidia-dlss-3-la-tecnologia-chiave-delle-geforce-rtx-4000-e-gia-disponibile-in-14-giochi_112276.html) (tecnologia proprietaria di Nvidia ed attualmente propria solo della serie 40xx che deve essere sviluppato/supportato dal gioco).
craesilo
01-02-2023, 01:11
presa una 70ti a 810€ su mediaworld
presa una 70ti a 810€ su mediaworld
? che marca? online o negozio fisico?
nagashadow
01-02-2023, 07:31
Pny c’è anche la 4080 a 1163
avevo guardato ma non l'ho vista, poco cambia era curiosità perché già ho la 4070ti, cmq complimenti gran pezzo
Inviato dal mio 2201116SG utilizzando Tapatalk
craesilo
01-02-2023, 08:27
? che marca? online o negozio fisico?
online, pny xlr8
ero mezzo addormentato quando ho sentito la pubblicità in tv ma non ho pensato subito che potesse scattare da mezzanotte la promo :asd:
avevo guardato ma non l'ho vista, poco cambia era curiosità perché già ho la 4070ti, cmq complimenti gran pezzo
Inviato dal mio 2201116SG utilizzando Tapatalk
io ho visto una poco sopra i 1200 da 1500 e qualcosa, credo l'abbia presa un mio amico, nella notte devono aver abbassato ancora di più il prezzo
KampMatthew
01-02-2023, 09:14
Intel I7-7700K :stordita: ... in attesa di qualcosa di buono....
Vabbè, il 7700k non è che sia proprio male, lo tieni default o oc?
Ho scritto "Frame Generator" ma correttamente è "Frame Generation", direi il DLSS "3" (https://www.hwupgrade.it/news/skvideo/nvidia-dlss-3-la-tecnologia-chiave-delle-geforce-rtx-4000-e-gia-disponibile-in-14-giochi_112276.html) (tecnologia proprietaria di Nvidia ed attualmente propria solo della serie 40xx che deve essere sviluppato/supportato dal gioco).
Ah ok. Appena installo qualche gioco degno di nota lo provo. Ieri ho installato Modern warfare 2 remastered ma è talmente vecchio e talmente leggero che se non metto il limite degli fps ne fa oltre 1000 settando nel gioco tutto a palla, tutto su massima qualità nel pannello nvidia, nel gioco la risoluzione nativa del monitor a 1440P con resa grafica pari al 200%, in pratica 5120x2880 :asd:
Una domanda: ma voi GeForce Experience lo usate. Lo installai tanti anni fa, mi diede un problema che poi si scoprì essere un bug grosso come una casa e da allora non lo avevo mai più installato. Ieri per sfizio l'ho riprovato perchè attirato dalla funzione filtro giochi, pensavo a chissà quali filtri e invece a me sembra tutto una c@g@t@.
Ho guardato un po' tutte le funzionalità e per me che gioco solo in single senza fare streming e altre robe da youtuber non mi sembra chissà cosa. C'è qualche funzione che magari mi è sfuggita per la quale conviene tenerlo?
rickiconte
01-02-2023, 09:27
Pny c’è anche la 4080 a 1163
Su mediaworld ora costa oltre i 1300 euro. sarà stata una offerta lampo.
craesilo
01-02-2023, 09:41
Vabbè, il 7700k non è che sia proprio male, lo tieni default o oc?
Ah ok. Appena installo qualche gioco degno di nota lo provo. Ieri ho installato Modern warfare 2 remastered ma è talmente vecchio e talmente leggero che se non metto il limite degli fps ne fa oltre 1000 settando nel gioco tutto a palla, tutto su massima qualità nel pannello nvidia, nel gioco la risoluzione nativa del monitor a 1440P con resa grafica pari al 200%, in pratica 5120x2880 :asd:
Una domanda: ma voi GeForce Experience lo usate. Lo installai tanti anni fa, mi diede un problema che poi si scoprì essere un bug grosso come una casa e da allora non lo avevo mai più installato. Ieri per sfizio l'ho riprovato perchè attirato dalla funzione filtro giochi, pensavo a chissà quali filtri e invece a me sembra tutto una c@g@t@.
Ho guardato un po' tutte le funzionalità e per me che gioco solo in single senza fare streming e altre robe da youtuber non mi sembra chissà cosa. C'è qualche funzione che magari mi è sfuggita per la quale conviene tenerlo?
scaricato una volta ma non serviva a niente, facevo più fps impostando manualmente
KampMatthew
01-02-2023, 11:28
Ieri ho installato Modern warfare 2 remastered ma è talmente vecchio e talmente leggero che se non metto il limite degli fps ne fa oltre 1000 settando nel gioco tutto a palla, tutto su massima qualità nel pannello nvidia, nel gioco la risoluzione nativa del monitor a 1440P con resa grafica pari al 200%, in pratica 5120x2880 :asd:
Minchia, mi devo correggere. Mi erano sfuggiti l'occlusione ambientale che tenevo su alto e il supercampionamento. Settando nel gioco occlusione ambientale su HBAO+ e supercampionamento a 4x (quindi tutto a manettissima) gli fps sono scesi da 1000+ a meno di 100. Ho corcato la scheda :asd:
Su mediaworld ora costa oltre i 1300 euro. sarà stata una offerta lampo.
se la metti nel carrello c'è lo sconto aggiuntivo della promozione.. fino a 1000€ di spesa direi 200€ in meno, fino a 1500€, 300€ in meno
KampMatthew
01-02-2023, 11:36
scaricato una volta ma non serviva a niente, facevo più fps impostando manualmente
In effetti non mi sembra ci sia nulla di che. L'ottimizzazione gliochi vabbè, magari può dare dei consigli che uno può seguire o meno, più che altro può servire per un colpo d'occhio a vedere se tutto è stato settato o ci si è dimenticato qualcosa per strada come è successo a me, vedi post di prima, ho visto quelle impostazioni da GE, nel gioco mi erano sfuggite.
Ad ogni modo se per DLSS, RT ed altre cose degne di nota non serve mi sa che lo disinstallo.
KampMatthew
01-02-2023, 11:39
se la metti nel carrello c'è lo sconto aggiuntivo della promozione.. fino a 1000€ di spesa direi 200€ in meno, fino a 1500€, 300€ in meno
Grande offerta si, a me non interessa più perchè oramai ho fatto, però sarebbe da capire come funziona la garanzia non mediaworld. Parlo per me, personalmente su queste cifre invece che 810 preferisco comunque aver speso 950 ma con garanzia diretta Amazon.
Vabbè, il 7700k non è che sia proprio male, lo tieni default o oc?
Ah ok. Appena installo qualche gioco degno di nota lo provo. Ieri ho installato Modern warfare 2 remastered ma è talmente vecchio e talmente leggero che se non metto il limite degli fps ne fa oltre 1000 settando nel gioco tutto a palla, tutto su massima qualità nel pannello nvidia, nel gioco la risoluzione nativa del monitor a 1440P con resa grafica pari al 200%, in pratica 5120x2880 :asd:
Una domanda: ma voi GeForce Experience lo usate. Lo installai tanti anni fa, mi diede un problema che poi si scoprì essere un bug grosso come una casa e da allora non lo avevo mai più installato. Ieri per sfizio l'ho riprovato perchè attirato dalla funzione filtro giochi, pensavo a chissà quali filtri e invece a me sembra tutto una c@g@t@.
Ho guardato un po' tutte le funzionalità e per me che gioco solo in single senza fare streming e altre robe da youtuber non mi sembra chissà cosa. C'è qualche funzione che magari mi è sfuggita per la quale conviene tenerlo?
Purtroppo a default (si era rotta la mainboard e ora sono con chipset "H", quindi no overclock).
Diciamo che si sentono parecchio i limiti, tipo in Battlefield 2042 la CPU è fissa al 100% e in tutto il resto, sicuramente la VGA non viene sfruttata a dovere e spesso genera cali di FPS improvvisi (quando si chioda al 100%) che minano la fluidità del gioco.
p.s.
Io non uso Geforce Experiece, mai usato.
KampMatthew
01-02-2023, 12:38
Qualcuno di voi ha mai provato questa impostazione di Windows 10? In impostazioni grafica di Windows ho attivato la voce Pianificazione GPU con accelerazione Hardware. Dopo ho fatto un 3dmark e mi ha fatto sulla vga un punteggio quasi come se avessi la 4070 occata di 100 mhz sul core.
Questo fatto con 100 mhz sul core con opzione disattivata:
https://www.3dmark.com/3dm/88033537?
Questo con vga a default e opzione attivata:
https://www.3dmark.com/3dm/88335796?
Ho ripetuto il test 3-4 volte, non è un caso o una coincidenza, si guadagna veramente qualcosa.
Qualcuno di voi ha mai provato questa impostazione di Windows 10? In impostazioni grafica di Windows ho attivato la voce Pianificazione GPU con accelerazione Hardware. Dopo ho fatto un 3dmark e mi ha fatto sulla vga un punteggio quasi come se avessi la 4070 occata di 100 mhz sul core.
Questo fatto con 100 mhz sul core con opzione disattivata:
https://www.3dmark.com/3dm/88033537?
Questo con vga a default e opzione attivata:
https://www.3dmark.com/3dm/88335796?
Ho ripetuto il test 3-4 volte, non è un caso o una coincidenza, si guadagna veramente qualcosa.
La voce Pianificazione GPU con Accelerazione Hardware server per attivare il Frame Generation del DLSS.
Sinceramente, a me, con o senza il 3DMark risulta uguale :)
KampMatthew
01-02-2023, 18:05
La voce Pianificazione GPU con Accelerazione Hardware server per attivare il Frame Generation del DLSS.
Sinceramente, a me, con o senza il 3DMark risulta uguale :)
Infatti, ma io non lo sapevo, non ho ancora provato nessun gioco che ha il dlss, l'ho trovato a questo link dopo che lo avevo attivato e stavo facendo delle ricerche per vedere se c'erano benefici reali.
https://support.cdprojektred.com/en/witcher-3/pc/sp-technical/issue/2278/dlss-frame-generation-how-to-enable-hardware-accelerated-gpu-scheduling
Sinceramente, a me, con o senza il 3DMark risulta uguale :)
Strano, io ho fatto diverse volte la prova e con quella funzione attivata fa di più, c'è poco da fare. Chissà da che dipende.
Ma ogni volta che l'hai attivata/disattivata per fare il 3dmark, hai riavviato prima il sistema?
....
Ma ogni volta che l'hai attivata/disattivata per fare il 3dmark, hai riavviato prima il sistema?
Si, altrimenti la funzione non si attiva/disattiva
KampMatthew
01-02-2023, 18:41
Bho, forse dipende da ogni singola configurazione. Al di là del dlss, su youtube ci sono diversi test, su alcuni giochi si guadagnano una manciata di fps, su altri niente... ho idea che nel discorso influisca anche la cpu.
craesilo
01-02-2023, 19:41
che abbiate provato, 2600mhz a 900mv (visto sul tubo) è nella media o meglio?
se intendi il voltaggio e la frequenza, beh io oserei di più insommadai, io mi sono fatto curva ab a 2820 che cmq restano sempre 2805 con 0,995v....mai avuto un crash e temperature memorabili!!!! almeno io non ho mai avuto una vga cosi fredda e potente, con bf2042 massimo 45 gradi su gpu e memorie, ho spot mai oltre i 52. mai visto niente di simile
nagashadow
02-02-2023, 08:00
Confermo anche io , con L opzione attiva faccio 23608 con overclock
craesilo
02-02-2023, 09:50
se intendi il voltaggio e la frequenza, beh io oserei di più insommadai, io mi sono fatto curva ab a 2820 che cmq restano sempre 2805 con 0,995v....mai avuto un crash e temperature memorabili!!!! almeno io non ho mai avuto una vga cosi fredda e potente, con bf2042 massimo 45 gradi su gpu e memorie, ho spot mai oltre i 52. mai visto niente di simile
ottimo, a stock invece fino a quanto sale la tua?
ottimo, a stock invece fino a quanto sale la tua?di default boosta a 2780 per stabilizzarsi a 2750 circa con 1,1 di volt e cmq temp poco superiori ai 50 gradi per tutti i valori, incredibile lo stesso. con undervolt e un piccolo aumento anche di frequenze diventa impressionante in tutti i sensi. e non ci sto nemmeno a perdere tanto tempo che scommetto troverei risultati anche migliori. ma non serve, sembra liquidata così, è stabile e affidabile per cui per qualche mhz in più o gradi in meno non mi rompo nemmeno oltre. fa paura questa game rock,
Inviato dal mio 2201116SG utilizzando Tapatalk
KampMatthew
02-02-2023, 10:15
Ragà una domanda. La curva non l'ho mai toccata, primo perchè ho cercato di andare sempre in alto e mai in basso :asd:, secondo perchè se mi devo mettere ad abbassare puntino per puntino non ho proprio la pazienza. Che voi sappiate, si deve fare per forza punto per punto o si può lasciare l'andamento della curva così com'è e abbassarla tutta insieme di "x" millivolt?
Ragà una domanda. La curva non l'ho mai toccata, primo perchè ho cercato di andare sempre in alto e mai in basso :asd:, secondo perchè se mi devo mettere ad abbassare puntino per puntino non ho proprio la pazienza. Che voi sappiate, si deve fare per forza punto per punto o si può lasciare l'andamento della curva così com'è e abbassarla tutta insieme di "x" millivolt?guarda che è molto meno complicato di quello che credi, e non si tocca quella solo per abbassare anzi, come ho scritto due post da io ho abbassato i voltaggi e aumentato le frequenze di default con due clic senza cercare tante rogne.... se vuoi ti linko una guida che rende il tutto semplicissimo
Inviato dal mio 2201116SG utilizzando Tapatalk
E' veramente figa la 4070. Io ho un case cubico in vetro molto stiloso perché lo tengo sotto alla TV. Con le 3000 non potevo chiudere il case (giustamente, perché il vetro a lato scheda video, per quanto bello, è un po' una cagata...), con la 4070 tutto chiuso mi gira (stock) massimo a 74 gradi. Mai vista salire di piu'. E non taglia le frequenze. Riesce a tenere benissimo la temperatura anche in un case di merda. Veramente top.
KampMatthew
02-02-2023, 10:54
guarda che è molto meno complicato di quello che credi, e non si tocca quella solo per abbassare anzi, come ho scritto due post da io ho abbassato i voltaggi e aumentato le frequenze di default con due clic senza cercare tante rogne.... se vuoi ti linko una guida che rende il tutto semplicissimo
Inviato dal mio 2201116SG utilizzando Tapatalk
Si lo avevo capito, ma questo sta avvenendo con queste ultime schede. "Una volta" se alzavi frequenze e non davi tensione non andavi da nessuna parte, poi c'era la scheda più fortunata e quella meno, ma in linea di principio + mhz = + volt.
Per la guida ti ringrazio, non è necessaria, l'ho guardato un po' ed effettivamente non ci vuole nulla, appena ho un po' di tempo da perderci faccio qualche prova.
Edit: tu di quanto hai downvoltato? E a partire da quale frequenza? Così non poarto da zero ed ho già un riferimento. Grazie.
Si lo avevo capito, ma questo sta avvenendo con queste ultime schede. "Una volta" se alzavi frequenze e non davi tensione non andavi da nessuna parte, poi c'era la scheda più fortunata e quella meno, ma in linea di principio + mhz = + volt.
Per la guida ti ringrazio, non è necessaria, l'ho guardato un po' ed effettivamente non ci vuole nulla, appena ho un po' di tempo da perderci faccio qualche prova.
Edit: tu di quanto hai downvoltato? E a partire da quale frequenza? Così non poarto da zero ed ho già un riferimento. Grazie.concordo una volta c'era pochissimo margine, adesso molto meno, ma con queste 4070 veramente fai quello che vuoi e restano temp allucinanti di tanto fredde sono
Inviato dal mio 2201116SG utilizzando Tapatalk
E' veramente figa la 4070. Io ho un case cubico in vetro molto stiloso perché lo tengo sotto alla TV. Con le 3000 non potevo chiudere il case (giustamente, perché il vetro a lato scheda video, per quanto bello, è un po' una cagata...), con la 4070 tutto chiuso mi gira (stock) massimo a 74 gradi. Mai vista salire di piu'. E non taglia le frequenze. Riesce a tenere benissimo la temperatura anche in un case di merda. Veramente top.e si sono fantastiche. credo in più tutte le marche, quelle più con dissi esagerato tipo la mia fanno impressione, hanno temp che sembrano sotto liquido a momenti
Inviato dal mio 2201116SG utilizzando Tapatalk
guarda che è molto meno complicato di quello che credi, e non si tocca quella solo per abbassare anzi, come ho scritto due post da io ho abbassato i voltaggi e aumentato le frequenze di default con due clic senza cercare tante rogne.... se vuoi ti linko una guida che rende il tutto semplicissimo
Inviato dal mio 2201116SG utilizzando Tapatalk
Se puoi, link anche a me, grazie :)
Se puoi, link anche a me, grazie :)https://essedihardware.it/undervolt-scheda-video/
io ho seguito questa guida molto semplice e chiara
Inviato dal mio 2201116SG utilizzando Tapatalk
che abbiate provato, 2600mhz a 900mv (visto sul tubo) è nella media o meglio?
io ho provato 2600@900mv e regge benissimo (stresstest di 3dmark) anche se fino a che non cambio CPU la VGA non viene mai stressata al 100% e quindi per me è inutile provare di più.
con la 4070 tutto chiuso mi gira (stock) massimo a 74 gradi. Mai vista salire di piu'. E non taglia le frequenze. Riesce a tenere benissimo la temperatura anche in un case di merda. Veramente top.
Merito del processo produttivo 4N e dei dissipatori sovradimensionati.
https://essedihardware.it/undervolt-scheda-video/
Grazie.
craesilo
02-02-2023, 18:20
se intendi il voltaggio e la frequenza, beh io oserei di più insommadai, io mi sono fatto curva ab a 2820 che cmq restano sempre 2805 con 0,995v....mai avuto un crash e temperature memorabili!!!! almeno io non ho mai avuto una vga cosi fredda e potente, con bf2042 massimo 45 gradi su gpu e memorie, ho spot mai oltre i 52. mai visto niente di simile
ho cappato a 2835-1000v, nessun problema giocando con la demo rottissima di forspoken :asd:
ho cappato a 2835-1000v, nessun problema giocando con la demo rottissima di forspoken :asd:
circa come me, io sto a 2805 ma 0,995 sicuramente c'e margine con le frequenze ma ti dirò, per una decina di mhz non mi sto a sbattere va gia di brutto cosi con temp eccezzionali, del resto le temp sono paurose anche con il voltaggio a default!! cmq soddisfattissimo, anche perchè economicamente sono andato anche un pò oltre il limite mio, mai speso tanto per una vga. ma almeno sono contento di brutto. le 80 per me sono fuori parametro purtroppo
nagashadow
02-02-2023, 18:35
In overclock a quanto arrivate col 3d mark
Io ho provato con +140 core e+1000 memorie e faccio 23608
craesilo
02-02-2023, 18:35
circa come me, io sto a 2805 ma 0,995 sicuramente c'e margine con le frequenze ma ti dirò, per una decina di mhz non mi sto a sbattere va gia di brutto cosi con temp eccezzionali, del resto le temp sono paurose anche con il voltaggio a default!! cmq soddisfattissimo, anche perchè economicamente sono andato anche un pò oltre il limite mio, mai speso tanto per una vga. ma almeno sono contento di brutto. le 80 per me sono fuori parametro purtroppo
con le memorie quanto potrei salire?
con le memorie quanto potrei salire?sinceramente mai toccate quelle in vita mia, approfitto per rispondere all'amico che ha chiesto del 3d mark.... sempre sinceramente ma saranno 10 anni che non lo installo. sarà l'età sarà non so cosa ma il mio bench preferito sono i giochi, già ho poco tempo se lo apreco per quelle cose. insomma quando cambio scheda so benissimo cosa dovrei guadagnare con un cambio hardware che sia cpu o gpu. e ovviamente cerco la stabilità. per cui non posso aiutarti col bench
Inviato dal mio 2201116SG utilizzando Tapatalk
craesilo
02-02-2023, 19:21
sinceramente mai toccate quelle in vita mia, approfitto per rispondere all'amico che ha chiesto del 3d mark.... sempre sinceramente ma saranno 10 anni che non lo installo. sarà l'età sarà non so cosa ma il mio bench preferito sono i giochi, già ho poco tempo se lo apreco per quelle cose. insomma quando cambio scheda so benissimo cosa dovrei guadagnare con un cambio hardware che sia cpu o gpu. e ovviamente cerco la stabilità. per cui non posso aiutarti col bench
Inviato dal mio 2201116SG utilizzando Tapatalk
confermo che quello è circa il limite anticrush, memorie ho messo +1000 per il momento
shauni86
02-02-2023, 19:26
scusate una 4070ti a 900 euro adesso come sarebbe?
i prezzi dite che si abbasseranno nei prossimi mesi? le 3070ti sono a 750 euro adesso
scusate una 4070ti a 900 euro adesso come sarebbe?
i prezzi dite che si abbasseranno nei prossimi mesi? le 3070ti sono a 750 euro adessosecondo me no per parecchi mesi, anche perché mi risulta che stia avendo successo. cmq la mia palit stava a 900 e con sconto bonifico pagata 880, dipende che marca cmq
Inviato dal mio 2201116SG utilizzando Tapatalk
shauni86
02-02-2023, 19:52
secondo me no per parecchi mesi, anche perché mi risulta che stia avendo successo. cmq la mia palit stava a 900 e con sconto bonifico pagata 880, dipende che marca cmq
Inviato dal mio 2201116SG utilizzando Tapatalk
ma entro l'estate/autunno quale potrebbe essere il prezzo della 4070ti?
come si ha lo sconto bonifico con amazon?
ma entro l'estate/autunno quale potrebbe essere il prezzo della 4070ti?
come si ha lo sconto bonifico con amazon?
per me per questa estate non ci saranno abbassamenti tangibili, lo spero.
lo sconto l'ho avuto nel negozio dove l'ho acquistata tra quelli che vedi in trovaprezzi, parecchi negozi applicano sconto del 2 per cento nel momento del pagamento. non tutti ma alcuni si.
shauni86
03-02-2023, 00:43
https://www.amazon.it/gp/product/B0BRKSXF4K/ref=ppx_yo_dt_b_asin_title_o01_s00?ie=UTF8&psc=1
conviene prenderla o meglio aspettare? 899 attualmente
https://www.amazon.it/gp/product/B0BRKSXF4K/ref=ppx_yo_dt_b_asin_title_o01_s00?ie=UTF8&psc=1
conviene prenderla o meglio aspettare? 899 attualmente
prendila a secco!!! secondo me
KampMatthew
03-02-2023, 06:18
900 € venduta e spedita da Amazon al momento è davvero un ottimo prezzo, per quello che è il mercato attuale delle vga. E' la stessa mia, presa 15 gg fa a 957 € sempre venduta e spedita da Amazon.
https://www.amazon.it/gp/product/B0BRKSXF4K/ref=ppx_yo_dt_b_asin_title_o01_s00?ie=UTF8&psc=1
conviene prenderla o meglio aspettare? 899 attualmente
prendila al volo
prendila al volo
Stesso prezzo anche da yeppon ma l'assistenza clienti Amazon è insuperabile
craesilo
03-02-2023, 09:44
l'ho portata a +151 a 1050mv, in pratica mi segna 2910mhz (su hwm), quasi stessa temp di prima
KampMatthew
03-02-2023, 10:14
per me per questa estate non ci saranno abbassamenti tangibili, lo spero.
Dipende anche da cosa farà AMD che per adesso, secondo me, sta sbagliando politica. Nvidia in un mesetto il taglio dei prezzi lo ha fatto, le 7900 invece le vedo sempre uguale e magari mi sbaglio ma qualche cliente lo sta perdendo. Io stesso volevo tornare in casa rossa ma una 7900 con Prime di Amazon, ad un "buon" prezzo, non l'ho mai vista.
shauni86
03-02-2023, 10:19
900 € venduta e spedita da Amazon al momento è davvero un ottimo prezzo, per quello che è il mercato attuale delle vga. E' la stessa mia, presa 15 gg fa a 957 € sempre venduta e spedita da Amazon.https://babeltechreviews.com/hellhound-rx-7900-xtx-vs-rtx-4080-50-games-vr/
https://hothardware.com/reviews/nvidia-geforce-rtx-4070-ti-review-with-asus?page=3
Mi servirebbe una nuova vga per la realtà virtuale principalmente, ero orientato sulla 4070ti, se vedete il secondo link sembra che non vada benissimo sulle risoluzioni alte per via del bandwidth bassino, mentre nel secondo link le amd sembra vadano bene (nel primo link invece non sembrano buone)
A chi credere e cosa prendere? E sta 4070ti è buona per la vr o no?
KampMatthew
03-02-2023, 10:36
Però leggevo che per la realtà virtuale non è proprio il massimo la 4070ti, perché ha una memory bandwidth scadente, qualcuno ne sa qualcosa?
Inviato dal mio M2102J20SG utilizzando Tapatalk
VR non ho proprio idea, certo la banda passante a causa del bus a 192 bit non può essere quello di una scheda con bus più alto, ma alla fine quello che conta sono le prestazioni. Per il 1440P Ultra è perfetta, per il 4k dipende dal gioco ed è lì che possono venire fuori i limiti del bus a 192 e dei 12gb di memoria, ma comunque si deve sempre vedere. Io ancora non ho provato ma sembra che il dlss3 nei giochi dov'è implementato faccia miracoli sugli fps senza impattare sulla qualità. Per il VR ti ripeto, non so dirti perchè non ne capisco nulla e non so quali siano i requisiti necessari ai vari giochi in circolazione (magari in questo specifico ambito faresti meglio a prendere una 7900xt che è di pari fascia), ma se fino a ieri andava bene una 3080 non vedo quale motivo ci sia per non consigliare una 4070ti che va di più sotto tutti gli aspetti. Poi per chi ci tiene, non sono da sottovalutare i bassi consumi e basse temperature.
Per il tuo quesito secondo me devi rivolgerti a qualche sito specializzato proprio su VR, non so qui dentro quante persone ci siano. A me per esempio non attira proprio.
craesilo
03-02-2023, 10:38
se vi può interessare potete creare una res a 1800p e usare quella, via di mezzo tra 1440p e 2160p
KampMatthew
03-02-2023, 10:44
se vi può interessare potete creare una res a 1800p e usare quella, via di mezzo tra 1440p e 2160p
Si lo facevo spesso sulla 1080, però va fatto nelle risoluzioni personalizzate, se non ricordo male nel dsr non è possibile la 1800P.
Si lo facevo spesso sulla 1080, però va fatto nelle risoluzioni personalizzate, se non ricordo male nel dsr non è possibile la 1800P.
Meglio ancora potete utilizzare il nuovo DLDSR :D
Praticamente a una risoluzione 1440p avete un 4k.
Se il gioco supporta il dlss attivate anche questo, in questo modo il DSDSR verrà sfruttato al massimo.
Guardate questo (https://www.youtube.com/watch?v=c3voyiojWl4) video :D
https://babeltechreviews.com/hellhound-rx-7900-xtx-vs-rtx-4080-50-games-vr/
https://hothardware.com/reviews/nvidia-geforce-rtx-4070-ti-review-with-asus?page=3
Mi servirebbe una nuova vga per la realtà virtuale principalmente, ero orientato sulla 4070ti, se vedete il secondo link sembra che non vada benissimo sulle risoluzioni alte per via del bandwidth bassino, mentre nel secondo link le amd sembra vadano bene (nel primo link invece non sembrano buone)
A chi credere e cosa prendere? E sta 4070ti è buona per la vr o no?ii posso dirti che in 4k con dead space sulla mia TV con vsync non scende mai sotto i 60 tutto al max dlss su qualità, cyberpunk tutto al max rt folle ma dlss su auto con frame generator sua sui 70, 80 in zone centrali potrebbe di gente. in quel caso di qualità il dlss sta sotto i 60, per quello che ho capito se metto auto fa il prestazioni.... sulla TV non noto la differenza, ma ho una Samsung led normalissima per cui non so. ma era giusto per farti capire un po' come si comporta. basta abbassare qualcosa e via, torni conto che giocavo in 4k decentemente anche con una 3070 e prima con una 2070 super. chiaramente sarebbe meglio in quel caso una 80 o una amd, ma mi pare che, soprattutto la 80, siano parecchi centoni in più.... valuta tu. ricordati che c'è il frame generator che implementeranno sempre di più. con quello non si attiva il vsync però. spero di averti aiutato
Inviato dal mio 2201116SG utilizzando Tapatalk
KampMatthew
03-02-2023, 11:44
ricordati che c'è il frame generator che implementeranno sempre di più. con quello non si attiva il vsync però.
Ma il g-sync del monitor funziona normalmente col dlss?
Ma il g-sync del monitor funziona normalmente col dlss?solo col dlss si, con frame generator arrivo l'opzione vsync si disattiva. almeno nei giochi che ho io. c'è da dire, sempre nei giochi che ho che non crea tearing... devo provare se si può bloccare i fotogrammi ancora con frame generator attivo
Inviato dal mio 2201116SG utilizzando Tapatalk
KampMatthew
03-02-2023, 12:29
Io purtroppo non ho ancora provato nessun gioco con queste funzionalità. Ma il frame generator che è? Io pensavo fosse il dlss chiamato in modo diverso. E' una ulteriore opzione presente nei giochi?
Poi non ho capito una cosa, quando dici "l'opzione vsync si disattiva" ti riferisci all'opzione sincronia verticale o a quella chiamata tecnologia monitor? Perchè sono 2 cose diverse. Puoi avere il v-sync spento o acceso indipendentemente dal g-sync, io infatti tengo il v-sync sempre spento e faccio andare solo il g-sync del monitor.
Io purtroppo non ho ancora provato nessun gioco con queste funzionalità. Ma il frame generator che è? Io pensavo fosse il dlss chiamato in modo diverso. E' una ulteriore opzione presente nei giochi?
Poi non ho capito una cosa, quando dici "l'opzione vsync si disattiva" ti riferisci all'opzione sincronia verticale o a quella chiamata tecnologia monitor? Perchè sono 2 cose diverse. Puoi avere il v-sync spento o acceso indipendentemente dal g-sync, io infatti tengo il v-sync sempre spento e faccio andare solo il g-sync del monitor.no no il frame generator disattiva il vsync non il gsync. il frame generator fa parte delle caratteristiche del dlss3, è il dlss3 solo che lo puoi attivare o disattivare a piacere nei giochi che lo supportano
Inviato dal mio 2201116SG utilizzando Tapatalk
KampMatthew
03-02-2023, 12:53
Ok grazie, a me il g-sync interessa. Attivare entrambi non ne vedo l'utilità, anche se, in giro ho trovato pareri molto discordi, ma finchè non ho problemi non ci sto a perdere tempo. :D
craesilo
03-02-2023, 12:56
qualcuno ha provato la demo di forspoken? c'è altra roba rotta/pesante su steam da scaricare aggratis?
a me gira 1800p 55-60fps (vsync 60) maxato dlss quality
Ok grazie, a me il g-sync interessa. Attivare entrambi non ne vedo l'utilità, anche se, in giro ho trovato pareri molto discordi, ma finchè non ho problemi non ci sto a perdere tempo. :D
Se il monitor ha il g-sync (come ill mio :D ) il v-sync va disattivato dai giochi è attivato direttamente dal panello di controllo di Nvidia.
C'è poco da discutere su questo: il G-sync è stato progettato per funzionare con il v-sync.
Puoi approfondire l'argomento con questa (https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/) ottima guida :D
KampMatthew
03-02-2023, 19:22
Se il monitor ha il g-sync (come ill mio :D ) il v-sync va disattivato dai giochi è attivato direttamente dal panello di controllo di Nvidia.
C'è poco da discutere su questo: il G-sync è stato progettato per funzionare con il v-sync.
Puoi approfondire l'argomento con questa (https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/) ottima guida :D
Ma se vedi anche in questa guida spiega come funziona e come tu stesso puoi vedere ad un certo punto contempla anche la disattivazione del vsync. Se verso l'alto metti un cap agli fps il vsync non ha senso perchè non avrai mai tearing visto che metti un numero di fps massimo al di sotto della frequenza massima del monitor. La questione è che non è una scienza esatta ma a volte gli stessi settaggi possono reagire in modo diverso a seconda del monitor, del gioco o di altri fattori.
Ad ogni modo, per mia esperienza, facendo come ti ho detto da quando uso questo monitor non ho mai avuto tearing o scattosità di qualche tipo. Per esempio adesso sto giocando a MW2 remastered e se lo gioco a 1440P fa millemila fps, ma veramente oltre 1000, e solo col gsync del monitor (vsync disattivato sia in gioco che nel pannello nvidia) non ho nessun tearing. Chiaramente poi ho messo il limite a 160 hz visto che quegli fps in più non servono a nulla se non a consumare corrente.
Poi vabbè, alla fine ho messo un bel 4x nella scala di risoluzione del gioco ottenendo quindi 5120x2880 e con tutto a manetta nel gioco e tutto su qualità nel driver non c'è bisogno nemmeno del cap sugli fps massimi, sta sotto i 100 :asd:
KampMatthew
06-02-2023, 12:05
Salve ragazzi, ma voi il resizable bar lo tenete attivato?
Io l'ho attivato ma allo stato pratico non cambia nulla,circa 2 pfs in più in Cyberpunk 2077 in 4k.
Salve ragazzi, ma voi il resizable bar lo tenete attivato?
Io l'ho attivato ma allo stato pratico non cambia nulla,circa 2 pfs in più in Cyberpunk 2077 in 4k.
si meglio attivo.
KampMatthew
06-02-2023, 17:54
ok, insieme a questa voce va attivata anche l'altra voce 4G Encoding vero?
si meglio attivo.ma da dove si attiva? anche con win10?
Inviato dal mio 2201116SG utilizzando Tapatalk
craesilo
06-02-2023, 18:42
ma da dove si attiva? anche con win10?
Inviato dal mio 2201116SG utilizzando Tapatalk
bios della mobo, guarda se trovi come fare sul tubo
Ho preso la PNY Verto a 899 sull'amazzone.
L'ho messa in undervolt a 2600Mhz - 0,920mV, sono passato da 272W a 192W a pieno carico, perdendo meno del 4% di prestazioni e con le ventole che non si sentono più. Stabile dopo 20 loop di stress test con il 3D Mark Speed Way. In Hi-Fi Rush 4k 60Hz tutto maxato consuma 72W. Una meraviglia.
Unico "problema" le memorie raffreddate ad minchiam, arrivano a 80°C, ma va bene così.
Ora devo vendere la mia 3060 Ti.
ReBAR l'hanno introdotto con l'11a gen se non sbaglio.
Se non lo trovi nel bios, o hai una cpu più vecchia oppure devi aggiornare il bios.
shauni86
07-02-2023, 12:01
Ho preso la PNY Verto a 899 sull'amazzone.
L'ho messa in undervolt a 2600Mhz - 0,920mV, sono passato da 272W a 192W a pieno carico, perdendo meno del 4% di prestazioni e con le ventole che non si sentono più. Stabile dopo 20 loop di stress test con il 3D Mark Speed Way. In Hi-Fi Rush 4k 60Hz tutto maxato consuma 72W. Una meraviglia.
Unico "problema" le memorie raffreddate ad minchiam, arrivano a 80°C, ma va bene così.
Ora devo vendere la mia 3060 Ti.
volevo prenderla ma il bus castrato mi ha fatto pensare, giocando in vr a risoluzioni alte è fondamentale la banda passante
Ho preso la PNY Verto a 899 sull'amazzone.
Ci stavo facendo un pensierino, perché bianche si trova solo la Aero che non mi piace granché. Per curiosità, a te dava l'opzione di pagamento con rate amazon (non cofidis)?
Ci stavo facendo un pensierino, perché bianche si trova solo la Aero che non mi piace granché. Per curiosità, a te dava l'opzione di pagamento con rate amazon (non cofidis)?
Non ci ho fatto caso, mi spiace
craesilo
07-02-2023, 12:45
ReBAR l'hanno introdotto con l'11a gen se non sbaglio.
Se non lo trovi nel bios, o hai una cpu più vecchia oppure devi aggiornare il bios.
io ce l'ho con la 10a e z490
ReBAR l'hanno introdotto con l'11a gen se non sbaglio.
Se non lo trovi nel bios, o hai una cpu più vecchia oppure devi aggiornare il bios.ho un 5800x, dopo controllo, grazie
Inviato dal mio 2201116SG utilizzando Tapatalk
Ho preso la PNY Verto a 899 sull'amazzone.
L'ho messa in undervolt a 2600Mhz - 0,920mV, sono passato da 272W a 192W a pieno carico, perdendo meno del 4% di prestazioni e con le ventole che non si sentono più. Stabile dopo 20 loop di stress test con il 3D Mark Speed Way. In Hi-Fi Rush 4k 60Hz tutto maxato consuma 72W. Una meraviglia.
Unico "problema" le memorie raffreddate ad minchiam, arrivano a 80°C, ma va bene così.
Ora devo vendere la mia 3060 Ti.ma perché non provi tipo me un 0.995v a 2805? glaciale, sta a 45 gradi la gpu, 49 hot spot e 41 le memorie, strano che la tua abbia memorie cosi calde...ps il tutto con 20 gradi in casa
Inviato dal mio 2201116SG utilizzando Tapatalk
ma perché non provi tipo me un 0.995v a 2805? glaciale, sta a 45 gradi la gpu, 49 hot spot e 41 le memorie, strano che la tua scusa memorie calde...ps il tutto con 20 gradi in casa
Inviato dal mio 2201116SG utilizzando Tapatalk
Provato come te, va in crash dopo pochi minuti.
Il mio case è un Fractal Define Mini C con i pannelli fonoassorbenti, non aiuta con le temperature.
Provato come te, va in crash dopo pochi minuti.
Il mio case è un Fractal Define Mini C con i pannelli fonoassorbenti, non aiuta con le temperature.
ah ok capito, scusami era solo un consiglio, ;)
craesilo
07-02-2023, 15:14
Ho preso la PNY Verto a 899 sull'amazzone.
L'ho messa in undervolt a 2600Mhz - 0,920mV, sono passato da 272W a 192W a pieno carico, perdendo meno del 4% di prestazioni e con le ventole che non si sentono più. Stabile dopo 20 loop di stress test con il 3D Mark Speed Way. In Hi-Fi Rush 4k 60Hz tutto maxato consuma 72W. Una meraviglia.
Unico "problema" le memorie raffreddate ad minchiam, arrivano a 80°C, ma va bene così.
Ora devo vendere la mia 3060 Ti.
80 è troppo strano, o è sbagliata la rilevazione o sono difettate
volevo prenderla ma il bus castrato mi ha fatto pensare, giocando in vr a risoluzioni alte è fondamentale la banda passante
Cioè che intendi?? Non va bene una 4070ti in Vr??
80 è troppo strano, o è sbagliata la rilevazione o sono difettate
Probabilmente il montaggio dei pad termici non è impeccabile.
In ogni caso da specifica possono arrivare tranquillamente a 95°C
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x
Probabilmente il montaggio dei pad termici non è impeccabile.
In ogni caso da specifica possono arrivare tranquillamente a 95°C
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6xsi ma se in pieno inverno stanno a 80 questa estate?
Inviato dal mio 2201116SG utilizzando Tapatalk
si ma se in pieno inverno stanno a 80 questa estate?
Inviato dal mio 2201116SG utilizzando Tapatalk
In estate le ventole gireranno di più, ora sono quasi ferme :sofico:
Oppure comprerò un case airflow.
shauni86
07-02-2023, 19:20
Cioè che intendi?? Non va bene una 4070ti in Vr??
da quel che ho letto dicono che il bus ad alte risoluzioni potrebbe essere un problema
KampMatthew
07-02-2023, 21:30
Ho provato Cyberpunk in 4k tutto su ultra, compreso RT e tutto su qualità nel pannello nvidia. Il bus è salito massimo al 50% di occupazione. Più che il bus, il problema potrebbe essere la memoria. Di vr io non ne so nulla e non ho proprio idea di come funzioni, ma immagino che anche lì la questione fondamentale sia la quantità di memoria. Con i settaggi di cui sopra la scheda gira sui 70 fps di media, minimo 50 e massimo 90, ma arriva a saturare tutta la memoria, 11.7 GB.
Adesso però mi serve una mano a capire una cosa: su monitor 1440 attivando il DLDSR a 2.25 si va chiaramente in 4k. Il problema è che non funziona il gsync del monitor con Cyberpunk. Allora ho provato a disattivare il DLSDR e creare una risoluzione custom, sempre 4k, nemmeno funziona. Ne ho creata un'altra a 3200x1800 e funziona perfettamente. Che voi sappiate, è un problema di Cyberpunk o degli ultimi driver nvidia?
In passato quando avevo la 1080, con i giochi in cui me lo potevo permettere usavo spesso la 4k come risoluzione personalizzata e il gsync ha sempre funzionato perfettamente.
Ho provato Cyberpunk in 4k tutto su ultra, compreso RT e tutto su qualità nel pannello nvidia. Il bus è salito massimo al 50% di occupazione. Più che il bus, il problema potrebbe essere la memoria. Di vr io non ne so nulla e non ho proprio idea di come funzioni, ma immagino che anche lì la questione fondamentale sia la quantità di memoria. Con i settaggi di cui sopra la scheda gira sui 70 fps di media, minimo 50 e massimo 90, ma arriva a saturare tutta la memoria, 11.7 GB.
Adesso però mi serve una mano a capire una cosa: su monitor 1440 attivando il DLDSR a 2.25 si va chiaramente in 4k. Il problema è che non funziona il gsync del monitor con Cyberpunk. Allora ho provato a disattivare il DLSDR e creare una risoluzione custom, sempre 4k, nemmeno funziona. Ne ho creata un'altra a 3200x1800 e funziona perfettamente. Che voi sappiate, è un problema di Cyberpunk o degli ultimi driver nvidia?
In passato quando avevo la 1080, con i giochi in cui me lo potevo permettere usavo spesso la 4k come risoluzione personalizzata e il gsync ha sempre funzionato perfettamente.
secondo me non ti funziona perchè hai attivato, giustamente dico, il frame generator.....pure io ho notato questa cosa....lo fa anche con the witcher update
KampMatthew
07-02-2023, 22:06
secondo me non ti funziona perchè hai attivato, giustamente dico, il frame generator.....pure io ho notato questa cosa....lo fa anche con the witcher update
ok grazie, dopo riprovo senza e ti faccio sapere, però se creo una risoluz. custom a 3200x1800 (quindi no DLDSR) anche con frame generator attivato funziona...bho.
Comunque anche a 1440 vedo che se ne vanno oltre 10GB di memoria video...sta cosa inizia a preoccuparmi :asd: sono ancora in tempo a rendere e prendere una bella 7900xt con memoria a vagonate.
ok grazie, dopo riprovo senza e ti faccio sapere, però se creo una risoluz. custom a 3200x1800 (quindi no DLDSR) anche con frame generator attivato funziona...bho.
Comunque anche a 1440 vedo che se ne vanno oltre 10GB di memoria video...sta cosa inizia a preoccuparmi :asd: sono ancora in tempo a rendere e prendere una bella 7900xt con memoria a vagonate.vedi tu per quello che devi fare, ognuna ha i suoi pregi e difetti. le amd vanno tanto soprattutto in raster, ma dlss3, frame generator ecc... io non ci rinuncerei mai. oltre alla stabilità driver sicuramente a favore delle verdi.
Inviato dal mio 2201116SG utilizzando Tapatalk
ReBAR l'hanno introdotto con l'11a gen se non sbaglio.
Se non lo trovi nel bios, o hai una cpu più vecchia oppure devi aggiornare il bios.
cmq nel bios della mia x570elite gigabyte c'è ma anche se lo attivo poi me lo ritrovo non attivo dai driver. non ho letto in giro che non funzioni con win10 ma non capisco come attivarlo però a sto punto
KampMatthew
08-02-2023, 07:52
vedi tu per quello che devi fare, ognuna ha i suoi pregi e difetti. le amd vanno tanto soprattutto in raster, ma dlss3, frame generator ecc... io non ci rinuncerei mai. oltre alla stabilità driver sicuramente a favore delle verdi.
Inviato dal mio 2201116SG utilizzando Tapatalk
Guarda, è proprio questo che mi ha portato ad acquistare di nuovo nvidia. Col pc ci lavoro anche, oltre che a giocarci, per cui una volta installato deve funzionare tutto come una roccia senza perdite di tempo e avendo avuto entrambi i marchi devo dire che con nvidia ho avuto meno problemi.
Comunque, tornando alla questione di prima, ho disattivato il frame generator ma il g-sync continua a non funzionare, alla fine ho disattivato anche il DLSS e manco va, in pratica funziona solo alla ris. nativa del monitor, 1440.... però....:muro: se metto DLSDR a 2.25 (4K) e setto la risoluzione del desktop a 4k, allora funziona anche il gsync. Ora la questione è che il monitor è 1440 nativo, anche se la tiene la 4k, non sono sicuro gli faccia bene. Secondo me è il gioco che ha qualche problema, tra l'altro mi è capitato di entrare e uscire dal menù e ogni volta il gioco si inchioda per un mezzo secondo, e anche questo sembra sia un problema noto. Ho trovato una discussione dove appunto si parla delle stesse cose. https://www.reddit.com/r/nvidia/comments/10q3wti/psa_turning_on_frame_generation_in_the_new/
Una domanda, ma giocando a risol. nativa di 1440, il DLSS ha senso? Ho letto che serve solo quando si va di dsr/dldsr.
cmq nel bios della mia x570elite gigabyte c'è ma anche se lo attivo poi me lo ritrovo non attivo dai driver. non ho letto in giro che non funzioni con win10 ma non capisco come attivarlo però a sto punto
Hai attivato anche l'altra opzione "4G encode" o una cosa del genere?
Guarda, è proprio questo che mi ha portato ad acquistare di nuovo nvidia. Col pc ci lavoro anche, oltre che a giocarci, per cui una volta installato deve funzionare tutto come una roccia senza perdite di tempo e avendo avuto entrambi i marchi devo dire che con nvidia ho avuto meno problemi.
Comunque, tornando alla questione di prima, ho disattivato il frame generator ma il g-sync continua a non funzionare, alla fine ho disattivato anche il DLSS e manco va, in pratica funziona solo alla ris. nativa del monitor, 1440.... però....:muro: se metto DLSDR a 2.25 (4K) e setto la risoluzione del desktop a 4k, allora funziona anche il gsync. Ora la questione è che il monitor è 1440 nativo, anche se la tiene la 4k, non sono sicuro gli faccia bene. Secondo me è il gioco che ha qualche problema, tra l'altro mi è capitato di entrare e uscire dal menù e ogni volta il gioco si inchioda per un mezzo secondo, e anche questo sembra sia un problema noto. Ho trovato una discussione dove appunto si parla delle stesse cose. https://www.reddit.com/r/nvidia/comments/10q3wti/psa_turning_on_frame_generation_in_the_new/
Una domanda, ma giocando a risol. nativa di 1440, il DLSS ha senso? Ho letto che serve solo quando si va di dsr/dldsr.
Hai attivato anche l'altra opzione "4G encode" o una cosa del genere?
certo che serve in 2k, io personalmente ti dico perchè per me il dlss è irrinunciabile, perchè oltre che farti guadagnare parecchi fps, tantissimi col dlss3, lo trovo la migliore forma di antialiasing mai creata, migliora l'immagine come nessun aa ha mai fatto prima, che poi ci sia gente che prende una schermata di un gioco , la ritagli e la zoommi al 4x per dimostrare invece il contrario lo trovo decisamente ridicolo, io un gioco lo giudico in movimento e se mi hanno inventato questa cosa che , ripeto per me, lo rende migliore visivamente facendomi anche guadagnare una vagonata di fotogrammi...beh....per me una delle cose migliori che ha fatto nvidia da sempre a cui non ci rinuncerei mai e poi mai.
per la tua seconda risposta è si, ho attivato pure quel opzione, la partizione windows è in GPT ed ho pure disabilitato il CSM...sinceramente non saprei che altro fare ma resta disabilitato
KampMatthew
08-02-2023, 08:38
certo che serve in 2k, io personalmente ti dico perchè per me il dlss è irrinunciabile, perchè oltre che farti guadagnare parecchi fps, tantissimi col dlss3, lo trovo la migliore forma di antialiasing mai creata, migliora l'immagine come nessun aa ha mai fatto prima, che poi ci sia gente che prende una schermata di un gioco , la ritagli e la zoommi al 4x per dimostrare invece il contrario lo trovo decisamente ridicolo, io un gioco lo giudico in movimento e se mi hanno inventato questa cosa che , ripeto per me, lo rende migliore visivamente facendomi anche guadagnare una vagonata di fotogrammi...beh....per me una delle cose migliori che ha fatto nvidia da sempre a cui non ci rinuncerei mai e poi mai.
per la tua seconda risposta è si, ho attivato pure quel opzione
E' che per me son tutte cose nuove, magari molti di voi provenendo da serie 3 avevate già queste funzionalità, io che ne vengo da una 1080, per me è tutto nuovo e il fatto è che se perdo tempo a fare troppi bench, comparazioni azzi e mazzi, quel poco di tempo libero che ho lo butto via così invece che per giocare, il fatto che prima o poi bisogna impararle. A proposito, la nitidezza c'è un valore che più o meno tieni sempre o lo cambi in base al gioco? Ancora non l'ho sperimentata, ho lasciato di default a 0.15 se non ricordo male.
Per il BAR dove hai visto che è disattivato? Nel pannello nvidia -> informazioni sul sistema... la voce BAR Ridimensionabile? Hai controllato anche con GPU-Z?
E' che per me son tutte cose nuove, magari molti di voi provenendo da serie 3 avevate già queste funzionalità, io che ne vengo da una 1080, per me è tutto nuovo e il fatto è che se perdo tempo a fare troppi bench, comparazioni azzi e mazzi, quel poco di tempo libero che ho lo butto via così invece che per giocare, il fatto che prima o poi bisogna impararle. A proposito, la nitidezza c'è un valore che più o meno tieni sempre o lo cambi in base al gioco? Ancora non l'ho sperimentata, ho lasciato di default a 0.15 se non ricordo male.
Per il BAR dove hai visto che è disattivato? Nel pannello nvidia -> informazioni sul sistema... la voce BAR Ridimensionabile? Hai controllato anche con GPU-Z?
infatti non perderti tanto a smanettare e fare bench, attiva il dlss e goditi i giochi con tanti fps in piu, la nitidezza di solito la lascio cosi ma dipende anche da gioco e gioco, la trovo una cosa soggettiva come per dire i colori dello schermo...
riguardo la bar si è disattivata ovunque, sia da driver che da gpuz per dire
A proposito, la nitidezza c'è un valore che più o meno tieni sempre o lo cambi in base al gioco? Ancora non l'ho sperimentata, ho lasciato di default a 0.15 se non ricordo male.
Dipende dal gioco, negli ultimi mesi gli sviluppatori hanno imparato a settarla bene di default, almeno per i miei gusti. E' tantissimo che non la cambio.
Non ho esperienza con il 1440p.
KampMatthew
08-02-2023, 09:02
Si infatti, la nitidezza va a gusti, ho appena fatto una prova veloce e giusto per vedere la differenza netta, ho portato da 0.2 al massimo. In questo modo ci sono alcuni oggetti che per me brillano davvero troppo.
Riguardo al Res. BAR, vedo in firma che prima avevi una scheda della serie 2... hai provato a fare un reset del bios? Che io sappia la serie RTX 2 non supporta questa funzione, non vorrei che sia rimasto qualcosa della scheda vecchia nel bios che non lo attiva.
PS: piccolo OT, che voi sappiate, esiste un modo su Win 10 per attivare l'HDR insieme al gioco e poi disattivarlo quando si esce dal gioco, in automatico? E' una vera rottura attivarlo e disattivarlo a mano ogni volta.
da quando avevo una serie 2000 ho avuto anche una 3000, e cmq avevo anche aggiornato il bios abbastanza recentemente. in realta ho visto che ci sono nuove versioni ma mi secca tornare ad aggiornarlo visto che ho visto dei video che attivavano la bar con versioni ben più vecchie della mia.
craesilo
08-02-2023, 09:17
Una domanda, ma giocando a risol. nativa di 1440, il DLSS ha senso?
ovvio che si, serve solamente ad aumentare fps a prescindere da come giochi
PS: piccolo OT, che voi sappiate, esiste un modo su Win 10 per attivare l'HDR insieme al gioco e poi disattivarlo quando si esce dal gioco, in automatico? E' una vera rottura attivarlo e disattivarlo a mano ogni volta.
mi è capitato di attivarlo solo da gioco e quando tornavo in w10 non c'era
da quando avevo una serie 2000 ho avuto anche una 3000, e cmq avevo anche aggiornato il bios abbastanza recentemente. in realta ho visto che ci sono nuove versioni ma mi secca tornare ad aggiornarlo visto che ho visto dei video che attivavano la bar con versioni ben più vecchie della mia.
alla fine ho aggiornato bios all'ultimissima versione e adesso la bar è attiva!!
KampMatthew
08-02-2023, 09:46
mi è capitato di attivarlo solo da gioco e quando tornavo in w10 non c'era
Ma su 10 o su 11? Mi sembra di aver letto che 11 ha delle differenti possibilità di settaggio per hdr, se non ricordo male ha anche la funzione auto hdr ma non so di preciso cosa faccia.
Ad ogni modo, a me se non lo attivo in windows, nel gioco non me lo fa proprio selezionare, è settato su NO e non si schioda.
Ci vorrebbe un programma o qualcosa che faccia andare l'hdr quando parte un gioco e lo spenga quando si esce dal gioco, ma io non l'ho trovato.
Comunque stò Cyberpunk ha rotto la m1nchi@ :asd:
Avevo fatto una risol. custom 3200x1800 e funzionava tutto perfettamente, anche il gsync, ho attivato l'hdr e di nuovo non funziona, va solo se setto 1440. Tolto l'hdr per verifica, funziona di nuovo la 3200x1800.
Poi nel bench alla voce fps massimi sta cominciando proprio a dare i numeri alla pene di segugio. Bel 1661 fps, manco 2 4090 messe insieme:rotfl:
alla fine ho aggiornato bios all'ultimissima versione e adesso la bar è attiva!!
Bho, magari quella vecchia aveva qualche bug.
craesilo
08-02-2023, 09:51
Ma su 10 o su 11? Mi sembra di aver letto che 11 ha delle differenti possibilità di settaggio per hdr, se non ricordo male ha anche la funzione auto hdr ma non so di preciso cosa faccia.
Ad ogni modo, a me se non lo attivo in windows, nel gioco non me lo fa proprio selezionare, è settato su NO e non si schioda.
Ci vorrebbe un programma o qualcosa che faccia andare l'hdr quando parte un gioco e lo spenga quando si esce dal gioco, ma io non l'ho trovato.
Comunque stò Cyberpunk ha rotto la m1nchi@ :asd:
Avevo fatto una risol. custom 3200x1800 e funzionava tutto perfettamente, anche il gsync, ho attivato l'hdr e di nuovo non funziona, va solo se setto 1440. Tolto l'hdr per verifica, funziona di nuovo la 3200x1800.
Poi nel bench alla voce fps massimi sta cominciando proprio a dare i numeri alla pene di segugio. Bel 1661 fps, manco 2 4090 messe insieme:rotfl:
su entrambi, per es ho hdr off in win ma in elden ring è attivo e la tv lo rileva
riguardo l'altra cosa potrebbe dipendere dal fatto che lo schermo non supporta quella res e gsync e hdr insieme (hdmi 2.0?)
KampMatthew
08-02-2023, 10:07
su entrambi, per es ho hdr off in win ma in elden ring è attivo e la tv lo rileva
Bho, non so che pensare, a me ha sempre fatto così, se non lo attivo da windows nei giochi non è possibile attivarlo.
Adesso che feci il pc nuovo ovviamente reinstallai tutto da capo, tutto aggiornato e fa comunque uguale, chissà che non dipenda dal monitor, però mi sembra strano.
riguardo l'altra cosa potrebbe dipendere dal fatto che lo schermo non supporta quella res e gsync e hdr insieme (hdmi 2.0?)
No no, sono su DP, però magari è come dici tu, ad ogni modo Cyberpunk dei difetti li ha ancora. Non oso immaginare quando uscì.
KampMatthew
08-02-2023, 12:48
Alla fine mi sono messo l'anima in pace e lo sto giocando a 1440, gsync che va una bellezza, tutto su ultra ed è una bella goduria per gli occhi viaggiando tra i 100 e i 120 fps continui.
L'unico problemino riscontrato è che quando entro nei menù, dopo quando esco, si freeza per una porzione di secondo, ma poi subito riprende. Ho letto di alcuni, anche nella discussione che ho linkato prima, che hanno lo stesso problema ma onestamente me ne frego, non cambia l'esperienza di gioco e non mi va di mettermi a fare altre mille prove che poi se è un problema del gioco, manco niente posso farci.
shauni86
10-02-2023, 02:28
Ho provato Cyberpunk in 4k tutto su ultra, compreso RT e tutto su qualità nel pannello nvidia. Il bus è salito massimo al 50% di occupazione. Più che il bus, il problema potrebbe essere la memoria. Di vr io non ne so nulla e non ho proprio idea di come funzioni, ma immagino che anche lì la questione fondamentale sia la quantità di memoria. Con i settaggi di cui sopra la scheda gira sui 70 fps di media, minimo 50 e massimo 90, ma arriva a saturare tutta la memoria, 11.7 GB.
Adesso però mi serve una mano a capire una cosa: su monitor 1440 attivando il DLDSR a 2.25 si va chiaramente in 4k. Il problema è che non funziona il gsync del monitor con Cyberpunk. Allora ho provato a disattivare il DLSDR e creare una risoluzione custom, sempre 4k, nemmeno funziona. Ne ho creata un'altra a 3200x1800 e funziona perfettamente. Che voi sappiate, è un problema di Cyberpunk o degli ultimi driver nvidia?
In passato quando avevo la 1080, con i giochi in cui me lo potevo permettere usavo spesso la 4k come risoluzione personalizzata e il gsync ha sempre funzionato perfettamente.
leggo solo adesso, per bus intendo il memory bandwidth che è cappato a 192bit
tu intendevi questo?
KampMatthew
10-02-2023, 08:29
Non capisco perchè dici "cappato". Questi strani neologismi mi fanno venire il palletico. :asd: Non c'è nessu cap, è così, 192 bit. Punto. Non è che io che sono 180 cm sono "cappato" solo perchè nel NBA il più basso è 2 metri e 10. :rotfl:
E comunque non devi fare confusione, il memory bandwidth è la banda passante totale, i 192 bit sono il bus dell'interfaccia con le memorie.
Per calcolare il memory bandwidth devi moltiplicare la frequenza delle memorie per il bus per il numero di bit che viaggiano per ogni ciclo di clock
Nel caso della 4070ti la frequenza se non ricordo male è 10500x192x2 (2 perchè sono 2 bit per ogni ciclo di clock) e viene 4032000 mbit, dividi per 8 = 504000 mbyte, dividi per 1000 = 504 Gbyte.
Mò, dopo questa filippica, prendi per esempio una "vecchia" 6800XT, ha 512 contro i nostri 504. Non penserai mica che la 6800xt vada meglio della 4070?
Prendi la diretta concorrente della 4070ti, la 7900xt. Ha 800 GB/s di memory bandwidth, ma non è che va una volta e mezzo la 4070ti. Nelle prestazioni finali sono simili, una va meglio in una cosa, una nell'altra, ma mai si discostano più di tanto nelle performance finali.
Questo per farti capire che il memory bandwidth è solo una delle tante caratteristiche della scheda, ma non è detto che sia un cesso solo perchè ogni volta che escono nuove schede ci sono i tifosi da stadio da entrambe le parti che fanno disinformazione smerdandosi a vicenda.
La scheda va come deve andare, il suo uso principale è il 1440P a fps molto alti, anche senza usare i vari trucchetti dlss e fame generator, per il 4k c'è la 4080 e per l'infinito e oltre la 4090.
Che poi la si voglia usare anche in 4k ci sta, ma a quel punto il limite diventano le memorie, con Cyberpunk (settato però tutto su ultra) i 12 GB sono quasi finiti, ma comunque andava liscio, e Cyberpunk è un gioco che in alcuni punti muove una quantità esagerata di roba sullo schermo.
Poi vabbè, di vr io non ne so nulla ma secondo me devi chiedere in un forum a tema prevalente vr. Trovaerai sicuro gente che già la usa e che potrà dirti come va, poi è chiaro che se vuoi andare sul sicuro senza aggiungerci un capitale, la 4080 è la scelta giusta che ti costa comunque 500 neuri in più, di media.
bagnino89
10-02-2023, 13:32
Non capisco perchè dici "cappato". Questi strani neologismi mi fanno venire il palletico. :asd: Non c'è nessu cap, è così, 192 bit. Punto. Non è che io che sono 180 cm sono "cappato" solo perchè nel NBA il più basso è 2 metri e 10. :rotfl:
E comunque non devi fare confusione, il memory bandwidth è la banda passante totale, i 192 bit sono il bus dell'interfaccia con le memorie.
Per calcolare il memory bandwidth devi moltiplicare la frequenza delle memorie per il bus per il numero di bit che viaggiano per ogni ciclo di clock
Nel caso della 4070ti la frequenza se non ricordo male è 10500x192x2 (2 perchè sono 2 bit per ogni ciclo di clock) e viene 4032000 mbit, dividi per 8 = 504000 mbyte, dividi per 1000 = 504 Gbyte.
Mò, dopo questa filippica, prendi per esempio una "vecchia" 6800XT, ha 512 contro i nostri 504. Non penserai mica che la 6800xt vada meglio della 4070?
Prendi la diretta concorrente della 4070ti, la 7900xt. Ha 800 GB/s di memory bandwidth, ma non è che va una volta e mezzo la 4070ti. Nelle prestazioni finali sono simili, una va meglio in una cosa, una nell'altra, ma mai si discostano più di tanto nelle performance finali.
Questo per farti capire che il memory bandwidth è solo una delle tante caratteristiche della scheda, ma non è detto che sia un cesso solo perchè ogni volta che escono nuove schede ci sono i tifosi da stadio da entrambe le parti che fanno disinformazione smerdandosi a vicenda.
La scheda va come deve andare, il suo uso principale è il 1440P a fps molto alti, anche senza usare i vari trucchetti dlss e fame generator, per il 4k c'è la 4080 e per l'infinito e oltre la 4090.
Che poi la si voglia usare anche in 4k ci sta, ma a quel punto il limite diventano le memorie, con Cyberpunk (settato però tutto su ultra) i 12 GB sono quasi finiti, ma comunque andava liscio, e Cyberpunk è un gioco che in alcuni punti muove una quantità esagerata di roba sullo schermo.
Poi vabbè, di vr io non ne so nulla ma secondo me devi chiedere in un forum a tema prevalente vr. Trovaerai sicuro gente che già la usa e che potrà dirti come va, poi è chiaro che se vuoi andare sul sicuro senza aggiungerci un capitale, la 4080 è la scelta giusta che ti costa comunque 500 neuri in più, di media.
Il punto è che Giacchetta ti ha venduto un chippettino del cavolo facendotelo pagare un sacco.
Chippettino che va forte principalmente per la bontà del processo produttivo (= alto clock), e non per l'architettura.
OrazioOC
10-02-2023, 14:23
Il punto è che Giacchetta ti ha venduto un chippettino del cavolo facendotelo pagare un sacco.
Chippettino che va forte principalmente per la bontà del processo produttivo (= alto clock), e non per l'architettura.
Sante parole. :O
Il punto è che Giacchetta ti ha venduto un chippettino del cavolo facendotelo pagare un sacco.
Chippettino che va forte principalmente per la bontà del processo produttivo (= alto clock), e non per l'architettura.
"Un sacco" se rapportato ai prezzi di listino delle 3000 che nessuno ha mai visto in due anni.... raffrontato alla realtà, PURTROPPO, il prezzo delle 4070Ti non è manco male.
bagnino89
10-02-2023, 15:37
"Un sacco" se rapportato ai prezzi di listino delle 3000 che nessuno ha mai visto in due anni.... raffrontato alla realtà, PURTROPPO, il prezzo delle 4070Ti non è manco male.
Questo è quello che vuol far crederti Giacchetta; non ci cascare.
La 4070 Ti doveva essere venduta come una scheda di fascia inferiore, e doveva costare sui 600-700 EUR, e mi sento generoso.
KampMatthew
10-02-2023, 15:52
Il punto è che Giacchetta ti ha venduto un chippettino del cavolo
Mi piacerebbe capire cosa vuol dire "chippettino del cavolo" con argomentazioni tecniche e non con parole passate da un forum all'altro uscite dalla bocca di "qualcuno che ne capisce".
Vuoi sapere una cosa? Per me che ho lavorato 25 anni nell'elettronica dove avevo a che fare prevalentemente con roba analogica e poco digitale, il massimo su cui sono arrivato a mettere le mani è stata roba avionica che andava su ARINC 429 (e manco tanto ci ho capito), quello che sono arrivati a fare negli ultimi anni mi sembra un miracolo. Mò, se tu e altri utenti del forum, siete tutti ingegneri elettronici con 4 lauree aggiunte e 50 master seri alle spalle, buon per voi. Però spiegatecelo anche a noi comuni mortali. Personalmente proprio cippettino del cavolo non lo definirei.
facendotelo pagare un sacco.
Il mercato attuale è questo. Mi serviva una nuova scheda grafica, che dovevo fare? Andavo in casa Amd o Nvidia con un fucile d'assalto e gli dicevo: o abbassate i prezzi o vi sfondo? :rotfl:
Oppure prendevo una 3070 o una 3080 o una 6700 o una 6800 pagandole anche di più solo perchè quelle schede, anche se vanno meno, hanno un bel chip serio e non un chippettino del cavolo?
L'unica cosa era non comprare, IN MASSA, per un po' di mesi, ma visto che convincere una massa di persone a non comprare è alquanto difficile, alla fine uno fa come si sente di fare/come può fare.
Chippettino che va forte principalmente per la bontà del processo produttivo (= alto clock), e non per l'architettura.
Vabbè ma che mi frega dell'architettura, mica deve essere bello, a me non interessa perchè va forte, me ne sbatto, a me basta che vada forte e che sia sufficiente per le mie esigenze. Va forte, consuma poco, è in grado di gestire nuove funzionalità che posso decidere di usare o meno, fa quello che serve a come. Prezzo/prestazioni è vincente anche se rapportata alle schede vecchie. Punto. Perchè dovrei rosicare se quelli sono stati in grado di tirare fuori roba che va meglio di quella precedente e gli costa pure meno?
Io non so tu che lavoro faccia, ammettiamo che fai il geometra: una determinata pratica al catasto ha un prezzo medio di mille euro e statisticamente si completa in 3 giorni. Ora, tu sei talmente bravo e dotato di mezzi all'avanguardia che quella pratica invece di farla in 3 giorni la fai in un giorno e mezzo e magari la fai pure meglio degli altri. Dovresti guadagnare la metà? No, al cliente non deve interessare come e quando la fai, ma che la fai bene e gliela dai entro la data che avete concordato.
bagnino89
10-02-2023, 16:34
Mi piacerebbe capire cosa vuol dire "chippettino del cavolo" con argomentazioni tecniche e non con parole passate da un forum all'altro uscite dalla bocca di "qualcuno che ne capisce".
Vuoi sapere una cosa? Per me che ho lavorato 25 anni nell'elettronica dove avevo a che fare prevalentemente con roba analogica e poco digitale, il massimo su cui sono arrivato a mettere le mani è stata roba avionica che andava su ARINC 429 (e manco tanto ci ho capito), quello che sono arrivati a fare negli ultimi anni mi sembra un miracolo. Mò, se tu e altri utenti del forum, siete tutti ingegneri elettronici con 4 lauree aggiunte e 50 master seri alle spalle, buon per voi. Però spiegatecelo anche a noi comuni mortali. Personalmente proprio cippettino del cavolo non lo definirei.
Lascio rispondere persone più competenti di me, ma le cose stanno come ho detto io. La 4070 Ti, per come è fatta da un punto di vista architetturale, doveva essere una GPU di fascia media, una x60 per capirci. Ricordati sempre che Giacchets, all'inizio, questa GPU voleva venderla con la dicitura "4080". 192 bit di bus memoria.
Il mercato attuale è questo. Mi serviva una nuova scheda grafica, che dovevo fare? Andavo in casa Amd o Nvidia con un fucile d'assalto e gli dicevo: o abbassate i prezzi o vi sfondo? :rotfl:
Oppure prendevo una 3070 o una 3080 o una 6700 o una 6800 pagandole anche di più solo perchè quelle schede, anche se vanno meno, hanno un bel chip serio e non un chippettino del cavolo?
L'unica cosa era non comprare, IN MASSA, per un po' di mesi, ma visto che convincere una massa di persone a non comprare è alquanto difficile, alla fine uno fa come si sente di fare/come può fare.
Vabbè ma che mi frega dell'architettura, mica deve essere bello, a me non interessa perchè va forte, me ne sbatto, a me basta che vada forte e che sia sufficiente per le mie esigenze. Va forte, consuma poco, è in grado di gestire nuove funzionalità che posso decidere di usare o meno, fa quello che serve a come. Prezzo/prestazioni è vincente anche se rapportata alle schede vecchie. Punto. Perchè dovrei rosicare se quelli sono stati in grado di tirare fuori roba che va meglio di quella precedente e gli costa pure meno?
Io non so tu che lavoro faccia, ammettiamo che fai il geometra: una determinata pratica al catasto ha un prezzo medio di mille euro e statisticamente si completa in 3 giorni. Ora, tu sei talmente bravo e dotato di mezzi all'avanguardia che quella pratica invece di farla in 3 giorni la fai in un giorno e mezzo e magari la fai pure meglio degli altri. Dovresti guadagnare la metà? No, al cliente non deve interessare come e quando la fai, ma che la fai bene e gliela dai entro la data che avete concordato.
Su questo non ho niente da obiettare. E' come dici tu. Quello che volevo fare notare, alla fine della fiera, è che sono schede dal rapporto prezzo/prestazioni pessimo, perché il prezzo di vendita è pompato all'inverosimile.
KampMatthew
10-02-2023, 17:10
Lascio rispondere persone più competenti di me, ma le cose stanno come ho detto io. La 4070 Ti, per come è fatta da un punto di vista architetturale, doveva essere una GPU di fascia media, una x60 per capirci. Ricordati sempre che Giacchets, all'inizio, questa GPU voleva venderla con la dicitura "4080". 192 bit di bus memoria.
Ma solo perchè tu stai facendo riferimento e comparazioni ad epoche passate.
Avevamo delle abitudini, e tu questo ragionamento lo stai facendo basandoti su come andavano le cose anni prima. Ora per una serie di motivi l'economia sta cambiando, ma ricordati sempre che il prezzo sul mercato non lo fa chi vende, ma chi compra, è facile. Da oggi e per 4 mesi nvidia e amd vendono 10 schede. I prezzi abbasseranno di sicuro. La gente continuerà a non comprare? I prezzi abbasseranno ancora. La gente continuerà a non comprare? Amd e nvidia chiuderanno i battenti, centinaia di migliaia di persone senza lavoro tra casa madre e indotti, e tutti senza più schede grafiche. Quelli dei vertici se ne sbatteranno, coi soldi che hanno si metteranno a fare altro o a collezzionare cavalli di razza.
Al di là dei costi reali che vanno dagli stipendi di chi fa ricerca e sviluppo fino alla signora che mette la scheda nella busta (costi che nessuno potrà mai conoscere anche se vedo i forum pieni di guru che sanno tutto di tutto), quelle non sono società dei frati benedettini a piedi scalzi, stanno li per fare soldi, per cui decidono una certa strategia di mercato, se gli va bene gli va bene, se no faranno dei passi indietro. Questo è.
Su questo non ho niente da obiettare. E' come dici tu. Quello che volevo fare notare, alla fine della fiera, è che sono schede dal rapporto prezzo/prestazioni pessimo, perché il prezzo di vendita è pompato all'inverosimile.
Si ma è inutile tornarci sopra ogni volta che se ne parla, ormai si sa e sappiamo anche l'unica difesa che abbiamo qual'è. Se non ci sappiamo difendere i pirla siamo noi, non loro. Poi sembra quasi che sono schede di merda che non valgono nulla. Ad una 4070ti toglici 2-300 € dal prezzo e la fai diventare un best buy. Però una cosa è il prezzo, un'altra cosa è di quali performance è capace.
Ma tanto per dire, avevo una 1080 acquistata subito dopo l'uscita e pagata circa 600 €, non ricordo preciso, oltre ci stava solo la versione ti, eppure in certi titoli dovevo scendere a compromessi, con una top di gamma appena acquistata. Con questa sto giocando a Cyberpunk che mi sembra essere proprio un bel mattone anche perchè sullo schermo c'è tanta roba che si muove e qualitativamente non è male, tutto su ultra e tutto su qualità nel pannello dei driver, gli fps si sprecano, per cui alla fine non è che sia tutto sto male, anche il rapporto performance prezzo. Certo anche a me sarebbe piaciuto pagarla 500 € invece di 950, ma che vuoi fare? Continuare a roderti il fegato perchè hanno i prezzi alti? Se stai bene con la 3070 lascia proprio perdere. Se avessi avuto una 3070 alla serie 4 personalmente non ci avrei manco pensato di guardarla tant'è che prima della 4070 ho cercato di prendere qualcosa della serie vecchia, ma i prezzi li vedi benissimo anche tu. Non è mia abitudine comprare roba usata, ma anche nell'usato sono andato a guardare. Tu fra una 3070 magari pure senza garanzia a 5-600 € e una 4070 a 950, costa avresti preso?
che poi già il fatto che sia appunto un chippettino con cui hanno potuto sparare le frequenze a cannone consumando meno di schede di due generazioni fa e restando praticamente fredde non è che lo trovi, almeno io, una cosa proprio da niente.... poi aggiungiamo pure la genialata dlss3 con frame generator.... niente proprio non direi. come ho scritto quando l'ho presa, col chippettino io ho pure abbassato i voltaggi aumentando le frequenze con risultato che ci ho guadagnato pure qualche fotogramma e in gioco ho 45 gradi sulla gpu, 48 sul hot spot e 40 sulle memorie... va come un tuono sinceramente e qualcuno lo chiama chippettino senza niente di che?? mi ha quasi raddoppiato la 3070 che avevo senza dlss3... io resto senza parole. discorso prezzo poco da fare, secondo me invece è quella più conveniente considerando che quando l'hanno presentata tutti si aspettavano prezzi da 1100 in su compresse le varie recensioni, io pagata 880 che non sono pochi ma per un mostro di scheda con le temp che ho detto, tutta in alluminio spazzolato e bellissima. certo pure io se la pagavo 600 stavo meglio. ma non avrei venduto a 440 la 3070 per dire. e tutto troppo caro ma ho questa passione e mi sono presa questa. La 80 non me la sono potuto permettere ma se avessi potuto prendevo quella. tutto per dire che classificarla chppettino lo trovo davvero assurdo
Inviato dal mio 2201116SG utilizzando Tapatalk
Questo è quello che vuol far crederti Giacchetta; non ci cascare.
La 4070 Ti doveva essere venduta come una scheda di fascia inferiore, e doveva costare sui 600-700 EUR, e mi sento generoso.
600/700 euro, street price, non compravi manco una 3070 (ho venduto la mia usata a 750 e avevo la fila).
Ripeto: state ragionando su prezzi di listino che nessuno ha mai visto.
craesilo
12-02-2023, 10:55
600/700 euro, street price, non compravi manco una 3070 (ho venduto la mia usata a 750 e avevo la fila).
Ripeto: state ragionando su prezzi di listino che nessuno ha mai visto.
concordo che certe teorie sono folli, veniva 650 € la 3070ti fe con 8 merdosi gb di vram, ovviamente inesistenti se non a fine ciclo quando il mining è cessato
OrazioOC
12-02-2023, 11:13
600/700 euro, street price, non compravi manco una 3070 (ho venduto la mia usata a 750 e avevo la fila).
Ripeto: state ragionando su prezzi di listino che nessuno ha mai visto.
Si in pieno periodo mining era legit anche vendere delle 1660 usate da due anni a prezzi superiori al nuovo(io stesso l'ho fatto), ma di certo non deve diventare la nuova norma.
Altrimenti si finisce per giustificare sidegrade generazionali come rischiamo con 4060/ti vs 3070/ti, ma anche la 4070 ti(ne ho toccate con mano due, una inno3d e una gigabyte) è a ridosso del sidegrade(è poco più che una 3080 ti con il dlss3 allo stesso prezzo).:rolleyes:
craesilo
12-02-2023, 11:35
stesso prezzo [CUT], la 3080ti stava a 1090€
OrazioOC
12-02-2023, 11:38
stesso prezzo il pene, la 3080ti stava a 1090€
Io parlo di listini, la cresta che gli facevano certi rivenditori(a maggior raggione dopo la seconda metà del 2022) mi importa relativamente.
Infatti anche i due prodigeek hanno definito la 4070 ti come una simil 3080 ti+dlss3.:rolleyes:
bagnino89
12-02-2023, 11:43
Io parlo di listini, la cresta che gli facevano certi rivenditori(a maggior raggione dopo la seconda metà del 2022) mi importa relativamente.
Infatti anche i due prodigeek hanno definito la 4070 ti come una simil 3080 ti+dlss3.:rolleyes:*
Inviato dal mio Pixel 6 utilizzando Tapatalk
craesilo
12-02-2023, 11:49
Io parlo di listini, la cresta che gli facevano certi rivenditori(a maggior raggione dopo la seconda metà del 2022) mi importa relativamente.
Infatti anche i due prodigeek hanno definito la 4070 ti come una simil 3080 ti+dlss3.:rolleyes:
infatti listino fe 1090€, forse fai confusione con altro
infatti basta vederne la faccia :rolleyes: :rolleyes:
***********
OrazioOC
12-02-2023, 12:18
infatti listino fe 1090€, forse fai confusione con altro
infatti basta vederne la faccia :rolleyes: :rolleyes:
***********
Che ti devo dire, dipende da te quanto li fai pesare 100 euro di differenza su un componente che ne costa più di 1000.
https://i.imgur.com/ly7JvQr.png
Questa per dire è una gigabyte 4070 ti che ho montato sul pc di un amico di vecchia data(sostituisce una 2070 super sempre gigabyte che è di fianco), con tanto di 1024 euro di fattura.
Il tutto per ritrovarsi una simil 3080 ti in raster due anni dopo il suo lancio, con forse il beneficio del dlss3 a seconda dei titoli. :)
Ho preso per mano anche una 4070 ti inno3d da 900 euro qualche settimana fa(che ho benchato qualche pagina fa in 3dmark timespy), ma per quello che da' all'atto pratico la scheda,è un acquisto che per me non è giustificabile a ridosso dei 1000 euro a prescindere da marca, colore, odore, sapore ecc...
craesilo
12-02-2023, 12:32
Che ti devo dire, dipende da te quanto li fai pesare 100 euro di differenza su un componente che ne costa più di 1000.
https://i.imgur.com/ly7JvQr.png
Questa per dire è una gigabyte 4070 ti che ho montato sul pc di un amico di vecchia data(sostituisce una 2070 super sempre gigabyte che è di fianco), con tanto di 1024 euro di fattura.
io l'ho pagata 800 in fattura, spiaze
OrazioOC
12-02-2023, 12:49
io l'ho pagata 800 in fattura, spiaze
Puoi averla anche rubata, da normale utente la scheda ha comunque gli street price di 900/1000 euro. Di certo 800 non è il suo stret price.
A meno di 900 euro su shop mediamente ben noti(e non gente che appare 1 mese su trovaprezzo e poi sparisce) una custom discreta non te la offre nessuno(parlo di zotac, gigabyte, msi ecc...).
craesilo
12-02-2023, 13:02
Puoi averla anche rubata, da normale utente la scheda ha comunque gli street price di 900/1000 euro. Di certo 800 non è il suo stret price.
A meno di 900 euro su shop mediamente ben noti(e non gente che appare 1 mese su trovaprezzo e poi sparisce) una custom discreta non te la offre nessuno(parlo di zotac, gigabyte, msi ecc...).
no infatti ho approfittato di un'offerta, ma se gli altri non lo fanno mica è colpa mia
stesso discorso per 3080ti che al lancio non esisteva, che consuma e scalda un botto di più, e che stava poco sotto le 3090 di prezzo :O
poi le prestazioni in raster sono simili e quindi? ormai non ha senso comprarla
Che ti devo dire, dipende da te quanto li fai pesare 100 euro di differenza su un componente che ne costa più di 1000.
https://i.imgur.com/ly7JvQr.png
Questa per dire è una gigabyte 4070 ti che ho montato sul pc di un amico di vecchia data(sostituisce una 2070 super sempre gigabyte che è di fianco), con tanto di 1024 euro di fattura.
Il tutto per ritrovarsi una simil 3080 ti in raster due anni dopo il suo lancio, con forse il beneficio del dlss3 a seconda dei titoli. :)
Ho preso per mano anche una 4070 ti inno3d da 900 euro qualche settimana fa(che ho benchato qualche pagina fa in 3dmark timespy), ma per quello che da' all'atto pratico la scheda,è un acquisto che per me non è giustificabile a ridosso dei 1000 euro a prescindere da marca, colore, odore, sapore ecc...
Eh oddio... Non giustificabile dipende... Io avevo venduto la 3070 e avevo il pc in cantina... Qualcosa dovevo prendere (e oggi la 4070 Ti è l'unica cosa che abbia senso).
KampMatthew
12-02-2023, 19:15
Si in pieno periodo mining era legit anche vendere delle 1660 usate da due anni a prezzi superiori al nuovo(io stesso l'ho fatto), ma di certo non deve diventare la nuova norma.
Altrimenti si finisce per giustificare sidegrade generazionali come rischiamo con 4060/ti vs 3070/ti, ma anche la 4070 ti(ne ho toccate con mano due, una inno3d e una gigabyte) è a ridosso del sidegrade(è poco più che una 3080 ti con il dlss3 allo stesso prezzo).:rolleyes:
Quindi tu sei uno di quelli che a modo suo ha contribuito, per qualche centinaio di euro, allo squallore di cui siamo stati testimoni e adesso ti vieni a lamentare che la 4070 costai assai? Complimenti, il tuo coraggio non è da tutti.
OrazioOC
12-02-2023, 19:35
Quindi tu sei uno di quelli che a modo suo ha contribuito, per qualche centinaio di euro, allo squallore di cui siamo stati testimoni e adesso ti vieni a lamentare che la 4070 costai assai? Complimenti, il tuo coraggio non è da tutti.
Io posso dire anche che una 4070 ti a 1000 euro spedita nuova costa troppo, di certo però non sono andato a fare la morale a chi l'ha comprata con un commento etichettabile come flame gratuito.:)
KampMatthew
12-02-2023, 20:10
Io posso dire anche che una 4070 ti a 1000 euro spedita nuova costa troppo, di certo però non sono andato a fare la morale a chi l'ha comprata con un commento etichettabile come flame gratuito.:)
Figurati, per me puoi dire quello che vuoi e da parte mia nessuna morale e nessun flame gratuito, però anche io sono libero di pensare e dire che col tuo comportamento, nel tuo piccolo, sei uno di quelli che hanno contrinbuito affinchè i prezzi arrivassero agli attuali livelli, per cui adesso non capisco veramente cosa hai da lamentarti. Era prevedibile che i prezzi delle nuove vga sarebbero state un salasso e chi le ha acquistate resta comunque giustificato in quanto attualmente si trovano sul mercato schede delle serie passate che costano di più, sono dotate di funzionalità più vecchie e vanno meno.
Tant'è che questo comportamento nelle vendite, cioè, evidente scopo di lucro, è espressamente vietato anche sullo stesso forum dove attualmente stai scrivendo.
Che poi stì prezzi di listino con i quali tanti di voi si riempono la bocca è da anni che sono pura fantasia. Ogni volta la stessa cosa, mettono 20-30 pezzi sul loro sito a mò di esca, i primi che gli dice culo le prendono e finisce lì. Le stesse case produttrici sono poi arrivate a tenere prezzi altissimi e questo non può essere giustificato nè dal mining nè da nessun altro motivo.
OrazioOC
12-02-2023, 20:22
Figurati, per me puoi dire quello che vuoi e da parte mia nessuna morale e nessun flame gratuito, però anche io sono libero di pensare e dire che col tuo comportamento, nel tuo piccolo, sei uno di quelli che hanno contrinbuito affinchè i prezzi arrivassero agli attuali livelli, per cui adesso non capisco veramente cosa hai da lamentarti. Era prevedibile che i prezzi delle nuove vga sarebbero state un salasso e chi le ha acquistate resta comunque giustificato in quanto attualmente si trovano sul mercato schede delle serie passate che costano di più, sono dotate di funzionalità più vecchie e vanno meno.
Tant'è che questo comportamento nelle vendite, cioè, evidente scopo di lucro, è espressamente vietato anche sullo stesso forum dove attualmente stai scrivendo.
Che poi stì prezzi di listino con i quali tanti di voi si riempono la bocca è da anni che sono pura fantasia. Ogni volta la stessa cosa, mettono 20-30 pezzi sul loro sito a mò di esca, i primi che gli dice culo le prendono e finisce lì. Le stesse case produttrici sono poi arrivate a tenere prezzi altissimi e questo non può essere giustificato nè dal mining nè da nessun altro motivo.
Non te lo ha prescritto il dottore di spendere 900 euro per una 4070 ti, e di certo gli utenti non hanno pistole puntate alla tempia per indurli all'acquisto.
Se io ritengo che la 4070 ti sia una gpu da 6/700 euro e non 1000 come ad oggi, mica posso essere contraddetto con commenti al limite del flame, giusto per aver rivenduto una gpu ad un prezzo inflazionato quando il mercato era chiaramente viziato da altri fattori. :rolleyes:
Il mercato delle gpu si può regolare come tutti tra domanda e offerta, e infatti altre gpu come la 4080 o la 4090 hanno avuto ritocchi nei prezzi abbastanza marcati.
KampMatthew
12-02-2023, 22:43
Ancora con il flame? Ma quale flame? Io penso che se uno vende una scheda sovrapprezzata alla grande approfittando di una determinata situazione di mercato, per me ha contribuito a far salire i prezzi delle nuove uscite. Punto. Che problema hai? Poi vabbè, quando la vendevi tu la scheda, il mercato era viziato da altri fattori, adesso no. E' tutto trasparente e senza vizi? Il vizio è che i produttori hanno cavalcato l'onda, questo è.
Che poi io nemmeno mi sto lamentando di niente. Ho detto in svariati post che alla fine per le prestazioni che ha e per il prezzo delle altre vga sul mercato, alla fine è anche un buon acquisto e io ne sono contento.
Il flame casomai lo cerchi tu e qualcun altro che state qui ogni 3x2 a martellare le scatole che costa troppo. Si costa troppo, non la comprate. E' una scheda che fa schifo con un chippettino che non vale nulla e deve costare 500 €. A posto così, per me si chiude qua e non risponderò ulteriormente, primo perchè non ho tempo da perdere, secondo, non mi interessa convincere nessuno.
StylezZz`
13-02-2023, 09:54
Io penso che se uno vende una scheda sovrapprezzata alla grande approfittando di una determinata situazione di mercato, per me ha contribuito a far salire i prezzi delle nuove uscite. Punto
In che modo una schedina come la GTX 1660, uscita nel 2019 e che nel 2020 aveva un prezzo medio di 200 euro nuova, poi rivenduta da un privato nell'usato, avrebbe contribuito a far salire i prezzi delle nuove gpu?
Io invece ho un altra teoria, nvidia/amd e i vari AIBs durante lo shortage hanno visto in quanti eravate disposti a fare le file negli shops (iphone style) per le RTX 3000/RX 6000 sovrapprezzate, o chi era felice di farsi spillare anche 1500/2000 euro da qualche scalper per una 3080, e si sono detti: ''perchè non li spenniamo direttamente noi?'' E come se non bastasse, adesso vendono pure 4060 spacciate per 4070 Ti...chapeau per giacchetta ma anche per lisona dai, che è riuscita a far credere ai suoi fans che amd non ha aumentato i prezzi al contrario della cattivona nvidia (però nel frattempo gli vende le 7800 rinominate 7900 a 1000+ euro) :sofico:
In che modo una schedina come la GTX 1660, uscita nel 2019 e che nel 2020 aveva un prezzo medio di 200 euro nuova, poi rivenduta da un privato nell'usato, avrebbe contribuito a far salire i prezzi delle nuove gpu?
Io invece ho un altra teoria, nvidia/amd e i vari AIBs durante lo shortage hanno visto in quanti eravate disposti a fare le file negli shops (iphone style) per le RTX 3000/RX 6000 sovrapprezzate, o chi era felice di farsi spillare anche 1500/2000 euro da qualche scalper per una 3080, e si sono detti: ''perchè non li spenniamo direttamente noi?'' E come se non bastasse, adesso vendono pure 4060 spacciate per 4070 Ti...chapeau per giacchetta ma anche per lisona dai, che è riuscita a far credere ai suoi fans che amd non ha aumentato i prezzi al contrario della cattivona nvidia (però nel frattempo gli vende le 7800 rinominate 7900 a 1000+ euro) :sofico:
Bisogna anche contare due fattori: il dollaro è passato da 1,22 a 1,06.
L'inflazione area euro sfiora il 10% all'anno.
Già solo questo, giustifica gran parte degli aumenti.
craesilo
13-02-2023, 10:12
''perchè non li spenniamo direttamente noi?'' E come se non bastasse, adesso vendono pure 4060 spacciate per 4070 Ti...
lo salvo vista la segnalazione
riguardo l'altra cosa fai solo flame dato che è impensabile regalare una x60 che va come una x90 precedente, vedi le gen passate quando la x70 pareggiava quasi le x80ti
StylezZz`
13-02-2023, 10:35
Bisogna anche contare due fattori: il dollaro è passato da 1,22 a 1,06.
L'inflazione area euro sfiora il 10% all'anno.
Già solo questo, giustifica gran parte degli aumenti.
Sicuramente non possiamo pretendere gli stessi prezzi del 2014/2015, ma è anche evidente che ci stanno speculando alla grande, non è giustificato questo aumento esponenziale.
lo salvo vista la segnalazione
riguardo l'altra cosa fai solo flame dato che è impensabile regalare una x60 che va come una x90 precedente, vedi le gen passate quando la x70 pareggiava quasi le x80ti
Se per questo la 1060 6GB superava la 980, ma seguiva quello step evolutivo che ha sempre contraddistinto ogni nuova serie.
Adesso invece non solo abbiamo prezzi aumentati, ma hanno avuto anche la felice idea di declassare le varie fasce dal punto di vista tecnico, spacciando schede di fascia inferiore per fascia superiore. Oltre al danno la beffa come si suol dire...La legge di Moore è morta? Ah se lo dice giacchetta allora...ci credo.
Bisogna anche contare due fattori: il dollaro è passato da 1,22 a 1,06.
L'inflazione area euro sfiora il 10% all'anno.
Già solo questo, giustifica gran parte degli aumenti.
Non è proprio così.
Al lancio delle 4000 il cambio era 0,96 e dopo una paio di mesi l'euro ha recuperato arrivando a 1,05 ed Nvidia ha corretto i listini sullo store ufficiale.
Ad inizio febbraio il cambio era di 1,10, ma purtroppo negli ultimi giorni è sceso a 1,07.
Il problema è che tranne gli store Ufficiali, i distributori non seguono come si deve l'andamento del cambio, ma addirittura ci speculano :mad:
bagnino89
13-02-2023, 11:39
Sicuramente non possiamo pretendere gli stessi prezzi del 2014/2015, ma è anche evidente che ci stanno speculando alla grande, non è giustificato questo aumento esponenziale.
Se per questo la 1060 6GB superava la 980, ma seguiva quello step evolutivo che ha sempre contraddistinto ogni nuova serie.
Adesso invece non solo abbiamo prezzi aumentati, ma hanno avuto anche la felice idea di declassare le varie fasce dal punto di vista tecnico, spacciando schede di fascia inferiore per fascia superiore. Oltre al danno la beffa come si suol dire...La legge di Moore è morta? Ah se lo dice giacchetta allora...ci credo.
*
Slater91
13-02-2023, 12:11
Facciamo tutti un bel respiro profondo e abbassiamo i toni...
Gilgamessh
13-02-2023, 13:30
Ho un altra domanda sul overclock delle serie 4000, su afterburner lo slide del voltaggio una volta abilitato lo posso sparare al massimo o rischio danni?
grazie!
Ho un altra domanda sul overclock delle serie 4000, su afterburner lo slide del voltaggio una volta abilitato lo posso sparare al massimo o rischio danni?
grazie!
IMHO non c'è motivo per farlo
OrazioOC
13-02-2023, 18:52
https://videocardz.com/newz/nvidia-geforce-rtx-4060-rumored-to-feature-ad107-gpu-with-3072-cuda-cores
Sembra di stare su scherzi a parte...:rolleyes:
mikael84
13-02-2023, 19:18
https://videocardz.com/newz/nvidia-geforce-rtx-4060-rumored-to-feature-ad107-gpu-with-3072-cuda-cores
Sembra di stare su scherzi a parte...:rolleyes:
Praticamente AD107 con 24mb di cache.
1/6 del chippone:
Su Ampere sarebbe equivalente a 1796 cuda, su turing 768, su pascal 512 (metà delle 1060).
Il clock la salva un pochino, mediamente dovrebbe stare nei pressi della 3060ti in full hd. sopra insomma, la cache da 24mb gli copre appena il 30% scarso di accessi, quindi si avvicina ad una banda da 3060ti.
Meglio in full hd.
Certo che smontare, completamente un chip da 200mm2 scarsi, ci vuole coraggio.
OrazioOC
13-02-2023, 19:19
Praticamente AD107 con 24mb di cache.
1/6 del chippone:
Su Ampere sarebbe equivalente a 1796 cuda, su turing 768, su pascal 512 (metà delle 1060).
Il clock la salva un pochino, mediamente dovrebbe stare nei pressi della 3060ti in full hd. sopra insomma, la cache da 24mb gli copre appena il 30% scarso di accessi, quindi si avvicina ad una banda da 3060ti.
Meglio in full hd.
Certo che smontare, completamente un chip da 200mm2 scarsi, ci vuole coraggio.
Mi hai praticamente descritto una moderna 1050. :rolleyes:
OrazioOC
13-02-2023, 19:28
Ma la vera domanda è, per chi è sta scheda?No perchè non è un upgrade serio per una 3060 12gb, di conseguenza non lo sarebbe per 6600/50 xt e similari(1080 ti, 2070 super, 5700 xt ecc...)
Vuoi raccogliere gli appiedati delle 1060/1660/super/3050?Ok ma la devi prezzare ai prezzi delle schede citate, ergo 249/279 dollari al massimo.:rolleyes:
Ma conoscendo nvidia e l'avidità di jensen(perchè quello è, ci vuole poco per salvare AD106 anche semi devastati e metterli dentro una gpu da 300 dollari), sarà una gpu da almeno almeno 329 dollari(come lla 3060 12gb).
bagnino89
13-02-2023, 19:40
Ma la vera domanda è, per chi è sta scheda?No perchè non è un upgrade serio per una 3060 12gb, di conseguenza non lo sarebbe per 6600/50 xt e similari(1080 ti, 2070 super, 5700 xt ecc...)
Vuoi raccogliere gli appiedati delle 1060/1660/super/3050?Ok ma la devi prezzare ai prezzi delle schede citate, ergo 249/279 dollari al massimo.:rolleyes:
Ma conoscendo nvidia e l'avidità di jensen(perchè quello è, ci vuole poco per salvare AD106 anche semi devastati e metterli dentro una gpu da 300 dollari), sarà una gpu da almeno almeno 329 dollari(come lla 3060 12gb).
Punterà tutto su DLSS3, come per le altre schede.
StylezZz`
13-02-2023, 19:41
3x la 3060 grazie al DLSS3 :O
Anche se le specifiche della 4060 sono complessivamente inferiori alla 3060 da 12GB, immagino che andrà più veloce grazie ai soliti miglioramenti di architettura e alle frequenze probabilmente maggiori? :fagiano:
Il problema è che non ce la vedo a meno di 450 euro...
mikael84
13-02-2023, 19:55
Ma la vera domanda è, per chi è sta scheda?No perchè non è un upgrade serio per una 3060 12gb, di conseguenza non lo sarebbe per 6600/50 xt e similari(1080 ti, 2070 super, 5700 xt ecc...)
Vuoi raccogliere gli appiedati delle 1060/1660/super/3050?Ok ma la devi prezzare ai prezzi delle schede citate, ergo 249/279 dollari al massimo.:rolleyes:
Ma conoscendo nvidia e l'avidità di jensen(perchè quello è, ci vuole poco per salvare AD106 anche semi devastati e metterli dentro una gpu da 300 dollari), sarà una gpu da almeno almeno 329 dollari(come lla 3060 12gb).
No purtroppo a quei prezzi non la metterà mai, in fascia molto bassa, i costi sono un tantino saliti. Gli costerà quasi 200$ produrla, con circa 60-65$ di die, 40 di ram, dissi, R&D.
Se va bene, mette 349, oppure 399, viene chiamata x60 apposta e non x50.
Purtroppo con AMD se la sono studiata, ed anche lei deve tirare fuori una 6600 RDNA3, quasi un rebrand a conti fatti.
Chi ha 3060 o equivalenti, deve alzare la fascia, c'è poco da fare. Potremmo discutere quanto vogliamo, ma a sto giro, è così.
Infatti, 3080 usata, in piena garanzia e ciao Lovelace, ci vediamo a blackwell,
Anche se le specifiche della 4060 sono complessivamente inferiori alla 3060 da 12GB, immagino che andrà più veloce grazie ai soliti miglioramenti di architettura e alle frequenze probabilmente maggiori? :fagiano:
Il problema è che non ce la vedo a meno di 450 euro...
Salto di clock mostruoso.
Si è ritrovato a passare da un 10nm (3°gen) samsung, ad un 5nm mod TSMC, troppa, troppa differenza, e punta tutto a quello.
3072cc a 2700 producono 16,5 tf e banda, con cache equiparabile a quasi 400 gb/s ampere
4864cc a 1900 producono 18,4 tf.
OrazioOC
13-02-2023, 20:04
No purtroppo a quei prezzi non la metterà mai, in fascia molto bassa, i costi sono un tantino saliti. Gli costerà quasi 200$ produrla, con circa 60-65$ di die, 40 di ram, dissi, R&D.
Se va bene, mette 349, oppure 399, viene chiamata x60 apposta e non x50.
Purtroppo con AMD se la sono studiata, ed anche lei deve tirare fuori una 6600 RDNA3, quasi un rebrand a conti fatti.
Chi ha 3060 o equivalenti, deve alzare la fascia, c'è poco da fare. Potremmo discutere quanto vogliamo, ma a sto giro, è così.
Infatti, 3080 usata, in piena garanzia e ciao Lovelace, ci vediamo a blackwell,
Allora, io credo che si, costi di più produrla(col ciufolo che tsmc si fa pagare per mm^2 come samsung, oltreutto a sto giro spammano le gddr6x su tutte le skus desktop) ma è anche vero che qui parlia di uno scarto di uno scarto di un chip da 190 mm^2, arrivare anche solo vicini ai 200 dollari per fabbricarla mi sembra oggettivamente tanto.
Se poi come nel leak addirittura mi utilizzano ad107, chip di 150 mm^2 scarsi, beh direi che siamo proprio alla frutta.:rolleyes:
Oltre i 300 dollari fa piangere.:rolleyes:
Le 4060 saranno delle ciofeche totali. Punto.
Aspetto le 70 lisce col relativo pricecut (tanto le galax bianche non si trovano)
mikael84
13-02-2023, 21:36
Allora, io credo che si, costi di più produrla(col ciufolo che tsmc si fa pagare per mm^2 come samsung, oltreutto a sto giro spammano le gddr6x su tutte le skus desktop) ma è anche vero che qui parlia di uno scarto di uno scarto di un chip da 190 mm^2, arrivare anche solo vicini ai 200 dollari per fabbricarla mi sembra oggettivamente tanto.
Se poi come nel leak addirittura mi utilizzano ad107, chip di 150 mm^2 scarsi, beh direi che siamo proprio alla frutta.:rolleyes:
Oltre i 300 dollari fa piangere.:rolleyes:
Aspè, ho fatto confusione io, pensavo fosse AD106 squartato completamente con un GPC distrutto , invece è AD107 full. Avevo letto male io.:p
Allora AD107 sono circa 150-155mm2, con oltre 400 die per wafer, valore die di circa 42-44$.
Quindi 82-84$ con le ram g6 lisce, un misero R&D, già ampiamente suddiviso sulle altre, più dissipatore e pcb. Quindi sui 150-170$ stand belli larghi.
Ovviamente qua, devi aspettarti un margine minimo, visto che di 4090 te ne escono 58, di 4060 oltre 400-420.:)
249$ sarebbe giustificato, viste le rese.
AD106, costa poco di più, ma ha meno rese, ed anche se poco più grande, a livello rese cambia non poco.
Cmq, samsung costava 6k$ come TSMC 10nm (poco più dei 16nm da 4k$), è il 5nm che è impazzato, il 7 stava a poco meno di 10k$, come samsung.:)
OrazioOC
13-02-2023, 21:44
Aspè, ho fatto confusione io, pensavo fosse AD106 squartato completamente con un GPC distrutto , invece è AD107 full. Avevo letto male io.:p
Allora AD107 sono circa 150-155mm2, con oltre 400 die per wafer, valore die di circa 42-44$.
Quindi 82-84$ con le ram g6 lisce, un misero R&D, già ampiamente suddiviso sulle altre, più dissipatore e pcb. Quindi sui 150-170$ stand belli larghi.
Ovviamente qua, devi aspettarti un margine minimo, visto che di 4090 te ne escono 58, di 4060 oltre 400-420.:)
249$ sarebbe giustificato, viste le rese.
AD106, costa poco di più, ma ha meno rese, ed anche se poco più grande, a livello rese cambia non poco.
Cmq, samsung costava 6k$ come TSMC 10nm (poco più dei 16nm da 4k$), è il 5nm che è impazzato, il 7 stava a poco meno di 10k$, come samsung.:)
Considerando poi gli ultimi atti in quella fascia(ga106 talmente tanto scartato da diventare equiparabile a ga107 sulla rtx 3050) è possibile che imbastardisca ancora l'offerta mettendo ad106 ultra scartato nei desktop e ad107 full nei notebook.:rolleyes:
Slater91
16-02-2023, 23:29
stesso prezzo [CUT], la 3080ti stava a 1090€
Ricordo che il forum è un luogo pubblico dove è necessario mantenere un linguaggio decoroso e adatto alla lettura da parte di utenti di tutte le età. Ci rivediamo fra tre giorni.
shauni86
24-02-2023, 11:41
qualcuno ha notato lo screen tearing attivando il frame generation nella 4070ti con hogwarts legacy? non so sa cosa dipenda, attualmente uso un plasma full hd a 60hz
@mikael quanto è credibile il rumor di un'eventuale 4070 con 16GB di ram?
KampMatthew
24-02-2023, 15:27
qualcuno ha notato lo screen tearing attivando il frame generation nella 4070ti con hogwarts legacy? non so sa cosa dipenda, attualmente uso un plasma full hd a 60hz
Scusa la domanda, ma a cosa ti serve attivare frame generation su uno schermo a 1080P 60hz? Immagino che il tearing sia dovuto al fatto che fai un botto di fps e il monitor ne fa solo 60. Stai monitorando gli fps per vedere a quanto vai?
mikael84
24-02-2023, 15:57
@mikael quanto è credibile il rumor di un'eventuale 4070 con 16GB di ram?
Nel nostro mercato 0, potrebbe trovare spazio in qualche oem, o nel mercato cinese.
Sarebbe AD104 demolito lato bus, e con 128bit. Quindi, non va di certo bene.
Schede strane, ne sono uscite anche con Ampere, non certo per noi, come la 3080ti 20gb, che è una 3080ti, con il bus della 3080 liscia, con le memorie in clamshell. Prodotta proprio da gigabyte.
L'unica che uscirà ad Aprile di x70, sarà la liscia con 12gb, perf da x80 ampere, bus a 192bit, 504 gb/s, ma equivalente ad un bus da 680 gb/s in 1440p, con una parte di dati, ad ampiezza 10x il bandwidth.
L'unica che uscirà ad Aprile di x70, sarà la liscia con 12gb, perf da x80 ampere, bus a 192bit, 504 gb/s, ma equivalente ad un bus da 680 gb/s in 1440p, con una parte di dati, ad ampiezza 10x il bandwidth.
Amen.
Vediamo i prezzi...
qualcuno ha notato lo screen tearing attivando il frame generation nella 4070ti con hogwarts legacy? non so sa cosa dipenda, attualmente uso un plasma full hd a 60hz
Fa uguale anche con Atomic Heart. Io ho risolto forzando VSync dal pannello NVidia. Pero' in Atomic Heart il problema è qualche baco e non il frame generation perché anche disabilitandolo (con VSync attivo da gioco) il tearing resta. Fai una prova a forzarlo anche tu e vedi se risolvi.
ColdWarGuy
06-03-2023, 11:01
Un paio di domande per i più informati riguardo ai rumors sui prezzi :
1) è plausibile che il costo della 4070 TI scenda entro fine mese ?
2) quale sarà la differenza di prezzo tra 4070 liscia e TI ?
Volevo, più per sfizio che per necessità, fare un upgrade della GTX 1080 a qualcosa che gestisca in gaming un 21:9 3440x1440 almeno a 60Hz ma, come a molti, mi sono cadute le braccia vedendo il prezzo di lancio della serie 4000.
Ho bisogno del supporto CUDA e devo quindi rimanere in ambito NVIDIA, mi sarebbe sufficiente una RTX 3070, ma 8GB di VRAM mi sembrano molto poco future proof, quindi una 4070 sarebbe perfetta, peccato solo il record storico di prezzo in categoria ...:stordita:
shauni86
06-03-2023, 11:13
Un paio di domande per i più informati riguardo ai rumors sui prezzi :
1) è plausibile che il costo della 4070 TI scenda entro fine mese ?
2) quale sarà la differenza di prezzo tra 4070 liscia e TI ?
Volevo, più per sfizio che per necessità, fare un upgrade della GTX 1080 a qualcosa che gestisca in gaming un 21:9 3440x1440 almeno a 60Hz ma, come a molti, mi sono cadute le braccia vedendo il prezzo di lancio della serie 4000.
Ho bisogno del supporto CUDA e devo quindi rimanere in ambito NVIDIA, mi sarebbe sufficiente una RTX 3070, ma 8GB di VRAM mi sembrano molto poco future proof, quindi una 4070 sarebbe perfetta, peccato solo il record storico di prezzo in categoria ...:stordita:
su amazon la si trovava un mesetto fa a 899, a quel prezzo era un buon acquisto, chissà se scenderà sotto gli 899, attualmente sta sopra i 1000
Darkgift
06-03-2023, 11:34
Iscritto, ricevuta ieri Gigabyte 4070 Ti Gaming oc.
Vengo da Msi 3070 ventus 2 oc.
Da maniaco del silenzio sono molto soddisfatto: in modalità "silent", 64 gradi sotto stress, silenziosissima e fresca; il più delle volte le ventole sono ferme e se partono restano sempre a bassi regimi (ambiente interno alla casa 21 gradi).
Devo ancora testare a fondo e con l'arrivo del caldo le cose cambieranno, ma per ora direi che sono soddisfattissimo.:cool:
ColdWarGuy
06-03-2023, 11:46
su amazon la si trovava un mesetto fa a 899, a quel prezzo era un buon acquisto, chissà se scenderà sotto gli 899, attualmente sta sopra i 1000
La mia soglia mentale per una 4070 TI è 700 euro, sopra tale numero avrei la senzazione di buttare i soldi dal finestrino di un treno in corsa, già provo marcato fastidio oltre i 600, considerato che la mia zona di comfort si ferma a 500.
Se, come temo, la 4070 in raster sarà sotto una 3080 e/o i prezzi non scendono in misura tangibile, finirà che prenderò quest'ultima in saldo.
shauni86
06-03-2023, 11:55
La mia soglia mentale per una 4070 TI è 700 euro, sopra tale numero avrei la senzazione di buttare i soldi dal finestrino di un treno in corsa, già provo marcato fastidio oltre i 600, considerato che la mia zona di comfort si ferma a 500.
Se, come temo, la 4070 in raster sarà sotto una 3080 e/o i prezzi non scendono in misura tangibile, finirà che prenderò quest'ultima in saldo.
in un mondo onesto sarebbe una scheda da 500 euro al massimo, altro che 700
craesilo
06-03-2023, 12:37
Un paio di domande per i più informati riguardo ai rumors sui prezzi :
1) è plausibile che il costo della 4070 TI scenda entro fine mese ?
2) quale sarà la differenza di prezzo tra 4070 liscia e TI ?
Volevo, più per sfizio che per necessità, fare un upgrade della GTX 1080 a qualcosa che gestisca in gaming un 21:9 3440x1440 almeno a 60Hz ma, come a molti, mi sono cadute le braccia vedendo il prezzo di lancio della serie 4000.
Ho bisogno del supporto CUDA e devo quindi rimanere in ambito NVIDIA, mi sarebbe sufficiente una RTX 3070, ma 8GB di VRAM mi sembrano molto poco future proof, quindi una 4070 sarebbe perfetta, peccato solo il record storico di prezzo in categoria ...:stordita:
1 intendi msrp? no
2 prob 200$ msrp
potresti cercare una 3080 sotto i 600
La mia soglia mentale per una 4070 TI è 700 euro, sopra tale numero avrei la senzazione di buttare i soldi dal finestrino di un treno in corsa, già provo marcato fastidio oltre i 600, considerato che la mia zona di comfort si ferma a 500.
Se, come temo, la 4070 in raster sarà sotto una 3080 e/o i prezzi non scendono in misura tangibile, finirà che prenderò quest'ultima in saldo.
quanto hai pagato 12700k+z690? li hai già buttati se è per quello...
KampMatthew
06-03-2023, 13:13
potresti cercare una 3080 sotto i 600
Una 3080 sotto i 600 non la trova nemmeno usata, basta guardare il mercatino, ma pure se la dovesse trovare, conviene prendere una scheda quasi sicuro senza garanzia, comunque tecnologicamente più vecchia (la 4070 consuma poco e scalda nulla), per risparmiare 300 €? La 4070ti la si riesce a trovare anche Prime venduta e spedita dagli amazzoni sui 900/900 e qualcosa. Basta perderci un po' di tempo a guardare continuamente.
ColdWarGuy
06-03-2023, 13:45
1 intendi msrp? no
2 prob 200$ msrp
potresti cercare una 3080 sotto i 600
quanto hai pagato 12700k+z690? li hai già buttati se è per quello...
E perchè mai ... il 12700K è una bomba e la Z690 TUF una roccia, comunque 600 euro più di un anno fa, miglior acquisto possibile all'epoca per quel livello di prestazione.
La mia soglia mentale per una 4070 TI è 700 euro, sopra tale numero avrei la senzazione di buttare i soldi dal finestrino.
C'è qualche speranza per un taglio dei prezzi ad aprile assieme al lancio della 4070 liscia, ma se la ti viene ritoccata saranno tipo 50 euro. La 4080 invece dovrebbe avere un taglio significativo.
Anyway, poiché sono fuori sede posso aspettare ancora un po' e vedere la situazione come sarà dopo Pasqua.
ColdWarGuy
06-03-2023, 16:51
Una 3080 sotto i 600 non la trova nemmeno usata, basta guardare il mercatino, ma pure se la dovesse trovare, conviene prendere una scheda quasi sicuro senza garanzia, comunque tecnologicamente più vecchia (la 4070 consuma poco e scalda nulla), per risparmiare 300 €? La 4070ti la si riesce a trovare anche Prime venduta e spedita dagli amazzoni sui 900/900 e qualcosa. Basta perderci un po' di tempo a guardare continuamente.
Le 3080 nuove ora partono da circa 770 euro, l'usato non mi interessa ma se così fosse non mollerei più di 500 euro.
Detto questo, se i prezzi di lancio delle 3070 / 3080 erano rispettivamente 500 e 700 euro, gli attuali 919 euro per la 4070 TI e 1469 per la 4080 sono letteralmente fuori dal mondo, poi ovvio che se riescono a venderle al prossimo giro saliremo a 1500 per le 5070TI, 2000 per 5080 e 3000 per le 5090.
Non so voi, ma a me sembra surreale già adesso con la serie 4000.
OrazioOC
06-03-2023, 17:21
Una 3080 sotto i 600 non la trova nemmeno usata, basta guardare il mercatino, ma pure se la dovesse trovare, conviene prendere una scheda quasi sicuro senza garanzia, comunque tecnologicamente più vecchia (la 4070 consuma poco e scalda nulla), per risparmiare 300 €? La 4070ti la si riesce a trovare anche Prime venduta e spedita dagli amazzoni sui 900/900 e qualcosa. Basta perderci un po' di tempo a guardare continuamente.
Come non lo sai? Le 3080 usate le trovi anche a 50 euro. :asd:
Dai torniamo sulla terra, i prezzi e le quotazioni di certe gpu lo conosciamo, una 4070 ti meno di 850/900 euro non esiste. :)
Dubito pure che la 4070 vanilla la troveremo a meno di 650/700 euro, ma staremo a vedere il mese prossimo.
mikael84
06-03-2023, 17:37
Come non lo sai? Le 3080 usate le trovi anche a 50 euro. :asd:
Dai torniamo sulla terra, i prezzi e le quotazioni di certe gpu lo conosciamo, una 4070 ti meno di 850/900 euro non esiste. :)
Dubito pure che la 4070 vanilla la troveremo a meno di 650/700 euro, ma staremo a vedere il mese prossimo.
Dovrebbe essere 599 di listino, la FE intorno alle 700-710. Perf intorno alla 3080.
KampMatthew
06-03-2023, 17:54
Le 3080 nuove ora partono da circa 770 euro, l'usato non mi interessa ma se così fosse non mollerei più di 500 euro.
Detto questo, se i prezzi di lancio delle 3070 / 3080 erano rispettivamente 500 e 700 euro, gli attuali 919 euro per la 4070 TI e 1469 per la 4080 sono letteralmente fuori dal mondo, poi ovvio che se riescono a venderle al prossimo giro saliremo a 1500 per le 5070TI, 2000 per 5080 e 3000 per le 5090.
Non so voi, ma a me sembra surreale già adesso con la serie 4000.
I prezzi di lancio di quello che vuoi non contano più niente, è inutile fissarsi. Per una serie di fattori l'economia è cambiata e quei prezzi non si vedranno mai più. A me però sembra che coi prezzi di queste vga se ne stia facendo veramente un dramma oltre ogni limite, si i prezzi sono più alti, pure a me non è piaciuto sborsare 950 per la 4070, evabbè, ma ve lo siete dimenticato quando un pentium 1, una vga con 2 mb di memoria, una stampante, tastiera, mouse e monitor da 4 soldi costavano 5 milioni? Vi ricordate all'epoca con 5 milioni cosa ci si poteva fare?
ColdWarGuy
07-03-2023, 00:50
I prezzi di lancio di quello che vuoi non contano più niente, è inutile fissarsi. Per una serie di fattori l'economia è cambiata e quei prezzi non si vedranno mai più. A me però sembra che coi prezzi di queste vga se ne stia facendo veramente un dramma oltre ogni limite, si i prezzi sono più alti, pure a me non è piaciuto sborsare 950 per la 4070, evabbè, ma ve lo siete dimenticato quando un pentium 1, una vga con 2 mb di memoria, una stampante, tastiera, mouse e monitor da 4 soldi costavano 5 milioni? Vi ricordate all'epoca con 5 milioni cosa ci si poteva fare?
Seguendo questo ragionamento ad oggi una CPU moderna costerebbe come un appartamento, per fortuna non è stato così, anzi ... essendo partito dai cloni cinesi degli IBM AT conosco moolto bene il trend del rapporto prezzi / prestazione di quegli anni che sono stati i più incredibili della storia del PC, con ratei di miglioramento che ora ci possiamo solo scordare.
I prezzi di lancio contano eccome, lasciamo stare il periodo del COVID dove si è inceppata l'economia mondiale con tutto quello che ne è conseguito, in primis, per quello che ci riguarda, la crisi dei chips.
Al lancio una 3070 costava 499 euro (e qualche fortunello è pure riuscito a comprarla al day one) ed andava come una 2080 Ti, scheda che era uscita al modica cifra di lancio di 1300 euro, mentre ora nella migliore delle ipotesi avremo un ipotetica 4070 liscia che forse (e dico forse) andrà come una 3080 ... allo stesso prezzo di lancio quest'ultima, 30mesi dopo :eek:
Wow, questo sì che è il trend che tutti vogliamo, quindi mi raccomando, strapagate per bene le 4000 così al prossimo giro si sentiranno legittimati a far ancora di peggio :rolleyes:
KampMatthew
07-03-2023, 09:25
Wow, questo sì che è il trend che tutti vogliamo, quindi mi raccomando, strapagate per bene le 4000 così al prossimo giro si sentiranno legittimati a far ancora di peggio :rolleyes:
Ok, mettiti nella condizione di necessitare per forza di una vga di un certo livello, oggi, cosa prenderesti senza strapagarla?
bagnino89
07-03-2023, 09:55
Al lancio una 3070 costava 499 euro (e qualche fortunello è pure riuscito a comprarla al day one) ed andava come una 2080 Ti, scheda che era uscita al modica cifra di lancio di 1300 euro, mentre ora nella migliore delle ipotesi avremo un ipotetica 4070 liscia che forse (e dico forse) andrà come una 3080 ... allo stesso prezzo di lancio quest'ultima, 30mesi dopo :eek:
Vergognoso, veramente... Giacchetta senza ritegno.
Ok, mettiti nella condizione di necessitare per forza di una vga di un certo livello, oggi, cosa prenderesti senza strapagarla?
Necessità e gioco a mio modo di vedere non stanno nella frase, poi se uno ci lavora, allora tutto cambia, perchè da quello può dipendere la propria produttività e guadagno, ma credo siano la minoranza di quelli che spendono cifre dai 500 € in su per una VGA.
KampMatthew
07-03-2023, 14:09
Necessità e gioco a mio modo di vedere non stanno nella frase, poi se uno ci lavora, allora tutto cambia, perchè da quello può dipendere la propria produttività e guadagno, ma credo siano la minoranza di quelli che spendono cifre dai 500 € in su per una VGA.
Io con questo pc ci gioco, poco ma ci gioco, e ci lavoro per la maggior parte del tempo, ma al di là di questo non credo che tu possa avere voce in capitolo sulle necessità degli altri. Per qualcuno giocare al pc può essere una necessità perchè magari non ha altri hobby o perchè non sa fare altro o perchè così gli va o comunque a mio modo di vedere, saranno pure fatti suoi.
Se uno ha un monitor almeno a 1440 e puoi permettersi di spendere X per una vga, perchè dovrebbe privarsene e scendere a compromessi sulla risoluzione o sulla qualità? Per fare il favore a chi non vuole o non può spendere quella X cifra? A me pare assurdo. Ma questo discorso vale per ogni cosa, mica solo per le schede grafiche.
Seguendo questo ragionamento ad oggi una CPU moderna costerebbe come un appartamento, per fortuna non è stato così, anzi ... essendo partito dai cloni cinesi degli IBM AT conosco moolto bene il trend del rapporto prezzi / prestazione di quegli anni che sono stati i più incredibili della storia del PC, con ratei di miglioramento che ora ci possiamo solo scordare.
I prezzi di lancio contano eccome, lasciamo stare il periodo del COVID dove si è inceppata l'economia mondiale con tutto quello che ne è conseguito, in primis, per quello che ci riguarda, la crisi dei chips.
Al lancio una 3070 costava 499 euro (e qualche fortunello è pure riuscito a comprarla al day one) ed andava come una 2080 Ti, scheda che era uscita al modica cifra di lancio di 1300 euro, mentre ora nella migliore delle ipotesi avremo un ipotetica 4070 liscia che forse (e dico forse) andrà come una 3080 ... allo stesso prezzo di lancio quest'ultima, 30mesi dopo :eek:
Wow, questo sì che è il trend che tutti vogliamo, quindi mi raccomando, strapagate per bene le 4000 così al prossimo giro si sentiranno legittimati a far ancora di peggio :rolleyes:
Con tutto rispetto ma tu parli di un giocattolo. Come tale è un bene assolutamente extra, non necessario. Come se io ogni giorno maledicessi la Lego perchè l'ultimo set mi è costato 650 euro. Si tratta di svago e divertimento e come tale ognuno si adegua alla propria capacità di spesa.
Ok, mettiti nella condizione di necessitare per forza di una vga di un certo livello, oggi, cosa prenderesti senza strapagarla?
Devo chiedere al medico di base, poi ti faccio sapere...
Si scherza, ognuno con i propri soldi faccia quello che vuole basta poi non lamentarsi dei prezzi.
Questa serie 4 di Nvidia è pietosa e in casa Amd non va meglio e si il problema non sono le prestazioni ma proprio il prezzo a cui vengono offerte.
Personalmente l'anno scorso mi sono preso una 3060Ti a 450€ e mi è sembrato un furto lo stesso.
E non è questione di avere soldi oppure no, proprio non ce la faccio psicologicamente a "a buttare" soldi così in questo modo.
A ognuno il suo ma ripeto basta non lamentarsi, perchè se loro mettono a quel prezzo e noi compriamo uguale è ovvio che la situazione non cambia, anzi.
ColdWarGuy
07-03-2023, 23:31
Devo chiedere al medico di base, poi ti faccio sapere...
Si scherza, ognuno con i propri soldi faccia quello che vuole basta poi non lamentarsi dei prezzi.
Questa serie 4 di Nvidia è pietosa e in casa Amd non va meglio e si il problema non sono le prestazioni ma proprio il prezzo a cui vengono offerte.
Personalmente l'anno scorso mi sono preso una 3060Ti a 450€ e mi è sembrato un furto lo stesso.
E non è questione di avere soldi oppure no, proprio non ce la faccio psicologicamente a "a buttare" soldi così in questo modo.
A ognuno il suo ma ripeto basta non lamentarsi, perchè se loro mettono a quel prezzo e noi compriamo uguale è ovvio che la situazione non cambia, anzi.
Esatto, non è questione di avere i soldi o meno ma di avere rispetto per il valore degli stessi, soprattutto in questi anni di difficoltà.
E' probabile che Nvidia abbia deciso di tentare la via di produrre molti meno chip e di compensare con margini stratosferici, la prova del 9 sarà il prezzaggio della 4070 liscia in rapporto ovviamente alle sue prestazioni.
Se sarà 700 euro MSRP e numeri da 3080 troverò più divertente fare il beta tester per Intel pagando... sorry se è poco.
ColdWarGuy
07-03-2023, 23:35
Con tutto rispetto ma tu parli di un giocattolo. Come tale è un bene assolutamente extra, non necessario. Come se io ogni giorno maledicessi la Lego perchè l'ultimo set mi è costato 650 euro. Si tratta di svago e divertimento e come tale ognuno si adegua alla propria capacità di spesa.
Con tutto il rispetto ma il paragone regge zero, questi sono oggetti anche che in campo 3D, video e simulativo forniscono prestazioni professionali, non vedo cosa centrino dei pezzi di plastica colorati con cui giocano i bambini.
Con tutto il rispetto ma il paragone regge zero, questi sono oggetti anche che in campo 3D, video e simulativo forniscono prestazioni professionali, non vedo cosa centrino dei pezzi di plastica colorati con cui giocano i bambini.
Scusami ma se lavori ti compri le Quadro come faccio io. Non ti compri la 4080 che serve per giocare ai videogiochi e quindi è un giocattolo a tutti gli effetti. Il paragone è perfetto con qualsiasi altro giocattolo che è aumentato in maniera esponenziale.
KampMatthew
08-03-2023, 12:14
Scusami ma se lavori ti compri le Quadro ...
Ma anche no, dipende da cosa ci fai. Io uso autocad per lavoro, ma per quello che ci faccio, 99.99% planimetrie immobili et simili, la quadro sono soldi buttati e pertanto preferisco avere il mio pc principale che mi consente di fare tutto.
La cosa però che mi sembra assurda è che questa cosa degli aumenti dei prezzi delle schede grafiche è diventata una cantilena, quasi una tortura di cui non se ne può più. Io sono onesto in questo, prima di questa avevo la 1080 e se l'avessi destinata solo al lavoro era più che sufficiente, anzi, sovradimensionata, per cui se ho deciso di cambiare, a parte il velocizzare alcuni processi riguardo al lavoro, è perchè volevo anche tornare a giocare ad un certo livello, cosa che la 1080 oramai non consentiva più. Certo quando l'ho comprata un po' di dolore l'ho sentito :asd: ma poi basta, veramente non se ne può più che prima la x70 costava così, adesso costa colì, tanto alla fine la lamentela continua a nulla serve, quello che servirebbe veramente sarebbe che nessuno comprasse, ma visto che è utopia, allora uno se ne deve fare una ragione. Se vuole/può la compra, se no amen, perchè la verità è che il 99% comprano queste schede per giocare ma vogliono giocare al prezzo che dicono loro.
ColdWarGuy
08-03-2023, 12:25
Scusami ma se lavori ti compri le Quadro come faccio io. Non ti compri la 4080 che serve per giocare ai videogiochi e quindi è un giocattolo a tutti gli effetti. Il paragone è perfetto con qualsiasi altro giocattolo che è aumentato in maniera esponenziale.
O non sai di cosa stai parlando o vuoi semplicemente trollare, non trovo niente di positivo in entrambi i casi.
KampMatthew
08-03-2023, 13:08
O non sai di cosa stai parlando o vuoi semplicemente trollare, non trovo niente di positivo in entrambi i casi.
Perchè, che ha detto di sbagliato? Non è vero che in ambito professionale normalmente si usano le quadro o le radeon pro?
Il fine di possedere queste schede che acquistiamo noi è ludico, c'è poco da fare, e in quanto tali si, sono assimilabili ad un giocattolo, o parte di esso. Immagina un giocattolo composto dalla parte sw, il gioco, dalla parte hw, il pc. Che poi uno si adatta e in base alle proprie esigenze riesce a farsi una macchina con cui riesce a fare questo e quello è un altro discorso. Ma per la maggior parte dell'utenza che usano queste vga per lavoro/svago/un po' di tutto ESCLUDENDO I GIOCHI, tranne rari casi, queste schede sono più che sovradimensionate. Conosco tante persone, architetti, ingegneri ecc che lavorano tanto ed hanno macchine che la mia in firma al confronto di quelle in loro possesso è a dir poco una Formula 1.
Secondo me se si fa un sondaggio tra tutti gli utenti di questo sito, e tutti rispondono con la coscienza, senza barare e senza voler fare i furbetti con gli altri e con loro stessi :asd: vedrai che il 99% dell'utenza acquista queste schede allo scopo principale di giocare.
O non sai di cosa stai parlando o vuoi semplicemente trollare, non trovo niente di positivo in entrambi i casi.
Non lo so di cosa parlo. Io che lavoro in una delle più grandi aziende al mondo che realizza componenti elettriche. L'importante che tu sappia che le Geforce sono giocattoli per giocare ai videogiochi. Se poi vuoi negarlo a te stesso fai pure, non è un mio problema. Come tutti i prodotti al mondo sono aumentati in maniera impressionante e continuano a vendere senza problemi.
Scusami ma se lavori ti compri le Quadro come faccio io
Se hai poche risorse ti compri anche la 4090.
Come tutti i prodotti al mondo sono aumentati in maniera impressionante e continuano a vendere senza problemi.
Non proprio "senza problemi"
ColdWarGuy
09-03-2023, 11:45
Non lo so di cosa parlo. Io che lavoro in una delle più grandi aziende al mondo che realizza componenti elettriche. L'importante che tu sappia che le Geforce sono giocattoli per giocare ai videogiochi. Se poi vuoi negarlo a te stesso fai pure, non è un mio problema. Come tutti i prodotti al mondo sono aumentati in maniera impressionante e continuano a vendere senza problemi.
Certo, senza problemi :
https://www.hwupgrade.it/news/skvideo/il-mercato-delle-gpu-ha-fatto-segnare-il-piu-grande-calo-dalla-recessione-2009_112014.html
Slater91
09-03-2023, 11:47
Fate tutti un bel respiro profondo...
Certo, senza problemi :
https://www.hwupgrade.it/news/skvideo/il-mercato-delle-gpu-ha-fatto-segnare-il-piu-grande-calo-dalla-recessione-2009_112014.html
Quei dati non hanno valore perchè prendono come basi gli anni passati. Sappiamo cosa è successo e perchè è successo. Dopo una così forte vendita non puoi mica replicare la stessa con situazioni economiche differenti. Io vedo però i negozi online che vendono componenti costose come le cpu e le gpu e il mercato dell'usato esplodere dei "vecchi" componenti. Da non sottovalutare come dinamica anche. Per ultimo c'è il fattore giochi. Cosa spinge un utente a cambiare scheda? Ovviamente i giochi. Secondo me tutta la serie precedente permette di giocare bene a tutti i giochi in commercio.
OrazioOC
11-03-2023, 10:39
https://videocardz.com/newz/nvidia-geforce-rtx-4070-reportedly-launches-on-april-13th
Ci arriverà alle performance della 3080 10gb e rx 6800 xt? :rolleyes:
L'ego di jensen si limiterà ad un listino di 549 usd? Lo scopriremo vivendo.:D
https://videocardz.com/newz/nvidia-geforce-rtx-4070-reportedly-launches-on-april-13th
Ci arriverà alle performance della 3080 10gb e rx 6800 xt? :rolleyes:
L'ego di jensen si limiterà ad un listino di 549 usd? Lo scopriremo vivendo.:D
La stanno facendo sporca non tanto per i prezzi che si poteva immaginare fossero alti quanto le prestazioni. Che buco c'è tra la 4070, la 4070ti e la 4080? Ad occhio la 4080 dovrebbe andare almeno il 60% in più della 4070. Vi risulta?
mikael84
11-03-2023, 16:24
https://videocardz.com/newz/nvidia-geforce-rtx-4070-reportedly-launches-on-april-13th
Ci arriverà alle performance della 3080 10gb e rx 6800 xt? :rolleyes:
L'ego di jensen si limiterà ad un listino di 549 usd? Lo scopriremo vivendo.:D
Penso 599, anche voci di corridoio puntano su quella cifra. Circa 700-710 euro la versione FE, qualcosa in meno le varie manli importate.
Il chip sarà molto tagliuzzato, ben 45mm2 di transistor verranno disabilitati, che su un chip da 295, non è proprio poco.
Cmq il chip mediamente sarà su quel livello, lato potenza di calcolo è li.
Possiamo anche inquadrarla come 3070@ 2,6 circa, con più banda e cache e 12gb:)
OrazioOC
11-03-2023, 17:27
Il chip sarà molto tagliuzzato, ben 45mm2 di transistor verranno disabilitati, che su un chip da 295, non è proprio poco.
In questo nuovo episodio di "come ti decurto i chip" nvidia cerca di rianimare i chip zombie ad104. :asd:
Comunque anche questa è una scheda che qualche anno fa sarebbe stata a dir tanto una xx60/ti.:rolleyes:
bagnino89
11-03-2023, 18:54
Penso 599, anche voci di corridoio puntano su quella cifra. Circa 700-710 euro la versione FE, qualcosa in meno le varie manli importate.
Il chip sarà molto tagliuzzato, ben 45mm2 di transistor verranno disabilitati, che su un chip da 295, non è proprio poco.
Cmq il chip mediamente sarà su quel livello, lato potenza di calcolo è li.
Possiamo anche inquadrarla come 3070@ 2,6 circa, con più banda e cache e 12gb:)Che aborto.
Inviato dal mio Pixel 6 utilizzando Tapatalk
ColdWarGuy
12-03-2023, 11:50
https://videocardz.com/newz/nvidia-geforce-rtx-4070-reportedly-launches-on-april-13th
Ci arriverà alle performance della 3080 10gb e rx 6800 xt? :rolleyes:
L'ego di jensen si limiterà ad un listino di 549 usd? Lo scopriremo vivendo.:D
549 USD ?
Mi sembri mooolto ottimista :D
C'è tutto il parco di 30xx invendute da sbolognare ai prezzi assurdi che possiamo vedere a tutt'oggi, secondo me in EU oseranno un lancio a 749 e come per la 4070 TI il prezzo furto sarà mantenuto per mesi e mesi.
Ale55andr0
12-03-2023, 12:09
Penso 599, anche voci di corridoio puntano su quella cifra. Circa 700-710 euro la versione FE, qualcosa in meno le varie manli importate.
Il chip sarà molto tagliuzzato, ben 45mm2 di transistor verranno disabilitati, che su un chip da 295, non è proprio poco.
Cmq il chip mediamente sarà su quel livello, lato potenza di calcolo è li.
Possiamo anche inquadrarla come 3070@ 2,6 circa, con più banda e cache e 12gb:)
potrei vomitare sulla tastiera
Premesso che andrà testata sul campo, anche alla luce di una probabile migliore efficienza energetica.
Ma come "specifiche" la 4070 dove si posiziona? Leggevo che non dovrebbe prendere manco la 3080 :eek:
mikael84
13-03-2023, 13:07
In questo nuovo episodio di "come ti decurto i chip" nvidia cerca di rianimare i chip zombie ad104. :asd:
Comunque anche questa è una scheda che qualche anno fa sarebbe stata a dir tanto una xx60/ti.:rolleyes:
Ho calcolato un wafer della 4070/ti mediamente. il defect density a rese buone è quello, a rese pessime iniziali è di 0,10, ciò significa qualche die in meno (parliamo di una decina scarsi)
Il die è mediamente vicinissimo a quello della 7900xtx, di cui il cut 7900.
Come si può vedere, le rese sono molto buone, infatti i chip sono quasi tutti puri (4070ti), e quelli un pò meno puri, gli ha messi sul mobile, segando un solo TPC.
Considerando che di 4070 ne produrrà tante, molto probabilmente, sono distrutti direttamente da nvidia appositamente, per creare una nuova fascia, quindi la devastazione così massiva è sicuramente voluta.
Difficilmente riesci a riabilitare tutti i chip guasti, che sarebbero minimi, rispetto alla TI.:)
https://i.postimg.cc/bwsM4ZSC/wafer-4070.png
OrazioOC
13-03-2023, 14:12
Ho calcolato un wafer della 4070/ti mediamente. il defect density a rese buone è quello, a rese pessime iniziali è di 0,10, ciò significa qualche die in meno (parliamo di una decina scarsi)
Il die è mediamente vicinissimo a quello della 7900xtx, di cui il cut 7900.
Come si può vedere, le rese sono molto buone, infatti i chip sono quasi tutti puri (4070ti), e quelli un pò meno puri, gli ha messi sul mobile, segando un solo TPC.
Considerando che di 4070 ne produrrà tante, molto probabilmente, sono distrutti direttamente da nvidia appositamente, per creare una nuova fascia, quindi la devastazione così massiva è sicuramente voluta.
Difficilmente riesci a riabilitare tutti i chip guasti, che sarebbero minimi, rispetto alla TI.:)
Eccellente come sempre Mike! :D
Insomma a nvidia quasi non converrebbe forzare le vendite di questa 4070 rispetto alla sorella ti, il che veramente inizia a farmi temere un prezzo di listino di almeno 600 usd, nonostante il cut nelle unità di calcolo sia importante.
Si potrebbe pensare ad una stima simile per le prossime ad106/107? Che nvidia possa evitarsi un lavoro simile sui chippetti? :stordita:
mikael84
13-03-2023, 16:13
Eccellente come sempre Mike! :D
Insomma a nvidia quasi non converrebbe forzare le vendite di questa 4070 rispetto alla sorella ti, il che veramente inizia a farmi temere un prezzo di listino di almeno 600 usd, nonostante il cut nelle unità di calcolo sia importante.
Si, ad nvidia conviene maggiormente vendere i chip puliti ovviamente, il vantaggio della 4070 sta nel poter riciclare qualche chip fallato, e magari recuperare anche qualche die pulito che non rispetta le rese prestabilite. Ovviamente la 4070 per avere un taglio così grande, è difficile che siano die puliti, ma disabilitati, o qualcuno recuperato.
Di fatto, non potrà mai tagliare troppo il prezzo, in quanto se le 4070 eclisseranno le 4070ti, sarebbe un problema per il margine.
Penso 599, così come viene speculato, che tradotto a noi sarebbero circa 700-710 per la FE, e magari 650-700 da manli importate a salire.:)
Si potrebbe pensare ad una stima simile per le prossime ad106/107? Che nvidia possa evitarsi un lavoro simile sui chippetti? :stordita:
Scendendo ancora, le rese diventano ancora migliori, i fail in percentuale sempre meno.
Ad esempio, la 4060 liscia su AD107, è stampata qua.
https://i.postimg.cc/25BPXHNG/wafer-4060.png
Risultano a rese decenti, circa 341 die puliti e pochissimi fail.
Qua siamo a quasi 50$ di die, mentre una 1050ti (die quasi simile) costava circa 10$ in confronto .
E' una soluzione estremamente economica, dove in tale fascia, i tantissimi die, sopperiscono ai grandi margini derivati da pochi chip.:)
Come puoi ben vedere, nvidia per non devastare appositamente AD106, si è buttata su questa SKU, dai costi minimali.:)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.