Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 15-11-2022, 07:02   #21
mackillers
Senior Member
 
L'Avatar di mackillers
 
Iscritto dal: Jun 2004
Città: Prato
Messaggi: 2588
Quote:
Originariamente inviato da silvanotrevi Guarda i messaggi
Secondo me a questo giro Amd ha fatto le cose meglio di Nvidia:

1. Lato prezzi. Più bassi di Nvidia tenendo conto delle prestazioni

2. Lato consumi. Molto più efficienti delle schede Lovelace

3. Lato memoria video. Persino la lower end Amd avrà 20GB di Vram, aspetto da non sottovalutare se si gioca in 4k tutto su Ultra visto che di recente molti giochi richiedono già 16GB per giocare a dettagli massimi in 4k (e mi riferisco ad esempio a Far Cry 6, Steelrising, Watch Dogs Legion, The First Descendant e vedremo a breve come si comporterà anche The Witcher 3 next gen version il 14 dicembre). Nvidia è sempre stata tirchia lato Vram e alla fine le conseguenze si vedono se si tiene sempre la stessa scheda nel case per più di 2-3 anni

4. Lato connettore, decidendo di non implementare il nuovo difettato sistema Nvidia adoperato per la 4090 e 4080 ma mantenendo quello vecchio con tutte le sicurezze ed evitando a noi gamers il rischio di mandare letteralmente in fumo schede video da oltre 1000 euro

5. Lato refresh rate. La scelta di implementare il supporto al Displayport 2.1 è una figata, e giocare in 4k a 480hz è roba da sballo

E per quanto riguarda le altre tecnologie, Amd non sarà da meno a Nvidia visto che ci sarà un ray tracing di nuova generazione su queste nuove Radeon e ci sarà il nuovo FSR 3 che avrà la stessa funziona del Dlss 3 di Nvidia e cioè generare nuovi frames. Idem per quanto riguarda codifica e decodifica dello standard AV1 in 8k a 60fps. Insomma schede con le palle e prezzate molto meglio delle Lovelace. Se tanto mi da tanto, dal 14 dicembre con l'uscita di queste nuove Radeon, Nvidia sarà costretta a rivedere al ribasso il prezzo delle rtx 4080: non avrà più senso venderle a 1500 eur (che poi sono 2000 eur per chi le compra nella realtà) ma dovrà togliere un paio di centinaia di eur per restare competitiva. Unico tasto dolente di Amd saranno i drivers come sempre e lì c'è poco da fare, è un macello di bugs e altri problemi. Su questo Nvidia è ancora la migliore.

P.S. Per la redazione di hwupgrade: ce la fate a far uscire la recensione della rtx 4080 domani pomeriggio, cioè martedì 15 novembre? A questo punto sono curiosissimo

Ciao,

in queto caso devo difendere almeno in parte Nvidia.
il nuovo connettore non è stato progettato da nvidia ma è uno standard che prima o poi implementerà anche AMD. certo avere gli attuali cavi semplifica la vita adesso che gli alimentatori non sono ancora compatibili in larga maggioranza.

le VGA amd probabilmente saranno piu economiche e consumeranno anche di meno, ma ofriranno anche di meno, Nvidia integra molti piu circuiti ed una memoria video piu veloce.

16GB di vRam bastano ed avanzano in 4K, non fatevi ingannare dalla memoria video allocata, quella che conta è quella veramente utilizzata dalla scheda che generalmente è molta di meno.

allo stato attuale 16GB vi Vram non limiterebbero neppure la 4090 con i giochi dei prossimi anni.

magari il limite potrà essere la bandwith di tale sottosistema ram, magari prima o poi si ritornerà ad utilizzare bus da 512bit come le vecchie ATI di 12 anni fa.

giocare a 480hz in 4k non è possibile con nessuna scheda quindi per adesso tale limite si dimostra tale solo in giochi graficamente vecchissimi o leggerissimi. magari però non dover utilizzare la compressione della qualità colore per fare i 144Hz in 4k potrebbe dare un leggero vantaggio in qualità dell'immagine, ma dubito sia una differenza distinguibile ad occhio nudo. comunque bene che gli standard nuovi ci siano, male non fa ovviamente.
__________________
Pc Gaming - Case Phanteks P600A - Mb MSI Unify X570 - CPU R7 5800X3D - Noctua nh-d15 - Ram G.Skill 32gb 3600mhz - PSU Enermax Platimax 1000W - SSD Samsung 980PRO 1TB - VGA PowerColor Red Devil 7900XTX - Monitor - Philips Evnia 34M2C7600MV

Pc Workstation - Case Asus Prime ap201 - MB Micro-ATX MSI Mortar B650 - CPU R9 7950X - Corsair H150i 360mm - Ram G.Skill 64Gb 6000mhz EXPO CL 30 - PSU Seasonic Prime PX 1000W - SSD Samsung 990 PRO 2TB - VGA PowerColor Red Devil 7900XTX

Ultima modifica di mackillers : 15-11-2022 alle 07:04.
mackillers è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 09:26   #22
mackillers
Senior Member
 
L'Avatar di mackillers
 
Iscritto dal: Jun 2004
Città: Prato
Messaggi: 2588
Quote:
Originariamente inviato da silvanotrevi Guarda i messaggi
Unico tasto dolente di Amd saranno i drivers come sempre e lì c'è poco da fare, è un macello di bugs e altri problemi. Su questo Nvidia è ancora la migliore.

P.S. Per la redazione di hwupgrade: ce la fate a far uscire la recensione della rtx 4080 domani pomeriggio, cioè martedì 15 novembre? A questo punto sono curiosissimo
p.s. su questo punto invece devo invece difender AMD, personalmente ho da 3 anni quasi una 5700xt e sul portatile una 2070 e personalmente ho riscontrato 2 bug sulla nvidia e nessuno sulla 5700xt nonostante all'inizio ci fossero dei difetti riconosciuti.

oltretutto preferisco come interfaccia grafica quella di AMD ed ho notato molte aggiunte ed ottimizzazioni in questi anni. onestamente non posso lamentarmi.

p.s. ho comprato la AMD dopo 6 mesi dall'uscita e questo avrà sicuramente aiutato molto.
__________________
Pc Gaming - Case Phanteks P600A - Mb MSI Unify X570 - CPU R7 5800X3D - Noctua nh-d15 - Ram G.Skill 32gb 3600mhz - PSU Enermax Platimax 1000W - SSD Samsung 980PRO 1TB - VGA PowerColor Red Devil 7900XTX - Monitor - Philips Evnia 34M2C7600MV

Pc Workstation - Case Asus Prime ap201 - MB Micro-ATX MSI Mortar B650 - CPU R9 7950X - Corsair H150i 360mm - Ram G.Skill 64Gb 6000mhz EXPO CL 30 - PSU Seasonic Prime PX 1000W - SSD Samsung 990 PRO 2TB - VGA PowerColor Red Devil 7900XTX
mackillers è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 09:54   #23
Gyammy85
Bannato
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18789
Quote:
Originariamente inviato da mackillers Guarda i messaggi
Ciao,

in queto caso devo difendere almeno in parte Nvidia.
il nuovo connettore non è stato progettato da nvidia ma è uno standard che prima o poi implementerà anche AMD. certo avere gli attuali cavi semplifica la vita adesso che gli alimentatori non sono ancora compatibili in larga maggioranza.

le VGA amd probabilmente saranno piu economiche e consumeranno anche di meno, ma ofriranno anche di meno, Nvidia integra molti piu circuiti ed una memoria video piu veloce.

16GB di vRam bastano ed avanzano in 4K, non fatevi ingannare dalla memoria video allocata, quella che conta è quella veramente utilizzata dalla scheda che generalmente è molta di meno.

allo stato attuale 16GB vi Vram non limiterebbero neppure la 4090 con i giochi dei prossimi anni.

magari il limite potrà essere la bandwith di tale sottosistema ram, magari prima o poi si ritornerà ad utilizzare bus da 512bit come le vecchie ATI di 12 anni fa.

giocare a 480hz in 4k non è possibile con nessuna scheda quindi per adesso tale limite si dimostra tale solo in giochi graficamente vecchissimi o leggerissimi. magari però non dover utilizzare la compressione della qualità colore per fare i 144Hz in 4k potrebbe dare un leggero vantaggio in qualità dell'immagine, ma dubito sia una differenza distinguibile ad occhio nudo. comunque bene che gli standard nuovi ci siano, male non fa ovviamente.
Quando le cose vanno male ovvio che nvidia non c'entra mai, per cui il connettore glielo hanno somministrato a forza quelli dello standard, od il resizable bar che è il più grande flop della storia
La vram poi è sempre divertente, perché sembra quasi la si possa aggiungere o cambiare, tipo la 3080ti da 12 giga, la più grossa presa in giro (ma anche la 3080 da 10 non scherza)
E poi le uscite video, che ovviamente ora tutti snobbano perché che ci fai con il dp 2.1 e l'8k 60 di decodifica, ma sono le stesse persone che da turing rompono tutti i giorni con "il grande ecosistema per creatori di contenuti" di nvidia
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 10:41   #24
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 9309
Quote:
Originariamente inviato da mackillers Guarda i messaggi
16GB di vRam bastano ed avanzano in 4K, non fatevi ingannare dalla memoria video allocata, quella che conta è quella veramente utilizzata dalla scheda che generalmente è molta di meno
Anche 10GB/12GB eh...ma poi mi fa sorridere il ragionamento (sbagliato) che fanno in molti quando si tratta di prendere una scheda con più VRAM per una questione ''future proof'', senza sapere che la potenza della gpu sarà comunque inadeguata a gestire con un framerate decente (sacrificando le impostazioni grafiche) i nuovi giochi in futuro.

Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
od il resizable bar che è il più grande flop della storia
SAM e Resizable Bar sono la stessa cosa, cambia il nome, ma il principio di funzionamento è lo stesso.
__________________
CPU: R5 7600 MOBO: ROG B650E-I RAM: G.Skill 32GB 6000 C30 GPU: RX 9070 XT NVMe: SN850X 1TB PSU: SGX-750 CASE: MiniNeo S400
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 10:50   #25
Gyammy85
Bannato
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18789
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
SAM e Resizable Bar sono la stessa cosa, cambia il nome, ma il principio di funzionamento è lo stesso.
Il sam funziona e il rebar no, piccolo particolare
Se ne guardano bene dal dare nomi quando le cose non vanno bene, a parti invertite "nvidia ia power access memory"
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 10:53   #26
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 9309
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
Il sam funziona e il rebar no, piccolo particolare
Se ne guardano bene dal dare nomi quando le cose non vanno bene, a parti invertite "nvidia ia power access memory"
Se in alcuni giochi non funziona è perchè nvidia non li ha aggiunti nella lista dei supportati, ma si può fare manualmente con nvidia profile inspector, e il boost prestazionale è paragonabile a quello offerto dalle radeon.

L'unica differenza è questa, AMD offre un supporto migliore, ma per il resto sono la stessa cosa.
__________________
CPU: R5 7600 MOBO: ROG B650E-I RAM: G.Skill 32GB 6000 C30 GPU: RX 9070 XT NVMe: SN850X 1TB PSU: SGX-750 CASE: MiniNeo S400
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 11:34   #27
futu|2e
Senior Member
 
L'Avatar di futu|2e
 
Iscritto dal: Sep 2007
Messaggi: 5532
Adios pc gaming
__________________
Matthewx
futu|2e è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 11:47   #28
ninja750
Senior Member
 
L'Avatar di ninja750
 
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 20447
Quote:
Originariamente inviato da silvanotrevi Guarda i messaggi
Secondo me a questo giro Amd ha fatto le cose meglio di Nvidia:

1. Lato prezzi
2. Lato consum
3. Lato memoria video
4. Lato connettore
5. Lato refresh rate
mancherebbe giusto 6. lato prestazioni

perchè fino ad agosto nel thread aspettando si parlava di SICURI 2x secchi su 6900XT perchè c'erano il doppio di SP e figurati i miglioramenti interni e vuoi mettere le uber frequenze del nuovo PP?
ninja750 è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 11:55   #29
Gyammy85
Bannato
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18789
Quote:
Originariamente inviato da ninja750 Guarda i messaggi
mancherebbe giusto 6. lato prestazioni

perchè fino ad agosto nel thread aspettando si parlava di SICURI 2x secchi su 6900XT perchè c'erano il doppio di SP e figurati i miglioramenti interni e vuoi mettere le uber frequenze del nuovo PP?
Se ci fossero stati fisicamente 12k sp era diverso il discorso, ma farli entrare in 300 mm2 era impossibile a meno di non farla a 3 nm
Lavorando sulla capacità delle cu invece si è ottenuto quasi lo stesso risultato (ci sono 96 rt cores vs 80 e anche così fa 2x fps in dying light rtx)
Come le 5870 vs le grosse fermi alla fine
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 12:41   #30
ningen
Senior Member
 
Iscritto dal: Mar 2015
Messaggi: 1672
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Anche 10GB/12GB eh...ma poi mi fa sorridere il ragionamento (sbagliato) che fanno in molti quando si tratta di prendere una scheda con più VRAM per una questione ''future proof'', senza sapere che la potenza della gpu sarà comunque inadeguata a gestire con un framerate decente (sacrificando le impostazioni grafiche) i nuovi giochi in futuro.
Lasciamo perdere che questa è una battaglia persa.
Negli anni di minchiate ne ho sentite a valanga su questa questione della VRAM ed è il motivo per cui, per fare un esempio, nemmeno in futuro quei 4 gb in più che ha la 3060 faranno la differenza rispetto ai "soli" 8 gb della 3060 ti, palese dimostrazione dove questa minchiata fallisce miseramente.
ningen è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 14:07   #31
dav1deser
Senior Member
 
L'Avatar di dav1deser
 
Iscritto dal: Jan 2008
Messaggi: 4247
Quote:
Originariamente inviato da ningen Guarda i messaggi
Lasciamo perdere che questa è una battaglia persa.
Negli anni di minchiate ne ho sentite a valanga su questa questione della VRAM ed è il motivo per cui, per fare un esempio, nemmeno in futuro quei 4 gb in più che ha la 3060 faranno la differenza rispetto ai "soli" 8 gb della 3060 ti, palese dimostrazione dove questa minchiata fallisce miseramente.
Giusto per fare un esempio sul discorso Vram:
https://www.techspot.com/review/2291...60-3gb-vs-6gb/

Dove è evidente che negli anni, avere meno Vram ha portato ad una perdita prestazionale superiore.
La Vram comunque è utile particolarmente per le Texture, avere più Vram ti permette di usare texture a maggiore definizione senza avere stuttering o altri cali di framerate, e nel frattempo se la Vram è sufficiente l'impatto prestazionale che si ha nell'utilizzare texture a risoluzione maggiore è estremamente basso.
Quindi avere più Vram può (in teoria) consentire in futuro di tenere texture in alta risoluzione pur dovendo ridurre altri dettagli grafici a causa della scarsa (in prospettiva) potenza di calcolo. Che è sempre meglio che dover ridurre tutti i dettagli grafici.
__________________
AMD 7950X - Sapphire 7900XT Pulse - MSI PRO X670-P WIFI - 32GB@6400 - NZXT H5 Flow - Enermax Revo X't 730W - 3xAsus VG249 FHD 144Hz - 500GB Samsung 970 Evo NVME - 256GB Samsung 840 Evo Sata3 - Seagate 4TB HDD
dav1deser è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 14:23   #32
mackillers
Senior Member
 
L'Avatar di mackillers
 
Iscritto dal: Jun 2004
Città: Prato
Messaggi: 2588
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
Quando le cose vanno male ovvio che nvidia non c'entra mai, per cui il connettore glielo hanno somministrato a forza quelli dello standard, od il resizable bar che è il più grande flop della storia
La vram poi è sempre divertente, perché sembra quasi la si possa aggiungere o cambiare, tipo la 3080ti da 12 giga, la più grossa presa in giro (ma anche la 3080 da 10 non scherza)
E poi le uscite video, che ovviamente ora tutti snobbano perché che ci fai con il dp 2.1 e l'8k 60 di decodifica, ma sono le stesse persone che da turing rompono tutti i giorni con "il grande ecosistema per creatori di contenuti" di nvidia
Perdonami ma onestamente non concordo.

Nvidia ha la colpa di aver creato una GPU molto grande ed esosa in consumi, conseguentemente ha scelto di adottare l'ultimo standard di collegamento. che per inciso suppongo AMD implementerà con la prossima gen.
se questa tipologia di cavo in taluni sparuti casi può creare dei problemi questa non è a mio giudizio una sua responsabilità diretta.
e per adesso mi pare che i casi di problemi con il cavo di alimentazione siano pochissimi rispetto al numero di unità commercializzate.

per quanto riguarda invece il connettore posso darti ragione in parte, nel senso che non vedo un uso pratico del nuovo standard se non in particolarissimi casi, ma chiaramente è sempre preferibile avere a disposizione lo standard piu aggiornato.

difficilmente ci si potrà trovare a gestire refresh così alti a risoluzioni così alte, neppur esistono ancora monitor compatibili ed anche la 4090 non riesce sui giochi attuali a raggiungere tali FPS quindi il limite è piu teorico che reale.

piuttosto se avessi una 4090 ed un monitor 4k da 144hz mi dispiacere dover attivare la compressione colore e perdere la profondità colore a 12bit, però anche i recensori piu esperti sostengono che sia una limitazione quasi impossibile da distinguere ad occhio nudo.


mentre per il resize bar onestamente non ti seguo, quale sarebbe il problema?

AMD ha sfruttato il fatto di produrre sia GPU che CPU e motherboard per lanciare una sua interpretazione del Resizable bar particolarmente ottimizzata e quindi con una piattaforma tutta AMD come la mia si dovrebbe in teoria avere qualche punto percetuale di prestazioni in piu rispetto al resizable bar Attivo con cpu intel + gpu AMD o Nvdia oppure CPU AMD + Nvidia.
ma questo non lo vedo come un difetto di Nvidia ma un piccolo vantaggio di AMD che può ottimizzare hardware e software dell'intera macchina invece che della sola scheda video.


per quanto riguarda la memoria video anche qui ti do parzialmente ragione, AMD inserisce una quantità di ram maggiore e forse in futuro potranno esistere dei giochi che con una 3080 10Gb siano piu limitati dalla quantita della Vram che della potenza effettiva della GPU.
ma al momento non mi risulta esistano, ricorda che la quantita di ram allocata da un applicazione non è mai completamente usata.
chiaro che se a parità di prezzo mi offri piu ram è sempre meglio ma se poi alla fine della fiera una 3080 mi garantisce prestazioni maggiori di una 6800xt sarà quella da preferire, anche se ha meno RAM.


detto questo la nuova Gen AMD sembra correggere molte delle debolezze della precedente gen, quindi la guardo con molto interesse per sostituire la mia 5700xt, speriamo che il possedere un 5800x ed una conseguente piattaforma AM4 non costituisca un limite per sfruttarla a dovere.
__________________
Pc Gaming - Case Phanteks P600A - Mb MSI Unify X570 - CPU R7 5800X3D - Noctua nh-d15 - Ram G.Skill 32gb 3600mhz - PSU Enermax Platimax 1000W - SSD Samsung 980PRO 1TB - VGA PowerColor Red Devil 7900XTX - Monitor - Philips Evnia 34M2C7600MV

Pc Workstation - Case Asus Prime ap201 - MB Micro-ATX MSI Mortar B650 - CPU R9 7950X - Corsair H150i 360mm - Ram G.Skill 64Gb 6000mhz EXPO CL 30 - PSU Seasonic Prime PX 1000W - SSD Samsung 990 PRO 2TB - VGA PowerColor Red Devil 7900XTX
mackillers è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 15:07   #33
mackillers
Senior Member
 
L'Avatar di mackillers
 
Iscritto dal: Jun 2004
Città: Prato
Messaggi: 2588
Quote:
Originariamente inviato da dav1deser Guarda i messaggi
Giusto per fare un esempio sul discorso Vram:
https://www.techspot.com/review/2291...60-3gb-vs-6gb/

Dove è evidente che negli anni, avere meno Vram ha portato ad una perdita prestazionale superiore.
La Vram comunque è utile particolarmente per le Texture, avere più Vram ti permette di usare texture a maggiore definizione senza avere stuttering o altri cali di framerate, e nel frattempo se la Vram è sufficiente l'impatto prestazionale che si ha nell'utilizzare texture a risoluzione maggiore è estremamente basso.
Quindi avere più Vram può (in teoria) consentire in futuro di tenere texture in alta risoluzione pur dovendo ridurre altri dettagli grafici a causa della scarsa (in prospettiva) potenza di calcolo. Che è sempre meglio che dover ridurre tutti i dettagli grafici.

in quel caso però si tratta di due schede video di fascia bassa medio/bassa in cui era chiaro anche ad Nvidia che tale scelta fosse un compromesso, ecco perché è stata creata la variante 6GB.

di fatti sono schede che con i giochi moderni comunque garantiscono basse prestazioni, chiaro con la 6GB magari riesci ancora a vivacchiare con la 3 no.

ma avrebbe piu senso cambiare GPU.

nel caso di una 3080 il problema secondo me non si pone, è una scheda Highend fra 5 o 7 anni quando saranno impattanti i soli 10gb in 2K (la sua res di riferimento, non è una scheda pensata per il 4k, già adesso fatica un pò a tale risoluzione) allora sarà decisamente surclassata a livello di potenza di elaborazione ed il suo acquirente l'avrà sostituita da tempo.

poi è ovvio che se dovessi scegliere adesso fra una 3080 12GB ed una 6800XT se la seconda mi costa 100€ meno i 4GB in piu non li disprezzo, ma realisticamente parlando difficilmente finiranno per fare la differenza.

anche perché oramai con le texture si è arrivati ad alte definizioni, i grossi miglioramenti in futuro saranno lato densità poligonale ed illuminazione ( vedi raytracing ed UE5) e li servirà potenza computazionale.
__________________
Pc Gaming - Case Phanteks P600A - Mb MSI Unify X570 - CPU R7 5800X3D - Noctua nh-d15 - Ram G.Skill 32gb 3600mhz - PSU Enermax Platimax 1000W - SSD Samsung 980PRO 1TB - VGA PowerColor Red Devil 7900XTX - Monitor - Philips Evnia 34M2C7600MV

Pc Workstation - Case Asus Prime ap201 - MB Micro-ATX MSI Mortar B650 - CPU R9 7950X - Corsair H150i 360mm - Ram G.Skill 64Gb 6000mhz EXPO CL 30 - PSU Seasonic Prime PX 1000W - SSD Samsung 990 PRO 2TB - VGA PowerColor Red Devil 7900XTX
mackillers è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 15:10   #34
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 9309
Comunque la 1060 3GB e 6GB non differiscono solo nel quantitativo di VRAM, ma hanno anche due chip diversi.

Andrebbe fatto lo stesso paragone tra la 1060 6GB e la RX 580 8GB.
__________________
CPU: R5 7600 MOBO: ROG B650E-I RAM: G.Skill 32GB 6000 C30 GPU: RX 9070 XT NVMe: SN850X 1TB PSU: SGX-750 CASE: MiniNeo S400
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 16:19   #35
dav1deser
Senior Member
 
L'Avatar di dav1deser
 
Iscritto dal: Jan 2008
Messaggi: 4247
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Comunque la 1060 3GB e 6GB non differiscono solo nel quantitativo di VRAM, ma hanno anche due chip diversi.

Andrebbe fatto lo stesso paragone tra la 1060 6GB e la RX 580 8GB.
Si ma nell'articolo fa vedere che il distacco prestazionale è cresciuto rispetto a quando le schede sono uscite, ma i chip sempre quelli sono, quindi se la ram non fosse stata rilevante, la differenza prestazionale sarebbe rimasta uguale.

@mackillers
Si era per fare un esempio, e ai tempi c'era chi comunque consigliava la 3GB visto che costava meno. Così come gli anni prima c'era chi si lamentava delle Fury con solo 4GB (ed infatti non mi pare siano invecchiate benissimo).
Cioè secondo me se si pensa di tenere la scheda video per max 3 anni, non serve stare a guardare molto la quantità di Vram, se la si vuole tenere di più allora non è qualcosa da sottovalutare.
__________________
AMD 7950X - Sapphire 7900XT Pulse - MSI PRO X670-P WIFI - 32GB@6400 - NZXT H5 Flow - Enermax Revo X't 730W - 3xAsus VG249 FHD 144Hz - 500GB Samsung 970 Evo NVME - 256GB Samsung 840 Evo Sata3 - Seagate 4TB HDD
dav1deser è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 16:21   #36
ningen
Senior Member
 
Iscritto dal: Mar 2015
Messaggi: 1672
Quote:
Originariamente inviato da dav1deser Guarda i messaggi
Giusto per fare un esempio sul discorso Vram:
https://www.techspot.com/review/2291...60-3gb-vs-6gb/

Dove è evidente che negli anni, avere meno Vram ha portato ad una perdita prestazionale superiore.
La Vram comunque è utile particolarmente per le Texture, avere più Vram ti permette di usare texture a maggiore definizione senza avere stuttering o altri cali di framerate, e nel frattempo se la Vram è sufficiente l'impatto prestazionale che si ha nell'utilizzare texture a risoluzione maggiore è estremamente basso.
Quindi avere più Vram può (in teoria) consentire in futuro di tenere texture in alta risoluzione pur dovendo ridurre altri dettagli grafici a causa della scarsa (in prospettiva) potenza di calcolo. Che è sempre meglio che dover ridurre tutti i dettagli grafici.
La 1060 da 3 gb era più lenta della 1060 da 6 gb già all'uscita e non per via della vram.
Quando quei 3 gb di ram si son rivelati un limite anche la 1060 da 6 gb ha iniziato ad arrancare, sebbene abbia poi risultati milgiori, ma parliamo di schede che a malapena tenevano i 60 fps a 1080p con AC:Unity, ed infatti in AC: Valhalla hanno entrambe performance deludenti in high e sicuramente non ottimali ed entrambe sono schede che andrebbero cambiate per un esperienza migliore.
In cosa sarebbe future-proof la 1060 da 6 gb? Oggi rimangono entrambe schede da 1080p con compromessi, anzi in certi giochi come Horizon la differenza rimane simile come era all'uscita e lo stesso dicasi per la varie RX 470, 480, 570, 580 con vari tagli di Vram.
ningen è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 16:25   #37
dav1deser
Senior Member
 
L'Avatar di dav1deser
 
Iscritto dal: Jan 2008
Messaggi: 4247
Quote:
Originariamente inviato da ningen Guarda i messaggi
La 1060 da 3 gb era più lenta della 1060 da 6 gb già all'uscita e non per via della vram.
Quando quei 3 gb di ram si son rivelati un limite anche la 1060 da 6 gb ha iniziato ad arrancare, sebbene abbia poi risultati milgiori, ma parliamo di schede che a malapena tenevano i 60 fps a 1080p con AC:Unity, ed infatti in AC: Valhalla hanno entrambe performance deludenti in high e sicuramente non ottimali ed entrambe sono schede che andrebbero cambiate per un esperienza migliore.
In cosa sarebbe future-proof la 1060 da 6 gb? Oggi rimangono entrambe schede da 1080p con compromessi, anzi in certi giochi come Horizon la differenza rimane simile come era all'uscita e lo stesso dicasi per la varie RX 470, 480, 570, 580 con vari tagli di Vram.
Da una differenza prestazionale del 7% (a favore della 6GB) si è passati ad oltre il 20% (sempre ovviamente a favore della 6GB), direi che è ovvio che la 6GB si è dimostrata più future proof (nella media dei giochi testati dalla recensione che ho linkato). Per quanto mi riguarda i numeri parlano da soli.
__________________
AMD 7950X - Sapphire 7900XT Pulse - MSI PRO X670-P WIFI - 32GB@6400 - NZXT H5 Flow - Enermax Revo X't 730W - 3xAsus VG249 FHD 144Hz - 500GB Samsung 970 Evo NVME - 256GB Samsung 840 Evo Sata3 - Seagate 4TB HDD
dav1deser è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 17:39   #38
Alfhw
Senior Member
 
L'Avatar di Alfhw
 
Iscritto dal: Oct 2006
Messaggi: 3188
Quote:
Originariamente inviato da matrix83 Guarda i messaggi
Non credo proprio, con cambio euro/dollaro e IVA costeranno quanto una 4080, o al massimo 100€ in meno. Ma a quel punto conviene prendersi una serie 4000, almeno hai anche rtx.
Prezzi in USA per le FE/Reference:
4080 1199 dollari
7900 XTX 999 dollari

Prezzi Italia:
4080 1479 euro
7900 XTX 1232 euro stimato facendo una banale proporzione
Differenza 247 euro

Però secondo te le 7900 XTX "costeranno quanto una 4080, o al massimo 100€ in meno." La "matematica" dei fanboy è impressionante.
Senza contare che le 7900 XTX probabilmente andranno più veloce delle 4080 in raster.
Alfhw è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 18:33   #39
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 9309
Quote:
Originariamente inviato da dav1deser Guarda i messaggi
Da una differenza prestazionale del 7% (a favore della 6GB) si è passati ad oltre il 20% (sempre ovviamente a favore della 6GB), direi che è ovvio che la 6GB si è dimostrata più future proof (nella media dei giochi testati dalla recensione che ho linkato). Per quanto mi riguarda i numeri parlano da soli.
Scusami, ma definire una scheda più future proof sulla base di 4 giochi su 17 dove effettivamente i 6GB hanno aiutato (1080p su Valhalla, Re Village, Doom Eternal, Tomb Raider, le altre risoluzioni possiamo anche scartarle) mi sembra esagerato, posso capire se fosse stato così in quasi tutti i titoli recenti, allora si, ma dubito che i possessori della versione 3GB si saranno pentiti dell'acquisto fatto più di 6 anni fa, considerando anche la differenza di prezzo che ballava tra le due versioni

Oltre la 1060 3GB, quale altra scheda recente rimane come esempio di paragone? Siamo quasi alla fine del 2022, e i 6GB delle varie 1060/1660/2060 vanno ancora benissimo a 1080p, nonostante le critiche ricevute all'epoca dove si davano per spacciate rispetto le varie Polaris con 8GB
__________________
CPU: R5 7600 MOBO: ROG B650E-I RAM: G.Skill 32GB 6000 C30 GPU: RX 9070 XT NVMe: SN850X 1TB PSU: SGX-750 CASE: MiniNeo S400
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 15-11-2022, 18:53   #40
dav1deser
Senior Member
 
L'Avatar di dav1deser
 
Iscritto dal: Jan 2008
Messaggi: 4247
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Scusami, ma definire una scheda più future proof sulla base di 4 giochi su 17 dove effettivamente i 6GB hanno aiutato (1080p su Valhalla, Re Village, Doom Eternal, Tomb Raider, le altre risoluzioni possiamo anche scartarle) mi sembra esagerato, posso capire se fosse stato così in quasi tutti i titoli recenti, allora si, ma dubito che i possessori della versione 3GB si saranno pentiti dell'acquisto fatto più di 6 anni fa, considerando anche la differenza di prezzo che ballava tra le due versioni

Oltre la 1060 3GB, quale altra scheda recente rimane come esempio di paragone? Siamo quasi alla fine del 2022, e i 6GB delle varie 1060/1660/2060 vanno ancora benissimo a 1080p, nonostante le critiche ricevute all'epoca dove si davano per spacciate rispetto le varie Polaris con 8GB
Scusa se è poco che nel 25% dei giochi testati avere meno Vram ha causato evidenti problemi, e nella maggior parte degli altri casi, stando a 1080 dettagli medi, le differenze prestazionali andavano comunque ben oltre quelle teoriche dei pochi core in meno della 3gb.

Esempi recenti non ce ne sono molti, però ho trovato questa:
https://www.techspot.com/review/1961...00-4gb-vs-8gb/

La differenza di prestazioni nell'1% Low è in molti casi vicino o superiore al 10%.

Ripeto comunque, se si vuole tenere la scheda video per poco tempo, diciamo 3 anni, la Vram non è un problema. Se la si vuole tenere a lungo è un fattore da considerare.
__________________
AMD 7950X - Sapphire 7900XT Pulse - MSI PRO X670-P WIFI - 32GB@6400 - NZXT H5 Flow - Enermax Revo X't 730W - 3xAsus VG249 FHD 144Hz - 500GB Samsung 970 Evo NVME - 256GB Samsung 840 Evo Sata3 - Seagate 4TB HDD
dav1deser è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Photoshop 2025: le nuove funzioni AI che...
Qualcomm cresce, ma la CPU per datacente...
Gli iPhone in offerta oggi? C'è i...
L'evoluzione di Revolut: arrivano anche ...
Microsoft entra nel club dei 4.000 milia...
Ufficiale, Google firmerà il Codi...
Mettereste una NPU dedicata all'intellig...
I nuovi iPhone 17 costeranno di pi&ugrav...
Zuckerberg: 'Chi non indosserà sm...
La scopa elettrica bestseller super acce...
Amazon, svendite pesanti di 11 TV OLED: ...
Xbox: dal prossimo mese verifica dell'id...
Corsair AI Workstation 300: poco pi&ugra...
Addio a Elio Marioli, un pioniere della ...
L'IA sta già diminuendo il potere...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 08:53.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1