Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Samsung Galaxy Book Flex: il 2-in-1 con la pennina integrata
Samsung Galaxy Book Flex: il 2-in-1 con la pennina integrata
E' un 2-in-1 che si differenzia dai concorrenti per integrare al proprio interno un pennino S-Pen, con il quale espandere le potenzialità di utilizzo: Galaxy Book Flex si adatta facilmente a qualsiasi necessità di utilizzo lontano dalla presa di corrente, forte di una costruzione robusta e di uno schermo basato su tecnologia QLED
GoPro Hero 9: nuovo sensore, doppio display, stabilizzazione top. Resta lei quella da battere
GoPro Hero 9: nuovo sensore, doppio display, stabilizzazione top. Resta lei quella da battere
GoPro Hero 9 si rinnova in grande stile. Nuovo sensore a maggiore risoluzione, vero display frontale, stabilizzazione digitale Hypersmooth 3.0 efficacissima. È di nuovo la regina delle action camera e permette di registrare anche in formato video 5K/30p, oltre che 4K/60p, 2,7K/120p e 1080p/240fps. Alla stabilizzazione è possibile aggiungere l'allineamento automatico dell'orizzonte: mai più riprese storte
Amazon Echo e Echo Dot: tutti nuovi e con Alexa più intelligente. La recensione
Amazon Echo e Echo Dot: tutti nuovi e con Alexa più intelligente. La recensione
Una delle conferenze più importanti dell'anno avvenuta a fine settembre ha svelato i nuovi prodotti ''intelligenti'' di Amazon. L'azienda capitanata da Jeff Bezos ha svelato Echo, Echo Dot ed Echo Dot con display a LED. Li abbiamo provati tutti e vi diciamo cosa cambia rispetto ai precedenti e come funzionano. 
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 22-09-2020, 01:20   #221
lucusta
Senior Member
 
L'Avatar di lucusta
 
Iscritto dal: May 2001
Messaggi: 6034
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Adesso ha trovato un altro pelo nell'uovo sul fatto che abbiano usato le 9900K ora anzichè AMD
In una risoluzione di 4K ovviamente è storicamente risaputo che i casi di CPU limited siano presenti in maniera rilevante.
è appunto questo che frena la tua capacità di analisi di questi sistemi: semplicemente per la poca esperienza che hai probabilmente non immagini quale sia la varietà del carico di computo su CPU e GPU (anche in modo indipendente) che c'è in questi benchmark, specificatamente in ogni sequenza di benchmark.
il limite della CPU lo puoi riscontrare anche in un gioco che arriva a 200fps già a 50fps, basta che quella scena sia inusualmente corposa per la CPU.
sono la somma di tutti i tempi di geerazione dei frame che poi ti daranno la media.
sarebbe sufficiente mettere il frametime in relazione al numero di volte che si conta, per le occorrenze, per vedere come viene realmente costruito il valor medio che poi utilizzi nelle tue discussioni... magari riusciresti a vedere qualcosa d'interessante se qualcuno te lo fornisse.
la prima cosa da fare prima di effettuare un test è di verificare come risponde lo specifico benchmark, misurare i suoi limiti.
ad esempio, nella suite di TPU, Anno 1800 è un gioco totalmente inutile, in quanto il suo benchmark all'aumentare della risoluzione aumenta il carico grafico in modo esagerato, ma è comunque talmente congestionato che manda la CPU in massima elaborazione già sotto i 60 fps.
da una parte ha una retta molto inclinata per quanto riguarda le richieste della GPU, dall'altra la rende inosservabile perchè traumatizzata dall'uso eccessivo della CPU.
è solo un gioco da usare o a 30 o a 60 fps, a seconda della scheda che hai, giostrando appunto sui settaggi, non da benchmark.

questi picchi mitigati a causa del bottleneck CPU li puoi osservare anche su AC, anche a 4K.

impegnati a guardare il comportamento della CPU e dell'uso della GPU quando giochi, magari noti anche quali siano i giochi fati bene e quelli invece decisamente fatti male e ti sto parlando squisitamente della sequenza di benchmarking e di come questa viene scelta dal lo sviluppatore del gioco.

Ultima modifica di lucusta : 22-09-2020 alle 01:26.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 05:56   #222
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1391
Quote:
Originariamente inviato da lucusta Guarda i messaggi
Fos, certe costruzioni delle frasi servono a scaricare le responsabilità di chi scrive l'articolo; per la memoria è la stessa Nvidia che indica quando non sarà più sufficiente: già ci sono i leak delle stesse schede con 2GB per chip (quindi 3070 a 16GB, 3080 a 20GB)...

prendere queste è quasi un controsenso visto che ci sono i leak di AMD che presenta già con 16GB una scheda che probabilmente sta alla pari con la 3070.
è segno evidente che le industrie sanno già come si evolverà la questione ed in quanto tempo.
Per me servono più a confondere, che ad altro.
Dire che non serviranno nel prossimo futuro: Ad indovinare!

Avevo già sentito della maggior quantità di VRAM montata sulle schede future.
Per quello mi portavo avanti dicendo se la cosa sarebbe rimasta la stessa...
__________________
Xaser-5 | MSI-Z170A | i5-6600K@4.4GHz| RX-580 | 16GB-2740Mhz | X-Fi Fatal1ty | SSD NVMe + 4TB | LCD-27 | GigaWorks-S750
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 07:09   #223
bonzoxxx
Senior Member
 
L'Avatar di bonzoxxx
 
Iscritto dal: Aug 2008
Città: N.P.
Messaggi: 8354
https://www.notebookcheck.net/Big-Na....494835.0.html
__________________
Sto cercando di disintossicarmi dall'Hardware... ma non ci sono riuscito
R5 3600 - Crosshair VII - 16GB 3200 CL14 - MSI 1070 ITX - H100i GTX
bonzoxxx è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 10:45   #224
nickname88
Senior Member
 
L'Avatar di nickname88
 
Iscritto dal: Apr 2016
Messaggi: 12078
Quote:
Originariamente inviato da lucusta Guarda i messaggi
è appunto questo che frena la tua capacità di analisi di questi sistemi: semplicemente per la poca esperienza che hai probabilmente non immagini quale sia la varietà del carico di computo su CPU e GPU (anche in modo indipendente) che c'è in questi benchmark, specificatamente in ogni sequenza di benchmark.
Penso di avere molta più esperienza di te nel capire un CPU limited, e quantomeno abbastanza da sapere che non è di certo nella media degli FPS che si vede, e i picchi fi FPS incidono quasi zero, specie se parliamo di alte risoluzioni e CPU High End.
Stai tirando su un polverone per minuscole percentuali che per giunta non necessariamente derivano da un cambio di HW.

E giusto per la cronaca non tutti quei giochi hanno il benchmark, ma i test vengono rilevati in game in specifici scenari, questo è il motivo per cui uno stesso gioco può variare leggermente.

Quote:
questi picchi mitigati a causa del bottleneck CPU li puoi osservare anche su AC, anche a 4K.
Io Origins e Odyssey li ho giocati e testati entrambi, e il primo di questi già alla misera risoluzione di 1440p nel suo benchmark con una 1080Ti cambiava poco a nulla fra il mio 1700X dell'epoca e chi possedeva Intel e lo stesso pure nel secondo con invece il 3800X.
Poi in game la differenza si vedeva solo in specifiche location ma a livello di fps medio o bench il CPU limited non lo vedi se non col microscopio, quindi pensa addirittura in 4K.

Tu piuttosto .... li possiedi questi 2 titoli di cui parli ?
__________________
........

Ultima modifica di nickname88 : 22-09-2020 alle 10:54.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 11:56   #225
lucusta
Senior Member
 
L'Avatar di lucusta
 
Iscritto dal: May 2001
Messaggi: 6034
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Penso di avere molta più esperienza di te nel capire un CPU limited, e quantomeno abbastanza da sapere che non è di certo nella media degli FPS che si vede, e i picchi fi FPS incidono quasi zero, specie se parliamo di alte risoluzioni e CPU High End.
Stai tirando su un polverone per minuscole percentuali che per giunta non necessariamente derivano da un cambio di HW.

E giusto per la cronaca non tutti quei giochi hanno il benchmark, ma i test vengono rilevati in game in specifici scenari, questo è il motivo per cui uno stesso gioco può variare leggermente.

Io Origins e Odyssey li ho giocati e testati entrambi, e il primo di questi già alla misera risoluzione di 1440p nel suo benchmark con una 1080Ti cambiava poco a nulla fra il mio 1700X dell'epoca e chi possedeva Intel e lo stesso pure nel secondo con invece il 3800X.
Poi in game la differenza si vedeva solo in specifiche location ma a livello di fps medio o bench il CPU limited non lo vedi se non col microscopio, quindi pensa addirittura in 4K.

Tu piuttosto .... li possiedi questi 2 titoli di cui parli ?
continua a pensarlo, ma se hai queste idee dimostri solo di non avere nemmeno il sentore di quello di cui parli.
basta che cerchi un grafico sul frametime per occorrenza o anche un semplice plot del frametime per capire come evolve la sequenza di benchmark di quel gioco.
oltretutto la 1080 Ti non è una scheda che possa essere posta nel problema: non ha la possibilità di farti vedere accentuati bottelneck della CPU tali sconvolgerti la media, ma ci sono picchi che la deviano.

comunque basta che cerchi quei giochi su gamegpu per vedere l'aumento di frame al cambio della CPU; se si alza con una CPU migliore, significa che quella precedente faceva da bottleneck in alcune situazioni...

Ultima modifica di lucusta : 22-09-2020 alle 23:29.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 14:43   #226
nickname88
Senior Member
 
L'Avatar di nickname88
 
Iscritto dal: Apr 2016
Messaggi: 12078
Quote:
Originariamente inviato da lucusta Guarda i messaggi
continua a pensarlo, ma se hai queste idee dimostri solo di non avere nemmeno il sentore di quello di cui parli.
Disse colui che affermava che le DIMM consumavano 60W a testa perchè le ha misurate col tester e che Vega era in realtà superiore a Pascal.

Quote:
oltretutto la 1080 Ti non è una scheda che possa essere posta nel problema
Il CPU limited non è vincolato dal modello della VGA, ma dalla combinazione di VGA, gioco in questione e impostazioni video, quindi ogni modello di scheda può esserne afflitto, mica solo Ampere e Turing.
E meno male che solo tu sai di cosa si parla vero ?
__________________
........
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 22-09-2020, 23:54   #227
lucusta
Senior Member
 
L'Avatar di lucusta
 
Iscritto dal: May 2001
Messaggi: 6034
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Disse colui che affermava che le DIMM consumavano 60W a testa perchè le ha misurate col tester e che Vega era in realtà superiore a Pascal.
vedi, la tua poca conoscenza su queste questione e la tua scarsa consapevolezza di come funzionano le questioni ti fa fare questi sfrafalcioni.
le DIMM o qualsiasi altro chip possono consumare da nulla al massio che si può dissipare in un chippetto del genere, proprio come fattore forma, mantenendo le temperature adeguate per non creare problemi.
che oggi ci siano chip che consumino massimo 6-7W significa soltanto che ieri c'erano anche al tempo chip che consumavano 6-7W.

quello è il massimo che si riesce a dissipare con un chip di quelle dimensioni senza una dissipazione attiva e a quel livello spesso arrivano per spremere il massimo delle prestazioni, di progresso in progresso tecnologico.
come 20 anni fa avevi CPU da 125W, oggi hai CPU che consumano 125W, perchè quella è la potenza massima che puoi raffreddare in modo pratico con un dissipatore ad aria...
poi, che ci siano altri produttori che letteralmente sparano il consumo a 250W per ottenere prestazioni incredibili, lo fanno solo a scapito di un più complesso sistema di raffreddamento che aumenta costi e disagi...

ma un chip ram non lo raffreddi con un AIO da 120mm... è a dissipazione passiva, al massimo cercando di togliere un po' di calore con dei pad termici che toccano il dissipatore per la GPU e quindi quello è il limite effettivo di calore che puoi sottrare... e ci siamo da decenni a quei livelli.

è per questo che continui a scrivere sciocchezze: non guardi la semplicità delle cose.

le RAM di una 3080 non possono dissipare 140W perchè è materialmente impossibile farlo con quelle dimensioni fisiche.... li manderesti a oltre 300°C.

vega è nettamente superiore a pascal, perchè è una GPU completa e non serve un driver che scheduli il suo lavoro su software che siano scritti appositamente per non farla sembrare una scarpa vecchia.
se vuoi conoscere la sua vera capacità di calcolo, lo puoi vedere sul mining:
mentre una vega va bene sul mining come sui giochi, le pascal vanno benissimo sui giochi, ma quando incontrano una tipologia di codice non costruita espressamente per le loro caratteristiche, perde miseramente rendimento di calcolo e diventa la scarpa vecchia che è sempre stata.
è nata semplicemente vecchia.

lo status dei giochi sta cambiando e sta cambiando il modo di farli (e le proprietà degli studios): nel prossimo futuro non ci saranno più software house che necessitano dei soldi di nvidia per finanziarsi e quindi dover aggiungere le IP nvidia; si useranno tecnologie neutre che non renderanno le AMD un trattore.
d'altra parte i tempi sono ormai cambiati, visto che nvidia ha dovuto passare oltre a quel tipo di architettura lanciato con maxwell e continuato con pascal, facendo finalmente un'architettura più moderna, DX12, con turing...
ma rimane la questione che Pascal, come maxwell, senza la collaborazione delle software house nel fare i giochi scritti per queste architetture, con tecnologie datate e che non consentono di far esprimere alle CPU il loro reale potenziale, frenando lo sviluppo dei giochi, sono e rimangono delle vecchie ciabatte ben pubblicizzate.

Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Il CPU limited non è vincolato dal modello della VGA, ma dalla combinazione di VGA, gioco in questione e impostazioni video, quindi ogni modello di scheda può esserne afflitto, mica solo Ampere e Turing.
E meno male che solo tu sai di cosa si parla vero ?
ma infatti chi ha detto che riguarda turing o ampere?
si tratta di quanta potenza grafica ha a disposizione la GPU.
visto che però AMD per ora ha offerto solo la gamma media, questo problema la tange solo marginalmente.
il problema del limite della CPU si presenta con 2080, 2080 Ti, 3080 e sicuramente 3090... potenze dai 10-12TF in poi, perchè non hai la CPU per sostenere il lavoro.

altra questione che evidenzia la tua ristretta mentalità, codificato solo sul fatto "nvidia VS AMD".. mentalità da fanboys infantile.

CPU limited significa questo:

https://ibb.co/s2Cgbjz
https://ibb.co/wgW0WWh

quando vedi che una 2080 TI con un 9900K fa 85/105, ma che con un 8700K arriva a 76/96, significa che la GPU non lavora al massimo con l'8700k, ma non ti assicura che con il 9900k sia al massimo della sua espressione, perchè non vedi qual'è l'occupazione massima delle GPU nello svolgere il benchmark.
non sai se la GPU ha sempre lavorato, frame per frame, alla sua massima possibilità, come invece vedi sull'immagine della 1080 Ti, dove il fatto che ci siano almeno 5 CPU di prestazioni differenti con lo stesso valore ti conferma che la GPU è stata utilizzata per il massimo delle possibilità (ma non ti elimina il fatto che in certe situazioni del benchmark sarebbe stato necessaria una CPU il doppio più potente di quanto avevi a disposizione... e se ti serve il doppio della potenza, le differenze prestazionali di quelle cinque CPU si minimizzano e possono anche non influire sul valor medio.. dipende dall'occorrenza di quei particolari momenti in cui la CPU schizza al 100% di uso, frenando l'esecuzione della GPU che magari potrebbe darti ancora un 10% di prestazione).

poi, collegandosi al discosro di prima, questa situazione è figlia proprio di Pascal;
giochi fatti con tecnologie vecchie e scitti pensando appositamente ad nvidia, con largo uso dei suoi tools che lavorano principalmente per manipolare le prestazioni dell'HW:

https://ibb.co/fvjGvNm

è evidente da questa immagine, in cui ti fa vedere un 9900K usato in modo massiccio su tutti i 16 threads, mentre un ryzen è sfruttato massicciamente solo su uno dei core SMT, quindi con solo 9 threads usati massivamente.
questo gioco utilizza physx; su Intel sfrutta le AVX sulle 16 pipeline, su AMD usa le FPU e le usa esclusivamente su 8 core dei 16 thread che potrebbe offrire.
è una chiara manipolazione del modo di computare il codice, pur possedendo entrambe le CPU le medesime capacità computazionali, le medesime SIMD.
sicuramente con questa nuova era delle SH queste cose succederanon sempre di meno, perchè nelle console hai AMD e perchè MS si sta acquistando i maggiori Studios del settore, e non ha certo interesse nel mitigare le possibilità delle sue console per avvantaggiare nvidia, come non ha bisogno di farsi dare quattor spicci da nvidia per implementare i suoi tools che condizionano l'esecuzione (anche a posteriori, visto che la compilazione avviene al momento del rilascio del gioco, ma l'esecuzione avviene con i driver che rilascia nvidia, e se lei decide che cuda non lo devi usare su quell'HW ma su quell'altro... usi la partizione di codice compilato al tempo).

hai capito ora che cosa significa studiare le dinamiche di un semplice gioco?
significa riuscire a capire tutti i magheggi che ci fanno dietro.

quindi colui che non sa di cosa parla credo che in questo caso sia proprio uno come te, che si riduce a guardare chi ha la stanghett apiù lunga per dire chi è il migliore...
è la manipolazione che c'è dietro a quella barretta che ti fa capire effettivamente lo stato delle cose.

PS:
ed è anche per questo motivo che non vedi reviews fatte per come si dovrebbero fare; troppe informazioni non riescono più a nascondere amare verità.

Ultima modifica di lucusta : 23-09-2020 alle 00:36.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 23-09-2020, 02:23   #228
lucusta
Senior Member
 
L'Avatar di lucusta
 
Iscritto dal: May 2001
Messaggi: 6034
continuiamo con l'analisi.
https://www.techpowerup.com/review/n...edition/9.html
https://www.techpowerup.com/review/a...700-xt/10.html

BF V

per renderlo meglio leggibile ho fatto una semplice tabellina:
https://ibb.co/NrB58YP

in colonna B,F,J si trovano i dati mostrati dal benchmark rispettivamente in FHD, 1440p, 4k della prova della 3080; in L, N, P quelli nella prova della 5700 xt
le colonne C e G mostrano il rapporto dei valori delle risoluzioni tra FHD e 1440p e tra 1440p e 4K; stessa cosa in colonna M e O per la prova della 5700 xt.
servono a vedere se il benchmark manda o meno la CPU in bottleneck (si guarda generalmente sulla risoluzione inferiore).
vediamo che generalmente le schede rispondono tutte più o meno uguali, con eccezione della 5700 XT, che sembra brillare un po' meno all'aumento delle risoluzioni e la 3080 che è palesemente in bottleneck, arrivando alla soglia dei 200fps; lo scostamento della 5700 XT a valori superiori dalla media, per questo indice, mostra solo che a mano a mano che la risoluzione aumenta perde più prestazioni delle altre.
anche in 1440p la 3080 mostra che ha meno supporto da parte della CPU delle altre.
andando a vedere le colonne M e O sulla prova della 5700 XT vediamo che anche qui la 5700 XT ha lo stesso comportamento.

le colonne D e I mostrano invece la percentuale di discostamento tra i rapporti di risoluzione delle 2 prove.
lo scostamento da 0 indica che i due sistemi non rispondono al medesimo modo, quindi che c'è stato un intervento da parte di driver, cambiamoto dei sistemi di prova (e ricordiamoci che hanno usato RAM a 4000mhz invece che ram a 3867mhz) o diversificazione dei settaggi.
il fato che lo scostamento non sia uniforme per tutte le schede fa pensare che le modifiche al sistema non abbiano influito più di tanto, perchè avrebbero avvantaggiato tutte le schede, così come la non uniformità per architettura di schede indica che non c'è stato un miglioramento dei driver, perchè avrebbe inciso uniformemente per tute le schede della stessa architettura.
vediamo che ci sono stati cambiamenti e che hanno inciso sulla 2060 Super a risoluzioni 4K, negativamente per la 1080 TI, che dovrebbe avere driver oltremodo maturi su questo e altri giochi (in effetti la 1080 TI non dovrebbe cambiare di una virgola, mai, a meno di usare un processore nettamente inferiore), che la 2070 Super risponde peggio di prima a bassa risoluzione ma meglio ad alta risoluzione, il chè è un comportamento assai strano per un "miglioramento dei driver", e che la 5700 XTe le vega VII hanno ricevuto un boost abbastanza sensibile, comprensibile per la 5700 XT, ma non per un'architettura come vega che gira da 4 anni.
la 2080 Ti non ha subito variazioni.

le colonne E ed I danno la percentuale di scostamento tra i valori alle varie risoluzioni della prima e della seconda prova.
un valore positivo indica un aumento di frame rate, uno negativo che invece si è perso qualcosa.

mediamente tutte le schede hanno migliorato di un 1% a 4K, cosa che potrebbe essere attribuita al cambio di memoria, , ma si riscontrano valori assai strani per le AMD a basse risoluzioni.
c'è un 5% di differenza rispetto a prima, adirittura un 6.7% per la vega VII in FHD e questo sembra semplicemente esagerato.


Borderlands 3

gioco introdotto da poco nella suite e che quindi non è confrontabile.
l'aggiungere, togliere, o sostituire giochi fa cadere un'altro postulato di questo sito: le medie sui giochi.
quelle medie che spesso giovani appassionati postano per avvalorare le loro ragioni ma che non servono a nulla.
o mi fai la media di tutti i giochi disponibili, o non serve a nulla un valor medio di campioni che scegli te di tua fantasia...
si sostiene che sono i giochi più usati?
falso... i giochi più usati sono di ben altro genere e lo sappiamo tutti.
tra l'altro cosa potrai mai confrontare se ad ogni prova i giochi cambiano e quindi la media risponde ad un elenco diverso di giochi?
quello della media degli FPS del test è prettamente una presa per i fondelli e spero di non vederlo più sbandierato per sostenere argomentazioni, perchè ne farebbero direttamente cadere la ragione, essendo un sistema totalmente inutile di valutazione.


Civilization VI
Control
Death Stradding
Detroit become human
Devil may cry 5
Diviniti original sin II
Doom eternal
F1 2020
Far cry 5 - fatto
gears 5
hitman 2
metro exodus
project car 3
Red dead redempion 2
Sekiro: Shadows Die Twice
Shadow of the Tomb Raider
Star Wars: Jedi Fallen Order
Strange Brigade
The Witcher 3: Wild Hunt

continuiamo domani... tanto basta cambiare i valori nella tabellina e vedere che dati escono.
PS:
questo noioso lavoro lo sto facendo per quelle persone che continuano a postare i test di questo sito, per fargli rendere conto di cosa usano per sostenere le proprie argomentazioni.
se il sito non usa una procedura solida e la modifica ogni volta, ogni volta si sovrebbe fare un'analisi sui suoi risultati, perchè è inaffidabile, in quanto ogni volta si dovrebbero inserire le variabili che possono deviare i risultati (qui ha usato memorie diverse, su questa reviews un processore diverso, qui non si sa come ha fatto a far fare questo punteggio a questa scheda...).
è vero che tu non avrai mai iil medesimo sistema che hanno loro (ed è vero anche che usano sempre sistemi con HW mai standard, overclockati o customizzati, proprio per non rendere i test riproducibili da tutti), ma un sistema simile dovrebbe comunque offrire le stesse differenze che si evidenziano sul loro a seconda della scheda video che si vuole comprare... se ho una 1080 e voglio la 3080, vedrò più o meno li guadagni che otterrò...
e invece no, perchè ogni sistema offre piccoli cambiamenti, che, se sommati, sono rilevanti.... una scheda come la 3080 su un 9900K non overclockato e con normali ram a 3000mhz mostrerebbe la 3080 molto più vicina alla 2080 Ti per il semplice fatto che andrebbe spesso in bottleneck per la CPU, anche a 4k.. non in continuazione, ma sempre più di quanto faccia con la CPU a 5.3ghz.
diventa assai difficile discutere dovendo considerare 1000 inutili variazioni solo perchè loro non sanno fare un giusto lavoro di testing, ma solo di reviewing (o di marketing, come si vol mettere la questione).

Ultima modifica di lucusta : 23-09-2020 alle 02:42.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 23-09-2020, 10:51   #229
nickname88
Senior Member
 
L'Avatar di nickname88
 
Iscritto dal: Apr 2016
Messaggi: 12078
Dicci quanto hai finito di raccontartela
__________________
........
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 23-09-2020, 12:41   #230
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 10770
Quote:
Originariamente inviato da lucusta Guarda i messaggi
chip da 4GB non esistono, è vero, ma non esistevano nemmeno chip da 2GB, fino a qualche tempo fa...
potrebbe essere un'ipotesi usare 2 chip collegati allo stesso IMC, ma gli IMC rimangono 12 e per collegare 2 chip o si ha un sistema di switch dei segnali nel chip, o devi usare un'ulteriore altro chip... oltretutto dovresti usare quasi il doppio dei layer nel PCB...
semplicemente conviene fare chip da 4GB; è la soluzione più razionale (in realtà la soluzione più razionale è usare le HBM2).

occhio a chiamarle "perle" perchè poi possono essere delle verità e diventa difficile farci una collana...
forse è meglio che prendi un bel caffè, sperando che ti diventi la mente più lucida quel tanto da evitare di alzare inutili flame attaccando in questo modo gli altri...
no tranquillo, le tue perle rimangono tali e di collane ne potremmo gia fare svariate

cit "le GDDR6x da 2GB (o 16Gb) si usano "già", visto che non sonoancora uscite, sulla 3090, che ha 24GB di VRAM;"
quello al quale servirebbe la mente ludica direi che sei tu, perchè il mio post era chiarissimo e con i piedi per terra, non una vaneggiata ( fra l'altro baggianata scritta in modo incomprensibile ) come al solito.





e cosi, per la cronaca:

https://videocardz.com/newz/nvidia-q...d-and-detailed

come volevasi dimostrare, chip da 2GB GDDR6.
__________________
WORKSTATION 1 AMD 3970X - TRX40 PRO 10G - 64Gb ECC - Dual 2080Ti nVlink - Dual 4K
NODI RENDER - 4X Dual Xeon E5-2670 64Gb

Ultima modifica di AceGranger : 23-09-2020 alle 12:46.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 23-09-2020, 14:00   #231
lucusta
Senior Member
 
L'Avatar di lucusta
 
Iscritto dal: May 2001
Messaggi: 6034
basta che attendi e vedrai di cosa si parla.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 23-09-2020, 14:04   #232
lucusta
Senior Member
 
L'Avatar di lucusta
 
Iscritto dal: May 2001
Messaggi: 6034
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Dicci quanto hai finito di raccontartela
non ti peroccupare; vedrai la fine.
anche perchè questo lavoro è proprio per te, che tante volte usi i dati di TPU per avvalorare le tue sciocche argomentazioni.

come hai scritto tu, mediamente le recensioni sono tutte alineate.
bene, se ti faccio saltare TPU dimostrandoti che ha sofisiticato i test, salteranno di conseguenza anche le altre e sarà finalmente evidente a tutti che questi test sono solo cartaccia che serve ad nvidia per buttare fumo neglio occhi agli utenti.

quantomeno la smetterai di inondare il forum di post con i dati di TPU.

Ultima modifica di lucusta : 23-09-2020 alle 14:47.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2020, 20:03   #233
_sissio_
Member
 
Iscritto dal: Dec 2017
Messaggi: 186
Quote:
Originariamente inviato da lucusta Guarda i messaggi
non ti peroccupare; vedrai la fine.
anche perchè questo lavoro è proprio per te, che tante volte usi i dati di TPU per avvalorare le tue sciocche argomentazioni.

come hai scritto tu, mediamente le recensioni sono tutte alineate.
bene, se ti faccio saltare TPU dimostrandoti che ha sofisiticato i test, salteranno di conseguenza anche le altre e sarà finalmente evidente a tutti che questi test sono solo cartaccia che serve ad nvidia per buttare fumo neglio occhi agli utenti.

quantomeno la smetterai di inondare il forum di post con i dati di TPU.
Dopo questo lancio fake e i crash certificati (vedasi altro thread, un nostro utente ha tuf...) la tua analisi va letta sotto nuova luce:

1) qualcosa non torna
2) le recensioni NON sono limpide
2) Nvidia non è stata trasparente .

Adesso il lancio anticipato e la mostruosa penuria di schede negli shop è di facile interpretazione.

IMHO siamo a limite di cosa è lecito e cosa non lo è.Non è truffa sicuramente ma stanno giocando sporco. Molto sporco...

In before, ragazze ponpon, fanboy, bimbiminkia, etc ...è solo un mio punto di vista. Il punto di vista di chi a ha sempre usato Nvidia...

Peace

Inviato dal mio HTC One utilizzando Tapatalk
__________________
Case Phanteks P400S - Mobo C6H - Cpu Ryzen 3700x - Aio Nzxt Kraken x62 - Ram Gskill Ripjaws 3200mhz @3600- NVME Sabrent - Gpu gtx 1660 Super - PSU Seasonic Px750w
Monitor VG279QM 280hz -
_sissio_ è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2020, 20:16   #234
bonzoxxx
Senior Member
 
L'Avatar di bonzoxxx
 
Iscritto dal: Aug 2008
Città: N.P.
Messaggi: 8354
Sta a vedere che nVidia si è scapicollata a lanciare ste 3000 per colpa di AMD
__________________
Sto cercando di disintossicarmi dall'Hardware... ma non ci sono riuscito
R5 3600 - Crosshair VII - 16GB 3200 CL14 - MSI 1070 ITX - H100i GTX
bonzoxxx è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2020, 21:28   #235
MiKeLezZ
Utente sospeso
 
L'Avatar di MiKeLezZ
 
Iscritto dal: Jul 2003
Messaggi: 26563
Quote:
Originariamente inviato da bonzoxxx Guarda i messaggi
Sono ormai più di 10 anni che a ogni uscita della nuova VGA NVIDIA escono "rumor" su fantomatiche ed imminenti VGA AMD che viaggiano come dei razzi missili. Mai successo.

Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Dicci quanto hai finito di raccontartela
Ma chi può leggere tutto quel wall test? Ma poi veramente vi siete a fare i problemi per 2-3 fps di differenza? A ogni nuova VGA lanciata i primi giorni ci sono sempre stati bug nei driver.
MiKeLezZ è offline   Rispondi citando il messaggio o parte di esso
Old 26-09-2020, 21:30   #236
bonzoxxx
Senior Member
 
L'Avatar di bonzoxxx
 
Iscritto dal: Aug 2008
Città: N.P.
Messaggi: 8354
Quote:
Originariamente inviato da MiKeLezZ Guarda i messaggi
Sono ormai più di 10 anni che a ogni uscita della nuova VGA NVIDIA escono "rumor" su fantomatiche ed imminenti VGA AMD che viaggiano come dei razzi missili. Mai successo.
Ero sarcastico con tanto di tripla faccina.. dai su cribbio..
__________________
Sto cercando di disintossicarmi dall'Hardware... ma non ci sono riuscito
R5 3600 - Crosshair VII - 16GB 3200 CL14 - MSI 1070 ITX - H100i GTX
bonzoxxx è offline   Rispondi citando il messaggio o parte di esso
Old 27-09-2020, 00:40   #237
lucusta
Senior Member
 
L'Avatar di lucusta
 
Iscritto dal: May 2001
Messaggi: 6034
Quote:
Originariamente inviato da MiKeLezZ Guarda i messaggi
Sono ormai più di 10 anni che a ogni uscita della nuova VGA NVIDIA escono "rumor" su fantomatiche ed imminenti VGA AMD che viaggiano come dei razzi missili. Mai successo.

Ma chi può leggere tutto quel wall test? Ma poi veramente vi siete a fare i problemi per 2-3 fps di differenza? A ogni nuova VGA lanciata i primi giorni ci sono sempre stati bug nei driver.
si tratta del fatto che ad ogni nuova generazione i dati non coincidono più con quelli storici...
è vero, possono essere anche 2 o 3 fps, ma se sono su 30 sono comunque un 10% di prestazioni non ottenute, ed un driver non mette aposto un 10%.

semplicemente, ad ogni presentazione di nuove schede nvidia, c'è sempre qualcosa che non torna ed è diventato non solo stancante e noioso, ma anche ridicolo non parlarne.

ritoccare i driver ad oggi, nel 2020, per far sembrare meglio il prodotto che si sta lanciando è semplicemente ridicolo.

quindi puoi leggere se interessato, puoi non leggere se non lo sei, ma di sicuro, dopo questa semplice analisi, quello che ne esce messo peggio è proprio la metodologia di review di TPU e la leggerezza delle redazioni di tutto il circus nel dare "così tanta fiducia" ad nvidia, non testando le vecchie schede con i vecchi driver, insieme ai beta non scaricabili dagli utenti.

prova, conferma e controconferma.

si fanno così le cose fatte bene, perchè sennò diventa tutta una farsetta e poi non si devono lamentare se li si prende in giro, come non si devono lamentare quelli che sfruttano quei dati quando anche loro vengono presi per i fondelli....

comunque questa ipercriticità nei confronti di nvidia l'hanno fatta nascere proprio i fanboys sfegatati nvidia ed Intel, che per 1 fps o 20W son stati capaci di etichettare degli ottimi prodotti come delle schifezze immonde...
ora che loro hanno alzato il livello, si deve far finta di nulla solo perchè è nvidia che ha da perdere?
mi dispiace, ma l'obbiettività non funziona così.
lucusta è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Samsung Galaxy Book Flex: il 2-in-1 con la pennina integrata Samsung Galaxy Book Flex: il 2-in-1 con la penni...
GoPro Hero 9: nuovo sensore, doppio display, stabilizzazione top. Resta lei quella da battere GoPro Hero 9: nuovo sensore, doppio display, sta...
Amazon Echo e Echo Dot: tutti nuovi e con Alexa più intelligente. La recensione Amazon Echo e Echo Dot: tutti nuovi e con Alexa ...
Nanosystems potenzia Supremo, la soluzione per lo smart working e l’assistenza remota Nanosystems potenzia Supremo, la soluzione per l...
Vivo arriva in Italia con Vivo X51: fotocamera con gimbal pazzesca. La recensione Vivo arriva in Italia con Vivo X51: fotocamera c...
Il Tesla Solar Roof, secondo Elon Musk, ...
Android: attenti a queste 21 app perch&e...
Con Dyson Pure Humidify+cool curi la qua...
iPhone 12 e 12 Pro: ecco tutte le offert...
TikTok: un video di 15 secondi sta spave...
Pagati 8.000€ per navigare sul Web. E' l...
Apple MagSafe: volete vedere come &egrav...
Ubuntu 20.10 Groovy Gorilla disponibile ...
Ancora poche ore per vincere un monitor ...
Nutanix annuncia Elevate, il nuovo progr...
Hacker indovina la password di Twitter d...
HONOR festeggia Halloween con una valang...
Mountain Makalu 67, mouse gaming leggero...
Amazon: sconti a valanga solo oggi e dom...
Xbox Series X: latenze dimezzate grazie ...
K-Lite Mega Codec Pack
K-Lite Codec Pack Full
Chromium
PassMark BurnInTest Professional
WinRAR
GeForce Experience
NOD32
Opera 71
Mozilla Thunderbird 78
Process Lasso
Google Chrome Portable
IrfanView
K-Lite Codec Pack Standard
K-Lite Codec Pack Basic
iTunes 12
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 00:01.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2020, Jelsoft Enterprises Ltd.
Served by www3v
1