Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
A distanza di circa 8 mesi arriva l’importante aggiornamento dei MacBook Air: nessun cambiamento estetico, ma una revisione hardware interna con l’upgrade al processore M3. Le prestazioni migliorano rispetto alle generazioni precedenti, e questo fa sorgere una domanda spontanea: a chi è rivolto oggi questo laptop? Cerchiamo di capirlo nella nostra recensione 
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
Da ASUS un monitor particolare ma molto completo: principalmente indirizzato al videogiocatore, può essere sfruttato con efficacia anche per attività creative e di produzione multimediale
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Il nuovo robot aspirapolvere domestico di Dreame abbina funzionalità complete a un moccio flottante che raggiunge al meglio gli angoli delle pareti. Un prodotto tutto in uno semplice da utilizzare ma molto efficace, in grado di rispondere al meglio alle necessità di pulizia della casa
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 23-11-2020, 02:35   #301
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20670
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Io, perché come hai scritto tu stesso è, appunto, il futuro.

E te lo dico da possessore di una 2070 Super pagata a un prezzo stracciato, perché non ho intenzione di spendere soldi in più per una feauture che ancora apporta poco alla normale rasterizzazione, e quel poco lo fa spesso male e forzato, per assurdo un effetto che dovrebbe aumentare il realismo lo fa sembrare più irreale (vedi superfici esageratamente lucide o pozzanghere messe un po' ovunque per risaltarne l'effetto), sono ancora pochissimi i giochi dove è implementato bene, ma comunque nessuno mi fa gridare al miracolo, nessuno mi da quella sensazione di ''non ne posso fare a meno''.
.
A tal proposito....

https://www.youtube.com/watch?v=ZkkkFgtBoyU
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 23-11-2020, 07:32   #302
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da dav1deser Guarda i messaggi
Il mio punto è proprio "il futuro" ancora non siamo a quel punto, e le console sono basate su RDNA2, quindi è ipotizzabile che l'RT sarà calibrato su queste. Come sempre su PC ci sarà qualche chicca in più, ma un RT a livello "scatoletta" dovresti poterlo avere senza problemi anche sulle 6800.
Sì, ma con prestazioni ridotte. Il fatto che le console integrino GPU (e pure CPU) di AMD finora non mi pare abbia portato benefici ai prodotti PC di questa casa.
Quote:
Questo è sempre stato così e sarà sempre così, acquistare un prodotto con la speranza che resti competitivo per anni, è un terno al lotto.
Ma in questo caso sai già dove si andrà in futuro, e cosa ti ritroveresti. Si può anche decidere di non prendere il treno oggi, ma il futuro è chiaramente rappresentato dal ray tracing (e da upscaler intelligenti).
Quote:
AMD sta sviluppando la sua rispsota al DLSS e nelle DX12 Ultimate c'è MLSS che dovrebbe lavorare nella stessa maniera. Quindi lo considero un vantaggio di Nvidia solo temporaneo
Difficile che le cose cambino, visto che nVidia ha degli appositi core dedicati e appositamente ottimizzati per accelerare questo tipo di operazioni, mentre AMD no (per lo meno, da quel che si sa finora, eh!).

Dunque dovrà simulare il MLSS in software, ciò sfruttando gli attuali shader core, e non puoi certo aspettarti gli stessi risulti a livello prestazionale. Anche il ray tracing potevi simularlo per software, ma poi abbiamo visto l'enorme crollo di frame rate che c'è stato...

Inoltre, e non meno importante, è da vedere, poi, cosa succederà a livello qualitativo, visto che nVidia può contare su un enorme vantaggio in termine di training delle sue rete neurali, chiaramente visibile passando dalla prima versione alla seconda del DLSS. Quindi questo è un altro aspetto da non sottovalutare.
Quote:
Vero ad oggi è marginale, ma se diventa uno standard gli sviluppatori potrebbero programmare tenendone conto e rendendolo una feature molto favorevole per le prestazioni.
Non cambierebbe molto. E' una feature di semplice implementazione per gli sviluppatori, ma dall'impatto limitato: i test fatti sono già un spaccato abbastanza realistico di ciò che ci si può aspettare anche in futuro.

Niente miracoli, quindi, e se poi lo implementeranno sia nVidia sia Intel sarà inutile anche discuterne perché non ci sarà nessuna casa che se ne avvantaggerà.
Quote:
Quello che dicevo comunque non era riferito al fatto che, ad oggi, Nvidia non ce l'ha, ma ipotizzavo che sfruttandolo al meglio la memoria della GPU potrebbe essere occupata da dati che non sono le solite texture, ma essere riempita, in buona parte da altri dati che ad oggi vengono caricati solo nella RAM di sistema visto che non ci starebbero nei 256MB. Cioè uno "sgraviamo la RAM di sistema e carichiamo quella della GPU se questo ci può dare un incremento prestazionale". Ma è solo una mia ipotesi basata sul nulla.
Purtroppo non funziona così. Quella "aperture size" di 256MB è una "finestra" che CPU e GPU usano per scambiarsi dei dati, passandoli da memoria di sistema a VRAM, e viceversa.

Non è, quindi, né una cache né una memoria aggiuntiva che si potrebbe utilizzare per metterci altri dati et similia, perché probabilmente sarà già utilizzata. Ma anche se la VRAM fosse libera per poterci mettere qualcosa che attualmente stia nella memoria di sistema, l'accesso da parte della CPU a tale memoria è enormemente più lento rispetto alla sua RAM.

Per spiegarti brevemente come funziona, usare la SAM dà la possibilità alla CPU di inviare in un colpo solo grossi blocchi di memoria. Mentre con l'attuale AGP aperture deve prima mappare tale apertura verso il blocco (max 256MB) di VRAM a cui vuole accedere, e poi far partire il comando di invio.

Normalmente all'avvio di un gioco si provvede a caricare la VRAM con tutto ciò (di grosso, in particolare: le texture) che serve, e per il resto, durante l'esecuzione, si inviano blocchi di dati sulla scena da renderizzare, che normalmente non occupano molto spazio.

E' più utile, invece, quando si fa streaming di texture, ma anche qui l'attuale vantaggio verrà annullato col supporto allo streaming diretto da SSD/M2 alla VRAM.

Spero di essere stato chiaro.
Quote:
Originariamente inviato da DukeIT Guarda i messaggi
Sponsorizzare non significa automaticamente che il gioco è ottimizzato, ed io non ne traggo beneficio se, dopo il periodo di lancio smettono di farlo e se anche in quel periodo lo fanno solo con i giochi più importanti.
Relativamente all'ottimizzazione, anche in assenza di mazzette è interesse della SH fare giochi che ben figurino con le VGA presenti nel mercato, non vedo perché abbiano bisogno dei soldi di nVidia per far si che il gioco funzioni bene con le loro schede: ma scusa, in assenza di mazzette, con che schede dovrebbero ben figurare, visto che esistono solo due marchi? Penso che i giochi li facciano per essere utilizzati con delle VGA, mica con un microonde. E non vedo la necessità di pagarle perché facciano ciò che è ovvio debbano fare e che avrebbero fatto comunque.
Brevemente, visto che AceGranger ha già risposto a tutto e col quale sono d'accordo, ma ci sono un paio di punti da precisare.

Primo, il termine mazzette è del tutto fuori luogo. Il significato ha un termine preciso e lo stai applicando in un contesto totalmente diverso, con una accezione negativa volta chiaramente a mettere nel torbido un'azienda che, invece, fa tutto in maniera perfettamente legale. Ed è una brutta caduta di stile.

Secondo, lo sviluppo dei videogiochi è cambiato moltissimo col passare del tempo. Ho sviluppato dei giochi per Amiga all'inizio degli anni '90, e in genere eravamo soltanto tre: io (programmatore), il grafico, il musicista / responsabile degli effetti sonori. Più il "manager". C'erano, anzi, videogiochi che venivano sviluppati e venduti da UNA sola persona (uno su tutti: Geoff Crammond. Un MITO!).

Oggi i giochi sono talmente complessi che ci sono studi con centinaia di persone che lavorano a un solo titolo, le produzioni AAA hanno già superato i budget tipicamente holliwoodiani, e questo sia per gli asset / ambientazioni del gioco, sia per la programmazione, che è un vero inferno vista la complessità delle tecnologie, e ci metto pure delle API perché DirectX 12 e Vulkan sono una netta REGRESSIONE da questo punto di vista (le DX <= 11 erano di gran lunga più semplici da usare).

Aggiungiamo poi che le case produttrici di GPU non sono due, ma tre (c'è anche Intel che ha i 2/3 del mercato delle GPU, e molti giocatori... le usano), con prodotti molto diversi (Intel ha persino della memoria embedded per le GPU top di gamma!), e si capisce come sia molto difficile e oneroso già soltanto sviluppare un gioco tenendo conto di tutta questa varietà di hardware. Figuriamoci a ottimizzarlo pure...
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Io, perché come hai scritto tu stesso è, appunto, il futuro.

E te lo dico da possessore di una 2070 Super pagata a un prezzo stracciato, perché non ho intenzione di spendere soldi in più per una feauture che ancora apporta poco alla normale rasterizzazione, e quel poco lo fa spesso male e forzato, per assurdo un effetto che dovrebbe aumentare il realismo lo fa sembrare più irreale (vedi superfici esageratamente lucide o pozzanghere messe un po' ovunque per risaltarne l'effetto), sono ancora pochissimi i giochi dove è implementato bene, ma comunque nessuno mi fa gridare al miracolo, nessuno mi da quella sensazione di ''non ne posso fare a meno''.
Come già detto, se il ray tracing viene usato male non è certo colpa sua.

Poi tu almeno una scheda RTX ce l'hai...
Quote:
Quando il raytracing farà davvero la differenza, quando sarà la normalità e non più una feauture considerata extra (o esclusiva ''rtx''), allora ne riparleremo.
Sta diventando la normalità infatti: li leggi gli annunci dei giochi in sviluppo?

Poi per diventare normalità si dovranno togliere di mezzo gli shader core attuali (o quanto meno ridurne l'utilizzo), ed è difficile farlo quando c'è da supportare anche tutto il legacy (i vecchi giochi).
Quote:
Fino ad allora, credo che non abbia molto senso stare qui a criticare eccessivamente le nuove 6800 che non hanno nulla da invidiare alle RTX 3000, considerando che in molti giochi vanno di più e consumano pure meno...allo stato attuale abbiamo schede che fanno contenti tutti, chi vuole il raytracing compra nvidia, chi è interessato meno o per niente compra amd, come anche specificato da Corsini nella sua videorecensione. Non credo ci sia altro da aggiungere.
De gustibus, e i sui gusti non ho nulla da dire.
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
@CDMauro
I wall of text, anche di fila, ottenuti spezzettando i post altrui forse (poi fai tu eh ) sarebbe meglio evitarli, più che altro perchè appesantiscono non poco il thread e la leggibilità ne risente
Quanto al resto, riassumendo il più possibile da un lato leggiamo "ha prestazioni superiori in RT" con asserzione assoluta per poi più avanti dire "chissenefrega che paga ha diritto di supportare le sue gpu"...ma io non ho mica detto che ne ha diritto ma appunto, che non è questione di prestazioni "assolute de facto" giudicando solo da 6 giochi di cui 5 sponsorizzati come dici tu "per supportare le sue gpu" (ergo le sue prestazioni, mica per farle andare uguale, ti pare?), quindi di ottimizzazione "pagata" o "supportata" se preferisci. Come detto nessuno ha mai detto che non sia lecito, ripeto, ma la cosa non rende il dato sulle prestazioni assoluto prescindendo dal contesto). Quindi ripeto cio' che ho già espresso: per quanto mi riguarda quando spunteranno più titoli RT ora che anche amd ha gpu che lo supportano e lo fanno anche le console ci si farà un'idea più oggettiva delle performance "pure" prescindendo dalle sponsorizzazioni, sia dell'una che dell'altra (sia chiaro quest'ultimo punto) e su una base ben più ampia di quella, esigua, attuale.
Come già detto anche prima, l'idea di come funzioni una scheda con o senza sponsorizzazioni ce la si può fare tranquillamente anche oggi, e non mi pare che nVdia sfiguri in assenza: le sue GPU sono oggettivamente messe molto bene.
Quote:
PS:Il dlss te credo che fa andare di più la scheda: renderizza a una risoluzione più bassa.
Ma il risultato è quello che conta, se hai letto quanto avevo scritto prima. Poi è una cosa che possono fare anche gli altri produttori di GPU.
Quote:
PPS: Fra parentesi, il discorso bus non è per "risparmiare", visto che il silicio della cache non è mica gratis: è stata una scelta che ha permesso un miglioramento netto dell'efficienza spaventoso (oltre il 50% a pari pp ) e che al contempo ha permesso le stesse prestazioni di una rivale con una bandwidth maggiore, ed entrambe le cose le si vede e bene, visto che RDNA2 consuma "poco" ed in 4k, allo stesso tempo, non ha sofferto alcun crollo prestazionale da bottleneck nonostante i "soli" 512gb/s. Quindi la infinity cache funziona dannatamente bene sia in performance che in efficienza permessa, ma dargliene atto sarebbe stato troppo, meglio dire che sono andati al risparmio
Sì, sì, certo: funziona così bene che s'è visto come calino le prestazioni in ray tracing appena già superi il FullHD.

E, checché tu ne dica, è ovvio che sia una soluzione al risparmio, perché sviluppare una GPU E una scheda video con un bus più ampio è ben più complicato e costoso.

Sì, AMD ha cercato di mitigare riciclando la cache dei Ryzen. Dà una mano, senz'altro, ma non può fare miracoli, e infatti non li fa proprio quando dovrebbe servire più banda.

Che metti a fare tanta VRAM per supportare le risoluzioni più elevate, quando poi le prestazioni crollano?
Quote:
Ah nella tua previsione non parlavi minimamente di raster o rt, ma hai messo le mani avanti dubitando che avrebbero fatto tale salto di prestazioni partendo dalla 5700xt da te stesso citata:
"la 3080 è veloce il doppio della 5700XT. Dubito fortemente che BigNavi offrirà prestazioni doppie rispetto a quest'ultima"
(non mi pare che la 5700xt abbia l'rt..ovvio che si parlava in raster, quindi inutile che ora lo tiri fuori quando prima non lo avevi fatto, comodo così )
Certamente e non mi rimangio niente, ma all'epoca c'era soltanto la grafica raster da confrontare, perché le 5700XT offrivano solo quella, quindi che si doveva fare?

Adesso AMD se n'è uscita con schede che supportano il ray tracing (e arriverà anche un equivalente di DLSS), per cui i confronti si espandono anche su questo fronte, o vuoi togliere di mezzo l'RT soltanto perché ti fa comodo così?

AMD non è chiaramente competitiva con l'RT, e nVidia può continuare a dormire sonni tranquilli.

E non ne parliamo se poi aggiungiamo pure il DLSS.

Dunque AMD è certamente competitiva a livello di grafica raster, ma oggi non basta.

P.S. Ho cercato di evitare lo spezzatino: spero che apprezzerai.
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
Meno male che l'ha detto lui stesso che PER LUI non ci sono differenze in alcune scene.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 23-11-2020, 08:58   #303
cronos1990
Senior Member
 
L'Avatar di cronos1990
 
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 26362
Mah, al momento rimango delle mie idee espresse un annetto fa.

E cioè che il RT non è una "tecnologia di secondo piano", tantomeno una boutade come possono esserlo state tante altre (come quella per i "capelli" o i motori fisici che vedo sfruttati degnamente in un gioco ogni 100). Le console appena uscite hanno tutte funzionalità di RT, e sono il principale traino videoludico, per cui mi sembra evidente quale sia la direzione.
D'altro canto, al netto delle richieste hardware evidentemente elevatissime, parliamo di un sistema di "illuminazione" ben più avanzato, preciso e dettagliato del comune raster.

Nvidia ha introdotto secondo me con troppo anticipo l'RT nelle sue schede: non per questioni commerciali (ha anticipato tutti i concorrenti, buon per loro), ma perchè è evidente che le prestazioni in RT sono ancora pessime, e se consideriamo che ancora i giochi ne offrono un'implementazione minima la cosa è ancor più evidente.
Per questo considero il DLSS una "gran furbata": perchè ha reso il RT fruibile in modo "degno" con almeno una generazione di anticipo. Questo senza entrare nel discorso dello stesso (letto le elucubrazioni chilometriche di cdmauro come sempre con interesse, ma sulla specifica contrapposizione tra "migliore" e "fedele" non concordo. Non riuscire ad essere fedeli vuol dire rendere una cosa peggiore, o al limite semplicemente diversa. Per averla "migliore" dovresti partire da un'immagine di riferimento che sia tale... e ovviamente non esiste. L'unica immagine di riferimento è quella renderizzata nativamente). Ma al di là dei miei pensieri personali, rimane il fatto che, trucco o meno, il DLSS fa un buonissimo lavoro.

Quello che sinceramente aspetterei a verificare è l'effettiva capacità delle nuove GPU AMD: le console sono tutte targate AMD, per cui i giochi futuri saranno probabilmente tarati meglio per l'hardware rosso. Inoltre è impossibile fare raffronti finchè non presenteranno la loro tecnologia analoga al DLSS.


A livello personale, io continuerò a tenermi la mia cara 5700XT ancora per almeno un paio d'anni. Aspetto schede in grado di reggere meglio le richiesta hardware del RT anche senza "trucchi" come il DLSS, i giochi che lo sfruttano sono ancora pochi (e con effetti limitati) e non sono tipo da spendere 700 euro per una GPU.
Oltretutto lo schermo del mio PC è 2K (e mi basta ed avanza), per cui a suo tempo mi dovrebbe bastare una GPU di fascia media.
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
C'erano, anzi, videogiochi che venivano sviluppati e venduti da UNA sola persona (uno su tutti: Geoff Crammond. Un MITO!).
Scende una lacrimuccia.

Ultima modifica di cronos1990 : 23-11-2020 alle 09:02.
cronos1990 è offline   Rispondi citando il messaggio o parte di esso
Old 23-11-2020, 12:07   #304
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20670
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Come già detto anche prima, l'idea di come funzioni una scheda con o senza sponsorizzazioni ce la si può fare tranquillamente anche oggi, e non mi pare che nVdia sfiguri in assenza: le sue GPU sono oggettivamente messe molto bene.
Non sfigura, ma in dirt sta dietro. Amd poi non è che sempre sproporzionalmente dietro: vedasi TR, quindi come detto va visto caso per caso, e solo una base più ampia darà meglio l'idea perchè oggi siamo al pronti via e praticamente tutti i titoli usciti sino ad ora vedevano solo nvidia lato supporto RT. A parti inverse sarebbe stato uguale: prendere 5 giochi sponsorizzati amd e 1 nvidia tiriando le somme solo su quelli avrebbe fatto dire "e ma AMD vince in RT"


Quote:
Ma il risultato è quello che conta, se hai letto quanto avevo scritto prima. Poi è una cosa che possono fare anche gli altri produttori di GPU.
e infatti amd sta lavorando alla propria implementazione, in diretta collaborazione con microsoft, e sarà pure uno standard aperto. Ma resta il fatto che si tratta di far renderizzare nativamente a una risoluzione inferiore, resta ovvio che così si vada più forte, anche quando lo farà AMD.

Quote:
Sì, sì, certo: funziona così bene che s'è visto come calino le prestazioni in ray tracing appena già superi il FullHD.
La infinity cache serve a migliorare lo sfruttamento della bandwidth partendo da 512gb/s di banda, mica è una implementazione specifica per l'rt

Quote:
E, checché tu ne dica, è ovvio che sia una soluzione al risparmio, perché sviluppare una GPU E una scheda video con un bus più ampio è ben più complicato e costoso.
e chechè ne dica tu il silicio extra occupato dalla cache (non sono pochi mb eh..) non glielo passa gratis tsmc, se voleva poteva impiegare quei mm^2 per implementare dei mc per arrivare a un bus più ampio. Inoltre hai scordato (o omesso?) che un bus più ampio è più costoso da un lato (ma li' il silicio extra non lo hanno mica segato via e basta risparmiando, ci han messo altro) ma...è anche più avido di energia, peggiorando l'efficienza! ed AMD ha lavorato proprio su quell'aspetto. Non è scelta fatta "per il risparmio", ti rammento che in passato hanno avuto bus anche di 512bit su schede da 400 euro ....è una scelta che ha portato vantaggi tecnici sia prestazionali che in termini di risparmio energetico nel suo contesto architetturale. Le ha permesso sia un miglioramento drastico dell'efficienza, visto che peccava proprio in quel frangente nelle precedenti architetture, sia un migliore uso della banda, anch'essa lacuna in passato visto che le vecchie gpu necessitavano di bandwidth assai corpose. Una 5700xt ha un valore di banda passante molto vicino alle 6900xt (448gb/s vs 512 gb/s), che ha un chip col doppio delle cu e clock ben più alto e pensa un po' in 4 k vengono asfaltate nonostante lavorino con appena 64gb/s in più. Tutto questo restando entro 300w a pari pp con un margine prestazionale enorme a fronte del percentile in consumo...si', la cache effettivamente non fa nulla di che
Benissimo allora: quindi una 3080 con 512gb/s (esperimento facilmente effettuabile downcloccando la ram) avrà le stesse prestazioni rispetto la 6800xt in 4k avrai ragione...perchè la cache di amd "Dà una mano, senz'altro, ma non può fare miracoli, e infatti non li fa proprio quando dovrebbe servire più banda."
Quindi in 4k, quantomeno in raster, stai assumendo che la banda serve meno, giusto? (se dici che la cache non fa tutta sta differenza). Quindi di logica se la 3080 la portiamo a 512gb/s non si scosterebbe più di tanto dalla 6800xt in raster, giusto? Del resto la cache da solo una piccola mano no? Se invece portandola a 512gb/s calasse di un bel po', sempre a rigor di logica, vorrebbe dire che la cache AMD funziona dannatamente bene eccome se compensa oltre DUECENTO gb/s in meno, o no...
Bene, per "nostra" fortuna mio cugino ha una 3080 in arrivo per dicembre (strix oc) e puoi giurarci che gli chiederò di fare questa prova e postero qui i risultati vediamo che succede...


Quote:
Che metti a fare tanta VRAM per supportare le risoluzioni più elevate, quando poi le prestazioni crollano?
ma crollano de che? in 4k in raster va uguale a una 3080 che ha qualcosa come oltre 200gb/s in più di banda come detto sopra...l'rt come abbiamo visto in dirt non fa crollare le performance della scheda, li' va più forte della 3080 (se fa cagare in rt o le prendi o le prendi, sennò pensa un po' vuol dire che l'ottimizzazione del caso fa il suo) e nemmeno in TR, gioco "nvidia", crolla (42 vs 49 frame), ergo non è questione di bottleneck dovuto alla bandwidth, ma di implementazione dell RT stesso ed ottimizzazione.

Quote:
Certamente e non mi rimangio niente, ma all'epoca c'era soltanto la grafica raster da confrontare, perché le 5700XT offrivano solo quella, quindi che si doveva fare?
Che ti rimangi o meno cambia nulla: i fatti ti hanno smentito su quello in cui ti sei espresso, fine. Hai detto che non sarebbe mai riuscita a fare quel salto prestazionale sulla 5700xt, e invece lo ha fatto.

Quote:
Adesso AMD se n'è uscita con schede che supportano il ray tracing (e arriverà anche un equivalente di DLSS), per cui i confronti si espandono anche su questo fronte, o vuoi togliere di mezzo l'RT soltanto perché ti fa comodo così?
E no, non rigirare la minestra. Non ho tolto l'RT dal confronto, anzi ho ben detto che si vedrà meglio d'ora in avanti che la base di titoli si allargherà, che è ben diverso...tu lo hai aggiunto in seguito dopo che ti ho pizzicato sulla 5700x, peccato che l'RT i quel discorso non ci stava proprio a partire da quanto scritto da TE. E' Italiano eh . Non essere intellettualmente disonesto:

"3080 veloce il doppio della 5700xt. Dubito fortemente che bignavi offrirà prestazioni doppie rispetto a quest'ultima, per cui nvidia potrà continuare a dormire sonni tranquilli"

la 5700xt aveva l'RT? no, quindi è ovvio che a quella e al raster ti riferivi.

Quote:
AMD non è chiaramente competitiva con l'RT, e nVidia può continuare a dormire sonni tranquilli.
rimaneggiamento della frase originaria di cui sopra che era sempre relativa alla 5700xt opportunamente revisionata per non ammettere di aver sbagliato...


Quote:
P.S. Ho cercato di evitare lo spezzatino: spero che apprezzerai.
mi ci hai costretto a me però
E infatti qua chiudo, perchè è evidente che continuare a interloquire con chi non ammette ne' l'evidente errore sulla sua previsione rigirandosela a comodo col senno del poi, e nega pure la netta efficacia della cache (sottolineata invece proprio dagli articoli del settore) è solo che bandwidth sprecata, per restare in tema , ma in quel caso non c'è cache che tenga
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb

Ultima modifica di Ale55andr0 : 23-11-2020 alle 15:30.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 23-11-2020, 12:14   #305
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20670
Quote:
Originariamente inviato da cronos1990 Guarda i messaggi

Quello che sinceramente aspetterei a verificare è l'effettiva capacità delle nuove GPU AMD: le console sono tutte targate AMD, per cui i giochi futuri saranno probabilmente tarati meglio per l'hardware rosso. Inoltre è impossibile fare raffronti finchè non presenteranno la loro tecnologia analoga al DLSS.
quotone, e mi sono fermato al "tarati meglio" non a caso.. perchè parlo proprio di migliore implementazione in generale, non specificamente solo per l'hardware amd, ma proprio per via del fatto che la diffusione dell'RT adesso aumenterà e su un hardware più eterogeneo, e considerando anche quanto "impareranno" gli sviluppatori via via che ci prenderanno la mano usandolo in modo sempre più efficace sia in termini di resa che di prestazioni!
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 23-11-2020, 13:31   #306
ionet
Senior Member
 
Iscritto dal: Mar 2002
Messaggi: 1623
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
-

da quello che scrivono si
Quote:
Originariamente inviato da MiKeLezZ Guarda i messaggi
In realtà sì, la prendo a riferimento apposta.
azz mea culpa allora, e' un lavoro immane, io avrei fatto copia e incolla

non capisco pero perche nella relative performance hanno messo 33 gpu, ma nella recensione i valori sui singoli giochi non ce ne sono traccia, andiamo sulla fiducia

ho provato pure a paragonare i valori con quelli di hwu ma giustamente e' difficile con giochi ,impostazioni e configurazioni diverse, ma un valore era troppo anomalo, quello di Borderlands3, ho capito subito che era perche uno era in dx11 l'altro 12, ma la giustificazione di TPU"In our testing, we used DirectX 11 because the DirectX 12 renderer has extremely long loading times and some instability."

cioe' ti sei preso la briga di testare 33gpu, lavoro assurdo, ti sei tenuto i risultati per te, quindi a che pro ma..poi non aveva tempo da perdere con BL3

ok una una rondine non fa primavera, ma la stagione di caccia e' sempre aperta contro amd, stiamo freschi aspetta la primavera
ionet è offline   Rispondi citando il messaggio o parte di esso
Old 23-11-2020, 13:43   #307
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11652
Quote:
Originariamente inviato da ionet Guarda i messaggi
azz mea culpa allora, e' un lavoro immane, io avrei fatto copia e incolla

non capisco pero perche nella relative performance hanno messo 33 gpu, ma nella recensione i valori sui singoli giochi non ce ne sono traccia, andiamo sulla fiducia

ho provato pure a paragonare i valori con quelli di hwu ma giustamente e' difficile con giochi ,impostazioni e configurazioni diverse, ma un valore era troppo anomalo, quello di Borderlands3, ho capito subito che era perche uno era in dx11 l'altro 12, ma la giustificazione di TPU"In our testing, we used DirectX 11 because the DirectX 12 renderer has extremely long loading times and some instability."

cioe' ti sei preso la briga di testare 33gpu, lavoro assurdo, ti sei tenuto i risultati per te, quindi a che pro ma..poi non aveva tempo da perdere con BL3

ok una una rondine non fa primavera, ma la stagione di caccia e' sempre aperta contro amd, stiamo freschi aspetta la primavera
credo che il problema fosse some instability che magari non gli dava valori corretti o andava in crash.

poi non saprei, quello è quello che scrivono, ma a quel punto allora non dovresti credere a nessuna review.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2020, 07:15   #308
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
Non sfigura, ma in dirt sta dietro. Amd poi non è che sempre sproporzionalmente dietro: vedasi TR, quindi come detto va visto caso per caso, e solo una base più ampia darà meglio l'idea perchè oggi siamo al pronti via e praticamente tutti i titoli usciti sino ad ora vedevano solo nvidia lato supporto RT. A parti inverse sarebbe stato uguale: prendere 5 giochi sponsorizzati amd e 1 nvidia tiriando le somme solo su quelli avrebbe fatto dire "e ma AMD vince in RT"
Scusami, ma io avevo scritto soltanto questo: "non mi pare che nVdia sfiguri in assenza (delle sponsorizzazioni)", che è una sintesi direi anche molto moderata dell'attuale situazione, ma tu ci hai ricamato sopra un film parlando di sproporzioni e scenari ipotetici e apocalittici, che evidentemente non hanno nulla a che vedere con quanto avevo espresso.
Quote:
e infatti amd sta lavorando alla propria implementazione, in diretta collaborazione con microsoft, e sarà pure uno standard aperto. Ma resta il fatto che si tratta di far renderizzare nativamente a una risoluzione inferiore, resta ovvio che così si vada più forte, anche quando lo farà AMD.
E qual è il problema? E' così difficile capire che ciò conta dovrebbe essere il risultato finale?

Ribadisco l'esempio che ho fatto in precedenza sul filtro anisotropico implementato da Ati con le Radeon 9600: era un'approssimazione di quello "fedele" (sigh!) che tutte le altre GPU implementavano (a suon di transistor), e presentava degli artefatti visivi in alcuni casi, ma per il resto era il risultato era molto buono.

Eppure non ho visto gente stracciarsi le vesti per questa "furbata" di Ati. Anzi, complimenti a valanga.

Qui nVidia propone uno strumento simile, e si scatena l'inferno (!).

Meno male che anche AMD lo implementerà, così finiranno una buona volta tutte queste polemiche oggettivamente faziose.
Quote:
La infinity cache serve a migliorare lo sfruttamento della bandwidth partendo da 512gb/s di banda, mica è una implementazione specifica per l'rt
Hai presente come funziona una cache? Tutta quella banda te la può fornire soltanto quando ha i dati caricati. Se i dati non ci sono, indovina dove deve andare la GPU (o il processore)?

Quando hai soltanto 128MB per la cache, ma ben 16GB per i dati e, soprattutto, le texture, non è che ci voglia molto a capire perché serva ANCHE un buon bus verso la memoria, eh!

E scusa l'ovvietà...
Quote:
e chechè ne dica tu il silicio extra occupato dalla cache (non sono pochi mb eh..) non glielo passa gratis tsmc, se voleva poteva impiegare quei mm^2 per implementare dei mc per arrivare a un bus più ampio. Inoltre hai scordato (o omesso?) che un bus più ampio è più costoso da un lato (ma li' il silicio extra non lo hanno mica segato via e basta risparmiando, ci han messo altro) ma...è anche più avido di energia, peggiorando l'efficienza! ed AMD ha lavorato proprio su quell'aspetto. Non è scelta fatta "per il risparmio", ti rammento che in passato hanno avuto bus anche di 512bit su schede da 400 euro ....è una scelta che ha portato vantaggi tecnici sia prestazionali che in termini di risparmio energetico nel suo contesto architetturale. Le ha permesso sia un miglioramento drastico dell'efficienza, visto che peccava proprio in quel frangente nelle precedenti architetture,
Seee, non sai nemmeno tu quello che vuoi dire. Prima di parli più costi e poi dici che non sarebbe una scelta fatta al risparmio.

Ti ricordo che AMD ha pure utilizzato in passato le costosissime memorie HBM, che offrivano una bandwidth (reale: niente cache di mezzo) mostruosa e ridotta latenza, con annessi proclami in pompa magna. Poi abbiamo visto com'è andata a finire: è tornata alla GDDR, che costano molto meno, anche se offrono meno banda (se hai dei bus piccoli, ovviamente) e latenze più elevate.

Che un bus più ampio sia più costoso per GPU E (congiunzione) scheda (come avevo scritto prima, visto che non è soltanto un problema della sola GPU) è noto, tant'è che lo sottintende anche la stessa AMD. Dall'articolo:
"Il PCB a 14 strati (quattro con 2 once di rame per una conducibilità migliore) prevede 15 fasi di alimentazione e vede la presenza su entrambe le schede di due classici connettori PCIe a 8 pin per l'alimentazione. Due fasi sono dedicate alle memorie (8 chip da 16 Gbit) GDDR6, e AMD sottolinea che questa netta differenza di efficienza rispetto a Nvidia, che sulla RTX 3080 dedica 3 fasi a 10 chip di memoria e sulla 3090 ben quattro per 24 chip, è legata a Infinity Cache."

E qui parliamo soltanto della sezione di alimentazione: immagina quanto siano complicati i PCB e quanti strati siano necessari per accomodare anche soltanto il 50% di linee dati in più. E ovviamente anche la GPU ha i suoi bei problemi (clock screw in primis, che fa scendere le prestazioni) e costi sia per il memory controller sia per i bus più ampi interni.
Quote:
sia un migliore uso della banda, anch'essa lacuna in passato visto che le vecchie gpu necessitavano di bandwidth assai corpose. Una 5700xt ha un valore di banda passante molto vicino alle 6900xt (448gb/s vs 512 gb/s), che ha un chip col doppio delle cu e clock ben più alto e pensa un po' in 4 k vengono asfaltate nonostante lavorino con appena 64gb/s in più. Tutto questo restando entro 300w a pari pp con un margine prestazionale enorme a fronte del percentile in consumo...
Continui a cambiare discorso (e anche questo non mi sorprende). Io avevo scritto questo:
"s'è visto come calino le prestazioni in ray tracing appena già superi il FullHD"
mentre continui a sviolinare sulla grafica raster.

Non è che puoi fare il pignolo sulle cose che scrivo soltanto quando ti fa comodo, eh!
Quote:
si', la cache effettivamente non fa nulla di che
Mai detto questo, ma vedo che hai cominciato a mistificare. Non avevo dubbi che sarebbe finita così.
Quote:
Benissimo allora: quindi una 3080 con 512gb/s (esperimento facilmente effettuabile downcloccando la ram) avrà le stesse prestazioni rispetto la 6800xt in 4k avrai ragione...perchè la cache di amd "Dà una mano, senz'altro, ma non può fare miracoli, e infatti non li fa proprio quando dovrebbe servire più banda."
Quindi in 4k, quantomeno in raster, stai assumendo che la banda serve meno, giusto? (se dici che la cache non fa tutta sta differenza). Quindi di logica se la 3080 la portiamo a 512gb/s non si scosterebbe più di tanto dalla 6800xt in raster, giusto?
Quindi no, e non è affatto giusto, visto che ho parlato esplicitamente di ray tracing, mentre tu ovviamente sei andato per la tangente, scrivendo papiri sulla grafica raster...
Quote:
Del resto la cache da solo una piccola mano no? Se invece portandola a 512gb/s calasse di un bel po', sempre a rigor di logica, vorrebbe dire che la cache AMD funziona dannatamente bene eccome se compensa oltre DUECENTO gb/s in meno, o no...
Bene, per "nostra" fortuna mio cugino ha una 3080 in arrivo per dicembre (strix oc) e puoi giurarci che gli chiederò di fare questa prova e postero qui i risultati vediamo che succede...
A parte che il rigor di logica non esiste, visto che io parlo di mele (ray tracing) e tu di pere (raster), il vero rigor di logica m'impone anche di evidenziare che abbassare il clock delle memorie ne aumenti la latenza, peggiorandone le prestazioni.

Detto in altri termini, ridurre bovinamente le frequenze della memoria che ha un certo bus di dati per ottenere la stessa banda nominale NON è equivalente.

Roba che si sa da quando sono apparse le memorie DDR...
Quote:
ma crollano de che? in 4k in raster va uguale a una 3080 che ha qualcosa come oltre 200gb/s in più di banda come detto sopra...l'rt come abbiamo visto in dirt non fa crollare le performance della scheda, li' va più forte della 3080 (se fa cagare in rt o le prendi o le prendi, sennò pensa un po' vuol dire che l'ottimizzazione del caso fa il suo) e nemmeno in TR, gioco "nvidia", crolla (42 vs 49 frame), ergo non è questione di bottleneck dovuto alla bandwidth, ma di implementazione dell RT stesso ed ottimizzazione.
Sul raster vedi sopra. Che sul ray tracing serva più banda rispetto al raster è cosa nota (e magari se ti documentassi una volta tanto non farebbe male), com'è anche ovvio che l'utilizzo di una cache NON possa portare benefici comparabili, visto che ogni pixel da renderizzare può generare anche decine di raggi che vanno a "colpire" oggetti lontani e/o completamente diversi, che molto probabilmente avranno materiali (leggi texture e metadata) completamente diversi. Questo in estrema sintesi, per dare l'idea del rendering completamente diverso delle scene fra raster e ray tracing.

Poi, dall'articolo: "In Call of Duty Black Ops: Cold War le GPU Ampere hanno la meglio, anche se bisogna notare come le Radeon si riescano a difendere in 4K grazie alla maggiore VRAM. È proprio a tale risoluzione che emerge la difficoltà della RTX 3070, limitata da una bandwidth di memoria contenuta e da soli 8 GB.". Ovviamente in ray tracing.
Quote:
Che ti rimangi o meno cambia nulla: i fatti ti hanno smentito su quello in cui ti sei espresso, fine. Hai detto che non sarebbe mai riuscita a fare quel salto prestazionale sulla 5700xt, e invece lo ha fatto.
Non mi sono mai sognato di affermare quanto ho evidenziato. E due. Ormai mistifichi a ruota libera.

In raster sì, e l'ho confermato: che vuoi di più?
Quote:
E no, non rigirare la minestra. Non ho tolto l'RT dal confronto, anzi ho ben detto che si vedrà meglio d'ora in avanti che la base di titoli si allargherà, che è ben diverso...tu lo hai aggiunto in seguito dopo che ti ho pizzicato sulla 5700x, peccato che l'RT i quel discorso non ci stava proprio a partire da quanto scritto da TE. E' Italiano eh . Non essere intellettualmente disonesto:

"3080 veloce il doppio della 5700xt. Dubito fortemente che bignavi offrirà prestazioni doppie rispetto a quest'ultima, per cui nvidia potrà continuare a dormire sonni tranquilli"

la 5700xt aveva l'RT? no, quindi è ovvio che a quella e al raster ti riferivi.

rimaneggiamento della frase originaria di cui sopra che era sempre relativa alla 5700xt opportunamente revisionata per non ammettere di aver sbagliato...
Come già detto, perché c'era solo quello. E sulla grafica raster nulla da dire.

Ma nVidia può continuare a dormire sonni tranquilli perché sulle tecnologie moderne AMD non è messa bene.
Quote:
mi ci hai costretto a me però
E infatti qua chiudo, perchè è evidente che continuare a interloquire con chi non ammette ne' l'evidente errore sulla sua previsione rigirandosela a comodo col senno del poi, e nega pure la netta efficacia della cache (sottolineata invece proprio dagli articoli del settore) è solo che bandwidth sprecata, per restare in tema , ma in quel caso non c'è cache che tenga
Io non ho mai negato l'efficacia della cache sulla raster. Ho sempre parlato di ray tracing. Ma tu se non cambi discorso parlando d'altro muori...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2020, 07:18   #309
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
Quello che sinceramente aspetterei a verificare è l'effettiva capacità delle nuove GPU AMD: le console sono tutte targate AMD, per cui i giochi futuri saranno probabilmente tarati meglio per l'hardware rosso. Inoltre è impossibile fare raffronti finchè non presenteranno la loro tecnologia analoga al DLSS.
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
quotone, e mi sono fermato al "tarati meglio" non a caso.. perchè parlo proprio di migliore implementazione in generale, non specificamente solo per l'hardware amd, ma proprio per via del fatto che la diffusione dell'RT adesso aumenterà e su un hardware più eterogeneo, e considerando anche quanto "impareranno" gli sviluppatori via via che ci prenderanno la mano usandolo in modo sempre più efficace sia in termini di resa che di prestazioni!
Come già detto prima e mi ripeto, sono ANNI che le console hanno CPU e GPU di AMD, ma tutti questi vantaggi non mi pare si siano visti.

Ed è anche il motivo per cui ad AMD non servono sponsorizzazioni a livello di nVidia: i giochi glieli ottimizzano già a default. Ovviamente non al meglio, ma è già a costo zero per lei.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2020, 09:10   #310
al135
Senior Member
 
L'Avatar di al135
 
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 7898
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Ma nVidia può continuare a dormire sonni tranquilli perché sulle tecnologie moderne AMD non è messa bene.

Io non ho mai negato l'efficacia della cache sulla raster. Ho sempre parlato di ray tracing. Ma tu se non cambi discorso parlando d'altro muori...

Quoto... e poi mi fanno ridere che se dici questa cosa si offendono come se gli avessi tirato in ballo la mamma.
che tra l'altro amd a me non è mai stata antipatica altrimenti non le avrei mai avute, ma quando c'è da fare una puntualizzazione si fa e basta.
Mancano allo stato attuale tecnologie alla pari del dlss (funzionanti e attive) e performance in raytracing. Poi nulla vieta che tra 1-2 mesi ci siano sfornate e vagonate di giochi dove amd rulla come un tamburo e offre discrete prestazioni seppur minori della controparte verde.
Tra l'altro ho offeso anche i pronipoti di nvidia per il paper launch e offendo i pronipoti per il paper launch delle amd.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Come già detto prima e mi ripeto, sono ANNI che le console hanno CPU e GPU di AMD, ma tutti questi vantaggi non mi pare si siano visti.
ma infatti anche sta cosa... che è una novita? è sempre stato cosi! mah
__________________
Nvidia Manli GeForce RTX® 4090 Gallardo , INTEL i9-13900K, 32gb Crucial HyperX DDR5 @6000, SSD NVME Corsair Pcie 4.0 4TB, Monitor LG OLED 240HZ
27GR95QE
, Headset AR/VR Meta Quest Pro
al135 è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2020, 09:46   #311
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20670
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Come già detto prima e mi ripeto, sono ANNI che le console hanno CPU e GPU di AMD, ma tutti questi vantaggi non mi pare si siano visti.
comprensione del testo prego:

Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
M
Quello che sinceramente aspetterei a verificare è l'effettiva capacità delle nuove GPU AMD: le console sono tutte targate AMD, per cui i giochi futuri saranno probabilmente tarati meglio per l'hardware rosso.
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
quotone, e mi sono fermato al "tarati meglio" non a caso.. perchè parlo proprio di migliore implementazione in generale, non specificamente solo per l'hardware amd, ma proprio per via del fatto che la diffusione dell'RT adesso aumenterà e su un hardware più eterogeneo, e considerando anche quanto "impareranno" gli sviluppatori via via che ci prenderanno la mano usandolo in modo sempre più efficace sia in termini di resa che di prestazioni!

Per il resto ripeto, è inutile stare a discutere e si può riassumere senza nuovamente spararsi sulle palle con altri wall of text stile CDmauro/Oliva, così: AMD diero in RT... in 5 giochi su 6 giochi ottimizzati per nvidia. Unbelievable
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb

Ultima modifica di Ale55andr0 : 24-11-2020 alle 10:08.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2020, 11:11   #312
al135
Senior Member
 
L'Avatar di al135
 
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 7898
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
comprensione del testo prego:






Per il resto ripeto, è inutile stare a discutere e si può riassumere senza nuovamente spararsi sulle palle con altri wall of text stile CDmauro/Oliva, così: AMD diero in RT... in 5 giochi su 6 giochi ottimizzati per nvidia. Unbelievable

sono anche altri i giochi dove va molto meno in rt mica solo i 6 testati qui
manca bfV, deliver us, enlisted, mechwarriors, ghostrunner e anche altri... saranno 18-20 titoli.
questa è la media circa con rt attivo:

per fare altri test poi sono in arrivo altri 15-20 entro gennaio tra cui hitman 3,Atomic Heart, dying light 2 e cyberpunk e vedremo se si è trattato solo di mancata ottimizazione o di un effettivo gap.
attualmente è meglio non pronunciarsi piu di tanto, poi è ovvio che spero anche io che amd faccia bene, dato che non puo' che giovarne il nostro portafoglio
__________________
Nvidia Manli GeForce RTX® 4090 Gallardo , INTEL i9-13900K, 32gb Crucial HyperX DDR5 @6000, SSD NVME Corsair Pcie 4.0 4TB, Monitor LG OLED 240HZ
27GR95QE
, Headset AR/VR Meta Quest Pro

Ultima modifica di al135 : 24-11-2020 alle 11:35.
al135 è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2020, 18:22   #313
ionet
Senior Member
 
Iscritto dal: Mar 2002
Messaggi: 1623
Quote:
sono ANNI che le console hanno CPU e GPU di AMD, ma tutti questi vantaggi non mi pare si siano visti.
si sente spesso questa critica, ma in realta' e' come immaginare un mondo parallelo
ci sono scelte che possono stravolgere il destino di ognuno di noi, di un popolo ,dell'intera umanita'(se avessero vinto i nazisti?)
figuriamoci un azienda, mondi paralleli dove ancora esiste osborne, la commodore, olivetti,3DFX..dove una certa apple a fine secolo sarebbe stata lasciata fallire..chissa' come sarebbe andata se si fosse fatto cosi' cola' chissa'..

che doveva fare amd pagare qualche gioco? e a che pro tanto nvidia ne poteva molti di piu',con le console e' sopravvissuta, poi con le collaborazioni fisiologiche a gratis, molti giochi girano e dignitosamente e questo e' molto piu' importante di "qualche" gioco, perche appunto non l'avrebbe salvata
ma ca220 era quasi fallita fino a pochi anni fa, e' riuscita con le sue scelte a sopravvivere e riprendersi a tal punto da riuscire a tornare a competere, e con le cpu anche a superare, con due giganti dalle risorse sconfinate

immaginiamo piuttosto un mondo parallelo rimasta senza amd(gatto morto)
eravamo rimasti con i quad a 300€ e passa, con gpu di due/tre generazione dietro,la 3090 manco nei sogni esisteva altro che rt e dlss, stavamo con la serie 900/1000 pure scalate di fascia(xx106 come x80)tanto non esiste niente di meglio perche investire?

non ci pare che le console hanno portato benefici?
perche poi questa critica , per "hanno recuperato giusto in raster"
hai detto niente, era tutto fino a poco fa, ma e' ancora quasi tutto anche adesso, l'rt e' il futuro
un futuro e un presente(rt /dlss) che se esiste, esistera' sono appunto per quelle scelte tanto bistrattate oggi
si anche i litigi e le sospensioni dal forum sono un piacevole effetto collaterale


scusate la crisi mistica/quantistica
ionet è offline   Rispondi citando il messaggio o parte di esso
Old 24-11-2020, 23:05   #314
DukeIT
Senior Member
 
Iscritto dal: Dec 2001
Messaggi: 8485
__________________
Intel i7-4770; Arctic i30 CO; ASRock Fatal1ty H87; Corsair DDR3 1600 2*8GB; Gigabyte WindForce 780TI; Corsair AX760; Dell U2410; TP-Link Archer D5
DukeIT è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2020, 03:11   #315
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1847
Quello scorso era il primo esperimento di SoC x86 AMD su console, seguito dalle prime conversioni alla meno peggio.
Nel frattempo è migliorata l'esperienza e gli strumenti, MS-AMD in primis, visto che il GDK di MS ha un occhio di riguardo per il PC.

Ci sarebbe anche il discorso delle feature DX-12U che dovrebbero essere sfruttate prendendo spunto dall'implementazione AMD, ma per ora...

Tra seconda run e tutto il resto, insomma, diventa difficile pensare che AMD non tragga vantaggi passivi dalla situazinone, finanche per quanto riguarda il carico medio di RT che avranno i giochi condivisi con le console.
Dopo Nvidia potrà legittimamente spingere per quel qualcosa in più che gli conviene, ma tant'è... Vedremo.
__________________
GB-B660 | 14600K | RTX-4070 TiS | 64GB | 2x NVMe + 16TB | LCD-28 4K
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2020, 07:18   #316
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
comprensione del testo prego:
StraLOL. Lo dici proprio tu che sei partito sparato per la tangente parlando di cose completamente diverse, e mistificando mettendomi in bocca per ben due volte parole che non avevo detto?

Peraltro la mia frase era assolutamente calzante su quanto cronos1990 e tu, che gli avevi replicato, stavate discutendo su quel preciso punto. A parole puoi dire e inventarti quello che vuoi, come hai ampiamente mostrato prima, ma la realtà e i fatti rimangono tali.
Quote:
Per il resto ripeto, è inutile stare a discutere e si può riassumere senza nuovamente spararsi sulle palle con altri wall of text
Lo credo bene che sia inutile, dopo che ti ho risposto punto per punto, e fatto vedere che non sai di cosa parli.

Cercare di uscirsene così da una discussione ormai divenuta insostenibile è un film che ormai ho visto migliaia di volte....
Quote:
stile CDmauro/Oliva,
E no, non ti permetto di associarmi a uno che vive nella più completa confusione, spara cretinate a raffica (visto che non lavora e non ha niente da fare tutto il giorno, a parte difendere ciecamente AMD ovviamente, con annesse diffamazioni stile lucusta che non s'è fatto mancare anche lui nei confronti di Intel in particolare, ma anche con me quando scrivevo nel thread Aspettando Zen) che secondo lui (ma soltanto nell'universo parallelo in cui vive) avrebbero un qualche fondamento tecnico, e che quando va a leggere notizie da siti stranieri se li fa tradurre da Google (visto che non conosce nemmeno un inglese elementare) prendendo delle cantonate ancora più colossali di quanto normalmente faccia con quelle in italiano...
Quote:
così: AMD diero in RT... in 5 giochi su 6 giochi ottimizzati per nvidia. Unbelievable
al135 ti ha riportato che esistono 18-20 giochi (e meno male che sono pochi, eh!) che usano già il ray tracing, con annesso grafichino delle prestazioni delle schede grafiche che lo supportano. Cosa avrebbero dovuto fare le redazioni: testarli tutti?

Infatti non hai battuto ciglio e sei sparito: chi l'avrebbe mai detto...
Quote:
Originariamente inviato da al135 Guarda i messaggi
sono anche altri i giochi dove va molto meno in rt mica solo i 6 testati qui
manca bfV, deliver us, enlisted, mechwarriors, ghostrunner e anche altri... saranno 18-20 titoli.
questa è la media circa con rt attivo:
Grazie per le informazioni e il grafico, molto interessante.
Quote:
per fare altri test poi sono in arrivo altri 15-20 entro gennaio tra cui hitman 3,Atomic Heart, dying light 2 e cyberpunk e vedremo se si è trattato solo di mancata ottimizazione o di un effettivo gap.
attualmente è meglio non pronunciarsi piu di tanto,
Altri 15-20 giochi? Bene. "Il futuro è adesso..." (cit.).
Quote:
poi è ovvio che spero anche io che amd faccia bene, dato che non puo' che giovarne il nostro portafoglio
Assolutamente d'accordo. Poi non capisco come persone che sulla carta dovrebbero essere ormai adulte e ben vaccinate continuino a soffrire di fanboyismo, difendendo aziende che vendono pezzi di metallo e/o beni immateriali (software): manco ne fossero dipendenti o azionisti...

La concorrenza non può che fare bene, a tutto vantaggio di noi consumatori, che ci ritroviamo o prodotti più economici, o migliori allo stesso prezzo.
Quote:
Originariamente inviato da ionet Guarda i messaggi
che doveva fare amd pagare qualche gioco? e a che pro tanto nvidia ne poteva molti di piu',con le console e' sopravvissuta, poi con le collaborazioni fisiologiche a gratis, molti giochi girano e dignitosamente e questo e' molto piu' importante di "qualche" gioco, perche appunto non l'avrebbe salvata
Il punto è, invece, proprio questo: l'unica che è ormai costretta a mettere mano al proprio portafogli è nVidia, visto che AMD il supporto per i suoi prodotti se lo ritrova gratis. Non al top, certo, ma è tutta roba che si ritrova senza sganciare un centesimo.
Quote:
ma ca220 era quasi fallita fino a pochi anni fa, e' riuscita con le sue scelte a sopravvivere e riprendersi a tal punto da riuscire a tornare a competere, e con le cpu anche a superare, con due giganti dalle risorse sconfinate
E' riuscita soltanto perché Intel sono 5 anni che è ferma col suo vecchio processo produttivo (quello nuovo sarebbe dovuto arrivare già più di 4 anni fa), che ne ha bloccato lo sviluppo dei prodotti.
Quote:
immaginiamo piuttosto un mondo parallelo rimasta senza amd(gatto morto)
eravamo rimasti con i quad a 300€ e passa, con gpu di due/tre generazione dietro,la 3090 manco nei sogni esisteva altro che rt e dlss, stavamo con la serie 900/1000 pure scalate di fascia(xx106 come x80)tanto non esiste niente di meglio perche investire?
Come già detto sopra, è un bene che ci sia la concorrenza.
Quote:
non ci pare che le console hanno portato benefici?
Direi proprio di no. Quando hai prodotti oggettivamente più scarsi non bastano nemmeno le ottimizzazioni che si ricevono gratis, come s'è visto ormai da anni.

Adesso con le nuove schede grafiche e le nuove console ci sono dei segnali positivi (tant'é che AMD ha sfornato un padellone di chip. Roba che ovviamente è sempre stata vista con disprezzo e dileggiata dal troll numero uno del forum quando si trattava di nVidia, ma sulla quale adesso "stranamente" non ha avuto nulla da dire), ma ci sono delle lacune da colmare.
Quote:
perche poi questa critica , per "hanno recuperato giusto in raster"
hai detto niente, era tutto fino a poco fa, ma e' ancora quasi tutto anche adesso, l'rt e' il futuro
un futuro e un presente(rt /dlss) che se esiste, esistera' sono appunto per quelle scelte tanto bistrattate oggi
Mi pare che il futuro sia più vicino di quanto si creda, numeri alla mano (vedi commento di al135).
Quote:
si anche i litigi e le sospensioni dal forum sono un piacevole effetto collaterale
Piacevole soltanto per chi non ci finisce in mezzo.

Invece a me i litigi non piacciono: possibile che non si possa discutere di questioni tecniche o ludiche senza finire con delle faide? Ognuno esponga le proprie tesi e fatti a supporto senza dileggiare / insultare / mistificare gli altri, e finisca lì. Poi chi legge si farà le proprie idee. Non mi sembra che sia chiedere troppo...
Quote:
scusate la crisi mistica/quantistica
Non c'è problema: è un forum e si discute, soprattutto questi toni mi piacciono molto.
Quote:
Originariamente inviato da Fos Guarda i messaggi
Quello scorso era il primo esperimento di SoC x86 AMD su console, seguito dalle prime conversioni alla meno peggio.
Nel frattempo è migliorata l'esperienza e gli strumenti, MS-AMD in primis, visto che il GDK di MS ha un occhio di riguardo per il PC.

Ci sarebbe anche il discorso delle feature DX-12U che dovrebbero essere sfruttate prendendo spunto dall'implementazione AMD, ma per ora...

Tra seconda run e tutto il resto, insomma, diventa difficile pensare che AMD non tragga vantaggi passivi dalla situazinone, finanche per quanto riguarda il carico medio di RT che avranno i giochi condivisi con le console.
Dopo Nvidia potrà legittimamente spingere per quel qualcosa in più che gli conviene, ma tant'è... Vedremo.
Infatti sono anni che AMD trae vantaggio gratuitamente, e continuerà a essere sempre così.

L'unica che deve per forza cacciare fuori soldi per avere un supporto migliore per i suoi prodotti è nVidia, invece.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2020, 08:32   #317
dav1deser
Senior Member
 
L'Avatar di dav1deser
 
Iscritto dal: Jan 2008
Messaggi: 4128
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
L'unica che deve per forza cacciare fuori soldi per avere un supporto migliore per i suoi prodotti è nVidia, invece.
Si e no, le vecchie console erano basate su architettura Jaguar lato CPU, che poco centra con ZEN (o gli FX prima ancora). Lato GPU Inizialmente era l'architettura delle HD7000, successivamente del RX400/500.

Ottimizzare per queste architetture non credo portasse chissà quali miglioramenti a Fiji, Vega, Navi etc.

Le nuove console sono RDNA2 + ZEN2, quindi molto attuali, e qualche vantaggio ci sarà per AMD, ma le architetture future di AMD si allontaneranno e il vantaggio andrà un po' a perdersi con il tempo.
__________________
AMD 7950X - Sapphire 7900XT Pulse - MSI PRO X670-P WIFI - 32GB@6400 - NZXT H5 Flow - Enermax Revo X't 730W - 3xAsus VG249 FHD 144Hz - 500GB Samsung 970 Evo NVME - 256GB Samsung 840 Evo Sata3 - Seagate 4TB HDD
dav1deser è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2020, 09:32   #318
cronos1990
Senior Member
 
L'Avatar di cronos1990
 
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 26362
Che bello essere citato di continuo e non poter rispondere Sia chiaro: non ho scritto il papiro seguente in 5 minuti, ho perso tempo a scriverlo su Word mentre ero ancora sospeso

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Come già detto prima e mi ripeto, sono ANNI che le console hanno CPU e GPU di AMD, ma tutti questi vantaggi non mi pare si siano visti.

Ed è anche il motivo per cui ad AMD non servono sponsorizzazioni a livello di nVidia: i giochi glieli ottimizzano già a default. Ovviamente non al meglio, ma è già a costo zero per lei.
Premetto che in genere evito di replicare a chi è, evidentemente, più competente di me, se non altro per rispetto al maggior numero di conoscenze che permettono di avere un quadro sicuramente più ampio e corretto dell’oggetto della discussione (si, leggo con piacere i tuoi interventi). A mio avviso andrebbero fatte alcune precisazioni, messa così la questione diventa semplicistica.

In discorso “sono ANNI” va contestualizzato al fatto che una generazione console dura in media 6 anni. Di fatto le console sono targate AMD solo da una generazione (adesso è iniziata la seconda), prima avevamo la PS3 con il tanto vituperato Cell e la XBox carrozzata con uno Xeon Intel se non ricordo male. Di fatto AMD fino a qualche giorno fa aveva fornito le sue tecnologie una volta sola al mondo console, e parliamo di un periodo di circa 7 anni. Tralasciando il discorso Nintendo, che ha Nvidia ma è chiaramente un discorso a parte.
Non solo: negli ultimi 10 anni (più indietro non ricordo) AMD è sempre stata dietro per prestazioni pure rispetto ad Nvidia, di sicuro nella fascia alta/enthusiasm prende da sempre sonore mazzate, e ha sempre dovuto cercare di giocare molto sul rapporto prezzo/prestazioni per mantenere quote di mercato… mercato che comunque ha sempre visto Nvidia davanti in questo periodo, a volte come nel periodo attuale con percentuali bulgare (tolta Intel, il 75% delle GPU discrete sono Nvidia). AMD ha avuto ben più necessità di diversificarsi per cercare nuove fonti di guadagno, e buttarsi nel mondo console è stata sicuramente una buona mossa… ma anche necessaria, più che strategica.

Ma anche la PS4/XBox precedente (dannati nomi Microsoft ) sono comunque versioni molto customizzate delle tecnologie AMD, un primo avvicinamento al mondo PC ma ancora distante sia lato hardware che lato software. E comunque costruite sempre nell’ottica di quel periodo, ovvero ricercare un compromesso tra costi e prestazioni molto a favore del “risparmio” piuttosto che della capacità computazionale (o delle tecnologie messe a disposizione). Se non ricordo male, quando uscirono quelle console l’hardware era pari ad un PC di fascia media già presente da mesi sul mercato. Tanto per capirci: la progettazione di quelle macchine si basava su presupposti del tutto diversi da quelli attuali.

Ora: non sto certo dicendo che AMD andrà meglio di Nvidia. Anzi, ho sempre pensato che anche con questa generazione di schede sarebbero stati in grado di avvicinarsi ma rimanendo comunque dietro anche in raster, l’aumento di prestazioni che hanno avuto mi ha sinceramente sorpreso.
Dico però che la situazione attuale è ben diversa rispetto a prima. Per la prima volta dopo oltre un decennio AMD riesce a stare al passo (in alcuni casi leggermente meglio) rispetto ad Nvidia senza il discorso RT, con consumi minori e maggior quantitativo di vRAM (che reputo un “di più” inutile, ma non entro nel discorso). E le nuove PS5/X Series sono in effetti molto più vicine ad un PC rispetto alle console precedenti, e anzi fanno pieno uso dell’architettura di punta di AMD, che è in continuo sviluppo. Questo senza contare che la “potenza relativa” è anche superiore al passato: la loro capacità computazionale non è molto distante dalla 2080Ti, risultato che sinceramente non mi aspettavo (soprattutto la X Series, la PS5 ha più difficoltà).

Io sto semplicemente dicendo che prima di dare giudizi definitivi, conviene aspettare di vedere all’opera queste nuove schede con i giochi che dovranno uscire tra qualche mese. Anche perché l’hai detto tu stesso: finora chi ha “sborsato” per l’ottimizzazione per le proprie schede è Nvidia, che è l’unica che fino ad oggi ha proposto una tecnologia RT. Mi pare lapalissiano che i giochi finora usciti in RT sono stati tarati esclusivamente per le schede verdi, pensare che con i giochi attuali le rosse vadano meglio in RT è a mio avviso utopistico. Beninteso, non vuol dire che i giochi del 2021 andranno meglio in RT con le AMD, solo che al momento è troppo presto per dare giudizi definitivi. Certo, se dovessi azzardare un'ipotesi direi che al momento Nvidia ha un vantaggio tecnologico, se non altro perché ha circa 2 anni di “esperienza in più”. E vale sia per il RT che per il discorso del DLSS. E poco o tanto che sia, avrà il suo peso sulle prestazioni complessive in RT.
Comunque, come già hanno detto in diversi (e lo stesso dico io da anni) l’RT è il futuro… anzi, per la prima volta da anni una tecnologia che, per quanto incida pochissimo sul gameplay, avrà un impatto importante ed esteso che andrà avanti per decenni. Col tempo soppianterà le attuali tecniche di raster, inutile girarci attorno, quindi a maggior ragione come verrà implementato in ambito console avrà un peso rilevante.

Vorrei anche fare un appunto: vero che AMD con le console da qualche anno può godere di un’ottimizzazione “di base” senza alcuna spesa (ma entro certi limiti, comunque le console della appena passata generazione erano comunque molto più custom rispetto a quelle uscite adesso, in confronto ad un PC. Con la generazione appena uscita potremo vedere maggiori benefici). Ma va anche detto che AMD generalmente utilizza tecnologie open, anziché chiuse e proprietarie come quelle di Nvidia, per cui si tratta di un’ottimizzazione che sulla carta non le da reali vantaggi perché ne può godere anche Nvidia da sempre (o comunque tale vantaggio è minimo).
Inoltre va pur sempre detto che Nvidia sborsa soldi come se non ci fosse un domani da ben prima che AMD invadesse il mondo console, non è certo un’opera che avviene dagli ultimi 7 anni. Da ben più tempo convincono le SH ad ottimizzare i giochi per le loro schede a suon di dollari, tra l’altro sfruttando una situazione economica ben migliore di quella di AMD (lecito, sia chiaro). Farla passare come una “necessità” per la presenza di un vantaggio “gratuito” lato AMD è fuorviante, semplicemente Nvidia ha sempre spinto per sopraffare l’avversario indirizzando le scelte dei programmatori ancor prima che attraverso il suo hardware (e software) proprietario.

A me personalmente poi interessa zero chi la spunterà; quello che è importante è che ci sia concorrenza vera, sia per avere prezzi più umani, sia per avere una spinta propositiva nel campo dell’innovazione e progresso tecnologico. Poi si, se qualcuno me lo chiede preferisco la mentalità più “open” di AMD… ma non perché odio “chi si fa tutto in casa”, ma semplicemente perché in questo modo si lascia più spazio di scelta al consumatore finale.
Il DLSS ne è un esempio: mi sono già espresso positivamente nei suoi confronti, ma per poterlo avere sono costretto a comprare Nvidia. Ovviamente Nvidia ha tutto il diritto di mantenere proprietaria tale sua tecnologia, ma dal mio punto di vista (acquirente) preferirei avere la libertà di poterlo usare su qualunque GPU, in modo da poter avere la più ampia possibilità di scelta.

Sotto questo punto di vista AMD è sempre stata più lungimirante… certo, sempre ricordando che lo è per strategie commerciali, non certo perché sono dei buon samaritani. Resto comunque dell’idea che l’attuale situazione è molto interessante, perché pare che finalmente abbiamo una vera concorrenza. Se dovessi cambiare la GPU adesso farei esattamente come ho fatto l’anno scorso quando ho preso la 5700XT: aspetterei l’uscita di tutte le tecnologie AMD, test e benchmark di più testate su più titoli con il confronto tra tutte le schede (con e senza RT, con e senza DLSS e analoga tecnologia rossa) e, in base ai limiti di spesa imposti da me, valuterei cosa è meglio per le mie esigenze.
Non devo certo fare favori a questo o quel produttore, ma solo acquistare quello che reputo meglio per me.
cronos1990 è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2020, 17:18   #319
Leon™
Member
 
Iscritto dal: Sep 2007
Messaggi: 203
Boh ragazzi, per come sono le premesse, da profano e indietro di generazioni a livello hw ( r9 290x con fw della 390...), dai video che trovo in rete riguardanti il raytracing faccio davvero fatica a notare la differenza, tralasciando la pochezza dell'hw dedicato attuale, (va bene, nvidia ha dlss, ma è solo un'approssimazione, mi sembra difficile affermare di avere risultati eccellenti partendo da rendering a risoluzioni infime).
Per me sarebbe ormai anche ora di effettare un upgrade, tuttavia non capisco se al momento ne valga realmente la pena o sia meglio attendere l'anno prossimo, magari potrebbero uscire soluzioni dotate di memorie hbm con molta più bandwith in grado di gestire un raytracing reale e non fomentarne solamente l'hype(un upscaling resta upscaling per come si voglia rigirarla...)
Leon™ è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2020, 21:35   #320
Slater91
Amministratore
 
L'Avatar di Slater91
 
Iscritto dal: Jun 2009
Città: Glasgow, Scozia
Messaggi: 1857
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
E no, non ti permetto di associarmi a uno che vive nella più completa confusione, spara cretinate a raffica (visto che non lavora e non ha niente da fare tutto il giorno, a parte difendere ciecamente AMD ovviamente, con annesse diffamazioni stile lucusta che non s'è fatto mancare anche lui nei confronti di Intel in particolare, ma anche con me quando scrivevo nel thread Aspettando Zen) che secondo lui (ma soltanto nell'universo parallelo in cui vive) avrebbero un qualche fondamento tecnico, e che quando va a leggere notizie da siti stranieri se li fa tradurre da Google (visto che non conosce nemmeno un inglese elementare) prendendo delle cantonate ancora più colossali di quanto normalmente faccia con quelle in italiano...
La discussione, anche accesa, è lecita fintantoché non si commentano gli interventi di un altro utente andando sul personale. Tre giorni di sospensione.
Invito tutti a darsi una calmata e sottoscrivo il commento di cronos1990: "in base ai limiti di spesa imposti da me, valuterei cosa è meglio per le mie esigenze. Non devo certo fare favori a questo o quel produttore, ma solo acquistare quello che reputo meglio per me."
Ricordatevi che siamo qui per qualcosa che ci unisce, non che ci divide. Comportatevi di conseguenza.
__________________
Riccardo Robecchi - autore per Hardware Upgrade
MB ASUS Crosshair VI Hero, CPU Ryzen 7 1700X, RAM 32 GiB Corsair Vengeance 3000MHz, VGA Sapphire AMD Radeon RX 5700 XT Pulse, CASE Sun Ultra 24, PSU Corsair TX650W. KDE neon x64 & Win 10 Pro x64.
Slater91 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Apple MacBook Air M3: chi deve davvero comprarlo? La recensione Apple MacBook Air M3: chi deve davvero comprarlo...
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ul...
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza Dreame L10s Pro Ultra Heat: la pulizia di casa t...
HONOR Magic6 Pro: come funziona Magic Portal, il modo ''intelligente'' di condividere HONOR Magic6 Pro: come funziona Magic Portal, il...
L'innovazione richiede fiducia: Workday si propone come guida nell'era dell'IA L'innovazione richiede fiducia: Workday si propo...
NIO inizia la produzione del sistema a 9...
Microsoft Edge consentirà di limi...
I driver NVIDIA crashano al torneo milio...
Rinviato l'ultimo lancio del razzo spazi...
CMF Buds by Nothing: gli auricolari econ...
Accordo di intesa firmato, saranno di SK...
iPhone, il supporto alla messaggistica R...
Una GeForce RTX 3080 a meno di 800 euro ...
Ecco le migliori offerte sui processori ...
Polestar presenta Polestar Charge, il se...
PyPI bersagli di un attacco malware: reg...
Putin ha chiesto al governo russo di pen...
Un display AMOLED curvo su un dissipator...
Speciale sedie da ufficio e gaming in of...
Aggiornamenti per Sony Alpha 1, Alpha 9 ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 14:12.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www1v
1