Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

In Photoshop arriva l'IA di nuova generazione
In Photoshop arriva l'IA di nuova generazione
È disponibile in fase beta la funzione Genertive Fill avanzata di Photoshop, basata su Firefly 3. Più qualità e controllo, grazie soprattutto alle immagini di riferimento, e integrazione perfetta, ma l'utilizzo dell'IA non è più illimitato e gratuito.
Recensione realme 12+: sfida la fascia media con un design unico e un display luminosissimo
Recensione realme 12+: sfida la fascia media con un design unico e un display luminosissimo
Il nuovo dispositivo top della Serie 12 arriva dopo le varianti "Pro" e si configura come una proposta di gamma media ben equilibrata, capace di rivolgersi a un pubblico molto ampio formato sia di utenti esigenti, sia di persone attente al risparmio. Non adotta il SoC più potente del mercato, ma punta di catturare le attenzioni attraverso un display AMOLED da 120Hz e 2000 nit, una fotocamera principale di qualità e, soprattutto, un design particolare.
OnePlus Pad Go: un tablet economico perfetto per l'intrattenimento. La recensione
OnePlus Pad Go: un tablet economico perfetto per l'intrattenimento. La recensione
OnePlus Pad Go è un tablet Android di fascia media che offre un'esperienza di intrattenimento immersiva grazie al display 2.4K, all'audio Dolby Atmos, alla connettività LTE e a un design premium, il tutto a un prezzo molto competitivo. Ecco tutti i dettagli nella nostra recensione completa.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 30-11-2020, 17:27   #341
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Potrebbero essere dei chip scelti, se è predisposta per raggiungere 3ghz allora non ci vedo nulla di strano
Quelli son valori da overclock estremi, altro che scelti.
Sono così scelti che la freq di default è la stessa.

Ultima modifica di nickname88 : 30-11-2020 alle 17:46.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2020, 17:28   #342
dav1deser
Senior Member
 
L'Avatar di dav1deser
 
Iscritto dal: Jan 2008
Messaggi: 4137
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Potrebbero essere dei chip scelti, se è predisposta per raggiungere 3ghz allora non ci vedo nulla di strano
Da quello che sto vedendo, le 6800XT ad aria (modelli custom fascia alta) sembrano arrivare agevolmente a 2,7GHz. La 6900XT potrebbe andare anche un po' più su, ma non credo 3.0GHz ad aria (e nemmeno a liquido). Ma credo che sotto LN2 ci arrivi senza problemi, e forse è un limite troppo basso per gli OC estremi.
__________________
AMD 7950X - Sapphire 7900XT Pulse - MSI PRO X670-P WIFI - 32GB@6400 - NZXT H5 Flow - Enermax Revo X't 730W - 3xAsus VG249 FHD 144Hz - 500GB Samsung 970 Evo NVME - 256GB Samsung 840 Evo Sata3 - Seagate 4TB HDD
dav1deser è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2020, 18:26   #343
HwWizzard
Bannato
 
Iscritto dal: Aug 2016
Messaggi: 1151
Quote:
Originariamente inviato da DukeIT Guarda i messaggi
Non ho capito come mai testino una AMD con una tecnologia proprietaria nVidia di cui è ovviamente sprovvista (DLSS on).
La prossima è testare le AMD con i driver nVidia?
No, è stato postato solo per trollare un test con DLSS, cioè paragoni 4K con 1080p.
Purtroppo è riuscito nell’intento visto che gli rispondete.
HwWizzard è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2020, 18:30   #344
HwWizzard
Bannato
 
Iscritto dal: Aug 2016
Messaggi: 1151
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Potrebbero essere dei chip scelti, se è predisposta per raggiungere 3ghz allora non ci vedo nulla di strano
Beh dai, non penserai che quelle siano freq raggiungibili con dissi stock e da tenere in daily... poi cosa va a consumare?

Quote:
Originariamente inviato da dav1deser Guarda i messaggi
Da quello che sto vedendo, le 6800XT ad aria (modelli custom fascia alta) sembrano arrivare agevolmente a 2,7GHz. La 6900XT potrebbe andare anche un po' più su, ma non credo 3.0GHz ad aria (e nemmeno a liquido). Ma credo che sotto LN2 ci arrivi senza problemi, e forse è un limite troppo basso per gli OC estremi.
Puoi postare alcuni test? Anche in PVT...
HwWizzard è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2020, 18:51   #345
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 8170
Quote:
Originariamente inviato da HwWizzard Guarda i messaggi
Beh dai, non penserai che quelle siano freq raggiungibili con dissi stock e da tenere in daily... poi cosa va a consumare?
Non con il dissi stock, ma con qualche custom ad aria potrebbe essere fattibile, già la 6800 XT red devil raggiunge 2.7ghz, che poi sia rock solid o meno è tutto da testare.

Per quanto riguarda i consumi, non credo sia nelle priorità di chi sceglie questo tipo di schede.
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2020, 18:59   #346
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Non con il dissi stock, ma con qualche custom ad aria potrebbe essere fattibile, già la 6800 XT red devil raggiunge 2.7ghz, che poi sia rock solid o meno è tutto da testare.

Per quanto riguarda i consumi, non credo sia nelle priorità di chi sceglie questo tipo di schede.
Lo dici tu che li raggiunge, in quella review non parlava affatto di rock solid,e non mi sembra di vedere nessuno che tiene frequenze del genere in daily use. Senza contare che è pure un risultato agevolato dalle Tamb attuali.

Ultima modifica di nickname88 : 30-11-2020 alle 19:01.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2020, 19:02   #347
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 8170
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Lo dici tu che li raggiunge, in quella review non parlava affatto di rock solid,e non mi sembra di vedere nessuno che tiene frequenze del genere in daily use. Senza contare che è pure un risultato agevolato dalle Tamb attuali.
Riguardati il video della recensione allora, e comunque l'ho specificato ''che sia rock solid o meno è tutto da testare'', leggiamo bene prima di rispondere.

''Non mi sembra di vedere nessuno che tiene frequenze del genere...'' e chi vorresti vedere? A parte i recensori quanti sono coloro che hanno una 6800 XT Red Devil tra le mani?

Ultima modifica di StylezZz` : 30-11-2020 alle 19:07.
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2020, 19:06   #348
dav1deser
Senior Member
 
L'Avatar di dav1deser
 
Iscritto dal: Jan 2008
Messaggi: 4137
Quote:
Originariamente inviato da HwWizzard Guarda i messaggi
Beh dai, non penserai che quelle siano freq raggiungibili con dissi stock e da tenere in daily... poi cosa va a consumare?



Puoi postare alcuni test? Anche in PVT...
https://www.youtube.com/watch?v=dZhpUTmAppY
Intorno al minuto 3
https://www.youtube.com/watch?v=WPfWu0n_y24
Intorno al minuto 11
https://www.youtube.com/watch?v=Lk20IzZN-xk
Intorno al minuto 6

Purtroppo al momento di review scritte non mi pare ce ne siano molte. Ma è comunque qualcosa. Non so ovviamente quanto le schede fossero stabili, ma di norma non è che ci passano centinaia di MHz fra stabilità e crash totale delle applicazioni, quindi anche non ci fosse stabilità, probabilmente ci sarebbe a tipo 2,6GHz, ad aria.
__________________
AMD 7950X - Sapphire 7900XT Pulse - MSI PRO X670-P WIFI - 32GB@6400 - NZXT H5 Flow - Enermax Revo X't 730W - 3xAsus VG249 FHD 144Hz - 500GB Samsung 970 Evo NVME - 256GB Samsung 840 Evo Sata3 - Seagate 4TB HDD
dav1deser è offline   Rispondi citando il messaggio o parte di esso
Old 30-11-2020, 22:08   #349
HwWizzard
Bannato
 
Iscritto dal: Aug 2016
Messaggi: 1151
Quote:
Originariamente inviato da StylezZz` Guarda i messaggi
Non con il dissi stock, ma con qualche custom ad aria potrebbe essere fattibile, già la 6800 XT red devil raggiunge 2.7ghz, che poi sia rock solid o meno è tutto da testare.

Per quanto riguarda i consumi, non credo sia nelle priorità di chi sceglie questo tipo di schede.
No, il discorso consumi è pertinente. Di fatto nVidia consuma 320-340W mentre AMD 270W, se hai tutto quel margine allora vai a vedere a quanto stai agli stessi 320/340W.
Pare chiaro che nVidia abbia sfornato schede già tirate al massimo visto che salgono praticamente zero, mentre AMD è rimasta un’altra volta conservativa. Ma bisogna vedere più test per capire qual’è il reale potenziale di OC senza far esplodere i consumi.
Boh io sono sempre più orientato verso la 6800XT...
HwWizzard è offline   Rispondi citando il messaggio o parte di esso
Old 08-12-2020, 06:24   #350
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da dav1deser Guarda i messaggi
Si e no, le vecchie console erano basate su architettura Jaguar lato CPU, che poco centra con ZEN (o gli FX prima ancora).
Sì, ma stavamo parlando di nVidia = GPU, e non di CPU.
Quote:
Lato GPU Inizialmente era l'architettura delle HD7000, successivamente del RX400/500.

Ottimizzare per queste architetture non credo portasse chissà quali miglioramenti a Fiji, Vega, Navi etc.
L'APU di PS4 e XBoxOne hanno GPU basate su GCN: non sono le stesse delle GPU che AMD ha tirato fuori successivamente, ma hanno un gran base in comune, e puoi riciclare tante ottimizzazioni.

Le GPU di NVidia (e Intel), invece, sono molto diverse, per cui richiedono ottimizzazioni diverse.
Quote:
Le nuove console sono RDNA2 + ZEN2, quindi molto attuali, e qualche vantaggio ci sarà per AMD, ma le architetture future di AMD si allontaneranno e il vantaggio andrà un po' a perdersi con il tempo.
Non credo che cambierà molto: vedi sopra. nVidia continuerà a richiedere ben più attenzioni dagli sviluppatori, rispetto ad AMD.
Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
Che bello essere citato di continuo e non poter rispondere Sia chiaro: non ho scritto il papiro seguente in 5 minuti, ho perso tempo a scriverlo su Word mentre ero ancora sospeso
Figurati: l'importante è poter scrivere.

Anch'io sono stato sospeso, e dopo avrei anche potuto scriverti, ma ho preferito tornare a lavorare a ciò che stavo facendo da un paio di mesi ormai, completare il tutto (beh, l'altro ieri ho pure potuto sostenuto l'esame A2.1 di tedesco ), e rispondere soltanto adesso che ho finalmente un po' di tempo (prima di ributtarmi sulla successiva, e spero ultima, versione della mia architettura ).
Quote:
Premetto che in genere evito di replicare a chi è, evidentemente, più competente di me, se non altro per rispetto al maggior numero di conoscenze che permettono di avere un quadro sicuramente più ampio e corretto dell’oggetto della discussione (si, leggo con piacere i tuoi interventi).
Ti ringrazio, ma in tutti questi anni posso dirti di avere imparato diverse cose scambiando opinioni con tanti utenti del forum. Quindi non ti fare problemi.
Quote:
A mio avviso andrebbero fatte alcune precisazioni, messa così la questione diventa semplicistica.

In discorso “sono ANNI” va contestualizzato al fatto che una generazione console dura in media 6 anni. Di fatto le console sono targate AMD solo da una generazione (adesso è iniziata la seconda), prima avevamo la PS3 con il tanto vituperato Cell
... e una GPU riciclata pari pari da un modello medio di nVidia.
Quote:
e la XBox carrozzata con uno Xeon Intel se non ricordo male.
La prima XBox aveva un Pentium-III con cache L2 dimezzata.

La XBox360 una GPU custom di AMD (con alcune caratteristiche innovative), che richiedeva apposite ottimizzazioni (ben diverse da quelle per PC) per poter essere sfruttata adeguatamente.
Quote:
Di fatto AMD fino a qualche giorno fa aveva fornito le sue tecnologie una volta sola al mondo console, e parliamo di un periodo di circa 7 anni.
Nintendo GameCube:
Initiating the GameCube's design in 1998, Nintendo partnered with ArtX (then acquired by ATI Technologies during development) for the system logic and the GPU


Quote:
Tralasciando il discorso Nintendo, che ha Nvidia ma è chiaramente un discorso a parte.
Non solo: negli ultimi 10 anni (più indietro non ricordo) AMD è sempre stata dietro per prestazioni pure rispetto ad Nvidia, di sicuro nella fascia alta/enthusiasm prende da sempre sonore mazzate, e ha sempre dovuto cercare di giocare molto sul rapporto prezzo/prestazioni per mantenere quote di mercato… mercato che comunque ha sempre visto Nvidia davanti in questo periodo, a volte come nel periodo attuale con percentuali bulgare (tolta Intel, il 75% delle GPU discrete sono Nvidia). AMD ha avuto ben più necessità di diversificarsi per cercare nuove fonti di guadagno, e buttarsi nel mondo console è stata sicuramente una buona mossa… ma anche necessaria, più che strategica.
Infatti. Aveva bisogno di liquidi e, anche se i ricavi dei chip per le console fossero molto bassi (circa il 10% per chip, col primo accordo), è ciò che le ha garantito un costante afflusso di denaro che le ha consentito di sopravvivere.
Quote:
Ma anche la PS4/XBox precedente (dannati nomi Microsoft ) sono comunque versioni molto customizzate delle tecnologie AMD, un primo avvicinamento al mondo PC ma ancora distante sia lato hardware che lato software.
Hanno ben poche personalizzazioni, invece.

Certamente il fatto di avere la memoria unificata richiede ottimizzazioni diverse dai PC, ma quando c'è da ottimizzare del codice per la CPU o degli shader per la GPU (ossia il grosso del lavoro) puoi riciclare quasi tutto dai PC.
Quote:
E comunque costruite sempre nell’ottica di quel periodo, ovvero ricercare un compromesso tra costi e prestazioni molto a favore del “risparmio” piuttosto che della capacità computazionale (o delle tecnologie messe a disposizione). Se non ricordo male, quando uscirono quelle console l’hardware era pari ad un PC di fascia media già presente da mesi sul mercato. Tanto per capirci: la progettazione di quelle macchine si basava su presupposti del tutto diversi da quelli attuali.
Vero: Nintendo docet. Hanno tirato tutti i remi in barca.
Quote:
Ora: non sto certo dicendo che AMD andrà meglio di Nvidia. Anzi, ho sempre pensato che anche con questa generazione di schede sarebbero stati in grado di avvicinarsi ma rimanendo comunque dietro anche in raster, l’aumento di prestazioni che hanno avuto mi ha sinceramente sorpreso.
Dico però che la situazione attuale è ben diversa rispetto a prima. Per la prima volta dopo oltre un decennio AMD riesce a stare al passo (in alcuni casi leggermente meglio) rispetto ad Nvidia senza il discorso RT, con consumi minori e maggior quantitativo di vRAM (che reputo un “di più” inutile, ma non entro nel discorso). E le nuove PS5/X Series sono in effetti molto più vicine ad un PC rispetto alle console precedenti, e anzi fanno pieno uso dell’architettura di punta di AMD, che è in continuo sviluppo. Questo senza contare che la “potenza relativa” è anche superiore al passato: la loro capacità computazionale non è molto distante dalla 2080Ti, risultato che sinceramente non mi aspettavo (soprattutto la X Series, la PS5 ha più difficoltà).
Il confronto rispetto alle console del passato è certamente migliore per le nuove console, grazie ai progressi che AMD ha fatto sia in ambito CPU sia, soprattutto, in quello GPU. Ma è pur sempre hardware da PC medio ormai.

Nulla da dire sulla grafica raster, che ha sorpreso anche me (d'altra parte erano parecchi anni che AMD non tirava fuori un padellone di chip), ma le GPU di AMD rimangono oggettivamente inferiori nel ray tracing (con evidenti "problemi", per così dire: vedi l'ultimo Watchdogs, dove manca parecchia roba all'appello) e, soprattutto, nell'upscaling "intelligente".
Ed è tutta roba che aumenta il solco fra console e PC.
Quote:
Io sto semplicemente dicendo che prima di dare giudizi definitivi, conviene aspettare di vedere all’opera queste nuove schede con i giochi che dovranno uscire tra qualche mese. Anche perché l’hai detto tu stesso: finora chi ha “sborsato” per l’ottimizzazione per le proprie schede è Nvidia, che è l’unica che fino ad oggi ha proposto una tecnologia RT. Mi pare lapalissiano che i giochi finora usciti in RT sono stati tarati esclusivamente per le schede verdi, pensare che con i giochi attuali le rosse vadano meglio in RT è a mio avviso utopistico. Beninteso, non vuol dire che i giochi del 2021 andranno meglio in RT con le AMD, solo che al momento è troppo presto per dare giudizi definitivi.
A mio avviso l'attuale implementazione RT di AMD rimane comunque troppo immatura. Avrebbe fatto meglio a concentrarsi sulla sola grafica raster, e proporre GPU con queste nuove tecnologie soltanto quando sarebbe stata realmente competitiva. Idem per il futuro concorrente di DLSS.

Inutile sprecare silicio (che i clienti pagano lo stesso) su queste cose: o lo toglievano per abbassare ulteriormente i prezzi, o lo usavano per potenziare la grafica raster. Almeno avrebbero avuto un chiaro elemento di forza per vendere le loro GPU.
Quote:
Certo, se dovessi azzardare un'ipotesi direi che al momento Nvidia ha un vantaggio tecnologico, se non altro perché ha circa 2 anni di “esperienza in più”. E vale sia per il RT che per il discorso del DLSS. E poco o tanto che sia, avrà il suo peso sulle prestazioni complessive in RT.
Esattamente.
Quote:
Vorrei anche fare un appunto: vero che AMD con le console da qualche anno può godere di un’ottimizzazione “di base” senza alcuna spesa (ma entro certi limiti, comunque le console della appena passata generazione erano comunque molto più custom rispetto a quelle uscite adesso, in confronto ad un PC. Con la generazione appena uscita potremo vedere maggiori benefici).
Io non vedo tante personalizzazioni nell'hardware delle console: né prima né adesso.
Quote:
Ma va anche detto che AMD generalmente utilizza tecnologie open, anziché chiuse e proprietarie come quelle di Nvidia, per cui si tratta di un’ottimizzazione che sulla carta non le da reali vantaggi perché ne può godere anche Nvidia da sempre (o comunque tale vantaggio è minimo).
AMD si è sempre buttata sull'open perché non ha avuto le risorse per sviluppare roba proprietaria e farsela supportare.
Quote:
Inoltre va pur sempre detto che Nvidia sborsa soldi come se non ci fosse un domani da ben prima che AMD invadesse il mondo console, non è certo un’opera che avviene dagli ultimi 7 anni. Da ben più tempo convincono le SH ad ottimizzare i giochi per le loro schede a suon di dollari, tra l’altro sfruttando una situazione economica ben migliore di quella di AMD (lecito, sia chiaro). Farla passare come una “necessità” per la presenza di un vantaggio “gratuito” lato AMD è fuorviante, semplicemente Nvidia ha sempre spinto per sopraffare l’avversario indirizzando le scelte dei programmatori ancor prima che attraverso il suo hardware (e software) proprietario.
Sì, ma negli ultimi anni AMD gode di ottimizzazioni che le arrivano aggratis, mentre nVidia non ha più altra scelta, e si trova con una maggior pressione visto che la concorrenza riceve supporto gratuito. La situazione per nVidia è oggettivamente peggiorata.
Quote:
A me personalmente poi interessa zero chi la spunterà; quello che è importante è che ci sia concorrenza vera, sia per avere prezzi più umani, sia per avere una spinta propositiva nel campo dell’innovazione e progresso tecnologico. Poi si, se qualcuno me lo chiede preferisco la mentalità più “open” di AMD… ma non perché odio “chi si fa tutto in casa”, ma semplicemente perché in questo modo si lascia più spazio di scelta al consumatore finale.
Il DLSS ne è un esempio: mi sono già espresso positivamente nei suoi confronti, ma per poterlo avere sono costretto a comprare Nvidia. Ovviamente Nvidia ha tutto il diritto di mantenere proprietaria tale sua tecnologia, ma dal mio punto di vista (acquirente) preferirei avere la libertà di poterlo usare su qualunque GPU, in modo da poter avere la più ampia possibilità di scelta.
Mi pare anche normale che sia così: il DLSS è roba che s'è inventata nVidia, e quindi era/è chiuso/proprietario. AMD arriva tardi, e al solito si butta sull'open per una tecnologia equivalente.

Tutta roba già vista, mi pare: stessa cosa con le RTX, con GSync, Physix, CUDA.

Non si può certo far torto a nVidia che ha puntato sull'innovazione e se l'è voluta tenere stretta.
Quote:
Sotto questo punto di vista AMD è sempre stata più lungimirante…
Non si tratta di lungimiranza: se non hai risorse non ti rimane che buttarti sull'open, sfruttando il supporto di altri partner.

Persino IBM, che di soldi ne ha molti di più, ha fatto lo stesso coi suoi POWER. Qui anche perché ormai lei sta diventando sempre più una software company, e l'hardware non è il suo core-business già da tempo. Per cui ha preferito scaricare così i costi di sviluppo dell'hardware (che deve comunque mantenere, visto che ha ancora tanti clienti che usano i suoi sistemi POWER).
Quote:
certo, sempre ricordando che lo è per strategie commerciali, non certo perché sono dei buon samaritani. Resto comunque dell’idea che l’attuale situazione è molto interessante, perché pare che finalmente abbiamo una vera concorrenza. Se dovessi cambiare la GPU adesso farei esattamente come ho fatto l’anno scorso quando ho preso la 5700XT: aspetterei l’uscita di tutte le tecnologie AMD, test e benchmark di più testate su più titoli con il confronto tra tutte le schede (con e senza RT, con e senza DLSS e analoga tecnologia rossa) e, in base ai limiti di spesa imposti da me, valuterei cosa è meglio per le mie esigenze.
Il problema con AMD è che bisogna sempre aspettare per poter godere delle innovazioni.

Le nuove schede sono certamente competitive per la grafica raster, che però è ormai vecchiume, visto che i tempi sono maturi per il ray tracing.
Sul RT sono messe decisamente male, soprattutto mancando di tecnologie come il DLSS (che consente di raddoppiare o anche triplicare le prestazioni mantenendo una buona qualità delle scene).
Non vedo come potrebbero migliorare coi soli driver. In futuro. E questo è un altro mantra che si legge da sempre quando si parla di AMD: miglioreranno più avanti, col tempo, coi driver migliori. Ma se la scheda la compro adesso, la vorrei ben sfruttare ora, no? I soldi li ho tirati fuori ora. Altrimenti l'avrei comprata dopo.
Quote:
Non devo certo fare favori a questo o quel produttore, ma solo acquistare quello che reputo meglio per me.
Assolutamente. Ognuno si fa i conti con le proprie tasche ed esigenze. Ci mancherebbe!
Quote:
Originariamente inviato da Leon™ Guarda i messaggi
Boh ragazzi, per come sono le premesse, da profano e indietro di generazioni a livello hw ( r9 290x con fw della 390...), dai video che trovo in rete riguardanti il raytracing faccio davvero fatica a notare la differenza, tralasciando la pochezza dell'hw dedicato attuale, (va bene, nvidia ha dlss, ma è solo un'approssimazione, mi sembra difficile affermare di avere risultati eccellenti partendo da rendering a risoluzioni infime).
Le risoluzioni non sono infime e i risultati decisamente buoni. Non so cos'abbia visto tu per fare queste affermazioni.
Quote:
Per me sarebbe ormai anche ora di effettare un upgrade, tuttavia non capisco se al momento ne valga realmente la pena o sia meglio attendere l'anno prossimo, magari potrebbero uscire soluzioni dotate di memorie hbm con molta più bandwith in grado di gestire un raytracing reale e non fomentarne solamente l'hype(un upscaling resta upscaling per come si voglia rigirarla...)
https://www.youtube.com/watch?v=UAGJEym15Us&t=1m30s
Quote:
Originariamente inviato da HwWizzard Guarda i messaggi
DLSS e future implementazioni AMD non le calcolo proprio, per me sono e rimangono trucchi, specchietto per allodole, a cui puntualmente tutti i fanboy hanno abboccato.
Ci crediamo proprio, detto da uno che parla di San Giacchetta da una parte, ma di Santa Lisa Su dall'altra...
Quote:
Quindi a questo giro abbiamo un sostanziale pareggio, che non si vedeva da troppo tempo, ma si sono inventati il shortage delle VGA per farti credere di aver abbassato i prezzi quando invece sono rimasti uguali o anzi sono aumentati.
C'è un sostanziale pareggio sulla grafica raster. Sul resto lasciamo perdere...
Quote:
Originariamente inviato da HwWizzard Guarda i messaggi
No, il discorso consumi è pertinente. Di fatto nVidia consuma 320-340W mentre AMD 270W, se hai tutto quel margine allora vai a vedere a quanto stai agli stessi 320/340W.
Pare chiaro che nVidia abbia sfornato schede già tirate al massimo visto che salgono praticamente zero,
Questo è chiarissimo. D'altra parte, e come già avevo detto tempo fa quando sono arrivati i primi test e informazioni, è evidente che il processo di Samsung non sia assolutamente all'altezza di quello di TSMC (nemmeno del primo a 7nm).
Quote:
mentre AMD è rimasta un’altra volta conservativa.
Un'altra volta in quale universo? E' da anni che AMD sforna schede pompate che consumano molto proprio perché tirate, in modo da cercare di rimanere competitiva. Idem per le CPU.

Col nuovo processo le cose le vanno molto meglio, e mi pare anche ovvio che sia così. Ed è anche giusto che ne tragga massimo beneficio.

Ma arrivare a riscrivere la storia solo per questo, quello proprio no.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 08-12-2020, 12:10   #351
ionet
Senior Member
 
Iscritto dal: Mar 2002
Messaggi: 1666
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
A mio avviso l'attuale implementazione RT di AMD rimane comunque troppo immatura. Avrebbe fatto meglio a concentrarsi sulla sola grafica raster, e proporre GPU con queste nuove tecnologie soltanto quando sarebbe stata realmente competitiva. Idem per il futuro concorrente di DLSS.

Inutile sprecare silicio (che i clienti pagano lo stesso) su queste cose: o lo toglievano per abbassare ulteriormente i prezzi, o lo usavano per potenziare la grafica raster. Almeno avrebbero avuto un chiaro elemento di forza per vendere le loro GPU..
su questo devo dissentire parecchio, non e' possibile nascere adulti e laureati , tanto meno con esperienza
se nvidia e' una generazione avanti e con piu' giochi programmati con il suo hw, e' perche appunto ha presentato e rifinito la sua implementazione al RT prima

sai le pizze in faccia che prendeva amd fra due anni quando finalmente presentava la sua "prima" di RT, e nvidia si trovava con la terza generazione e con un ecosistema talmente radicato che ormai e' inutile pure provarci..

che poi la cosa e' chiara anche a te, e infatti poco dopo ti contraddici

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Le nuove schede sono certamente competitive per la grafica raster, che però è ormai vecchiume, visto che i tempi sono maturi per il ray tracing.
Sul RT sono messe decisamente male, soprattutto mancando di tecnologie come il DLSS (che consente di raddoppiare o anche triplicare le prestazioni mantenendo una buona qualità delle scene).
Non vedo come potrebbero migliorare coi soli driver. In futuro. E questo è un altro mantra che si legge da sempre quando si parla di AMD: miglioreranno più avanti, col tempo, coi driver migliori. Ma se la scheda la compro adesso, la vorrei ben sfruttare ora, no? I soldi li ho tirati fuori ora. Altrimenti l'avrei comprata dopo..
cioe' doveva lasciar perdere il RT e consumare ancora silicio per quel "vecchiume" del raster
presentare una big/fascia estrema nel ormai 2021,senza ancora il supporto al RT sarebbe stato un suicidio
in raster e' ok, inutile sprecare ulteriore silicio se non ha futuro, il rt c'e' simile a Turing/2080s/ti e fascia medio-alta attuale Ampere/3070
direi piu' che dignitosa per essere la prima

poi i driver e le patch delle swh servono anche e soprattutto a correggere i bug , normale che ci siano in questa fase, le prestazioni migliorano di suo se il gioco fila liscio
per prestazioni extra devono ottimizzare parecchio, e qui se non apri il portafoglio..
fortuna che le console aiutano e aiuteranno molto
per ultimo il dlss e' gia' stato confermato ufficialmente che ci stanno lavorando, manca attualmente ma..visto che mancano pure le gpu amd ha un po di tempo per lavorare e sistemare le sue mancanze

poi probabilmente, anzi sicuramente nvidia gli rimane superiore in queste due caratteristiche, ma siamo ancora in area primordiale/sperimentale, da avere di fretta piu' per non lasciare campo libero all'avversario, ma comunque piu' che sufficiente per quel poco che c'e' attualmente in RT in FHD/QHD, in 4K si va di scaler e via, tanto sembra accettato come feature, ho paura pero' che prima o poi gli si rivoltera' contro
per il RT vero hai voglia..
ionet è offline   Rispondi citando il messaggio o parte di esso
Old 08-12-2020, 13:57   #352
DukeIT
Senior Member
 
Iscritto dal: Dec 2001
Messaggi: 8486
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
.
A mio avviso l'attuale implementazione RT di AMD rimane comunque troppo immatura. Avrebbe fatto meglio a concentrarsi sulla sola grafica raster, e proporre GPU con queste nuove tecnologie soltanto quando sarebbe stata realmente competitiva. Idem per il futuro concorrente di DLSS.

Inutile sprecare silicio (che i clienti pagano lo stesso) su queste cose: o lo toglievano per abbassare ulteriormente i prezzi, o lo usavano per potenziare la grafica raster. Almeno avrebbero avuto un chiaro elemento di forza per vendere le loro GPU.
E perché mai?
In questo thread vedo una furbizia di fondo, cioè si parte dal fatto che nVidia, nel confronto con AMD, migliora le prestazioni quando si parla di RT, per dichiararla vincitrice, cosa che assolutamente non è.
In primo luogo, se diamo per scontato che nVidia migliora le sue prestazioni quando è in RT, è vero dunque anche il contrario, che AMD migliora le sue prestazioni rispetto ad nVidia quando non si utilizza l'RT, e queste sono le prestazioni più importanti.
Se invece la si smette di cercare di portare acqua al proprio mulino e si analizzano le prestazioni emerse da questo test, ci si accorge che nel doppio confronto tra 3080 e 3070, contro 6800XT e 6800, vi è un sostanziale pareggio.
La 6800XT pareggia le prestazioni con la 3080, ma poi perde in RT.
La 6800 vince contro la 3070 e poi pareggia in RT.
Ora, se consideriamo di pari importanza le prestazioni in RT, il confronto è pari. Se invece, come ritengo io, le prestazioni senza RT sono più importanti, allora vince AMD.

E soprattutto, è bene sottolineare, che questo confronto si sbilancerà ancora più in futuro a favore di AMD, vuoi perché stiamo parlando dei primi driver, vuoi perché già attivando il SAM incrementa il suo vantaggio, vuoi per la dotazione di RAM ed, infine, vuoi perché stiamo parlando di un parco giochi ottimizzato per nVidia, mentre sappiamo benissimo che i giochi a venire privilegeranno l'architettura AMD, nonostante c'è chi si industria a dimostrare che siccome nel passato non è avvenuto, non avverrà mai (spiegazione che non mi convince nemmeno un po'). Già con giochi non confezionati per l'RT attorno ad nVidia si inizieranno a vedere i primi vantaggi per AMD.

Ad nVidia rimane un solo vantaggio, il DLSS, con tutti i pro e contro, e bisognerà vedere quale sarà l'efficacia della versione equivalente AMD quando uscirà, ma per il resto questo test non dimostra assolutamente alcuna superiorità di nVidia e, nel futuro prossimo, è probabile vedremo AMD ottenere vantaggi nel confronto.
Altro che "era meglio non implementassero l'RT".
__________________
Intel i7-4770; Arctic i30 CO; ASRock Fatal1ty H87; Corsair DDR3 1600 2*8GB; Gigabyte WindForce 780TI; Corsair AX760; Dell U2410; TP-Link Archer D5
DukeIT è offline   Rispondi citando il messaggio o parte di esso
Old 08-12-2020, 14:09   #353
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Giusto per evidenziare quante vaccate sono state dette da certi utenti riguardo la 6900XT che avrebbe "bastonato" C( cito TESTUALMENTE ) la 3090 ....


Ultima modifica di nickname88 : 08-12-2020 alle 14:11.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 08-12-2020, 22:41   #354
Folgore 101
Senior Member
 
L'Avatar di Folgore 101
 
Iscritto dal: Jun 2002
Città: Domodossola
Messaggi: 2544
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Giusto per evidenziare quante vaccate sono state dette da certi utenti riguardo la 6900XT che avrebbe "bastonato" C( cito TESTUALMENTE ) la 3090 ....
Per curiosità, come mai tutto questo zelo nello smentire le sparate degli AMDboy e non una parola su tutte le sparate degli nVidiaboy?
__________________
"Non è tanto chi sei quanto quello che fai che ti qualifica" - "Il coraggio non è la mancanza di paura ma bensì la consapevolezza che qualcosa sia più importante della paura stessa" - Vivaldi il browser che si adatta all'utente
Folgore 101 è offline   Rispondi citando il messaggio o parte di esso
Old 09-12-2020, 01:37   #355
HwWizzard
Bannato
 
Iscritto dal: Aug 2016
Messaggi: 1151
Quote:
Originariamente inviato da Folgore 101 Guarda i messaggi
Per curiosità, come mai tutto questo zelo nello smentire le sparate degli AMDboy e non una parola su tutte le sparate degli nVidiaboy?
Ma cosa gli rispondi che come sempre posta quella spazzatura di sito
Che poi ci si aspettasse che la 6900XT andasse qualcosa in più, beh questo si, così è solo una truffa alla pari della 3090 dove i fanatici del bench e del star lì a guardare e fare confronti real time del riflesso della pozzanghera mentre giocano almeno hanno la mezza scusa dei 24Gb.
Peccato che non abbiano la più pallida idea di come e in quali ambiti questi 24Gb vengano sfruttati.
HwWizzard è offline   Rispondi citando il messaggio o parte di esso
Old 09-12-2020, 06:14   #356
HwWizzard
Bannato
 
Iscritto dal: Aug 2016
Messaggi: 1151
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Sì, ma stavamo parlando di nVidia = GPU, e non di CPU.

L'APU di PS4 e XBoxOne hanno GPU basate su GCN: non sono le stesse delle GPU che AMD ha tirato fuori successivamente, ma hanno un gran base in comune, e puoi riciclare tante ottimizzazioni.

Le GPU di NVidia (e Intel), invece, sono molto diverse, per cui richiedono ottimizzazioni diverse.

Non credo che cambierà molto: vedi sopra. nVidia continuerà a richiedere ben più attenzioni dagli sviluppatori, rispetto ad AMD.

Figurati: l'importante è poter scrivere.

Anch'io sono stato sospeso, e dopo avrei anche potuto scriverti, ma ho preferito tornare a lavorare a ciò che stavo facendo da un paio di mesi ormai, completare il tutto (beh, l'altro ieri ho pure potuto sostenuto l'esame A2.1 di tedesco ), e rispondere soltanto adesso che ho finalmente un po' di tempo (prima di ributtarmi sulla successiva, e spero ultima, versione della mia architettura ).

Ti ringrazio, ma in tutti questi anni posso dirti di avere imparato diverse cose scambiando opinioni con tanti utenti del forum. Quindi non ti fare problemi.

... e una GPU riciclata pari pari da un modello medio di nVidia.

La prima XBox aveva un Pentium-III con cache L2 dimezzata.

La XBox360 una GPU custom di AMD (con alcune caratteristiche innovative), che richiedeva apposite ottimizzazioni (ben diverse da quelle per PC) per poter essere sfruttata adeguatamente.

Nintendo GameCube:
Initiating the GameCube's design in 1998, Nintendo partnered with ArtX (then acquired by ATI Technologies during development) for the system logic and the GPU



Infatti. Aveva bisogno di liquidi e, anche se i ricavi dei chip per le console fossero molto bassi (circa il 10% per chip, col primo accordo), è ciò che le ha garantito un costante afflusso di denaro che le ha consentito di sopravvivere.

Hanno ben poche personalizzazioni, invece.

Certamente il fatto di avere la memoria unificata richiede ottimizzazioni diverse dai PC, ma quando c'è da ottimizzare del codice per la CPU o degli shader per la GPU (ossia il grosso del lavoro) puoi riciclare quasi tutto dai PC.

Vero: Nintendo docet. Hanno tirato tutti i remi in barca.

Il confronto rispetto alle console del passato è certamente migliore per le nuove console, grazie ai progressi che AMD ha fatto sia in ambito CPU sia, soprattutto, in quello GPU. Ma è pur sempre hardware da PC medio ormai.

Nulla da dire sulla grafica raster, che ha sorpreso anche me (d'altra parte erano parecchi anni che AMD non tirava fuori un padellone di chip), ma le GPU di AMD rimangono oggettivamente inferiori nel ray tracing (con evidenti "problemi", per così dire: vedi l'ultimo Watchdogs, dove manca parecchia roba all'appello) e, soprattutto, nell'upscaling "intelligente".
Ed è tutta roba che aumenta il solco fra console e PC.

A mio avviso l'attuale implementazione RT di AMD rimane comunque troppo immatura. Avrebbe fatto meglio a concentrarsi sulla sola grafica raster, e proporre GPU con queste nuove tecnologie soltanto quando sarebbe stata realmente competitiva. Idem per il futuro concorrente di DLSS.

Inutile sprecare silicio (che i clienti pagano lo stesso) su queste cose: o lo toglievano per abbassare ulteriormente i prezzi, o lo usavano per potenziare la grafica raster. Almeno avrebbero avuto un chiaro elemento di forza per vendere le loro GPU.

Esattamente.

Io non vedo tante personalizzazioni nell'hardware delle console: né prima né adesso.

AMD si è sempre buttata sull'open perché non ha avuto le risorse per sviluppare roba proprietaria e farsela supportare.

Sì, ma negli ultimi anni AMD gode di ottimizzazioni che le arrivano aggratis, mentre nVidia non ha più altra scelta, e si trova con una maggior pressione visto che la concorrenza riceve supporto gratuito. La situazione per nVidia è oggettivamente peggiorata.

Mi pare anche normale che sia così: il DLSS è roba che s'è inventata nVidia, e quindi era/è chiuso/proprietario. AMD arriva tardi, e al solito si butta sull'open per una tecnologia equivalente.

Tutta roba già vista, mi pare: stessa cosa con le RTX, con GSync, Physix, CUDA.

Non si può certo far torto a nVidia che ha puntato sull'innovazione e se l'è voluta tenere stretta.

Non si tratta di lungimiranza: se non hai risorse non ti rimane che buttarti sull'open, sfruttando il supporto di altri partner.

Persino IBM, che di soldi ne ha molti di più, ha fatto lo stesso coi suoi POWER. Qui anche perché ormai lei sta diventando sempre più una software company, e l'hardware non è il suo core-business già da tempo. Per cui ha preferito scaricare così i costi di sviluppo dell'hardware (che deve comunque mantenere, visto che ha ancora tanti clienti che usano i suoi sistemi POWER).

Il problema con AMD è che bisogna sempre aspettare per poter godere delle innovazioni.

Le nuove schede sono certamente competitive per la grafica raster, che però è ormai vecchiume, visto che i tempi sono maturi per il ray tracing.
Sul RT sono messe decisamente male, soprattutto mancando di tecnologie come il DLSS (che consente di raddoppiare o anche triplicare le prestazioni mantenendo una buona qualità delle scene).
Non vedo come potrebbero migliorare coi soli driver. In futuro. E questo è un altro mantra che si legge da sempre quando si parla di AMD: miglioreranno più avanti, col tempo, coi driver migliori. Ma se la scheda la compro adesso, la vorrei ben sfruttare ora, no? I soldi li ho tirati fuori ora. Altrimenti l'avrei comprata dopo.

Assolutamente. Ognuno si fa i conti con le proprie tasche ed esigenze. Ci mancherebbe!

Le risoluzioni non sono infime e i risultati decisamente buoni. Non so cos'abbia visto tu per fare queste affermazioni.

https://www.youtube.com/watch?v=UAGJEym15Us&t=1m30s

Ci crediamo proprio, detto da uno che parla di San Giacchetta da una parte, ma di Santa Lisa Su dall'altra...

C'è un sostanziale pareggio sulla grafica raster. Sul resto lasciamo perdere...

Questo è chiarissimo. D'altra parte, e come già avevo detto tempo fa quando sono arrivati i primi test e informazioni, è evidente che il processo di Samsung non sia assolutamente all'altezza di quello di TSMC (nemmeno del primo a 7nm).

Un'altra volta in quale universo? E' da anni che AMD sforna schede pompate che consumano molto proprio perché tirate, in modo da cercare di rimanere competitiva. Idem per le CPU.

Col nuovo processo le cose le vanno molto meglio, e mi pare anche ovvio che sia così. Ed è anche giusto che ne tragga massimo beneficio.

Ma arrivare a riscrivere la storia solo per questo, quello proprio no.
Mi sembrava che ci siamo chiariti un bel po di tempo fa sull’ignorarsi e non quotare i reciproci post. Quindi attieniti a tale principio e non farmi perdere tempo a dover leggere i tuoi deliri su cose che ho scritto io.
Che qui se c’è qualcosa fuori dall’universo è solo tutto ciò che scrivi.
HwWizzard è offline   Rispondi citando il messaggio o parte di esso
Old 09-12-2020, 06:22   #357
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da ionet Guarda i messaggi
su questo devo dissentire parecchio, non e' possibile nascere adulti e laureati , tanto meno con esperienza
se nvidia e' una generazione avanti e con piu' giochi programmati con il suo hw, e' perche appunto ha presentato e rifinito la sua implementazione al RT prima

sai le pizze in faccia che prendeva amd fra due anni quando finalmente presentava la sua "prima" di RT, e nvidia si trovava con la terza generazione e con un ecosistema talmente radicato che ormai e' inutile pure provarci..
Ma Nvidia ha presentato delle schede grafiche competitive con la grafica raster, aggiungendo RTX e DLSS.
Quote:
che poi la cosa e' chiara anche a te, e infatti poco dopo ti contraddici
Non c'è nessuna contraddizione nel rilevare la non competitività di AMD con RT (e upscaling intelligente) e il fatto che il RT sia ormai la caratteristica più importante per la grafica di un gioco.
Quote:
cioe' doveva lasciar perdere il RT e consumare ancora silicio per quel "vecchiume" del raster
Come già detto, almeno sarebbe stata la scelta migliore in ambito raster. Al momento in ambito raster va più o meno quanto le controparti di nVidia, ma su tutto il resto non è assolutamente competitiva (a parte il prezzo, ma anche qui la differenza è poca).
Quote:
presentare una big/fascia estrema nel ormai 2021,senza ancora il supporto al RT sarebbe stato un suicidio
in raster e' ok, inutile sprecare ulteriore silicio se non ha futuro, il rt c'e' simile a Turing/2080s/ti e fascia medio-alta attuale Ampere/3070
direi piu' che dignitosa per essere la prima
In tal caso AMD avrebbe dovuto potenziare molto di più la sua sezione RT. Come, ha fatto nVidia, e com'era anche ovviamente prevedibile.
Quote:
poi i driver e le patch delle swh servono anche e soprattutto a correggere i bug , normale che ci siano in questa fase, le prestazioni migliorano di suo se il gioco fila liscio
Attualmente i driver fanno crollare le prestazioni per correggere i bug...
Quote:
per prestazioni extra devono ottimizzare parecchio, e qui se non apri il portafoglio..
fortuna che le console aiutano e aiuteranno molto
Assolutamente sì: è la sua fortuna.
Quote:
per ultimo il dlss e' gia' stato confermato ufficialmente che ci stanno lavorando, manca attualmente ma..visto che mancano pure le gpu amd ha un po di tempo per lavorare e sistemare le sue mancanze
Allora riparliamone quando sarà finalmente pronta con queste tecnologie.
Quote:
poi probabilmente, anzi sicuramente nvidia gli rimane superiore in queste due caratteristiche, ma siamo ancora in area primordiale/sperimentale, da avere di fretta piu' per non lasciare campo libero all'avversario, ma comunque piu' che sufficiente per quel poco che c'e' attualmente in RT in FHD/QHD, in 4K si va di scaler e via, tanto sembra accettato come feature, ho paura pero' che prima o poi gli si rivoltera' contro
per il RT vero hai voglia..
Intanto al momento AMD è ben sotto nelle tecnologie che ormai vanno per la maggiore nei giochi, qualunque sia la risoluzione.
Quote:
Originariamente inviato da DukeIT Guarda i messaggi
E perché mai?
In questo thread vedo una furbizia di fondo,
Io vedo che uno che continua a dare sfogo al suo fanatismo partigiano. Prima avevi accusato nVidia di dare mazzetta, e adesso parli di furbizia.

Questo è un forum di discussione, ognuno dice la sua, e soprattutto non siamo tutti come te che devi difendere la tua marca del cuore (arrivando a questi livelli).
Quote:
cioè si parte dal fatto che nVidia, nel confronto con AMD, migliora le prestazioni quando si parla di RT, per dichiararla vincitrice, cosa che assolutamente non è.
Ah, no? Ma quali recensioni hai letto? E' arrivata giusto ieri anche l'ultima sulla neonata 6900, e la situazione non rimane che deprimente, visto che sta leggermente sotto una 2080Ti in RT (senza il DLSS. Sennò c'è il baratro)...
Quote:
In primo luogo, se diamo per scontato che nVidia migliora le sue prestazioni quando è in RT,
Non è scontato: E'. Che ti piaccia o meno, questa E' la realtà.
Quote:
è vero dunque anche il contrario, che AMD migliora le sue prestazioni rispetto ad nVidia quando non si utilizza l'RT,
No, le prestazioni con la grafica raster sono simili: in base alla scheda/fascia o è leggermente sopra AMD o è leggermente sopra nVidia. Ci sono miriadi di recensioni che ormai sono state fatte, e nel link di Guru3D postato prima da nickname88 c'è una tabella riepilogativa dei risultati di tutte le testate più importanti con annesse medie finale.
Quote:
e queste sono le prestazioni più importanti.
Specifica: PER TE.
Quote:
Se invece la si smette di cercare di portare acqua al proprio mulino e si analizzano le prestazioni emerse da questo test, ci si accorge che nel doppio confronto tra 3080 e 3070, contro 6800XT e 6800, vi è un sostanziale pareggio.
La 6800XT pareggia le prestazioni con la 3080, ma poi perde in RT.
La 6800 vince contro la 3070 e poi pareggia in RT.
Ora, se consideriamo di pari importanza le prestazioni in RT, il confronto è pari. Se invece, come ritengo io, le prestazioni senza RT sono più importanti, allora vince AMD.
Mi spiace per te, ma la situazione è quella descritta sopra.
Quote:
E soprattutto, è bene sottolineare, che questo confronto si sbilancerà ancora più in futuro a favore di AMD, vuoi perché stiamo parlando dei primi driver, vuoi perché già attivando il SAM incrementa il suo vantaggio,
Ma anche no. Anzi. Finora ci sono pochi casi in cui c'è un leggero miglioramento di qualche FPS quando è attivato, ma sono molti di più i casi in cui c'è, invece, un peggioramento, e addirittura alcuni in cui c'è un mostruoso peggioramento.

Ergo: meglio lasciare disattivato il SAM (mica si può passare il tempo a cambiare opzioni del BIOS ogni volta, a seconda del gioco da lanciare).
Quote:
vuoi per la dotazione di RAM ed,
Questo è una caratteristica. SE realmente serva nei giochi, ovviamente. Altrimenti è altro silicio sprecato.
Quote:
infine, vuoi perché stiamo parlando di un parco giochi ottimizzato per nVidia, mentre sappiamo benissimo che i giochi a venire privilegeranno l'architettura AMD, nonostante c'è chi si industria a dimostrare che siccome nel passato non è avvenuto, non avverrà mai (spiegazione che non mi convince nemmeno un po'). Già con giochi non confezionati per l'RT attorno ad nVidia si inizieranno a vedere i primi vantaggi per AMD.
E allora meglio rimandare gli acquisti a tempi migliori. Nel frattempo altri ne godranno già adesso.
Quote:
Ad nVidia rimane un solo vantaggio, il DLSS, con tutti i pro e contro,
Hai detto niente: col DLSS abilitato e in RT perfino una 3600 riesce a fare di gran lunga meglio rispetto all 6900...
Quote:
e bisognerà vedere quale sarà l'efficacia della versione equivalente AMD quando uscirà,
Sì, aspetta pure, che intanto gli altri giocano già...
Quote:
ma per il resto questo test non dimostra assolutamente alcuna superiorità di nVidia e,
Questo è il film che ti sei fatto tu.
Quote:
nel futuro prossimo, è probabile vedremo AMD ottenere vantaggi nel confronto.
"Del diman non v'è certezza"...
Quote:
Altro che "era meglio non implementassero l'RT".
Al momento è proprio così. E visto che io vivo nella realtà attuale, e non nel futuro incerto, direi che non ci sia altro da aggiungere.
Quote:
Originariamente inviato da HwWizzard Guarda i messaggi
Che poi ci si aspettasse che la 6900XT andasse qualcosa in più, beh questo si, così è solo una truffa alla pari della 3090
Ma anche no: la 3090 almeno ha motivo di esistere, visto che offre dei consistenti vantaggi. La 6900 è del tutto inutile, visto quello scarso incremento prestazionale che offre a un prezzo di grand lunga superiore.

La 6900 è la miglior pubblicità che AMD abbia potuto fare alla 3080 di nVidia...
Quote:
dove i fanatici del bench e del star lì a guardare e fare confronti real time del riflesso della pozzanghera mentre giocano
Che i ciechi fanatici AMD non riescano a cogliere le differenze è a dir poco lapalissiano: non ci riescono proprio per definizione...
Quote:
almeno hanno la mezza scusa dei 24Gb.
Peccato che non abbiano la più pallida idea di come e in quali ambiti questi 24Gb vengano sfruttati.
E lo stesso vale anche per i 16GB (non Gb) delle schede AMD, immagino...
Quote:
Originariamente inviato da HwWizzard Guarda i messaggi
Mi sembrava che ci siamo chiariti un bel po di tempo fa sull’ignorarsi e non quotare i reciproci post.
Io non ho MAI detto nulla del genere: link e quote, please, perché stai mistificando.
Quote:
Quindi attieniti a tale principio e non farmi perdere tempo a dover leggere i tuoi deliri su cose che ho scritto io.
Esiste un comodo tool: l'ignore list. Aggiungimi, e vivi felice.
Quote:
Che qui se c’è qualcosa fuori dall’universo è solo tutto ciò che scrivi.
Certo, certo. E allora non sprecare tempo con me, no?
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys

Ultima modifica di cdimauro : 09-12-2020 alle 06:30.
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 09-12-2020, 12:51   #358
cronos1990
Senior Member
 
L'Avatar di cronos1990
 
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 26504
Riprendo solo un paio di passaggi.
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Anch'io sono stato sospeso, e dopo avrei anche potuto scriverti, ma ho preferito tornare a lavorare a ciò che stavo facendo da un paio di mesi ormai, completare il tutto (beh, l'altro ieri ho pure potuto sostenuto l'esame A2.1 di tedesco ), e rispondere soltanto adesso che ho finalmente un po' di tempo (prima di ributtarmi sulla successiva, e spero ultima, versione della mia architettura ).
Vai tranquillo, ci mancherebbe. Buona fortuna per il tuo lavoro
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
A mio avviso l'attuale implementazione RT di AMD rimane comunque troppo immatura. Avrebbe fatto meglio a concentrarsi sulla sola grafica raster, e proporre GPU con queste nuove tecnologie soltanto quando sarebbe stata realmente competitiva. Idem per il futuro concorrente di DLSS.

Inutile sprecare silicio (che i clienti pagano lo stesso) su queste cose: o lo toglievano per abbassare ulteriormente i prezzi, o lo usavano per potenziare la grafica raster. Almeno avrebbero avuto un chiaro elemento di forza per vendere le loro GPU.
I test sulla 6900XT sembrano confermare tale situazione. In RT è peggio anche della 2080Ti.
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non si tratta di lungimiranza: se non hai risorse non ti rimane che buttarti sull'open, sfruttando il supporto di altri partner.

Persino IBM, che di soldi ne ha molti di più, ha fatto lo stesso coi suoi POWER. Qui anche perché ormai lei sta diventando sempre più una software company, e l'hardware non è il suo core-business già da tempo. Per cui ha preferito scaricare così i costi di sviluppo dell'hardware (che deve comunque mantenere, visto che ha ancora tanti clienti che usano i suoi sistemi POWER).
Si, il termine "lungimirante" l'ho usato in maniera "relativa", nel senso dell'effetto finale.

AMD è come Nvidia: un'azienda che punta all'utile. Sceglie determinate strategie perchè le ritiene profittevoli o per situazioni di causa di forza maggiore.
Io parto sempre dal presupposto che l'interesse per il cliente, o un ipotetico bene superiore dell'umanità, non esistono (o sono secondari). Sotto questo punto di vista non reputo alcuna azienda "lungimirante".

Però è chiaro che l'uso di tecnologie open lato "cliente" comporta dei vantaggi di scelta non indifferenti. Nonchè la possibilità di veder implementate certe tecnologie ovunque. Vedi all'opposto il DLSS: è usabile solo sulle schede Nvidia. Io ne sento parlare da anni, vorrei anche provarlo ma con una 5700XT mi risulta alquanto... laborioso riuscirci

Chiaramente ogni approccio ha poi vantaggi e svantaggi.
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Il problema con AMD è che bisogna sempre aspettare per poter godere delle innovazioni.

Le nuove schede sono certamente competitive per la grafica raster, che però è ormai vecchiume, visto che i tempi sono maturi per il ray tracing.
Sul RT sono messe decisamente male, soprattutto mancando di tecnologie come il DLSS (che consente di raddoppiare o anche triplicare le prestazioni mantenendo una buona qualità delle scene).
Non vedo come potrebbero migliorare coi soli driver. In futuro. E questo è un altro mantra che si legge da sempre quando si parla di AMD: miglioreranno più avanti, col tempo, coi driver migliori. Ma se la scheda la compro adesso, la vorrei ben sfruttare ora, no? I soldi li ho tirati fuori ora. Altrimenti l'avrei comprata dopo.
Premesso che non ho la sfera di cristallo: al netto dei problemi Intel, lato CPU ha iniziato un percorso con la prima declinazione degli Zen che ora hanno portato con i modelli usciti da poco a surclassare Intel.
Però questo è un processo che ha richiesto anni e ben 4 generazioni di architettura Zen. E giustamente: non sono cose che inventi dall'oggi al domani, sebbene molte persone sono portate a pensarlo.

Questo ovviamente non vuol dire nulla, ma come già detto sono sinceramente rimasto stupito che in Raster le nuove GPU di fatto pareggiano le pari schede Nvidia, oltretutto con consumi nettamente inferiori. I driver permetteranno di limare ancor di più le prestazioni a mio avviso nei prossimi mesi, ma le carte AMD se le deve giocare sugli aggiornamenti futuri dell'architettura.
Per lo stesso motivo della CPU: non si può pretendere di annullare un gap importante in un settore come quello della microelettronica. Quando ho tirato fuori dalla scatola il 3700X l'anno scorso tenevo tra le mani materialmente un pezzo di silicio, ma nei fatti un concentrato di tecnologia, know-how e miniaturizzazione che per essere creato richiede tantissimo tempo e risorse.

Quindi sono colpito che in Raster abbiano già raggiunto i rivali; e oltretutto Nvidia a differenza di Intel con le CPU non ha compiuto passi realmente falsi o avuto problemi piuttosto gravi.
Se avessero ottenuto lo stesso risultato con il Ray-Tracing avrei pensato di avere a che fare con degli sciamani Certo, ci speravo per un discorso di concorrenza. Così come pensavo che pur rimanendo dietro non fosse così indietro (perchè parliamo di un 33% di prestazioni in meno, malcontate).

Secondo me i prossimi due anni saranno fondamentali per AMD, anche considerando che il RT a mio avviso prenderà SI piede, ma non in maniera massiccia nel prossimo anno.

[ EDIT ]
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non si può certo far torto a nVidia che ha puntato sull'innovazione e se l'è voluta tenere stretta.
Ah, chiaramente no.

Sinceramente mi fanno ridere quelli che si lamentano delle pratiche "scorrette" di Nvidia (che di sicuro non guarda in faccia a nessuno), ma poi una loro GPU la comprano sempre.
Per carità, fare certe scelte di acquisto in base anche ad aspetti di natura "etica" o similare sono nella facoltà di chiunque, e io non discuto mai gli acquisti degli altri. Ma è anche vero che poi quando vai ad acquistare, per lo meno in questo campo, risulta difficile andare sul competitor sulla carta "buonista" se poi le prestazioni e le possibilità sono quelle che sono.

D'altro canto l'assenza di concorrenza negli ultimi anni si è fatta sentire.

Ultima modifica di cronos1990 : 09-12-2020 alle 13:37.
cronos1990 è offline   Rispondi citando il messaggio o parte di esso
Old 09-12-2020, 16:15   #359
DukeIT
Senior Member
 
Iscritto dal: Dec 2001
Messaggi: 8486
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Io vedo che uno che continua a dare sfogo al suo fanatismo partigiano. Prima avevi accusato nVidia di dare mazzetta, e adesso parli di furbizia.

Questo è un forum di discussione, ognuno dice la sua, e soprattutto non siamo tutti come te che devi difendere la tua marca del cuore (arrivando a questi livelli).
Diciamo che detto da te suona come un complimento, mi sarei preoccupato se mi avessi detto il contrario. É un po' il bue che dice cornuto all'asino.
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Ah, no? Ma quali recensioni hai letto? E' arrivata giusto ieri anche l'ultima sulla neonata 6900, e la situazione non rimane che deprimente, visto che sta leggermente sotto una 2080Ti in RT (senza il DLSS. Sennò c'è il baratro)...
Questo thread parla di 6800XT e 6800, capisco che una persona imparziale come te non scrive certo per favorire una parte o l'altra, ma allora mi chiedo cosa c'entri la 6900XT, visto che non si sta parlando di AMD vs nVidia, ma di 6800XT e 6800 vs 3080 e 3070.
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Mi spiace per te, ma la situazione è quella descritta sopra.
Ecco, il punto che hai quotato, era il fulcro del mio thread e, pur avendolo spezzettato in mille quote, lo hai glissato.

Stiamo discutendo una prova comparativa di questo sito, non di altri.
In base al test di questa testata che trovo molto più imparziale di molte altre, io rilevo che:
Quote:
nel doppio confronto tra 3080 e 3070, contro 6800XT e 6800, vi è un sostanziale pareggio.
La 6800XT pareggia le prestazioni con la 3080, ma poi perde in RT.
La 6800 vince contro la 3070 e poi pareggia in RT.
Ora capisco che ti spiaccia per me, ma spiegami, dall'alto della tua imparzialità, cosa c'è di sbagliato in questa sintesi.
__________________
Intel i7-4770; Arctic i30 CO; ASRock Fatal1ty H87; Corsair DDR3 1600 2*8GB; Gigabyte WindForce 780TI; Corsair AX760; Dell U2410; TP-Link Archer D5
DukeIT è offline   Rispondi citando il messaggio o parte di esso
Old 10-12-2020, 06:11   #360
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Anch'io rispondo soltanto ad alcuni punti.
Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
AMD è come Nvidia: un'azienda che punta all'utile. Sceglie determinate strategie perchè le ritiene profittevoli o per situazioni di causa di forza maggiore.
Io parto sempre dal presupposto che l'interesse per il cliente, o un ipotetico bene superiore dell'umanità, non esistono (o sono secondari). Sotto questo punto di vista non reputo alcuna azienda "lungimirante".

Però è chiaro che l'uso di tecnologie open lato "cliente" comporta dei vantaggi di scelta non indifferenti. Nonchè la possibilità di veder implementate certe tecnologie ovunque. Vedi all'opposto il DLSS: è usabile solo sulle schede Nvidia. Io ne sento parlare da anni, vorrei anche provarlo ma con una 5700XT mi risulta alquanto... laborioso riuscirci
Non potresti farlo perché non hai i tensor core che accelerano questo tipo di operazioni.

Ed è anche il motivo per cui le soluzioni sono chiuse/proprietarie: perché è la prima a proporle, e dunque se le tiene per sé, sfruttandole al massimo per il proprio tornaconto.

Sì, con gli shader si potrà emulare qualcosa del genere, ma le prestazioni e/o la qualità non sarà la stessa.
Quote:
Chiaramente ogni approccio ha poi vantaggi e svantaggi.
Premesso che non ho la sfera di cristallo: al netto dei problemi Intel, lato CPU ha iniziato un percorso con la prima declinazione degli Zen che ora hanno portato con i modelli usciti da poco a surclassare Intel.
Però questo è un processo che ha richiesto anni e ben 4 generazioni di architettura Zen. E giustamente: non sono cose che inventi dall'oggi al domani, sebbene molte persone sono portate a pensarlo.
L'unico motivo per cui AMD è tornata competitiva a livello prestazionale e di consumi è perché Intel ha avuto problemi coi suoi processi produttivi.

E' innegabile che, almeno lato prezzi / hardware, avrebbe certamente smosso le acque a favore dei consumatori, ma da questo punto di vista avrebbe potuto fare di più se Intel non avesse avuto i suddetti problemi (perché avrebbe dovuto abbassare ancora di più i prezzi, in quanto la competizione per AMD sarebbe stata molto più forte).
Quote:
Quindi sono colpito che in Raster abbiano già raggiunto i rivali; e oltretutto Nvidia a differenza di Intel con le CPU non ha compiuto passi realmente falsi o avuto problemi piuttosto gravi.
Beh, i problemi di nVidia col processo produttivo di Samsung sono evidenti, anche se certamente non ai livelli di quelli che ha Intel da 5 anni a questa parte...
Quote:
Secondo me i prossimi due anni saranno fondamentali per AMD, anche considerando che il RT a mio avviso prenderà SI piede, ma non in maniera massiccia nel prossimo anno.
Deve per forza proporre GPU competitive in RT, perché nVidia continuerà a potenziare ulteriormente la sua offerta quando avrà anche lei a disposizione un processo produttivo migliore.

E ormai è chiaro che dall'RT non si torna indietro. Tutt'altro, visto le console lo sdoganeranno alla massa.
Quote:
Originariamente inviato da DukeIT Guarda i messaggi
Diciamo che detto da te suona come un complimento, mi sarei preoccupato se mi avessi detto il contrario. É un po' il bue che dice cornuto all'asino.
Non cercare di cambiare le carte in tavola: io non mi sono mai sognato di diffamare un'azienda che mi sta antipatica (lato mio, poi, non ce ne sono: compro quello che mi serve, in base alle mie esigenze. Fine della storia) soltanto per favorire quella del cuore, come hai fatto tu.
Quote:
Questo thread parla di 6800XT e 6800, capisco che una persona imparziale come te non scrive certo per favorire una parte o l'altra, ma allora mi chiedo cosa c'entri la 6900XT, visto che non si sta parlando di AMD vs nVidia, ma di 6800XT e 6800 vs 3080 e 3070.

Ecco, il punto che hai quotato, era il fulcro del mio thread e, pur avendolo spezzettato in mille quote, lo hai glissato.

Stiamo discutendo una prova comparativa di questo sito, non di altri.
In base al test di questa testata che trovo molto più imparziale di molte altre, io rilevo che:

Ora capisco che ti spiaccia per me, ma spiegami, dall'alto della tua imparzialità, cosa c'è di sbagliato in questa sintesi.
Questa recensione è viziata, com'è stato riportato in quella della nuova 6900, e che dovresti aver letto anche tu, visto che hai pure commentato il thread.

Dovresti aver letto anche il mio commento in merito.

E aggiungiamo un'altra chicca, sempre dalla nuova recensione:
"In DIRT 5 avevamo apprezzato risultati pessimi per le proposte Nvidia e finalmente tale situazione è stata riportata alla normalità. Questo perché nei precedenti test testavamo una versione del gioco che AMD e Codemasters ci avevano messo a disposizione per testare anticipatamente il ray tracing. Evidentemente quella versione del gioco consentiva di apprezzare le prestazioni con il ray tracing con le schede AMD, penalizzando però le proposte GeForce. Di conseguenza siamo tornati a una versione stabile del titolo ritestando tutte le schede video, in modo da avere il quadro attuale."

roba che se l'avesse fatta nVidia avreste sgretolato le pareti con la forza delle vostre urla.

Inoltre:
"Abbiamo anche ravvisato un incremento prestazionale con gli ultimi driver delle schede Nvidia con Doom Eternal, e quindi abbiamo ritestato tutte le GPU Nvidia."

Quindi la nuova recensione è il punto di riferimento per i test e i dati, e la vecchia è chiaramente da mettere da parte. Peraltro la nuova ha tutte le vecchie schede testate, più quella nuova: quindi è ancora più completa.

Infine quello di volersi attaccare soltanto a questa recensione di HWUpgrade, peraltro viziata come riportato dalla stessa redazione, volendo di proposito ignorare le altre di tante altrettanto prestigiose "riviste" internazionali, non fa che dimostrare ulteriormente il tuo cieco fanatismo, perché vuoi vedere solo quello che ti fa comodo.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


In Photoshop arriva l'IA di nuova generazione In Photoshop arriva l'IA di nuova generazione
Recensione realme 12+: sfida la fascia media con un design unico e un display luminosissimo Recensione realme 12+: sfida la fascia media con...
OnePlus Pad Go: un tablet economico perfetto per l'intrattenimento. La recensione OnePlus Pad Go: un tablet economico perfetto per...
Per Huawei l’IA è una questione di storage. Presentate soluzioni dedicate e un SSD da 128 TB Per Huawei l’IA è una questione di storag...
Recensione Google Pixel Tablet: in ritardo ma un ottimo primo passo! Recensione Google Pixel Tablet: in ritardo ma un...
Assassin's Creed Shadows è uffici...
Tomb Raider: ufficiale lo show TV di Ama...
Intel Thunderbolt Share: connettere e us...
Ghost of Tsushima per PC: il multiplayer...
OPPO Reno11 F 5G: i punti di forza di un...
Windows 11 su Nintendo Switch? Possibile...
Hisense conferma la sua ascesa nel merca...
Sony Xperia 1 VI ufficiale, con display ...
NAVEE porta in Italia i monopattini S40 ...
ROG Tessen: il controller pieghevole di ...
Google sta portando ChromeOS sui disposi...
Google I/O 2024: il protagonista è...
iOS: arriva l'emulatore dell'originale P...
OpenAI potrebbe consentire contenuti per...
Le nuovissime cuffie over-ear Sony ULT W...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 18:50.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www3v
1