View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Pachanga
16-02-2015, 23:35
Is AMD’s R9 390X Limited to 4GB of Memory ? Let’s Find Out
(http://wccftech.com/fiji-xt-limited-4gb-memory/)
Articolo interessante :)
Si,davvero...;)
Ma,se ho capito bene,per le 390 ci dovremo accontentare per l'eternita' di 4 giga di Vram,mentre per le 390X questa limitazione dovrebbe essere solo temporanea,per cui qualcuno che non ha necessita' immediata di cambiare vga,potrebbe attendere ancora qualche tempo per acquistare la versione con 8 giga onboard...
Questo fatto,unito alla difficolta' per alcuni di posizionare correttamente l'impianto ibrido-liquido potrebbe frenare parzialmente le vendite,almeno nell'immediato...
Ma si sa,sono solo supposizioni,eh...?!:D
Da noi saranno 600€ e 400€... a me sembrano addirittura altini, considerando gli "standard" amd... quindi probabilmente ci azzeccano... :D
A me andrebbero bene,una bella 390 a 399,in questo preciso momento,la acquisterei quasi a scatola chiusa...:D
HadesSaint
17-02-2015, 08:05
Ma 4Gb+ servono solo alla clientela per i rendering professionali di alta rappresentazione?
mircocatta
17-02-2015, 08:11
Ma 4Gb+ servono solo alla clientela per i rendering professionali di alta rappresentazione?
ci sono titoli mal utilizzati che superano 4gb di vram (watch dogs, assassin creed unity, e qualcun'altro)
Anche le 7970 appena uscite erano a 550€ essendo che le 580 custom costavano ancora un rene...si dovra riposizionare tutta la gamma verde prima....
HadesSaint
17-02-2015, 08:25
ci sono titoli mal utilizzati che superano 4gb di vram (watch dogs, assassin creed unity, e qualcun'altro)
addirittura?? ero rimasto che al massimo si sfruttava fino a 3GB :(
Spero presentino almeno le 360/360x al Games Developers Conference ai primi di marzo. Qualcuno ha qualche news al riguardo?
Imho le uniche novita "vere" saranno le 390, il resto sara un rebrand piu o meno...la 370x con il full tonga da tenere d occhio....la nuova architettura full si vedra sui 16 nm ....
Imho le uniche novita "vere" saranno le 390, il resto sara un rebrand piu o meno...la 370x con il full tonga da tenere d occhio....la nuova architettura full si vedra sui 16 nm ....
Vero, ma dal momento che hanno messo la fascia bassa come 1Q di quest'anno, se non riescono a farle uscire a breve (e la Convention sembra il luogo ideale), la roadmap slitterà ulteriormente.
E non è la cosa migliore per AMD
Di solito buttano sul mercato le top e poi a scalare il resto....vedremo...
francisco9751
17-02-2015, 12:25
sui prezzi in dollari,bisogna ricordare che sono ecluse l3 tasse..
Inviato dal mio LG-D802 utilizzando Tapatalk
Il nabbo di turno
17-02-2015, 13:00
Di solito buttano sul mercato le top e poi a scalare il resto....vedremo...
Una mossa del genere la fai quando hai molte scorte da finire di prodotti più anziani, ma ormai tahiti e pitcairn hanno finito(finalmente).
Quindi possono dare il via alla produzione di chip più nuovi basati su una architettura più moderna(tonga e trinidad).
jotaro75
17-02-2015, 13:18
sui prezzi in dollari,bisogna ricordare che sono ecluse l3 tasse..
Inviato dal mio LG-D802 utilizzando Tapatalk
è vero..e poi consideriamo che a differenza di come era fino a un anno fa, ora il cambio col dollaro è molto meno favorevole.
Diciamo che se 599$ fosse il vero prezzo di listino, mi auguro che in euro non superi i 650 comprendendo anche le tasse
The Witcher
17-02-2015, 13:57
Scusate, non mi sono molto informato al momento riguardo le schede amd.
Che notizie sono uscite a riguardo?
Mi interessa capire che scheda prendere per uno che vuole giocare a 60fps fissi su un full hd.
Grazie
Basta na qualsiasi 290 uscita dal 2013....senza scomodae le nuove che hanno in mente il 4k manco il qhd :asd:
tutti che giustamente aspettate le top gamma, ma io una 370x ovvero una 285 full shader, bus 384bit e 3gb vram con gcn almeno 1.2 a non più di 200€ (spero!) e prestazioni nei paraggi di una 780 la aspetto di più :O
Io avrei preso una 285 non fosse stato per i due gb...aspettavo le 4 o una eventuale 285x .... Vediamo se sara effettivamente questa 370x anche se la 295m è a 256bit e potrebbe ripetersi anche sulla versione desktop...
mikael84
17-02-2015, 15:01
tutti che giustamente aspettate le top gamma, ma io una 370x ovvero una 285 full shader, bus 384bit e 3gb vram con gcn almeno 1.2 a non più di 200€ (spero!) e prestazioni nei paraggi di una 780 la aspetto di più :O
Questa scheda mi sembra troppo vicina alla scheda superiore a livello di prestazioni se utilizza la compressione rops come tonga.
Tonga utilizza l'architettura della 290, quindi con tutti gli ACE e Rasterizzatori abilitati ma con un bus a 384bit compresso è come se avesse una banda intera il 45% più veloce, quindi circa 417gb di banda normale.
A lato pratico perderebbe solo 512 ST che recupererebbe con un clock più alto.
Su un bus 256bit starebbe sui 260gb di banda e quindi in linea di massima andrebbe di pari passo con una 280x ma più forte sulle rops
Nuovo acer 27" freesync qhd 144hz (http://en.ctimes.com.tw/DispProduct.asp?O=HJZ2H9QBLTOSAA00PX)
The Witcher
17-02-2015, 15:36
Basta na qualsiasi 290 uscita dal 2013....senza scomodae le nuove che hanno in mente il 4k manco il qhd :asd:
sì ok ma a parer mio un po alta con i consumi.
Aspetto le nuove e vediamo che tirano fuori per uno come me che gioca ancora con un full hd.
amon.akira
17-02-2015, 15:56
sì ok ma a parer mio un po alta con i consumi.
Aspetto le nuove e vediamo che tirano fuori per uno come me che gioca ancora con un full hd.
be io aspetto le 390 per il fullhd 60fps minimi, con una 290oc evil within scende a volte sotto i 50, lords of fallen idem, crysis 3 pure etc... insomma la potenza non è mai troppa se si vogliono i 60fissi.
Mah non sto li sempre a guardare al contatore ma evil within lo vedo sempre a 59,9... Poi al solito, con qualche settaggio giusto con quasi nulla di perdita visiva si ritorna a 60 lo fanno tutti da sempre, anche su 970 980 etc etc i cosiddetti killer setting...per i consumi a default non vedo nulla di scandaloso, se non lo erano le titan e 780ti che stanno a pochi watt di differenza... Puoi sempre prendere una 980 e avere un roi sulla bolletta tra quattro anni :asd:
Nuovo acer 27" freesync qhd 144hz (http://en.ctimes.com.tw/DispProduct.asp?O=HJZ2H9QBLTOSAA00PX)
Classico e banale TN o ips ?
Se IPS e' decisamente interssante :)
Pachanga
17-02-2015, 16:36
be io aspetto le 390 per il fullhd 60fps minimi, con una 290oc evil within scende a volte sotto i 50, lords of fallen idem, crysis 3 pure etc... insomma la potenza non è mai troppa se si vogliono i 60fissi.
In linea puramente teorica e" lo stesso identico discorso che faccio anch'io...;)
Però poi,all"atto pratico,giochi mal ottimizzati,da Unity a Watch Dogs per arrivare a Lords of the Fallen stesso,fanno enorme fatica a girare a 60 fps in full hd,anche con le vga top di gamma attuali,a volte facendo anche sacrifici sul piano dei setting...
Insomma,talvolta neppure la potenza bruta e' sufficiente allo scopo.
Ma noi siamo appassionati ed acquistiamo un po' a prescindere...
O almeno io sono così...:D
DakmorNoland
17-02-2015, 16:47
In linea puramente teorica e" lo stesso identico discorso che faccio anch'io...;)
Però poi,all"atto pratico,giochi mal ottimizzati,da Unity a Watch Dogs per arrivare a Lords of the Fallen stesso,fanno enorme fatica a girare a 60 fps in full hd,anche con le vga top di gamma attuali,a volte facendo anche sacrifici sul piano dei setting...
Insomma,talvolta neppure la potenza bruta e' sufficiente allo scopo.
Ma noi siamo appassionati ed acquistiamo un po' a prescindere...
O almeno io sono così...:D
Io ero così, poi scopri che ci sono cose più importanti nella vita. :p E tra l'altro negli ultimi anni a livello gaming, cambiare processore non ha più senso, col mio i5 750@3.6Ghz ho le stesse prestazioni di un i5 di ultima generazione nei giochi. Ho fatto dei test col mio amico che ha un i7 4xxx e anche in Unigine, differenze davvero minime con stessa scheda video...
Alla fine a sto giro la parte mobo, procio, ecc. non la cambio e la tengo almeno altri 2-3 anni... Ho cambiato solo la VGA, perchè la 5850 ormai era un pò al limite, anche se la maggior parte dei giochi li faceva ancora girare tranquillamente.
Peccato che AMD abbia tardato così tanto, se no mi sarei sicuramente preso una rossa! :sofico:
amon.akira
17-02-2015, 17:01
In linea puramente teorica e" lo stesso identico discorso che faccio anch'io...;)
Però poi,all"atto pratico,giochi mal ottimizzati,da Unity a Watch Dogs per arrivare a Lords of the Fallen stesso,fanno enorme fatica a girare a 60 fps in full hd,anche con le vga top di gamma attuali,a volte facendo anche sacrifici sul piano dei setting...
Insomma,talvolta neppure la potenza bruta e' sufficiente allo scopo.
Ma noi siamo appassionati ed acquistiamo un po' a prescindere...
O almeno io sono così...:D
ovviamente se i giochi fossero ottimizzati a dovere per come sono ora basterebbero le nostre 290 a 1080p 60fissi, ma siccome la realtà non è cosi ci serve forza bruta ed io aspetto le 390 ancora per i 1080p, poi c'è chi si accontenta ma era solo per dire che la potenza è tutt altro che sprecata e di solito non rispondo mai a questi discorsi ma qui si iniziava a parlare addirittura di 4k, alcuni sembrano agenti di marketing :P
Salve ragazzi, voglio sostituire la mia 6990. Dato che non ho più tempo di giocare come prima ( e sinceramente nemmeno così tanta voglia, sto passando un periodo molto brutto ) non voglio spendere più di 200 €. Sia chiaro che avrei tranquillamente preso una 290 liscia ( anche se sforo con il budget ), il problema è che il mio monitor ha solo ingresso vga mentre la 290 ha solo uscite digitali quindi non è collegabile al mio monitor. Cosa mi consigliate di comprare? E' meglio che aspetto le nuove schede video ( che non so tra quanto escono ) o mi lancio su queste? grazie :)
Salve ragazzi, voglio sostituire la mia 6990. Dato che non ho più tempo di giocare come prima ( e sinceramente nemmeno così tanta voglia, sto passando un periodo molto brutto ) non voglio spendere più di 200 €. Sia chiaro che avrei tranquillamente preso una 290 liscia ( anche se sforo con il budget ), il problema è che il mio monitor ha solo ingresso vga mentre la 290 ha solo uscite digitali quindi non è collegabile al mio monitor. Cosa mi consigliate di comprare? E' meglio che aspetto le nuove schede video ( che non so tra quanto escono ) o mi lancio su queste? grazie :)
Se vuoi un consiglio spassionato in primis cambia monitor....
Con i coreani IPS come il mio in firma con 250 euro te la cavi e son stupendi.
Poi vai sul mercatino e ciapati una 670/680 con la quale giocavo egregiamente sempre col monitor in firma.....non con tutto al massimo ma poco ci manca.
Se invece riesci a raccimolare qualche soldino in piu' prima ciapati il monitor come suggerito e aspetta le nuove in uscita...
Meta' Marzo dovrebbero presentarle .....
Il nabbo di turno
17-02-2015, 17:30
Salve ragazzi, voglio sostituire la mia 6990. Dato che non ho più tempo di giocare come prima ( e sinceramente nemmeno così tanta voglia, sto passando un periodo molto brutto ) non voglio spendere più di 200 €. Sia chiaro che avrei tranquillamente preso una 290 liscia ( anche se sforo con il budget ), il problema è che il mio monitor ha solo ingresso vga mentre la 290 ha solo uscite digitali quindi non è collegabile al mio monitor. Cosa mi consigliate di comprare? E' meglio che aspetto le nuove schede video ( che non so tra quanto escono ) o mi lancio su queste? grazie :)
Più della r9 285 non prendi per quella cifra.
Se vuoi un consiglio spassionato in primis cambia monitor....
Con i coreani IPS come il mio in firma con 250 euro te la cavi e son stupendi.
Poi vai sul mercatino e ciapati una 670/680 con la quale giocavo egregiamente sempre col monitor in firma.....non con tutto al massimo ma poco ci manca.
Se invece riesci a raccimolare qualche soldino in piu' prima ciapati il monitor come suggerito e aspetta le nuove in uscita...
Meta' Marzo dovrebbero presentarle .....
Il monitor non vorrei cambiarlo, non mi ha mai dato problemi. L'unica limitazione è questa dell'ingresso analogico :(
Più della r9 285 non prendi per quella cifra.
La 285 non la prenderei mai per via dei 2gb di ram, avrei pensato più ad una 280x o comunque non so se valga la pena aspettere le nuove uscite AMD, anche se non so quanto dovrei aspettare.
Il nabbo di turno
17-02-2015, 17:35
Se vuoi un consiglio spassionato in primis cambia monitor....
Con i coreani IPS come il mio in firma con 250 euro te la cavi e son stupendi.
Poi vai sul mercatino e ciapati una 670/680 con la quale giocavo egregiamente sempre col monitor in firma.....non con tutto al massimo ma poco ci manca.
Se invece riesci a raccimolare qualche soldino in piu' prima ciapati il monitor come suggerito e aspetta le nuove in uscita...
Meta' Marzo dovrebbero presentarle .....
Più che 670 e 680(che si dovrebbero trovare a 150 euro) aggiungi 50 euro e prendi la 960 o la 285, che consumano meno, e sono più nuove a livello di architettura.
francisco9751
17-02-2015, 17:37
la 960 proprio no,al massimo prenditi una 280x o se vai sul usato, puoi trovare anche delle 290 a poco più di 200
Inviato dal mio LG-D802 utilizzando Tapatalk
Il nabbo di turno
17-02-2015, 17:39
La 280x per potenza bruta è ancora ottima,ma monta un chip che ha 3 anni, e si vedono tutti per certe mancanze rispetto a cgn 1.2.
La 280x per potenza bruta è ancora ottima,ma monta un chip che ha 3 anni, e si vedono tutti per certe mancanze rispetto a cgn 1.2.
A cosa ti riferisci? ribadisco che non posso prendere una 290 perchè il mio monitor ha solo connessione analogica, altrimenti avrei preso la 290 senza dubbio.
A cosa ti riferisci? ribadisco che non posso prendere una 290 perchè il mio monitor ha solo connessione analogica, altrimenti avrei preso la 290 senza dubbio.
Anche se non ti ha mai dato problemi il tuo monitor e' obsoleto...e tutte le schede nuove e non che ti potrebbero interessare han gli ingressi hdmi/dvi-d etcetc ...
Quindi o ti fossilizzi sul paleolitico con quel monitor e sei costretto a predere schede mooooolto datate oppure in primis ti prendi,come da me suggerito un bel IPS coreano e li trovi anche usati a 150/200 euro qua sul mercatino, dopo prendi una scheda anche dell'anno scorso che faccia girare i giochi in maniera decente levando qualche filtro che tanto a 2560x1440 non servono.
Queste sono le alternative purtroppo....
Aspetta risparmia soldini che dopo non te ne penti :) ciapi prima il monitor e dopo la scheda ;)
Il nabbo di turno
17-02-2015, 17:50
A cosa ti riferisci? ribadisco che non posso prendere una 290 perchè il mio monitor ha solo connessione analogica, altrimenti avrei preso la 290 senza dubbio.
Niente trueaudio, niente vsr, vecchio mc, e qualche altra features tipo fluid video.
Se non ti interessano allora va benissimo la 280x, se no puoi aspettare la nuova serie.
Anche se non ti ha mai dato problemi il tuo monitor e' obsoleto...e tutte le schede nuove e non che ti potrebbero interessare han gli ingressi hdmi/dvi-d etcetc ...
Quindi o ti fossilizzi sul paleolitico con quel monitor e sei costretto a predere schede mooooolto datate oppure in primis ti prendi,come da me suggerito un bel IPS coreano e li trovi anche usati a 150/200 euro qua sul mercatino, dopo prendi una scheda anche dell'anno scorso che faccia girare i giochi in maniera decente levando qualche filtro che tanto a 2560x1440 non servono.
Queste sono le alternative purtroppo....
Aspetta risparmia soldini che dopo non te ne penti :)
Sinceramente non vorrei muovermi come risoluzione dal full HD :D
mikael84
17-02-2015, 17:59
Sinceramente non vorrei muovermi come risoluzione dal full HD :D
La 280x come la 7970 va benissimo in analogico e rinunciando a qualche feature hai una scheda valida per un 22 ed una buona memoria.;)
damerin0
17-02-2015, 18:01
mi pare che state andando OT in maniera paurosa!io voglio vedere solo post dove si parla delle nuove VGA,soprattutto riguardanti la data d'uscita!
Il nabbo di turno
17-02-2015, 18:04
mi pare che state andando OT in maniera paurosa!io voglio vedere solo post dove si parla delle nuove VGA,soprattutto riguardanti la data d'uscita!
Parliamo pur sempre di schede video eh, non ci vedo nulla di male, inoltre stava chiedendo se valesse la pena di aspettarle queste NUOVE VGA.
Radeon80
17-02-2015, 18:35
Prendere adesso una R9 270x oppure 280x visto a breve dovrebbero uscire i nuovo modelli con i prezzi attuali è un po' un azzardo.
Secondo me la futura R9 370x con Tonga XT e 4 gb di ram sarà meglio rispetto all'attuale Tahiti visto i miglioramenti introdotti da Tonga che portano in alcuni giochi a parità di SP fino al 20-25%.
Spero che si diano una mossa a fare uscire Trinitad e Tonga non solo per rinnovare la fascia media,ma anche per aiutare la diffusione dei monitor free-sync.
The Witcher
17-02-2015, 18:54
Niente trueaudio, niente vsr, vecchio mc, e qualche altra features tipo fluid video.
in cosa consiste tutto ciò? :?
Grazie
Il nabbo di turno
17-02-2015, 19:26
in cosa consiste tutto ciò? :?
Grazie
Il vsr è la controparte amd del dsr di nvidia, ti consente di renderizzare i giochi in 4k o 2560x1440 su un monitor full hd, trueaudio è un chip integrato nelle vga amd da cgn 1.1(dalla 260x e 290 in su), che migliora l'audio e toglie(quel poco) carico dalla cpu.
Il nuovo mc invece inserisce la nuova compressione dei colori(stile nvidia).
Prendere adesso una R9 270x oppure 280x visto a breve dovrebbero uscire i nuovo modelli con i prezzi attuali è un po' un azzardo.
Il problema è che questo "a breve" non ha nemmeno un periodo preciso.
Il nabbo di turno
17-02-2015, 21:31
Il problema è che questo "a breve" non ha nemmeno un periodo preciso.
Il gdc si sta avvicinando, e probabilmente qualcosa lo fanno saltar fuori ;).
The Witcher
17-02-2015, 22:17
Il vsr è la controparte amd del dsr di nvidia, ti consente di renderizzare i giochi in 4k o 2560x1440 su un monitor full hd, trueaudio è un chip integrato nelle vga amd da cgn 1.1(dalla 260x e 290 in su), che migliora l'audio e toglie(quel poco) carico dalla cpu.
Il nuovo mc invece inserisce la nuova compressione dei colori(stile nvidia).
fammi indovinare. la mia 280x non ha niente di tutto ciò lol
milanok82
17-02-2015, 23:24
Mah non sto li sempre a guardare al contatore ma evil within lo vedo sempre a 59,9... Poi al solito, con qualche settaggio giusto con quasi nulla di perdita visiva si ritorna a 60 lo fanno tutti da sempre, anche su 970 980 etc etc i cosiddetti killer setting...per i consumi a default non vedo nulla di scandaloso, se non lo erano le titan e 780ti che stanno a pochi watt di differenza... Puoi sempre prendere una 980 e avere un roi sulla bolletta tra quattro anni :asd:
ma io ho avuto sempre il dubbio di questo valore che mi da l'OSD di MSI.
in molti giochi vedo 59.9 e non 60 ma non riesco a capire il perchè.Infatti mi sono convinto che è normale e che in realtà sono 60 fps.
Pachanga
18-02-2015, 00:25
Io ero così, poi scopri che ci sono cose più importanti nella vita. :p E tra l'altro negli ultimi anni a livello gaming, cambiare processore non ha più senso, col mio i5 750@3.6Ghz ho le stesse prestazioni di un i5 di ultima generazione nei giochi. Ho fatto dei test col mio amico che ha un i7 4xxx e anche in Unigine, differenze davvero minime con stessa scheda video...
Alla fine a sto giro la parte mobo, procio, ecc. non la cambio e la tengo almeno altri 2-3 anni... Ho cambiato solo la VGA, perchè la 5850 ormai era un pò al limite, anche se la maggior parte dei giochi li faceva ancora girare tranquillamente.
Peccato che AMD abbia tardato così tanto, se no mi sarei sicuramente preso una rossa! :sofico:
Che ci siano cose piu' importanti nella vita e' poco ma sicuro...:D
Ma siamo pur sempre appassionati,altrimenti non saremmo qui...:D
Ed in questo ambito ti dico che,passando dall'i5 750 a 4 giga all'i5 4690k a 4.7 giga,in alcuni giochi non e' cambiato niente,ma in altri(free roaming a game racing in primis)qualcosa si...;)
Ed i consumi si son ridotti in maniera notevole...
Certo,il cambio cpu non e' sicuramente indispensabile in full hd e oltre,almeno per la maggior parte dei casi...;)
ovviamente se i giochi fossero ottimizzati a dovere per come sono ora basterebbero le nostre 290 a 1080p 60fissi, ma siccome la realtà non è cosi ci serve forza bruta ed io aspetto le 390 ancora per i 1080p, poi c'è chi si accontenta ma era solo per dire che la potenza è tutt altro che sprecata e di solito non rispondo mai a questi discorsi ma qui si iniziava a parlare addirittura di 4k, alcuni sembrano agenti di marketing :P
:D
jotaro75
18-02-2015, 08:06
Classico e banale TN o ips ?
Se IPS e' decisamente interssante :)
da quel che ho letto dovrebbe essere un TN...che poi io ancora oggi per giocare sinceramente li preferisco...non discuto la miglior fedeltà cromatica ma non è poi così male nemmeno quella dei TN ;)
da quel che ho letto dovrebbe essere un TN...che poi io ancora oggi per giocare sinceramente li preferisco...non discuto la miglior fedeltà cromatica ma non è poi così male nemmeno quella dei TN ;)
Guarda anche io prima era della tua stessa idea ma spendere 600 e passa euro per un monitor TN con tecnologia obsoleta beh ....
Ho provato a mettere fianco a fianco un monitor TN e il mio IPS e la differenza e' palese.
Angolo di visione, i colori....se calibrato come si deve il blu e' blu come il verde e' verde, col TN con tutto che era calibrato a dovere era lontano anni luce.
Poi vuoi mettere 230 euro contro 600 e passa euro avendo anche una resa visiva palesemente migliore?
Ho visto l'acer che tra 30 giorni uscira IPS 144hz con g-sync.......quello sarebbe da prendere a occhi chiusi ma dovro' vendermi un rene per prenderlo azz :doh:
DakmorNoland
18-02-2015, 09:37
Guarda anche io prima era della tua stessa idea ma spendere 600 e passa euro per un monitor TN con tecnologia obsoleta beh ....
Ho provato a mettere fianco a fianco un monitor TN e il mio IPS e la differenza e' palese.
Angolo di visione, i colori....se calibrato come si deve il blu e' blu come il verde e' verde, col TN con tutto che era calibrato a dovere era lontano anni luce.
Poi vuoi mettere 230 euro contro 600 e passa euro avendo anche una resa visiva palesemente migliore?
Ho visto l'acer che tra 30 giorni uscira IPS 144hz con g-sync.......quello sarebbe da prendere a occhi chiusi ma dovro' vendermi un rene per prenderlo azz :doh:
alla fine hai fatto bene, io ogni volta che leggo 144hz e gsync/freesync inizio a ridere e non smetto più.
Il bello è che la gente le compra anche ste robe inutili. :sofico:
mircocatta
18-02-2015, 09:47
alla fine hai fatto bene, io ogni volta che leggo 144hz e gsync/freesync inizio a ridere e non smetto più.
Il bello è che la gente le compra anche ste robe inutili. :sofico:
ancora continui con ste panzanate?
la finiamo di fare disinformazione?
continua pure a spendere centinaia di euro in configurazioni per maxxare il possibile per poi avere thearing che per il 99% delle persone è una cosa inguardabile e obiettivamente inaccettabile vedere, nel 2015
ti fanno schifo questi sistemi?
allora contina ad usare il vsync che introduce lag o che taglia gli fps al di sotto del refresh del monitor (a meno che tu non attivi il triple buffering, che a volte è presente tra le opzioni del gioco ma non funziona, o che è presente nei driver ma solo per open gl, che è presente per directx con programmi esterni ma solo per directx 9)
c'è anche l'opzione finestra senza bordi implementata in alcuni giochi su cui al 50% danno problemi o non vanno, per non parlare del multigpu, oppure non implementati nei giochi in cui si è costretti a software esterni per farli andare senza bordi (sempre se il game è compatibile)
si si, continua pure a preferire ste menate software che tanto piace fare impazzire la gente
MrBrillio
18-02-2015, 09:49
Guarda anche io prima era della tua stessa idea ma spendere 600 e passa euro per un monitor TN con tecnologia obsoleta beh ....
Ho provato a mettere fianco a fianco un monitor TN e il mio IPS e la differenza e' palese.
A prescindere dallo spreco di soldi per un monitor (io sono il primo che mi sono preso lo swift appena uscito eh :stordita: ), non è che gli ultimi pannelli TN siano così male eh.
Quello dell'asus è comunque ottimo, e come resa cromatica non è neanche male rispetto ad un IPS....inoltre obsoleta o no mi pare che in ogni caso i nuovi IPS gsync/freesync che usciranno avranno comunque un tempo di risposta maggiore.
Tornando sull'argomento delle nuove ati, mi trovo esattamente nella stessa situazione passata...2 980 in SLI e non so se vendere l'anima al diavolo per provare le eventuali 390x...però questa volta ho anche un monitor che in teoria perderà una caratteristica come quella del gsync...certo che se l'asus fosse compatibile col freesync farei il cambio a cuor leggero :ciapet:
A prescindere dallo spreco di soldi per un monitor (io sono il primo che mi sono preso lo swift appena uscito eh :stordita: ), non è che gli ultimi pannelli TN siano così male eh.
Quello dell'asus è comunque ottimo, e come resa cromatica non è neanche male rispetto ad un IPS....inoltre obsoleta o no mi pare che in ogni caso i nuovi IPS gsync/freesync che usciranno avranno comunque un tempo di risposta maggiore.
Tornando sull'argomento delle nuove ati, mi trovo esattamente nella stessa situazione passata...2 980 in SLI e non so se vendere l'anima al diavolo per provare le eventuali 390x...però questa volta ho anche un monitor che in teoria perderà una caratteristica come quella del gsync...certo che se l'asus fosse compatibile col freesync farei il cambio a cuor leggero :ciapet:
Ah si perche' tu riesci a percepire la differenza tra 2ms e 4ms ?
Ma non scherziamo dai :asd:
Io le noto sai come? 2ms monitor g-sync banali e obsoleti TN a 600 e passa euro contro un bel IPS 4ms a 150/230 euro :asd:
Appena escono monitor coreani freesync , e stai sicuro che usciranno, anche a 60 hz a 200/300 euro contro l'acer , uscira' tra un mese e gia' lo danno a 800 e passa euro :asd:, li voglio vedere le differenze....
fine OT...
per il resto aspettiamo le nuove AMD , sono stato "rosso" per 20 anni, perche' come detto sopra la 390x mi fa moooolta gola :D
cire92cry
18-02-2015, 19:17
Ah si perche' tu riesci a percepire la differenza tra 2ms e 4ms ?
Ma non scherziamo dai :asd:
Io le noto sai come? 2ms monitor g-sync banali e obsoleti TN a 600 e passa euro contro un bel IPS 4ms a 150/230 euro :asd:
Appena escono monitor coreani freesync , e stai sicuro che usciranno, anche a 60 hz a 200/300 euro contro l'acer , uscira' tra un mese e gia' lo danno a 800 e passa euro :asd:, li voglio vedere le differenze....
fine OT...
per il resto aspettiamo le nuove AMD , sono stato "rosso" per 20 anni, perche' come detto sopra la 390x mi fa moooolta gola :D
La differenza fra 4 ms e 2 magari non la vedi ma ti assicuro che ad esempio qualsiasi monitor che ha lightboost quando lo attivi la differenza si vede tantissimo.
http://www.tftcentral.co.uk/images/motion_blur/motion-blur-graph.png
8ms:
http://www.tftcentral.co.uk/images/motion_blur/CROPPED_120Hz-1024x341.jpg
circa 2 ms:
http://www.tftcentral.co.uk/images/motion_blur/CROPPED_LightBoost50-1024x341.jpg
Se non si vedono le immagini : http://www.tftcentral.co.uk/articles/motion_blur.htm
La differenza è abissale non è solo visibile :D
La differenza fra 4 ms e 2 magari non la vedi ma ti assicuro che ad esempio qualsiasi monitor che ha lightboost quando lo attivi la differenza si vede tantissimo.
cut........
La differenza è abissale non è solo visibile :D
Il mio monitor non ha lightboost e in ogni caso , come detto da te, da 4ms a 2ms non si vede la differenza dai su....
Non ho ghost ne qualsiasi altra malasorte ...anzi :)
Fine OT.
Speriamo escano in fretta queste 390x che le voglio vedere all'opera :)
DakmorNoland
19-02-2015, 08:08
Il mio monitor non ha lightboost e in ogni caso , come detto da te, da 4ms a 2ms non si vede la differenza dai su....
Non ho ghost ne qualsiasi altra malasorte ...anzi :)
Fine OT.
Speriamo escano in fretta queste 390x che le voglio vedere all'opera :)
Se ti posso dare un consiglio, evita semplicemente di rispondere a certi commenti. ;)
Io faccio il tecnico e gioco da diversi anni e tutti ste menate dei 2-4-8ms sono per l'appunto menate. 144hz idem, certo un pò di differenza c'è, ma è davvero minima e dopo due secondi che giochi non la vedi più la differenza e ti gusti il gioco. Idem per Gsync che qualcosa sicuramente fa, ma per chi gioca e non è fissato non noterà mai la differenza.
Io ad esempio gioco anche su PS3 e di giocare a 30FPS (PS3) o 60FPS (PC) non mi cambia nulla.
Stiamo parlando di robe veramente per "fanatici" o se preferite "appassionati".
Poi per la questione 2 o 4ms probabilmente la differenza non esiste proprio, come dicevi te, ma vaglielo a spiegare...
Alla fine queste persone non si gustano manco più i giochi, perchè passano più tempo a fare test assurdi che a giocare!!!
Il punto è che su questo sito bisognerebbe fare informazione, non disinformazione parlando di cose appena percettibile e a cui importa solo a quelle 10 persone che frequentano i thread qui su HWU.
Quanto si fa parte di una nicchia nella nicchia bisogna rendersene conto! Già chi gioca su PC (come me) è una nicchia, poi ci sono quelli che guardano il Gsync e i 144hz e saranno il 10% dei videogiocatori su PC...Fatevi due conti...
MrBrillio
19-02-2015, 08:18
Io faccio il tecnico e gioco da diversi anni e tutti ste menate dei 2-4-8ms sono per l'appunto menate. 144hz idem, certo un pò di differenza c'è, ma è davvero minima e dopo due secondi che giochi non la vedi più la differenza e ti gusti il gioco. Idem per Gsync che qualcosa sicuramente fa, ma per chi gioca e non è fissato non noterà mai la differenza.
Io ad esempio gioco anche su PS3 e di giocare a 30FPS (PS3) o 60FPS (PC) non mi cambia nulla.
Stiamo parlando di robe veramente per "fanatici" o se preferite "appassionati".
Il punto è che su questo sito bisognerebbe fare informazione, non disinformazione parlando di cose appena percettibile e a cui importa solo a quelle 10 persone che frequentano i thread qui su HWU.
No dai ragazzi su..allora non dico che la storia di passare da 1ms a 4ms sia fondamentale, ma ora venirmi a dire che il gsync sia appena percettibile, e che tra 30 e 60 fps non cambia nulla...cioè mi sembra che sia questa disinformazione...io (ma voglio sperare molti di voi) non penso che siano cose appena percettibili :mbe:
Poi vabbhè se vuoi continuiamo in pm la discussione o ci spostiamo da un'altra parte perchè qui siamo troppo OT :)
damerin0
19-02-2015, 09:16
No dai ragazzi su..allora non dico che la storia di passare da 1ms a 4ms sia fondamentale, ma ora venirmi a dire che il gsync sia appena percettibile, e che tra 30 e 60 fps non cambia nulla...cioè mi sembra che sia questa disinformazione...io (ma voglio sperare molti di voi) non penso che siano cose appena percettibili :mbe:
Poi vabbhè se vuoi continuiamo in pm la discussione o ci spostiamo da un'altra parte perchè qui siamo troppo OT :)
e per fortuna che è tecnico!:doh:
°Phenom°
19-02-2015, 10:19
Cosa devono leggere i miei occhi! Non c'é differenza tra 30 e 60 fps? Tra 60hz e 144hz? Tra 8ms e 2ms? Ma stiamo scherzando davvero? Questa é pura disiformazione.
Cosa devono leggere i miei occhi! Non c'é differenza tra 30 e 60 fps? Tra 60hz e 144hz? Tra 8ms e 2ms? Ma stiamo scherzando davvero? Questa é pura disiformazione.
Piu' che altro ragazzi è solo una questione di percezione soggettiva.
In ogni caso però siete OT:D
Tra 30 e 60fps ci passa un oceano ragazzi :asd:
The Witcher
19-02-2015, 11:04
Tra 30 e 60fps ci passa un oceano ragazzi :asd:
quoto
Io ad esempio gioco anche su PS3 e di giocare a 30FPS (PS3) o 60FPS (PC) non mi cambia nulla.
minchiate col botto 30fps si notano e come!
scusa non ho resistito nulla di personale :D
HadesSaint
19-02-2015, 12:12
dato che siamo OT finisco io e poi Ritorniamo in Topic.
Cioè piu è alto il valore hz del monitor piu alte sono le prestazioni video-fps?
sgrinfia
19-02-2015, 13:36
Ciao
Frequenza di aggiornamento: Quante volte lo schermo ridisegna ("refresh") l'immagine creata.
La frequenza di aggiornamento è misurata in hertz o cicli al secondo.
Più alta è la frequenza di aggiornamento, migliore sarà la qualità delle immagini in movimento, con sfocatura ridotta e maggiore chiarezza.
Gli schermi al plasma di solito hanno una frequenza di aggiornamento molto più alta, con tassi di refresh da 600Hz, ma LCD e TV LED stanno recuperando terreno con valori variabili tra i 60, 120, 240, o anche 480Hz.
:)
.
nasone32
19-02-2015, 15:56
http://www.christiantoday.com/article/amd.r9.390x.to.feature.custom.liquid.cooler/48251.htm
Nuovi FUD che dicono che amd metterà sulle 390x un sistema a liquido by asetec (non so se era gia trapelata una cosa del genere)
Ha molto senso, possono salire con le frequenze senza uccidere i timpani.
Questo per la reference, mentre le affiliate potrebbero proporre un sistema di raffreddamento classico (anche per contenere i costi?)
Il sito é tutto sulla fede cristiana non so quanto sia affidabile LOL
Magari hanno preso la notizia da altrove, piu tardi cerco...
francisco9751
19-02-2015, 16:18
ma il 90% degli AIO sono asatek..quindi ci sta
Inviato dal mio LG-D802 utilizzando Tapatalk
No Life King
19-02-2015, 17:31
http://www.christiantoday.com/article/amd.r9.390x.to.feature.custom.liquid.cooler/48251.htm
Nuovi FUD che dicono che amd metterà sulle 390x un sistema a liquido by asetec (non so se era gia trapelata una cosa del genere)
Ha molto senso, possono salire con le frequenze senza uccidere i timpani.
Questo per la reference, mentre le affiliate potrebbero proporre un sistema di raffreddamento classico (anche per contenere i costi?)
Il sito é tutto sulla fede cristiana non so quanto sia affidabile LOL
Magari hanno preso la notizia da altrove, piu tardi cerco...
Ma non è di pochi giorni fa la notizia che l' AIO della 390/x sarebbe stato un CoolerMaster?
francisco9751
19-02-2015, 17:32
i cooler master, tranne l eisberg sono asatek,rimarchiati, idem i corsair
Inviato dal mio LG-D802 utilizzando Tapatalk
No Life King
19-02-2015, 17:34
Aaaahhhh ecco svelato l'arcano :D
Grazie per la risposta, non ci capivo più nulla
Edit. dovessero fare una versione con radiatore da 240 potrei anche pensare di prenderla (chissà se il mio Corsair H100i sarà compatibile)
cire92cry
19-02-2015, 17:45
Se ti posso dare un consiglio, evita semplicemente di rispondere a certi commenti. ;)
Io faccio il tecnico e gioco da diversi anni e tutti ste menate dei 2-4-8ms sono per l'appunto menate. 144hz idem, certo un pò di differenza c'è, ma è davvero minima e dopo due secondi che giochi non la vedi più la differenza e ti gusti il gioco. Idem per Gsync che qualcosa sicuramente fa, ma per chi gioca e non è fissato non noterà mai la differenza.
Io ad esempio gioco anche su PS3 e di giocare a 30FPS (PS3) o 60FPS (PC) non mi cambia nulla.
Stiamo parlando di robe veramente per "fanatici" o se preferite "appassionati".
Poi per la questione 2 o 4ms probabilmente la differenza non esiste proprio, come dicevi te, ma vaglielo a spiegare...
Alla fine queste persone non si gustano manco più i giochi, perchè passano più tempo a fare test assurdi che a giocare!!!
Il punto è che su questo sito bisognerebbe fare informazione, non disinformazione parlando di cose appena percettibile e a cui importa solo a quelle 10 persone che frequentano i thread qui su HWU.
Quanto si fa parte di una nicchia nella nicchia bisogna rendersene conto! Già chi gioca su PC (come me) è una nicchia, poi ci sono quelli che guardano il Gsync e i 144hz e saranno il 10% dei videogiocatori su PC...Fatevi due conti...
La differenza c'è in tutte le cose che hai scritto che poi a uno interessi o meno è un'altra cosa :D.
La differenza evidentissima fra 6/4ms e 2 ms viene fuori quando giochi in 3D. Con 6 ms quando muovi la visuale ti da fastidio perchè si crea un po di motion blur. Il punto è che giocandoci per un po ti da fastidio e devi smettere.
Con lightboost cambia completamente non esiste praticamente motion blur. Quando muovi la visuale su starcraft2 o crysis 3 con gli occhi riesci seguire gli oggetti tutto è definito come deve essere anche in movimento. Puoi giocare più a lungo senza avere problemi di stanchezza agli occhi.
Le altre differenze sono palesi da 30 a 60 fps c'è differenza ma anche da 60 a 120/144.
Questa è la verità ed informazione , poi è tutto soggettivo c'è chi nota di più chi meno a chi non interessa e gli basta che il gioco vada ecc...
Le differenze esistono poi sta a tutti noi decidere se ci interessano o no.
Fine OT se no andiamo troppo oltre.
HadesSaint
20-02-2015, 10:05
giorno ragazzi stamani ho letto quest'articolo:
http://www.tomshw.it/cont/news/radeon-r9-serie-300-solo-la-gpu-fiji-avra-l-architettura-piu-aggiornata/62612/1.html
Stando alle ultime indiscrezioni AMD implementerà la versione 1.3 dell'architettura Graphics Core Next solo nella GPU Fiji di fascia alta. Il resto della gamma sarà basato sulle precedenti versioni, GCN 1.2 e 1.1.
Sempre nell'articolo:
"..Ricordiamo brevemente le presunte specifiche della Radeon R9 390X e della R9 390: la prima potrebbe avere una GPU Fiji XT con 4096 stream processor, bus a 4096 bit e 4 GB di memoria HBM. La seconda, invece, avrebbe caratteristiche simili, salvo per la GPU castrata (Fiji Pro) con 3840 stream processor e frequenze differenti."
The Pein
20-02-2015, 10:08
alla fine aspetterò l'uscita di queste AMD e poi deciderò che prendere :D
Così si abbassano i prezzi e posso comprare avendo tutte le carte! ;)
https://a.disquscdn.com/uploads/mediaembed/images/1736/8365/original.jpg
HadesSaint
20-02-2015, 10:23
Io le sto puntando questa 390 pero vorro capir quanto costa, come saranno i rispettivi consumi/perfomance/prezzi :) se con la mia 290 ho un boost solo del 20% effettivi me la tengo, certo se sono 50%+ e il prezzo è contenuto perche no :)
nasone32
20-02-2015, 11:10
giorno ragazzi stamani ho letto quest'articolo:
http://www.tomshw.it/cont/news/radeon-r9-serie-300-solo-la-gpu-fiji-avra-l-architettura-piu-aggiornata/62612/1.html
Stando alle ultime indiscrezioni AMD implementerà la versione 1.3 dell'architettura Graphics Core Next solo nella GPU Fiji di fascia alta. Il resto della gamma sarà basato sulle precedenti versioni, GCN 1.2 e 1.1.
Sempre nell'articolo:
"..Ricordiamo brevemente le presunte specifiche della Radeon R9 390X e della R9 390: la prima potrebbe avere una GPU Fiji XT con 4096 stream processor, bus a 4096 bit e 4 GB di memoria HBM. La seconda, invece, avrebbe caratteristiche simili, salvo per la GPU castrata (Fiji Pro) con 3840 stream processor e frequenze differenti."
quindi la fascia media sarebbe un rebrand delle precedenti. abbastanza normale, solo una cosa non mi quadra.
se mettessero la r9 290 nella fascia media chiamandola r9 380, senza die shrink cioè coi chip attuali, avrebbero una scheda di fascia media che consuma più della fascia alta?
EDIT
anzi mi rispondo da solo, ho isto che anche ora la 280x ha consumi simili alla 290.
Radeon80
20-02-2015, 11:33
Riguardo alle quattro GPU che dovrebbero essere lanciato i rumor sono un po' incasinati e secondo dovrebbe essere cosi la situazione:
- R9 360 series basata su una nuova GPU Trinitad con GCN 1.2 che sostituirà Bornaire
- R9 370 series basata su GPU Tonga con GCN 1.2 che sostituira Pitcairn
- R9 380 series basata su GPU Granada che dovrebbe essere basata su GCN 1.1 e sostituire Tahiti
- R9 390 series basata GPU Fiji con GCN 1.3 che sostituirà Hawaii
In pratica è vero in parte la questione del rinomino delle GPU visto che 3 GPU su 4 sono nuove.
Snickers
20-02-2015, 14:15
Riguardo alle quattro GPU che dovrebbero essere lanciato i rumor sono un po' incasinati e secondo dovrebbe essere cosi la situazione:
- R9 360 series basata su una nuova GPU Trinitad con GCN 1.2 che sostituirà Bornaire
- R9 370 series basata su GPU Tonga con GCN 1.2 che sostituira Pitcairn
- R9 380 series basata su GPU Granada che dovrebbe essere basata su GCN 1.1 e sostituire Tahiti
- R9 390 series basata GPU Fiji con GCN 1.3 che sostituirà Hawaii
In pratica è vero in parte la questione del rinomino delle GPU visto che 3 GPU su 4 sono nuove.
Non proprio, Tonga già è esistito nella M295 (versione full) e nella R9 285, quindi non si può parlare proprio di rebranding, ma di un po' di quello visto con Bonaire a suo tempo: introduzione timida nella serie "in corso" (HD 7790) e poi ad occupare una precisa fascia (R7 260 e R7 260X).
Io comunque, da possessore di un A10-7850K aspetto alla finestra Trinidad, se il prezzo sarà "onesto" (non oltre i 120€) e le prestazioni adeguate, potrei lanciarmi su quella GPU, altrimenti 260x usata e via in attesa dei finfet che promettono scintille!
R9 390 e R9 390X quando sono previste ? A inizio Marzo 2015 ? .
Il nabbo di turno
20-02-2015, 15:50
Sarebbe ora di calciorotare una volta per tutte pitcairn e tahiti, non se ne può più, sono troppo vecchie...
Mah, saranno vecchie ma vanno troppo :) dovrebbero castrarle via driver :ciapet:
Il nabbo di turno
20-02-2015, 16:00
Mah, saranno vecchie ma vanno troppo :) dovrebbero castrarle via driver :ciapet:
La questione è, confronta la 280 con la 285 lato features:
-Niente nuovo mc
-Niente vsr
-Niente crossfire bridge
-Niente diminuzione dei consumi
-Niente trueaudio
-A parità di clock, la 285 va come la 280x nonostante le minori cu
E come se non bastasse sembra che la 285 vada ancora più forte con gli omega driver rispetto a tahiti.
Sono cose che contano, e sinceramente averle in gpu da 100 euro farebbe comodo ;).
DakmorNoland
20-02-2015, 16:02
La questione è, confronta la 280 con la 285 lato features:
-Niente nuovo mc
-Niente vsr
-Niente crossfire bridge
-Niente diminuzione dei consumi
-Niente trueaudio
-A parità di clock, la 285 va come la 280x nonostante le minori cu
E come se non bastasse sembra che la 285 vada ancora più forte con gli omega driver rispetto a tahiti.
Sono cose che contano, e sinceramente averle in gpu da 100 euro farebbe comodo ;).
Ma se la 280 va come la 285 e costa la metà... Poi vabbè la 280 consuma decisamente di più... Però al prezzo della 285 ti prendi la 280x. La 285 non ha senso di esistere per me.
Il nabbo di turno
20-02-2015, 16:07
Ma se la 280 va come la 285 e costa la metà... Poi vabbè la 280 consuma decisamente di più... Però al prezzo della 285 ti prendi la 280x. La 285 non ha senso di esistere per me.
Non proprio:
http://www.bitsandchips.it/hardware/9-hardware/4771-sapphire-r9-285-itx-compact-oc-edition-potente-scheda-video-in-formato-slim?start=12
Ma infatti gcn 1 (tahiti) scompare, rimarra solo dal 1.2 in su....le 380 saranno delle 290 riviste....e tonga scendera sulla fascia medio bassa....sulla fascia bassa non mi esprimo, non mi interessa...
Il nabbo di turno
20-02-2015, 16:18
Ma infatti gcn 1 (tahiti) scompare, rimarra solo dal 1.2 in su....le 380 saranno delle 290 riviste....e tonga scendera sulla fascia medio bassa....sulla fascia bassa non mi esprimo, non mi interessa...
Io sarei contento se ALMENO sulla fascia bassa(360/360x), mi porti cgn 1.2 o 1.3, ormai è troppo restare con cgn 1 o 1.1.
Mmmm le 37x saranno tonga imho e saranno delle belle schede equilibrate....le 36x possono anche scomparire con le nuove apu....un full tonga rischia di andare poco meno di una 290, troppo vicina... A meno che le tengano a 2/3gb x limitarle....
Il nabbo di turno
20-02-2015, 16:27
Mmmm le 37x saranno tonga imho e saranno delle belle schede equilibrate....le 36x possono anche scomparire con le nuove apu....un full tonga rischia di andare poco meno di una 290, troppo vicina... A meno che le tengano a 2/3gb x limitarle....
Finchè le apu non mi ricevono delle memorie veloci(e neanche le ddr4 lo sono), imho sopra i 70 euro tutte le schede video hanno un senso di esistere.
Full tonga potrebbe andare un 10-15% in più rispetto alla 280x, troppo poco per stare vicino alla 290.
nasone32
20-02-2015, 19:17
qualcuno ha per caso letto se le stacked hbm sono (quanto?) piu alte delle gddr? intendo proprio la dimensione fisica
e ci dobbiamo quindi aspettare che gpu e memorie stiano su un "interposer" rialzato rispetto al pcb?
giusto per farmi un'idea di come potrebbe essere fisicamente la scheda.
nasone32
20-02-2015, 19:27
tipo
http://semiaccurate.com/assets/uploads/2013/04/GloFo_Amkor_2.5D_stack.png
http://semiaccurate.com/assets/uploads/2011/10/AMD_Interposer_SemiAccurate.jpg
The Witcher
20-02-2015, 19:29
ma di queste schede di nuovo cosa c'è? nulla, praticamente (a parte una).
Sono delle specie di rebrand, giusto?
Il nabbo di turno
20-02-2015, 19:46
ma di queste schede di nuovo cosa c'è? nulla, praticamente (a parte una).
Sono delle specie di rebrand, giusto?
In teoria le uniche schede che conosciamo già saranno la 290(x) e la 285, per il resto dovrebbero essere schede nuove.
In teoria le uniche schede che conosciamo già saranno la 290(x) e la 285, per il resto dovrebbero essere schede nuove.
quoto sebbene le "vecchie" saranno sicuramente riviste con clock piu' spinti e con revisioni di chip migliori che garantiranno consumi e performance migliuori :D
maurilio968
20-02-2015, 21:32
Vorrei esprimervi un dubbio sulla possibilità di indirizzare tutta la ram di uno sli/crossfire in modo che risulti condivisa ovvero "sommata" ( il "memory stacking" di cui si legge negli articoli) a differenza di quanto avviene ora (con directx 11) e tutto questo semplicemente passando a nuove api (directx 12 e/o mantle)
Questa possibilità esiste realmente anche per le attuali vga (per esempio cross di amd 280-290x oppure sli di gtx 970-980) ?
E anche per le future vga, basta davvero una nuova api (mantle o directx 12 che sia) e nuovi driver per consentire la cosa?
Io purtroppo penso proprio di no e vi illustro perchè.
Se faccio uno SLI/cross posso usare due tecniche per accelerare il rendering dei frame:
AFR (Alternate frame rendering - directx 11):
Con l'AFR ipotizziamo che tra un frame e il successivo non vi siano particolari differenze che implicano diversi tempi di calcolo:le GPU renderizzino ciascuna un frame.
E' più rozzo ma più efficiente.Però con AFR non c'è un effetto di memory stacking: ogni GPU ha la sua partizione di RAM dedicata indipendente dall'altra e ogni dato da elaborare è copiato nella ram di ciascuna delle 2, quindi tutto (geometria, texture, shader ecc) è duplicato.
Svantaggio: di 8GB disponibili (4+4 perchè su 2 bus separati) solo 4 sono realmente quelli che il software del gioco può sfruttare.
Vantaggio: ogni GPU ha pieno accesso alla prorpia RAM e ogni GPU elabora metà dei dati necessari: ne deriva che la banda totale disponibile è doppia, come lo sono gli shader, le TMU e le ROP.
SFR (Split frame rendering - directx 12 o mantle):
Non si fa una linea sì e una no (avrei problemi con i filtri, tipo l'AA), ma splittando l'immagine in 2 (o più parti a seconda del numero di GPU disponibili).
Bene allora usiamo SFR con le nuove directx 12 o con mantle.Tutto ok con le attuali vga? Ora questo io non creto! :asd:
Con l'attuale architettura SLI/CrossFire La RAM è divisa in 2 e ogni parte è collegata esclusivamente al bus di una GPU.
Se una GPU vuole accedere al bus dell'altra deve passare per il PCI-Express con una banda ridotta.
Per fare in modo che le GPU accedano ad una RAM comune secondo me serve un hardware dedicato che supporti la cosa, cioè un sistema di comunicazione tra GPU che sia almeno paragonabile alla velocità dell'attuale controller RAM dedicato delle GPU.
Perciò servirebbe un bus (con una strategia di accesso) ovvero un controller a bordo che serva entrambe le GPU.
Perchè ? Vedo di spiegarmi.
Ammettiamo di dividere l'immagine da renderizzare in due parti (SFR); ok si riduce il carico sulla singola scheda però:
1- la scena (da cui le due parti dell'immagine provengono) e tutti i dati ad essa relativa come fanno ad essere ricalcolati in tempo ? Cioè come stabilire quali texture e geometrie stanno solo in una parte dell'immagine e quali solo in quell'altra ?
2- se e quando queste dovranno essere a disposizione (perché la scena si sta spostando) come si fa a includerle e anticipare il loro caricamento (onde evitare il blocco del rendering in attesa dell'aggiornamento) ?
Attualmente anche solo la rimozione delle superfici nascoste richiede un algoritmo che nelle GPU è implementato in hardware dedicato.
Qui dovremmo avere qualcosa che calcola in maniera esatta quali risorse vanno in una parte dell'immagine e quali in un'altra e fornire in tempo quelle che occorrono rimuovendo quelle che non sono più necessarie appena ciò si rende necessario.
Esempio: il giocatore effettua un salto e la texture che prima era visibile solo nella parte inferiore ora è usata anche nella parte superiore dell'immagine.
Se non ce l'ho in memoria devo caricarla: se devo passare dal pci express sono dolori.
Obiezione: faccio un buffer comune implementato da qualche parte via driver.
Ma così la banda non sarebbe diciamo la metà (o quanto) di una singola gpu ?
Infatti se almeno una parte della memoria video fosse condivisa tra tutte le GPU le texture ed i file necessari per la renderizzazione del frame che sono in comune potrebbero stare nella zona diciamo "shared". Per eseguire l'accesso, tuttavia, servirebbe un meccanismo di mutua esclusione tra le GPU (una variabile shared può essere letta da un solo processo alla volta, attraverso l'impelementazione di una coda) il che provoca latenze e delay.
E comunque per fare quanto descritto nei punti 1- e 2- occorre una potenza di calcolo assai superiore alle attuali schede:
Infatti un grosso problema di SFR è che non tutte le parti hanno la stessa complessità, e quindi è difficile ottimizzare il rendering.
Una GPU a cui è stata data una parte semplice dell'immagine dovrà aspettare che un'altra finisca il suo lavoro più complesso prima che si possa mettere tutto insieme e fare un buffer unico (comunque esso sia implementato). Il tempo d'attesa di quella (o quelle) GPU è tempo morto, che in post analisi si poteva evitare dando un parte più grande di rendering alla prima GPU e togliendola alla seconda. Ma lo sai dopo, non prima.
A volerlo fare in maniera dinamica non mi pare possibile solo via GPGPU, occorrerebbe una CPU a cui vanno inviati tutti i dati o una specie di "GPU master" in Hardware.
In entrembi i casi (nuovo bus e/o nuovo controller per non passare dal pci-e oppure nuova "gpu master") mi sembra indispensabile un nuovo hardware.
(e infatti i test "entusiasmanti" con nuove directx 12 le fanno su NUOVE schede video ancora da presentare al pubblico http://www.tomshw.it/cont/news/directx-12-100-fps-in-piu-delle-directx-11-con-una-nuova-gpu/62583/1.html )
Le attuali gpu mi sembrano comunque tagliate fuori.
Per le future mi pare occorra ben di più che un semplice cambio di api.
magnusll
20-02-2015, 23:32
Per lo "sdoppiamento" della VRAM su configurazioni multi-gpu con DX12/Mantle di parla di SFR.
I dettagli ovviamente non li conosco. Tieni pero' presente che sebbene le tue obiezioni abbiano un senso, le GPU moderne sono pensate esplicitamente per il parallelismo massivo. Non tutte le operazioni possono essere eseguite in parallelo, ma molte si. E anche la gestione della memoria non e' "monolitica" (basti pensare ai vari tipi di cache presenti nelle GPU stesse per ottenere latenze piu' basse possibile sui dati a maggior frequenza di accesso).
E' ipotizzabile che dando agli sviluppatori la possibilita' di allocazione di specifici segmenti di memoria, gli stessi possano scrivere engine grafici che inviano i dati "globali" ad entrambe le GPU e quelli necessari solo alle operazioni "locali" alla specifica GPU che esegue le elaborazioni per quel segmento del frame. Non ci sarebbe un raddoppio secco (una parte della VRAM andrebbe "sprecata" per i dati "globali" ripetuti) ma un miglioramento netto comunque si.
[EDIT] Un esempio pratico e' Civ: Beyond Earth, che ha implementato lo SFR per le schede AMD tramite Mantle. c'e' un interessante articolo a questo link:
SFR in CIV: Beyond Earth (http://techreport.com/blog/27258/civ-beyond-earth-with-mantle-aims-to-end-multi-gpu-microstuttering)
L' articolo si focalizza sui miglioramenti dal punto di vista del microstuttering ma si puo' estrapolare come utilizzando la stessa tecnica si puo' "riciclare" parte della VRAM invece di dover mandare le stesse strutture di memoria a tutte le GPU.
nasone32
21-02-2015, 06:42
una volta ati in crossfire supportava il super tiling :stordita:
nessun microstuttering e una divisione dei compiti migliore dello split frame.
http://pctuning.tyden.cz/ilustrace2/soucek/cf2_supertiling.png
Questa possibilità esiste realmente anche per le attuali vga (per esempio cross di amd 280-290x oppure sli di gtx 970-980) ?
E anche per le future vga, basta davvero una nuova api (mantle o directx 12 che sia) e nuovi driver per consentire la cosa?
nessuno pretende di fare uno stacking vero e proprio della memoria. sarebbe impossibile, bisognerebbe collegare ogni gpu alla memoria della compagna con lo stesso bus, che è fisicamente impossibile, visto che una 390x dovrebbe avere 4096 bit (non oso immaginare il connettore che si dovrebbe usare...).
E poi, non stiamo cercando di staccarci da questi benedetti connettori?
si tratta ovviamente di uno stacking virtuale.
se ogni gpu renderizza una parte della scena, e si fa in modo che abbia bisogno di avere meno dati possibili dalla sua compagna (e *questo* è reso possibile da mantle/dx12) allora anche i requisiti di memoria si abbassano per ogni scheda, visto che non è più necessario avere una copia di tutto su ogni scheda.
in realtà già ora la comunicazione tra le schede non è così intensa come credi.
tra una scheda e l'altra vengono copiate sopratutto risorse persistenti che non è necessario ricalcolare ogni frame (tipo le shadow map?) e ovviamente dati di sincronia e composizione della successione dei frame.
se ora si riesce a caricare nella memoria di ogni scheda solo quello che le serve, per calcolare la parte di frame necessaria, virtualmente abbiamo più memoria a disposizione.
chiaramente questo non funziona in AFR perchè se ogni scheda deve renderizzare tutto il frame le servono tutti i dati...
quindi, mantle e dx12 permetteranno di allocare meglio il compito di ogni scheda, lavorando a basso livello, e da qui lo stacking virtuale della memoria.
sgrinfia
21-02-2015, 07:01
Caso GeForce GTX 970, una class action contro Nvidia e Gigabyte
Nvidia e Gigabyte sono state denunciate negli Stati Uniti per pubblicità ingannevole e pratiche commerciali scorrette, illegali e ingannevoli. La causa, che mira a trasformarsi in class action, riguarda la GTX 970, l'uso che fa dei 4 GB di memoria grafica e la modifica di alcune specifiche dopo mesi dall'arrivo sul mercato.
Nvidia, insieme al partner Gigabyte Technology, è stata denunciata per pubblicità ingannevole, scorrette, illegali e ingannevoli. Al centro della vicenda la GeForce GTX 970, una scheda video recentemente al centro delle polemiche per l'uso "particolare" di 4 GB di memoria (qui la spiegazione), ma soprattutto per un cambio di specifiche che ha riguardato il numero di ROPs e la quantità di cache L2.
Nvidia logo
La denuncia (qui il testo) è stata depositata da Andrew Ostrowski, per conto di sé stesso e altri che sono nella sua stessa posizione. La class action, depositata presso una corte californiana, richiede che si tenga un processo con giuria e la restituzione dei profitti ottenuti con le presunte pratiche illecite, i danni ingiuntivi e tutto ciò che è consentito dalla legge della California.
"Gli imputati hanno condotto un'azione volta a indurre in errore il consumatore circa le caratteristiche, le qualità e i vantaggi della GTX 970 affermando che la scheda fornisce 4 GB di memoria effettivi, 64 ROPs e 2048 KB di cache L2, quando in realtà non lo fa", si legge nel testo della denuncia. "Il marketing legato alla GTX 970 portato avanti dagli imputati era inteso e ha creato la percezione tra i consumatori che il prodotto era, di fatto, in grado di conformarsi con le specifiche come pubblicizzato".
Gigabyte GTX 970 4GB Windforce 3X
Gigabyte GTX 970 4GB Windforce 3X € 351,44Acquista+
Nvidia ha finora spiegato che la scheda funziona come da progetto, almeno per quanto concerne l'uso dei 4 GB di memoria. Di questa quantità di memoria solo 3,5 GB sono ad accesso prioritario e rapido, mentre la restante parte è più lenta e vi si accede solo in determinati casi e momenti. Questo è da ricondursi alla "modifica" del chip GM204, castrato (1664 CUDA core) rispetto alla sua massima espressione (che riscontriamo nella GTX 980 con 2048 CUDA core).
La scheda si comporta bene nei test, vi sono però dei casi - come il gaming in 4K con dettagli alti, ma anche in QHD con alcuni titoli - in cui gli appassionati hanno rilevato prestazioni non sempre uniformi (stuttering). Ed è proprio da questo comportamento che la vicenda è montata, sfociando in gennaio con le dichiarazioni di Nvidia. Per quanto riguarda le specifiche tecniche, l'azienda ha ammesso di aver comunicato male le informazioni alla stampa: la GPU ha solo 56 ROPs e una cache L2 di 1792 KB.
:cool:
francisco9751
21-02-2015, 08:14
si ma cosa centra qua?
Inviato dal mio LG-D802 utilizzando Tapatalk
sgrinfia
21-02-2015, 13:41
si ma cosa centra qua?
Inviato dal mio LG-D802 utilizzando Tapatalk
Be, pura informazione:)
nasone32
22-02-2015, 14:51
Quindi da quello che leggo l'aspetto delle nuove 390 sarà di un chippone centrale con solo 4 chipponi di memoria attaccati. Ergo un solo waterblock centrale con base larga 4x4 cm puo raffreddare contemporaneamente gpu e memorie in un sol colpo.
Ergo, se la gpu della 390 sarà raffreddata a liquido lo saranno anche le memorie per forza.
Bello no? Memorie raffreddate a liquido.
jotaro75
23-02-2015, 16:25
Quindi da quello che leggo l'aspetto delle nuove 390 sarà di un chippone centrale con solo 4 chipponi di memoria attaccati. Ergo un solo waterblock centrale con base larga 4x4 cm puo raffreddare contemporaneamente gpu e memorie in un sol colpo.
Ergo, se la gpu della 390 sarà raffreddata a liquido lo saranno anche le memorie per forza.
Bello no? Memorie raffreddate a liquido.
ma sei sicuro? io da quel che ho letto e mi pare di aver capito solo il chip sarà raffreddato a liquido mentre il resto(e nel resto io includevo anche le memorie) verrà raffreddato ad aria, infatti si accenna sempre a un raffreddamento ibrido tipo r9 295x2
Io invece avrei un'altra domanda per tutti...voi avete già letto qualche info su eventuali misure della 390x?dite che ho qualche speranza che la reference non superi i 290mm? :D
Imho non essendo monolitico ( implementazione 2.5d non 3d visti gli alti consumi delle gpu che rovinerebbero i chip ram) si avrà un die alla intel con la parte gpu e poco lontano le ram, il TUTTO raffreddato a liquido.... La ventola servira per i vrm .... Mi aspetto schede piu corte in virtu di questo fatto....
nasone32
23-02-2015, 17:31
I chip di memoria dovrebbero essere ad appena qualche millimetro dalla gpu, su uno zoccoletto comune (l'interposer) che viene poi saldato sulla scheda. Dovrebbero essere 4 chip soltanto. Anche elettricamente ha senso tenerli piu vicini possibile, quindi si, mi aspetto gpu+mem a liquido e vrm ad aria.
Esatto come guardare un intel che dici tu
Sulla lunghezza credo di si, la gpu deve stare centrata sopra il pettine pci express per ottimizzare le impedenze dei collegamenti, i vrm a destra per la posizione dei connettori di alimentazione che sono indubbiamente piu conodi al solito posto, quindi secondo me limano una lunghezza di 2-3 centimetri. Quello che si risparmia dalle memorie a destra della gpu...
nasone32
23-02-2015, 18:36
giusto perchè non avevo un gazzo da fare. :asd:
http://i60.tinypic.com/2luqv7c.jpg
jotaro75
23-02-2015, 18:46
Perfetto ragazzi siete stati chiarissimi, si impara sempre qualcosa qui
grazie per le info ;)
HadesSaint
23-02-2015, 19:35
giusto perchè non avevo un gazzo da fare. :asd:
http://i60.tinypic.com/2luqv7c.jpg
che modelli sono??
nasone32
23-02-2015, 19:59
La seconda é una r9 290, la prima una r9 390 photoshop edition :asd:
Prima che vai a cercare che roba é... Ho semplicemente preso i rumor e ho provato a disegnare la scheda.
HadesSaint
23-02-2015, 20:45
La seconda é una r9 290, la prima una r9 390 photoshop edition :asd:
Prima che vai a cercare che roba é... Ho semplicemente preso i rumor e ho provato a disegnare la scheda.
Cosi piu corta???
Obrigado
23-02-2015, 20:57
Cosi piu corta???
buongiorno.....
l'ha fatta lui con photoshop----
esce piu' corta perche' mancano i moduli di vram.....
capito ora...?
e' una simulazione di come potrebbe essere la nuova 390...
maxmix65
23-02-2015, 21:00
buongiorno.....
l'ha fatta lui con photoshop----
esce piu' corta perche' mancano i moduli di vram.....
capito ora...?
e' una simulazione di come potrebbe essere la nuova 390...
:D :D Pero' se metteva che era una foto vera sai quanti forum la riprendevano ahhahahah e dai che ci stava tutta :p :p
Obrigado
23-02-2015, 21:02
:D :D Pero' se metteva che era una foto vera sai quanti forum la riprendevano ahhahahah e dai che ci stava tutta :p :p
il die e' un po troppo grosso.... :D
Vuoi diffonderlo!? Basta aggiungere qualche scritta tipo "amd 390x leaked photo nude jennifer aniston sex video" tempo trenta minuti è a HG...
Hahaha :D mitici .
Ma una data presunta improbabile semiufficiale di uscita di queste diavolerie di 390 cè ? .
jotaro75
24-02-2015, 08:30
Quindi da quello che leggo l'aspetto delle nuove 390 sarà di un chippone centrale con solo 4 chipponi di memoria attaccati. Ergo un solo waterblock centrale con base larga 4x4 cm puo raffreddare contemporaneamente gpu e memorie in un sol colpo.
Ergo, se la gpu della 390 sarà raffreddata a liquido lo saranno anche le memorie per forza.
Bello no? Memorie raffreddate a liquido.
scusa solo un'altra domanda...nella frase finale non ho capito se il "Bello no?" è ironico nel senso che lo vedi come un aspetto negativo che le memorie siano raffreddate a liquido", e se è così...come mai?giusto per capire tecnicamente gli eventuali contro che vedresti in questa soluzione
maxmix65
24-02-2015, 08:34
scusa solo un'altra domanda...nella frase finale non ho capito se il "Bello no?" è ironico nel senso che lo vedi come un aspetto negativo che le memorie siano raffreddate a liquido", e se è così...come mai?giusto per capire tecnicamente gli eventuali contro che vedresti in questa soluzione
Il discorso delle memorie vicine al die non e' sbagliato il problema che questa soluzione e' al momento difficile da gestire causa del calore..
Poi felice di essere smentito
Forse fattibile sui 14nm o giu' di li ;)
nasone32
24-02-2015, 08:44
Era un "bello no?" Genuino, non ironico!
Anzi io spero di poter riciclare un waterblock cpu che mi avanza in gjro se dovesse uscire ad aria. Per questo spero che memorie e gpu abbiano la superficie superiore sullo tesso piano.
Ma per la legge di murphy non sarà cosi. :asd:
sgrinfia
24-02-2015, 08:56
AMD cerca ingegneri per migliorare i driver grafici Catalyst 24 febbraio,
AMD ha pubblicato su LinkedIn un annuncio di lavoro con il quale cerca un ingegnere in grado di ottimizzare i driver grafici per avere maggiori prestazioni con giochi e benchmark frenati dalla CPU. 1
AMD vuole migliorare i propri driver grafici per ottenere maggiori prestazioni con quei giochi e benchmark legati eccessivamente alle prestazioni dei processori. L'azienda sta cercando su LinkedIn un "CPU performance engineer" che si occupi di analizzare i giochi e i benchmark frenati dalla CPU e identificare i colli di bottiglia presenti nei driver e intervenire per risolverli.
AMD driver
L'ingegnere che assolverà questo compito dovrà collaborare con chi progetta i chip grafici e le CPU e avere rapporti con altri esperti dell'azienda, oltre che con i partner (gli sviluppatori di videogiochi).
La ricerca di questa posizione lavorativa fa trasparire la rinnovata attenzione che AMD sta ponendo nello sviluppo di driver negli ultimi anni, oltre a iniziative collaterali come HSA e Mantle, solo per citare alcuni esempi.
Sul finire dell'anno scorso la casa di Sunnyvale ha pubblicato i driver Catalyst Omega, figli di un lavoro complesso fatto di ottimizzazioni prestazionali e risoluzione di alcuni dei bug più fastidiosi segnalati dai propri clienti.
L'attenzione di AMD verso il comparto driver però non riguarda solo l'ambito consumer, ma anche quello professionale. Recentemente l'azienda ha dichiarato di aver svoltato da almeno due anni sul fronte dei driver per i prodotti FirePro, offrendo relesae stabili, almeno secondo gli standard di settore. Questo le ha consentito di migliorare la propria nomea e, grazie anche a buoni prodotti, di sottrarre quote di mercato a Nvidia nel mercato professionale.
AMD FirePro driver stabili
Il nuovo annuncio di lavoro rappresenta una buona indicazione sulle direttrici su cui si sta muovendo l'azienda, molto concentrata in particolare sul 2016, anno in cui presenterà architetture ARM e x86 ad alte prestazioni.
In attesa di scoprire, se possibile, chi andrà ad assumere il compito di migliorare le prestazioni dei driver AMD, ci attendiamo qualche novità già nei prossimi mesi. L'azienda è solita accompagnare le nuove proposte grafiche (nel secondo trimestre arriverà la serie Radeon Rx 300) con driver spesso forieri di caratteristiche inedite legate sia alla nuova architettura che, a volte, anche a quelle precedenti.
AMD Radeon is Gaming
Nei mesi passati si è ad esempio parlato della possibile introduzione di una caratteristica chiamata Dynamic Frame Rate Control (DFRC). Dalle informazioni emerse finora si dovrebbe trattare di una sorta di limitatore di frame rate.
Quando un videogioco raggiunge un livello di FPS sufficiente ad assicurare una buona esperienza di gioco (60/70 fps, ad esempio), la scheda video mantiene quelle prestazioni modificando le proprie frequenze.
In questo modo la GPU dovrebbe consumare meno, specie giocando a titoli leggeri o vecchi di qualche anno che le schede video moderne gestiscono senza problemi. Secondo Chris Hook, AMD Marketing Director, il risparmio energetico legato al DFRC sarebbe "pazzesco". Al momento il DFRC non fa parte dei driver di AMD, ma chissà che non arrivi proprio in concomitanza con la nuova serie di prodotti Radeon.:)
maurilio968
24-02-2015, 09:14
Il discorso delle memorie vicine al die non e' sbagliato il problema che questa soluzione e' al momento difficile da gestire causa del calore..
Poi felice di essere smentito
Forse fattibile sui 14nm o giu' di li ;)
uscirà sulla 390x che ha tutta la probabilità di essere a 28nm altrimenti (1% di probabilità) sarà a 20nm.
le prime amd a 14nm avranno sempre 4gb, le prossime a 14nm usciranno sia a 4gb che a 8gb.
Se leggi i miei post di 2 settimane fa trovi i dettagli.
Carino il dfcr.... Anche se LA vera feature è psyx :asd:
mirkonorroz
24-02-2015, 20:36
Il dfrc non mi convince del tutto. Non amo le fluttuazioni di frequenza.
Gia' i vari boost non mi sono mai piaciuti molto. Non vorrei che in giochi con escursioni di complessita' notevoli la scheda avesse comportamenti anomali da causare piu' problemi che vantaggi.
L'altra cosa che mi chiedo e':
ma se cercano adesso un ingegnere per i drivers, prima chi diavolaccio c'era a fare il suo lavoro? Dopotutto non e' un'azienda di 4 gatti... possibile che non ci fosse gia' una figura del genere?
Certo meglio tardi che mai, ma meglio prima...
PS: poi io assumerei anche il tizio di radeonpro...
nessuno29
24-02-2015, 22:00
L'altra cosa che mi chiedo e':
ma se cercano adesso un ingegnere per i drivers, prima chi diavolaccio c'era a fare il suo lavoro? Dopotutto non e' un'azienda di 4 gatti... possibile che non ci fosse gia' una figura del genere?
Certo meglio tardi che mai, ma meglio prima...
??? ahahaha
sgrinfia
25-02-2015, 07:40
Le DirectX 12, le nuove API integrate in Windows 10 più vicine all'hardware in modo simile all'API AMD Mantle, consentiranno di realizzare sistemi con più schede videoformati sia da GPU AMD che da GPU Nvidia.
È questa la clamorosa rivelazione che una fonte ritenuta affidabile ha fatto ai nostri colleghi di Tom's Hardware USA. Le GPU Nvidia GeForce e AMD Radeon saranno quindi in grado di lavorare insieme per renderizzare lo stesso gioco - persino lo stesso frame.
DirectX 12
"Questo è particolarmente interessante perché permette di sfruttare i benefici tecnologici di entrambe le piattaforme hardware se si desidera farlo. Se vi piace il software GeForce Experience di Nvidia e il 3D Vision, ma volete usare il TrueAudio e FreeSync di AMD, vi sono possibilità che potrete farlo con le DirectX 12", scrivono i colleghi.
Probabilmente una scheda funzionerà come una soluzione "master", mentre l'altra sarà usata per avere maggiore potenza a disposizione. Il tutto è legato alla capacità delle DirectX 12 di "aggregare risorse hardware", di calcolo o memoria, nel modo più efficiente possibile.
"Tutto questo non porta benefici solo con sistemi con più GPU desktop dedicate. Anche i portatili con soluzioni Dual Graphics o i sistemi con APU e GPU saranno in grado di beneficiarne. L'aggregazione legata alle DirectX 12 permetterà a GPU che oggi non si abbinano di lavorare insieme, rendendo forse tecnologie come SLI e CrossFire obsolete in futuro".
Tutto questo però, molto probabilmente, dipenderà dal lavoro di ottimizzazione che fa capo agli sviluppatori di giochi. A ogni modo, le DirectX 12 faciliteranno la vita alle software house non solo con l'aggregazione, ma anche con l'SFR (split-frame rendering).
"Una delle grandi cose delle DirectX 12 sono le capacità definite come Explicit Asynchronous Multi-GPU", spiegano i colleghi. Le API combinano tutte le differenti risorse grafiche del sistema e le inseriscono in una sorta di calderone. Sarà poi lo sviluppatore del gioco a dividere il carico tra le differenti risorse a disposizione.
"A favorire questa nuova caratteristica che aiuta le configurazioni multi-GPU è che il frame buffer (la memoria a disposizione della GPU) non deve più essere rispecchiato. Con le API attuali, per beneficiare di più GPU e farle lavorare insieme ognuna deve renderizzare un frame alternato (AFR). Questo richiede di avere tutti i dati di texture e geometria nei rispettivi frame buffer, il che significa che nonostante si abbiano due schede da 4 GB di memoria, avrete ancora un frame buffer da solo 4 GB".
Le DirectX 12 rimuoveranno tutto questo grazie all'SFR, ossia lo Split Frame Rendering. Gli sviluppatori saranno in grado di dividere, manualmente o automaticamente, i dati di texture e geometria tra le GPU, e tutte le GPU potranno poi lavorare insieme su ogni frame. Ogni GPU poi lavorerà su una specifica porzione dello schermo, con il numero di porzioni equivalente al numero di GPU installate.
DX 12
"La nostra fonte suggerisce che questa tecnologia ridurrà nettamente la latenza e la spiegazione è semplice. Con l'AFR un certo numero di frame deve essere in coda per fornire un'esperienza fluida, ma ciò significa che l'immagine a schermo sarà sempre 4-5 frame dietro gli input dell'utente".
"Questo favorisce un frame rate molto alto, ma la latenza rende il gioco meno reattivo. Con SFR, tuttavia, la queue depth è sempre pari a uno o meno e ogni GPU lavora su una parte differente dello schermo. Con la queue depth che scende, il frame rate dovrebbe salire per via delle risorse liberate".
"Legando più GPU insieme, le DirectX 12 trattano l'intero sottosistema grafico come un'unica e più potente scheda grafica. Così, gli utenti ottengono la stabilità di lavorare con una singola GPU, ma con più schede video", concludono i colleghi.
Per avere maggiori informazioni e dettagli non ci resta che attendere la GDC 2015, tra il 2 e il 6 marzo, palcoscenico in cui le DirectX 12 sanno uno degli argomenti principali. Incrociamo le dita, perché tra "sparate" più o meno veritiere e benchmark interessanti (qui e qui) la curiosità di saperne di più è più viva che mai.:)
Lights_n_roses
25-02-2015, 10:11
Giusto per speculare un po' dite che sarà difficile cambiare una R9 280X con le nuove schede AMD visto che top di gamma a parte, saranno tutti rebranding? Ovviamente il discorso è riferito all'acquisto di una scheda che costi massimo 250/260 euro ( quanto pagai la 280x in effetti..). Immagino che se le voci di corridoio sono vere, con quella cifra venga fuori una 290X rimarchiata...
jotaro75
25-02-2015, 10:17
Giusto per speculare un po' dite che sarà difficile cambiare una R9 280X con le nuove schede AMD visto che top di gamma a parte, saranno tutti rebranding? Ovviamente il discorso è riferito all'acquisto di una scheda che costi massimo 250/260 euro ( quanto pagai la 280x in effetti..). Immagino che se le voci di corridoio sono vere, con quella cifra venga fuori una 290X rimarchiata...
Dipende vendendo la tua quanto dovresti sborsare di differenza...ma ne vale veramente la pena?alla fine è già una bella scheda la 280x se non sbaglio....
Lights_n_roses
25-02-2015, 10:54
Dipende vendendo la tua quanto dovresti sborsare di differenza...ma ne vale veramente la pena?alla fine è già una bella scheda la 280x se non sbaglio....
si non è male, io però l'ho abbinata ad un AMD FX-8320 (overclokkato a 4.3 ghz) e con i filtri AA abilitati spesso accusa un pochino..
(gioco in fullhd...)
amon.akira
25-02-2015, 12:40
Il dfrc non mi convince del tutto. Non amo le fluttuazioni di frequenza.
Gia' i vari boost non mi sono mai piaciuti molto. Non vorrei che in giochi con escursioni di complessita' notevoli la scheda avesse comportamenti anomali da causare piu' problemi che vantaggi.
L'altra cosa che mi chiedo e':
ma se cercano adesso un ingegnere per i drivers, prima chi diavolaccio c'era a fare il suo lavoro? Dopotutto non e' un'azienda di 4 gatti... possibile che non ci fosse gia' una figura del genere?
Certo meglio tardi che mai, ma meglio prima...
PS: poi io assumerei anche il tizio di radeonpro...
esatto e veramente già ora fluttuano le frequenze se il carico non è eccessivo, infatti per tenerla sempre a 1100 vado sempre di radeonpro finchè sarà possibile.
pensa che mi aspettavo un annuncio inverso, un opzione tipo radeonpro per bloccare le freq durante i giochi.
Radeon80
25-02-2015, 14:12
Mi chiedo perchè AMD ci stia mettendo cosi tanto a rilasciare la serie R7/R9 3xx.
La quota di mercato delle scheda grafiche discreta di AMD è scesa al 24% e lo ritengo una situazione disastrosa.
Farebbero bene a darsi una mossa se non vuole perdere altre quote di mercato.
amon.akira
25-02-2015, 16:29
il tizio di radeonpro è stato assunto da quelli che fanno raptr che poi è integrato nei driver amd (seppur opzionale).
il dfrc è stato già avvistato in una release di driver per windows 10. E' un limitatore di frame per come lo aveva radeonpro, quindi a meno che non state intendendo un'altra opzione, di dinamico non ha nulla, nessuna fluttuazione, si impostano 75fps ed il gioco non andrà oltre i 75fps (ma chiaramente può scendere sotto se l'hw non ce la fa senza avere i tagli effettuati dal vsync, ne l'input lag dello stesso). Ovvio che i consumi migliorano, tanti giochi con hw top gamma sparano 150fps e se a me ne bastano 60 le schede lavorano senza essere spremute.
praticamente il lock frame rate di radeonpro
io invece intendevo il force clock del radeonpro, perchè senza in alcuni giochi specie se leggeri fa oscillare il clock poichè vede meno carico però come c'è subito carico crea ovviamente dei rallentamenti.
mirkonorroz
25-02-2015, 17:22
il tizio di radeonpro è stato assunto da quelli che fanno raptr che poi è integrato nei driver amd (seppur opzionale).
il dfrc è stato già avvistato in una release di driver per windows 10. E' un limitatore di frame per come lo aveva radeonpro, quindi a meno che non state intendendo un'altra opzione, di dinamico non ha nulla, nessuna fluttuazione, si impostano 75fps ed il gioco non andrà oltre i 75fps (ma chiaramente può scendere sotto se l'hw non ce la fa senza avere i tagli effettuati dal vsync, ne l'input lag dello stesso). Ovvio che i consumi migliorano, tanti giochi con hw top gamma sparano 150fps e se a me ne bastano 60 le schede lavorano senza essere spremute.
In effetti non so se ho capito bene ma, se fosse:
- la gpu in vari frangenti (e qui e' appunto da vedere quanti sono i vari) mi permette di rederizzare a 150 FPS (e' solo un es.)
- allora faccio limitare i frame a 60 (sempre per es.)
-- se lascio la frequenza invariata ho comunque meno carico sulla GPU
-- ma posso anche diminuire la frequenza se in qualche modo riesco a capire quella minima per avere i 60 FPS (e questo e' quello che pensavo volessero implementare)
- se capito in un frame complesso da calcolare, che magari richiede piu' della frequenza che ho appena assegnato per avere i 60 FPS, la aumentero' "alla bisogna".
Quindi, per me una fluttuazione continua ci sara':
Supponiamo in un fps, di alternare continuamente la visuale del cielo con quella di una foresta pesantissima. Con quel meccanismo mi sembrerebbe che dovesse accadere un continuo adattamento in frequenza che non so quanta inerzia possa, sia portarsi dietro (generare) sia esserne immune (fare fronte a).
Ovviamente ci sara' da vedere anche come le eventuali escursioni termiche che mi aspetto in maniera piu' considerevole influiscano sulle ventole autoregolanti e anche qui tenendo conto dell'aspetto inerziale.
Mah... vedremo. Poi magari ho sbagliato tutto :D
ombramortale
25-02-2015, 19:06
PS: poi io assumerei anche il tizio di radeonpro...
... non è nel team che ha sviluppato raptr?
Quel bellissimo programma di AMD che ti dà punti se ti iscrivi ai casinò online :muro:
mirkonorroz
25-02-2015, 20:25
... non è nel team che ha sviluppato raptr?
Quel bellissimo programma di AMD che ti dà punti se ti iscrivi ai casinò online :muro:
Benone... bello spreco di risorse.
Non ho mai approfondito cosa sia raptr, ma sentivo puzza di condivisione e social (e inutilita') e non l'ho mai installato :stordita:
nasone32
26-02-2015, 07:40
Ci sono molti approcci validi per fare una cosa del genere e si possono combinare assieme:
Tramite i driver é possibile tranquillamente fare una stima del lavoro richiesto per renderizzare il frame successivo, ed é anche possibile renderizzare uno o piu frame in anticipo (ovviamente aggiungendo una piccola latenza) e sapere il tempo impiegato per renderizzare il frame, ed eventualmente salire di frequenza nel frame successivo.
Oppure possono implementare una modalità di apprendimento e dopo una sessione di gioco, conoscendo il minimo frame rate, avere una base di partenza per il clock della scheda.
maurilio968
26-02-2015, 07:54
A ogni modo, le DirectX 12 faciliteranno la vita alle software house non solo con l'aggregazione, ma anche con l'SFR (split-frame rendering).
...
Le DirectX 12 rimuoveranno tutto questo grazie all'SFR, ossia lo Split Frame Rendering. Gli sviluppatori saranno in grado di dividere, manualmente o automaticamente, i dati di texture e geometria tra le GPU, e tutte le GPU potranno poi lavorare insieme su ogni frame. Ogni GPU poi lavorerà su una specifica porzione dello schermo, con il numero di porzioni equivalente al numero di GPU installate.
...
Per avere maggiori informazioni e dettagli non ci resta che attendere la GDC 2015, tra il 2 e il 6 marzo, palcoscenico in cui le DirectX 12 sanno uno degli argomenti principali. Incrociamo le dita, perché tra "sparate" più o meno veritiere e benchmark interessanti (qui e qui) la curiosità di saperne di più è più viva che mai.:)
infatti a me sa tanto di "sparata" (soprattutto quel "manualmente") almeno per ora.
Ho espresso qui i miei dubbi:
http://www.hwupgrade.it/forum/showpost.php?p=42170233&postcount=10238
Secondo me per implementare SFR servirà amche un cambio di architettura delle gpu.
Vedremo: felicissimo di essere smentito.
magnusll
26-02-2015, 10:18
infatti a me sa tanto di "sparata" (soprattutto quel "manualmente") almeno per ora.
Ho espresso qui i miei dubbi:
http://www.hwupgrade.it/forum/showpost.php?p=42170233&postcount=10238
Secondo me per implementare SFR servirà amche un cambio di architettura delle gpu.
Vedremo: felicissimo di essere smentito.
Lo SFR e' GIA' OGGI implementato sulle ATTUALI schede AMD con Mantle da Civilization: Beyond Earth. Leggiti il link che ho messo nel post immediatamente successivo al tuo.
maurilio968
26-02-2015, 11:25
Lo SFR e' GIA' OGGI implementato sulle ATTUALI schede AMD con Mantle da Civilization: Beyond Earth. Leggiti il link che ho messo nel post immediatamente successivo al tuo.
Scusa in questo post effettivamente mi sono espresso male. Volevo dire che per implementare in modo EFFICACE sfr penso servano nuove architetture.
Nel post iniziale dove scrivo di sfr si legge bene che non discuto se sia possibile usarlo sulle attuali schede ma solo quanto può essere utile davvero per incrementare le performance in SLI.
Quel link lo oconoscevo già e come vedi non hanno provato lo sli.
Semmai qui:
http://anandtech.com/show/8640/benchmarked-civilization-beyond-earth/4
hanno fatto i test singola 290x sia directx11 che mantle contro cross di
290 x sia directx11 che mantle proprio su quel gioco.
posto le immagini dei risultati:
http://images.anandtech.com/doci/8640/civilization-beyond-earth-single-gpu-vs-crossfire-fixedsfr.png
http://images.anandtech.com/doci/8640/civilization-beyond-earth-minimums-single-gpu-vs-crossfire-fixedsfr.png
commento del recensore:
CrossFire 290X ends up pushing past the 60FPS barrier, even at 4K with 4xMSAA, so that's quite a feat. Except, minimum frame rates take a hit and go from 32FPS with a single 290X to 20FPS with CrossFire 290X. Enabling Mantle changes the story quite a bit; the CrossFire Mantle configuration can't quite push past 60FPS, but at 56FPS it's at least close and the minimum frame rate of 37FPS is better than both the single GPU and single GPU with Mantle figures.
Qui bisognerebbe analizzare quanto conta SFR e quanto altre ottimizzazioni insite in mantle che non riguardano SFR (per esempio sui minimi una 290x con mantle (che non usa SFR perchè singola)è sempre abbastanza sopra al cross di 290x in directx 11).
Io azzarderei questo commento nel confronto tra 290x con mantle (che non usa SFR perchè singola) e Cross di 290x con mantle che usano SFR: i miglioramenti ci sono, ci mancherebbe, ma dai grafici non mi sembrano granchè (soprattutto l'andamento dei minimi).
Comunque secondo me quel solo gioco è troppo poco per farsi una idea.
Sono ben contento della novità, ho solo espresso un dubbio che spero sia smentito.
nasone32
26-02-2015, 14:22
Ma no, Stai ragionando al contrario!, cioe tu credi che per fare una cosa del genere ci vuole una architettura, diciamo con due schede che possano comunicare velocemente tra loro, o accedere velocemente una alla memoria dell'altra.
Non hai afferrato che stanno cercando di fare il lavoro contrario, cioe massimizzare la divisione dei compiti, in modo che ogni scheda faccia "il suo" il piu possibile e la scena venga poi solo assemblata. Cosi da RIDURRE la comunicazione tra le schede.
Per questo si parla di architetture attuali e addirittura di far lavorare assieme schede completamente diverse.
Ci sarà sempre un overhead di memoria, ma ogni unitá grafica viene virtualizzata. Pensa a un raid JBOD software o ai dischi dinamici su windows. metti dischi di capacita diversa assieme a caso, anche partizioni di essi, ma il sistema te lo vede come un disco unico. Completamente trasparente ai programmi e all'utente, tutto fatto via driver.
Le schede moderne sono talmente programmabili che non serve una architettura nuova per nessun motivo. Hai mai lanciato un programma in openCL su un sistema con piu schede? Io si e ho mixato 7950 con 6990 e r9 290. Aggiungi una scheda e aggiungi potenza di calcolo. Si fa già, basta implementarlo nella grafica...
magnusll
26-02-2015, 14:29
Scusa in questo post effettivamente mi sono espresso male. Volevo dire che per implementare in modo EFFICACE sfr penso servano nuove architetture.
Nel post iniziale dove scrivo di sfr si legge bene che non discuto se sia possibile usarlo sulle attuali schede ma solo quanto può essere utile davvero per incrementare le performance in SLI.
Lo SLI non si puo' provare perche' al momento l' SFR con Nvidia non e' utilizzabile. Lo sara' (apparentemente) quando usciranno le DX12 ma ad oggi l' unico framework che rende realizzabile l' SFR e' Mantle e questo ovviamente lo limita alle schede AMD.
Per il resto, l' analisi di Anandtech concorda con quella che avevo linkato io; in buona sostanza rispetto al "normale" AFR del Crossfire l' SFR di Mantle ottiene frame medi inferiori ma frame minimi superiori. Il che e' logico pensando alle differenze tra le due tecniche.
Il punto e': l' SFR e' tecnicamente fattibile anche con le schede attuali nel momento in cui mi dai un set di librerie che mi permettano di allocare i vari pezzi di VRAM delle GPU come dico io e non come dice la libreria/il driver. In realta' solo l' allocazione esplicita della VRAM non basta, ci vogliono anche alcune altre funzioni ma insomma il punto e' che a livello teorico si puo' fare, non serve hardware dedicato.
Su quanto poi possa essere efficiente la cosa questo chiaramente dipende innanzi tutto dalle librerie stesse e in seconda battuta da come lo sviluppatore le sfrutta.
Non dico che avere hardware dedicato non aiuti, chiaramente una cosa del genere potrebbe senz' altro portare dei benefici, ma onestamente dubito che il problema poi sia un qualche pezzo che scambia dati di VRAM tra le due (o piu') GPU. Per forza di cose un elemento del genere dovrebbe in qualche modo essere esterno alla scheda stessa, e quindi a latenze superiori, a meno di non volerlo limitare a schede multi-GPU "di fabbrica". Ma il discorso e' che alla fine se l' implementazione dell' SFR e' fatta con criterio non e' che le due schede debbano poi scambiarsi tutti 'sti dati. E' proprio quello il punto.
Ale55andr0
26-02-2015, 16:07
Ma vi pare normale lasciare 6 mesi di vantaggio alla concorrente e ancora non si sa nulla su queste schede?
no, come non mi pare normale riproporre la medesima architettura, pur affinata, dopo 4 anni e passa (GCN fu introdotto a fine gennaio 2011 se ben ricordo).
...mo' arriva la reply di frozen che fa l'avvocato del diavolo :D
:asd:
Cattivo!
Se ti danno una gcn 1.3 che va come maxwell quindi la schifi perche si chiama ancora gcn? :asd:
nasone32
26-02-2015, 16:40
Invece pensa te, man mano che passa il tempo le architetture saranno sempre piu simili e cambieranno sempre meno, finche la tecnologia resta questa e non ce qualche super scoperta rivoluzionaria. Puoi ottimizzare fino a un certo punto... Scusa, credi che si possano inventare architetture nuove all'infinito? Fosse cosi facile...
Mi sembra che l'architettura del tuo frigo e della tua auto non siano sostanzialmente diverse da 50 anni fa.
Pensa invece che stiamo scalando sempre meno anche sulla litografia.
Ah e le memorie 3d non sono una novità? Dovevano chiamarla STA invece di GCN. super troll architecture. Cosi eri contento :asd:
Lol
Giuro che non ho un secondo account :asd:
nasone32
26-02-2015, 16:44
Persino i nuovi i7 di intel alla fine sono dei... Pentium 3. Molto affinati, ovviamente :asd:
Radeon80
26-02-2015, 17:13
Ma vi pare normale lasciare 6 mesi di vantaggio alla concorrente e ancora non si sa nulla su queste schede?
Sono concorde che lasciare tutto questo tempo di vantaggio a Nvidia non è stato furbo da parte di AMD e infatti la quota di mercato delle schede discrete e scesa al 24% e la ritengo una situazione disastrosa.
Farebbero bene a darsi una mossa a rilasciare le nuove GPU perchè anche io mi sto cominciando a rompere ad aspettare.
Radeon80
26-02-2015, 17:30
Per me l'architettura GCN va ancora benissimo e non ci vedo niente di strano nel mantenere ancora tale base nelle generazione di schede che sta per uscire.
Infatti la revisione fatta con Tonga mi ha impresso positivamente tanto che appena rilasciarenno la versione full me la compro.
Il capitolo consumi merita un discorso a parte.
E' vero che attualmente GCN nelle versione 1.0 e 1.1 consuma(a parte Pitcairn e Bonaire) davvero troppo e che devono abbassare i consumi per rendere le schede più parche,ma che il consumo diventi la cosa più importante e il resto non conti più niente la ritengo una questione sbagliatissima.
Nvidia con le GTX 970 e 980 a livello di marketing ha spinto sopratutto sulla questione dell'efficienza energetica più che sulle prestazione e vedo che tanto. gente ci è cascata come dei polli tanto che ancora oggi ne vendono tante.
Per me se si punta molto sull'efficienza energetica in una GPU lo si fa anche per rendere una scheda video più corta,con dissipatore meno rumoroso e ingombrante e francamente con le GTX 970 e 980 questo non è avvenuto e anzi e successo il contrario.
La r9 285(a parte del problema dei 2 soli gb di vram e del prezzo alto) guarda caso è riuscita nell'obbiettivo di risultare come scheda più corta come PCB e con dissipatore meno ingombrante e rumoroso.
Però vedo che nessuno ci fa caso a queste cose e io le ritengo importanti.
Ale55andr0
26-02-2015, 17:46
:asd:
Cattivo!
Se ti danno una gcn 1.3 che va come maxwell quindi la schifi perche si chiama ancora gcn? :asd:
se per andare come la full maxwell gli serviranno un paio di terabyte di bandwidth e un dissipatore a liquido per non pigliar fuoco, qualche rimostranza sul mantenimento di questa architettura l'avrei...:D
Ale55andr0
26-02-2015, 17:47
Persino i nuovi i7 di intel alla fine sono dei... Pentium 3. Molto affinati, ovviamente :asd:
allora amd che aspetta ad affinare gli athlon, sai le sberle che piglia intel? :sofico:
se per andare come la full maxwell gli serviranno un paio di terabyte di bandwidth e un dissipatore a liquido per non pigliar fuoco, qualche rimostranza sul mantenimento di questa architettura l'avrei...:D
ah beh se la r9 290x è vecchia (come architettura) e va poco meno di una 980 uscita poco fa ad un prezzo di 150/200 euro in meno io non ci sputo per nulla sopra anzi prenderei la r9 290x sicura..quindi non penso che le serva un terabyte di bandwidth ad amd....
allora amd che aspetta ad affinare gli athlon, sai le sberle che piglia intel? :sofico:
:asd:
Ale55andr0
26-02-2015, 21:26
..quindi non penso che le serva un terabyte di bandwidth ad amd....
what? ti ricordo che la 980 usa un chippetto con un minor numero di unità elaborative e con appena 224gb di bandwidth, contro i 320 di una 290... è chiaro come la luce del sole quale sia fra le due l'architettura che ha "più cavalli al litro". Ed anzi è proprio maxwell che mostra a chi più sopra diceva che oramai c'è poco da migliorare che non è così nemmeno per sbaglio visto che nvidia sta davanti con un chip d fascia media (volutamente sovraprezzato), con meno banda a disposizione e che consuma meno il tutto sullo stesso processo produttivo! questa si chiama naturale evoluzione tecnologica...ma se in amd preferiscono imboccare la stessa strada presa con le cpu che facciano pure, che posso di? :fagiano: siamo stati tanto bravi a perculare nvidia per gli eterni rebrand delle 8800 ed ora che amd, che sta pure dietro tecnologicamente (mentre nvidia lo faceva perchè poteva permetterselo) fa lo stesso ci arrampichiamo sugli specchi e diciamo che va bene così :fagiano:
matteo170693
26-02-2015, 21:28
non conosco i dettagli sulla nuova generazione di schede, potete darmi una mano facendo un pochino di chiarezza?
vorrei capire se uscirà qualcosa di decente nella fascia 150-250€, grazie :)
mikael84
26-02-2015, 22:03
what? ti ricordo che la 980 usa un chippetto con un minor numero di unità elaborative e con appena 224gb di bandwidth, contro i 320 di una 290... è chiaro come la luce del sole quale sia fra le due l'architettura che ha "più cavalli al litro". Ed anzi è proprio maxwell che mostra a chi più sopra diceva che oramai c'è poco da migliorare che non è così nemmeno per sbaglio visto che nvidia sta davanti con un chip d fascia media (volutamente sovraprezzato), con meno banda a disposizione e che consuma meno il tutto sullo stesso processo produttivo! questa si chiama naturale evoluzione tecnologica...ma se in amd preferiscono imboccare la stessa strada presa con le cpu che facciano pure, che posso di? :fagiano: siamo stati tanto bravi a perculare nvidia per gli eterni rebrand delle 8800 ed ora che amd, che sta pure dietro tecnologicamente (mentre nvidia lo faceva perchè poteva permetterselo) fa lo stesso ci arrampichiamo sugli specchi e diciamo che va bene così :fagiano:
Tecnicamente Maxwell a default è piccola ma più potente perchè utilizza clock diversi oltre alle varie ottimizzazioni.
Una 290 ha 4,83TF, una 980 5,2TF
Fronte rops il vantaggio è decisamente enorme, quasi doppio, mentre la banda non va presa come una 224gb se la paragoniamo ad una compressa.
La decompressione rops garantisce un miglioramento del circa 40% su un 256bit e 50% su un 512bit..
In linea di massima la banda di Maxwell equivale a 300-315gb di una kepler-AMD
Ale55andr0
26-02-2015, 22:06
e infatti quel che sostenevo è per l'appunto che maxwell è superiore come architettura e che non è affatto vero che oramai non c'è molto da migliorare nel disegno delle moderne cpu/gpu :)
Horizont
27-02-2015, 07:49
non conosco i dettagli sulla nuova generazione di schede, potete darmi una mano facendo un pochino di chiarezza?
vorrei capire se uscirà qualcosa di decente nella fascia 150-250€, grazie :)
Anche io sono alla ricerca della mia prossima 7950, che sia nvidia o ati :)
Per principio non ho preso una 970, visto e considerato i recenti avvenimenti...e per un mini itx non me la sono sentita di prendere una 290X, sarebbe stata il top.
vorrei una bella vga di medio alta fascia con 4gb di ram e soprattutto che sia parca, evitando di consumare e riscaldare troppo.
mircocatta
27-02-2015, 08:01
Per me se si punta molto sull'efficienza energetica in una GPU lo si fa anche per rendere una scheda video più corta,con dissipatore meno rumoroso e ingombrante e francamente con le GTX 970 e 980 questo non è avvenuto e anzi e successo il contrario.
Allora, abbiamo le versioni gigabyte, msi e asus 970/980 che rimangono silenziose in full non superando i 65 gradi, abbiamo le msi, asus strixx e galax (se non ricordo male) 970/980 che in idle spengono le ventole quindi 0db, e in full rimangono molto silenziose
i modelli msi e asus strix e zotac amp sono schede bene o male "corte", considerando che sono di fascia TOP, per non parlare delle evga, zotac base e altre che montano il pcb CORTO, sono davvero mignon, sai? ne monto 2 sotto liquido e sembrano due schede auido viste le dimensioni
ora spiegami, in che universo parallelo hai vissuto negli ultimi 6 mesi?
nasone32
27-02-2015, 11:03
e infatti quel che sostenevo è per l'appunto che maxwell è superiore come architettura e che non è affatto vero che oramai non c'è molto da migliorare nel disegno delle moderne cpu/gpu :)
c'è sicuramente molto da migliorare, ma non devi aspettarti una architettura nuova ogni anno. i miglioramenti vanno semmai con le nuove feature dei giochi e delle api, ma non "così" perchè uno si sveglia e guadagna il 30% cambiando qualcosa. altrimenti chi ha progettato l'architettura precedente era un deficiente.
per la storia di virtualizzare le schede, mi sono ricordato che nel 2009 era uscito il lucid hydra, un chip da montare sulle schede madri come bridge pci express che permetteva di fare crossfire e sli ibridi, anche ati-nvidia.
ottimizzato male, abbandonato e tutto quello che vuoi, ma la bontà alla fine si basava tutta sui driver lucid, come tutti i driver di terze parti ha sempre enormi limiti.
ed era in SFR non AFR! faceva poi il composing della scena sulla scheda attaccata al monitor, che doveva essere la più veloce delle due.
...altro che architetture nuove, lo faceva su quelle di 6 anni fa che nemmeno esistevano le dx11 :D
se questa cosa venisse fatta a livello API mantle o dx12 rischia di funzionare bene.
http://i58.tinypic.com/33zbw54.jpg
matteo170693
27-02-2015, 12:53
Anche io sono alla ricerca della mia prossima 7950, che sia nvidia o ati :)
Per principio non ho preso una 970, visto e considerato i recenti avvenimenti...e per un mini itx non me la sono sentita di prendere una 290X, sarebbe stata il top.
vorrei una bella vga di medio alta fascia con 4gb di ram e soprattutto che sia parca, evitando di consumare e riscaldare troppo.esattamente quel che cerco io.
ho avuto una 6870, poi un crossfire di 6870, quindi 7950, 7870 e infine 7970. al momento sono senza vga e vorrei capire se ha senso aspettare o posso anche cominciare a cercare una 280x - 7970 usata sui 130-140€
Einhander
27-02-2015, 13:30
what? ti ricordo che la 980 usa un chippetto con un minor numero di unità elaborative e con appena 224gb di bandwidth, contro i 320 di una 290... è chiaro come la luce del sole quale sia fra le due l'architettura che ha "più cavalli al litro". Ed anzi è proprio maxwell che mostra a chi più sopra diceva che oramai c'è poco da migliorare che non è così nemmeno per sbaglio visto che nvidia sta davanti con un chip d fascia media (volutamente sovraprezzato), con meno banda a disposizione e che consuma meno il tutto sullo stesso processo produttivo! questa si chiama naturale evoluzione tecnologica...ma se in amd preferiscono imboccare la stessa strada presa con le cpu che facciano pure, che posso di? :fagiano: siamo stati tanto bravi a perculare nvidia per gli eterni rebrand delle 8800 ed ora che amd, che sta pure dietro tecnologicamente (mentre nvidia lo faceva perchè poteva permetterselo) fa lo stesso ci arrampichiamo sugli specchi e diciamo che va bene così :fagiano:
Vabbeh ma scusa eh le nuove r9 serie 300 si presentano con nuovi controller di memoria unita di compressione e nuovo layout di bus e ovviamente nuova tipologia di memoria 2.5d..
Ora se la chiamano sempre gcn vuol dire che non è cambiato nulla??
Non direi proprio. La sigla gcn l'ho sempre percepita come un marchio di riconoscimento generazionale ma che nel nome graphic core NEXT identifica sempre un miglioramento o una rivisitazione dell'architettura e se anche cambiasse completamente perché non chiamarla sempre gcn? Non è mica obbligatorio inventarsi nomi come fa nVidia per ogni novità più o meno marcata..
Senza contare che ora vedremo con il famigerato full Maxwell cosa combina e quanto consuma nVidia al massimo possibile e come saranno le prestazioni di questa fantomatica scheda rapportate alle r9 300.
Perche credo che i consumi aumenteranno un bel po' pur segnando le unita fp64.
Sul discorso percentuali di mercato mi pare che quelle da te indicate sia percentuali trimestrali non assolute...non credo che tutte le radeon siano improvvisamente scomparse per trasformarsi in nvdia : D
Ciò non toglie che sia una cosa negativa per AMD eh sia chiaro.
E cmq già ATI soffriva la maggior presenza di nVidia sul mercato e la sua migliore qualità a livello marketing, figuriamoci ora che AMD prende briscole da GENERAZIONI da Intel e deve pure fronteggiare nVidia sul settore GPU e in entrambi i casi AMD e il Davide della situazione non certo il Golia. Ergo ogni volta che AMD guadagna su nVidia dovrebbe contare il doppio invece è già tanto che non venga cmq sminuita se confrontata con gli avversari.
Non è una battaglia facile in senso assoluto e infatti dove sono i famigerati concorrenti di Intel o nVidia se togliamo AMD?
Chi rimane? Forse solo arm e cmq da meno di una decade a questa parte. Non esiste nessun altro e questo un idea della difficoltà di spuntare sul un mercato come questo contro QUESTE multinazionali un'idea seppur vaga dovrebbe darla, credo no?
Horizont
27-02-2015, 13:35
esattamente quel che cerco io.
ho avuto una 6870, poi un crossfire di 6870, quindi 7950, 7870 e infine 7970. al momento sono senza vga e vorrei capire se ha senso aspettare o posso anche cominciare a cercare una 280x - 7970 usata sui 130-140€
Te che non hai una vga puoi tranquillamente reperirne una ottima a pochi spiccioli.
Io che magari ho una 7950, sebbene non sia un mostro di scheda, allo stato attuale delle cose non ho un reale motivo di cambiare.
E' ovvio che guadagnerei in prestazioni con una 290x ma alla luce del costo/beneficio non avrebbe molto senso.
Ormai sono anni che vado di ATI e mi piacerebbe ripassare a Nvidia eventualmente ma quando ero in procinto di prendere una 970 ho letto la notizia delle spec "comunicate male" e mi sono fermato...era davvero perfetta, soprattutto in versione mini con l'asus o la gigabyte.
Peccato...però per principio la nvidia non vedrà i miei soldi, almeno spesi su quella scheda...è l'unica cosa che ho in potere di fare per mostrare il mio dissenso; non acquistarla.
Le mini non tengono manco le frequenza def senza throttle per il tdp risicato :asd: sappiatelo...
Cmq basta vedere il consumo di maxwell in gpgpu x capire che il gm200 in versione tesla dovra avere degli accorgimenti...altrimenti la fantomatica efficienza va a farsi benedire.... La 390 liscia sara la nuova 5850 imho.... Booom! Che bomba! :asd:
matteo170693
27-02-2015, 15:24
Te che non hai una vga puoi tranquillamente reperirne una ottima a pochi spiccioli.
Io che magari ho una 7950, sebbene non sia un mostro di scheda, allo stato attuale delle cose non ho un reale motivo di cambiare.
E' ovvio che guadagnerei in prestazioni con una 290x ma alla luce del costo/beneficio non avrebbe molto senso.
Ormai sono anni che vado di ATI e mi piacerebbe ripassare a Nvidia eventualmente ma quando ero in procinto di prendere una 970 ho letto la notizia delle spec "comunicate male" e mi sono fermato...era davvero perfetta, soprattutto in versione mini con l'asus o la gigabyte.
Peccato...però per principio la nvidia non vedrà i miei soldi, almeno spesi su quella scheda...è l'unica cosa che ho in potere di fare per mostrare il mio dissenso; non acquistarla.
infatti per il momento sto cercando qualcosa di usato....però ho notato che comunque sulla vga i prezzi si mantengono abbastanza alti anche qua nel mercatino.
EDIT: come non detto, ho fatto un acquisto lampo a mano (un mercatino locale su facebook) di una Sapphire 280X dual x con oltre 1 anno di garanzia residua a 140€....posso ritenermi soddisfatto
Horizont
27-02-2015, 16:37
infatti per il momento sto cercando qualcosa di usato....però ho notato che comunque sulla vga i prezzi si mantengono abbastanza alti anche qua nel mercatino.
EDIT: come non detto, ho fatto un acquisto lampo a mano (un mercatino locale su facebook) di una Sapphire 280X dual x con oltre 1 anno di garanzia residua a 140€....posso ritenermi soddisfatto
Ma sì, hai fatto bene come una qualsiasi altra vga di fascia media...voglio dire, di certo se giochi non potevi "campare" con la vga integrata :D
Le mini non tengono manco le frequenza def senza throttle per il tdp risicato :asd: sappiatelo...
Cmq basta vedere il consumo di maxwell in gpgpu x capire che il gm200 in versione tesla dovra avere degli accorgimenti...altrimenti la fantomatica efficienza va a farsi benedire.... La 390 liscia sara la nuova 5850 imho.... Booom! Che bomba! :asd:
Si infatti avevo letto del problema temp e throttle. Mi domando che minki@ le hanno fatte a fare... tanto belle e perfette per i rig mini-itx...poi vanno in fiamme O_o
Se mi fanno una 390x con 6gigi di ram :Q_
non dovrebbe essere una cosa così complicata se usano sto cavolo di 3D HBM, sempre se abbia capito correttamente cosa sia :sofico:
EDIT: momento, momento, momento, mooomento, moooooomento... ma se questo è vero http://en.wikipedia.org/wiki/AMD_Radeon_Rx_300_Series la 390 è a 6gigi e la 390x è a 8gigi?? sbavo abbestia Q_Q
scusatemi, è probabile che tante cose date per scontato io ancora non le so :/
comunque davvero, la 390x è la morte mia Q_Q
No Life King
27-02-2015, 18:13
momento, momento, momento, mooomento, moooooomento... ma se questo è vero http://en.wikipedia.org/wiki/AMD_Radeon_Rx_300_Series la 390 è a 6gigi e la 390x è a 8gigi?? sbavo abbestia Q_Q
scusatemi, è probabile che tante cose date per scontato io ancora non le so :/
comunque davvero, la 390x è la morte mia Q_Q[/B]
Io non mi fiderei di quello che trovo scritto su Wiki, piuttosto credo di più a queste specifiche: http://videocardz.com/amd/radeon-rx-300/radeon-r9-390x
Ale55andr0
27-02-2015, 18:23
c'è sicuramente molto da migliorare, ma non devi aspettarti una architettura nuova ogni anno.
ogni anno? ma se sono 4 anni e mezzo che amd è rimasta impantanata con gcn 1.0, 1.1, 1.2, 1.3, 1.345 ecc :sbonk: credo abbia battuto ogni record di riciclo architettura, pure quello delle 8800 :sofico:
Ale55andr0
27-02-2015, 18:35
Vabbeh ma scusa eh le nuove r9 serie 300 si presentano con nuovi controller di memoria unita di compressione e nuovo layout di bus e ovviamente nuova tipologia di memoria 2.5d..
non ho detto che non cambia NULLA :read:, ma di base, la sostanza è sempre quella, per cambio architetturale si intende un chip ridisegnato da 0 o giu di li, come fu per il passaggio a gcn dopo vliw4 (architettura completamente diversa) e com'è stato adesso per nvidia passando a maxwell. Da ricordare poi che le modifiche/migliorie all'architettura non è neppure sicuro che verranno applicate a tutti i modelli, visto che ad oggi si è parlato di gcn 1.3 solo dalla 390 a salire
Horizont
27-02-2015, 20:32
Io non mi fiderei di quello che trovo scritto su Wiki, piuttosto credo di più a queste specifiche: http://videocardz.com/amd/radeon-rx-300/radeon-r9-390x
Prezzo di lancio 600 dollari?
Infarto multiplo :D
Beh ma comunque anche fosse 4gb non sarebbe male in ogni caso.
Einhander
28-02-2015, 12:39
non ho detto che non cambia NULLA :read:, ma di base, la sostanza è sempre quella, per cambio architetturale si intende un chip ridisegnato da 0 o giu di li, come fu per il passaggio a gcn dopo vliw4 (architettura completamente diversa) e com'è stato adesso per nvidia passando a maxwell. Da ricordare poi che le modifiche/migliorie all'architettura non è neppure sicuro che verranno applicate a tutti i modelli, visto che ad oggi si è parlato di gcn 1.3 solo dalla 390 a salire
MA IO HO l'impressione che anche se cambiassero da zero l'architettura essa verrebbe cmq chiamata GCN, magari 2.0, ma sempre gcn...cioe' un po' come accade con la sigla commerciale r7, 29 e poi 200, 300, ..n ecc ecc.
Cmq secondo me non le conveniva manco lontanamente cambiare totalmente architettura senza cambiare il processo produttivo, tanto vale farlo con pp nuovo e via senza creare fastidiose architetture che siano in qualche modo limitate in origine dal legame con vecchi pp.
Nel mentre, pero', affina il memory controller e l'uso delle hbm..non e' poca roba, nvidia avra' il vantaggio dell'architettura al passaggio ai 16nm, ma cmq e' un'architettura che per quanto e' stata pensata per il 16nm e' cmq approdata ai 28nm e questo qualcosa a livello progettuale deve averlo comportato, ma allo stesso tempo e' indietro con la sperimentazione delle memorie hbm...senza contare che piu' andiamo a salire di risoluzione piu' l'architettura gcn mostra i muscoli, quindi chi l'ha detto che debba essere poi cosi' rivoiluzionata? per i consumi? ancora? per tipo che ne so' 20 euro a fine anno se tira male? ok ci puo' stare, perche' tanto il trend lo stabilisce ogni volta nvidia, ma secondo me la vera differenza e' che amd deve fracassargli le ossa a livello prestazionale dal fullhd in su in modo NON LINEARE, ovvero piu' si sale piu' il divario aumenta, perche' e' chiaro che prima o poi anche il fullhd passera' di moda per queste schede e in parte e' gia cosi' ed e' li che secondo me amd attualmente e' molto avanti e continuera' ad esserlo anche in futuro.
Quindi vediamo perche' se il full maxwell va meno di una 390x, allora maxwell non e' poi questo granche' visto che viene pestato da una vecchissima architettura...e non credere che i consumi saranno poi cosi' bassi con il chip full, senza contare che vabbeh loro segano le unita' a doppia precisione, tolgono feature dalle schede video e dovrebbe essere visto come un vantaggio solo perche' rispiarmio 20 dollari a fine anno? -perche' tanto per il calore ci pensano le varie after market..-
L'unica cosa che conta e' il prezzo\prestazioni come rapporto, almeno sulla fascia enthusiast, secondo me ovviamente eh.
appleroof
28-02-2015, 13:48
Che io sappia, tocca distinguere le scelte di fondo (superscalare, vliw etc) da cui partire, con la sua implementazione e organizzazione del chip (numero di sp, rops, FF varie ed assortite come tasselletor, mc, etc etc)
Quindi, se non dico inesattezze, per Nvidia ad esempio sotto questo punto di vista le varie gpu da g80 in poi non rappresentano altro che una profonda evoluzione, sempre legata però alla scelta di fondo della superscalare, con riorganizzazione interna delle varie gpu e aggiunta di funzioni via via richieste da dx11 e da ora dx12; poi siccome i cambiamenti nell'organizzazione del chip sono comunque importanti, cambia il nome in codice per distinguere le varie sotto-famiglie, come Fermi/Kepler/Maxwell/Pascal etc etc
AMD allo stesso modo ha fatto è vero una scelta radicale da vliw a vect4 (gcn) ma all'interno delle due filosofie ha avuto varie implementazioni come da r600 a Cayman e adesso da tahity ad Hawaii e così via, nulla insomma vieta di dire (rebranding a parte ovvio, quando ci sono da una parte e dall'altra) che le varie evoluzioni delle gpu, all'interno della filosofia vector, siano da considerare nuove architetture (perché magari i chip subiranno un'organizzazione interna anche profondamente diversa da distinguerle con nomi in codice e commerciali l'una dall'altra ma sempre con la filosofia di fondo fissa) che poi chiamerà gcn1/1.2 etc
Non esiste la scelta perfetta, ma esiste l'implementazione migliore e lo dimostra Nvidia che all'interno della superscalare ha raggiunto un rapporto performance/watt impensabile fino a pochi anni fa, o come lo dimostra AMD con l'evoluzione della vliw da r600 a Cayman con in mezzo la svolta radicale di rv770
adesso AMD ha scelto un'altra strada perché ritiene che la vect4 sia più adatta della vliw per i suoi scopi, credo che piano piano attenuerà i difetti di Hawaii in termini di efficienza energetica, oppure semplicemente sacrificherà questi aspetti per privilegiare solo la performance pura etc (come Nvidia fino a Fermi) chissà, questo si vedrà più in là, già a partire dai 16nm secondo me (con GCN 2.0?)
Non sono un tecnico, se ho scritto un mare di castronerie non mi linciate, ma da semplice appassionato la leggo così
Che io sappia, tocca distinguere le scelte di fondo (superscalare, vliw etc) da cui partire, con la sua implementazione e organizzazione del chip (numero di sp, rops, FF varie ed assortite come tasselletor, mc, etc etc)
Quindi, se non dico inesattezze, per Nvidia ad esempio sotto questo punto di vista le varie gpu da g80 in poi non rappresentano altro che una profonda evoluzione, sempre legata però alla scelta di fondo della superscalare, con riorganizzazione interna delle varie gpu e aggiunta di funzioni via via richieste da dx11 e da ora dx12; poi siccome i cambiamenti nell'organizzazione del chip sono comunque importanti, cambia il nome in codice per distinguere le varie sotto-famiglie, come Fermi/Kepler/Maxwell/Pascal etc etc
AMD allo stesso modo ha fatto è vero una scelta radicale da vliw a vect4 (gcn) ma all'interno delle due filosofie ha avuto varie implementazioni come da r600 a Cayman e adesso da tahity ad Hawaii e così via, nulla insomma vieta di dire (rebranding a parte ovvio, quando ci sono da una parte e dall'altra) che le varie evoluzioni delle gpu, all'interno della filosofia vector, siano da considerare nuove architetture (perché magari i chip subiranno un'organizzazione interna anche profondamente diversa da distinguerle con nomi in codice e commerciali l'una dall'altra ma sempre con la filosofia di fondo fissa) che poi chiamerà gcn1/1.2 etc
Non esiste la scelta perfetta, ma esiste l'implementazione migliore e lo dimostra Nvidia che all'interno della superscalare ha raggiunto un rapporto performance/watt impensabile fino a pochi anni fa, o come lo dimostra AMD con l'evoluzione della vliw da r600 a Cayman con in mezzo la svolta radicale di rv770
adesso AMD ha scelto un'altra strada perché ritiene che la vect4 sia più adatta della vliw per i suoi scopi, credo che piano piano attenuerà i difetti di Hawaii in termini di efficienza energetica, oppure semplicemente sacrificherà questi aspetti per privilegiare solo la performance pura etc (come Nvidia fino a Fermi) chissà, questo si vedrà più in là, già a partire dai 16nm secondo me (con GCN 2.0?)
Non sono un tecnico, se ho scritto un mare di castronerie non mi linciate, ma da semplice appassionato la leggo così
si puo dire lo stesso di intel lato consumer
la storia del motore a scoppio (fino ai giorni nostri) puo essere indicativa :asd:
Nella fascia enthusiast contano solo le prestazioni punto....se le 980 non fossero andate piu di una 780ti nonostante l'efficienza nessuno se le sarebbe cagate, per dire....
appleroof
28-02-2015, 15:11
si puo dire lo stesso di intel lato consumer
la storia del motore a scoppio (fino ai giorni nostri) puo essere indicativa :asd:
Bè insomma, scegliere una superscalare o una vliw etc non è proprio indifferente, tutte fanno girare i giochi, ma per dire le le gpu vliw di AMD erano piccole (con risvolti pure sui costi di produzione) e non consumavano molto in rapporto alle prestazioni, ma erano complicate da programmare etc, quelle superscalari Nvidia quasi l'opposto
Per stare al tuo esempio, è come decidere di muovere la macchina ma con il motore elettrico piuttosto che a scoppio, ciascuno avrà i suoi vantaggi e svantaggi, poi all'interno delle categorie motori a scoppio ed elettrici avrai le varianti ed implementazioni
nasone32
28-02-2015, 16:24
Boh A me piacciono le schede che scaldano... Di solito vuol dire che rimuovendo bene il calore, i margini di overclock sono piu grandi.
Se poi ci sono sezioni di alimentazione ben sovradimensionate...
Mi interessa piu il consumo in idle di quello sotto carico. Anzi Ormai neache quello visto che tra 10w e 1w non cambia un tubo
appleroof
28-02-2015, 18:58
Cvd
After that we’ve got the Arctic Islands family of GPUs. These will be the first set of high-performance graphics chips to be fabbed on a FinFET process. The new GPUs will introduce the most significant leap in performance/watt according to AMD’s Chief Technology Officer, Mark Papermaster. And will feature an all new post-GCN graphics architecture.
Si parla di 16nm e 2016, questo e altre cose molto interessanti qui
wccftech.com/amd-future-gpu-cpu-roadmap/
"AMD Radeon R9 390X Demo Possibly Coming At GDC"
possibilmente 8gb hbm cosi passo alle rosse e tanti saluti :asd:
Read more: http://wccftech.com/amd-radeon-r9-390x-gdc/#ixzz3T8tIrMAH
Sta arrivando il chippone :asd:
Nella fascia enthusiast contano solo le prestazioni punto....se le 980 non fossero andate piu di una 780ti nonostante l'efficienza nessuno se le sarebbe cagate, per dire....
dipende dal prezzo.
dipende dal prezzo.
Titan insegna
Horizont
01-03-2015, 16:34
Copiosa bava scende dalla mia bocca.
:Q___________
:Q___________
Quoto in toto :D Spero che si gioca finalmente in 4K
jotaro75
02-03-2015, 08:38
Quoto in toto :D Spero che si gioca finalmente in 4K
Guarda...io mi accontenterei di avere una scheda che mi faccia giocare bene(alto/ultra...più ultra che alto :D ) per almeno 2 o 3 anni a 1440p anche a configurazione con scheda singola...e dalle voce raccolte fino ad ora la 390x mi da delle grandi speranze :) anche io mi sa che farò il passaggio verso la rossa ;)
Io rimango dell'idea che per il 4k siamo ancora un po' indietro per giocarci come si deve e che bisognerà aspettare almeno un'altra generazione e il passaggio definitivo al prossimo pp. Ovviamente mi riferisco sempre a scheda singola
Horizont
02-03-2015, 09:39
Guarda...io mi accontenterei di avere una scheda che mi faccia giocare bene(alto/ultra...più ultra che alto :D ) per almeno 2 o 3 anni a 1440p anche a configurazione con scheda singola...e dalle voce raccolte fino ad ora la 390x mi da delle grandi speranze :) anche io mi sa che farò il passaggio verso la rossa ;)
Io rimango dell'idea che per il 4k siamo ancora un po' indietro per giocarci come si deve e che bisognerà aspettare almeno un'altra generazione e il passaggio definitivo al prossimo pp. Ovviamente mi riferisco sempre a scheda singola
Io sono d'accordissimo con te.
Ho come la sensazione che imbarcandosi con i 4k si facciano spese davvero un po' astronomiche e si debba comunque scendere a compromessi.
Invece una bella 390/390x fiammante nel case, un bel monitor 2k e passa la paura :D
Anche se ci sarebbe tutto un discorso per chi, come me, gioca anche su console nel quale use case un monitor 4k potrebbe essere veramente un'acquisto che guarda al futuro perchè giocherebbe in 1080p su console senza problemi di interpolazione del monitor (aspect ratio uguale) e magari anche col pc fino a che non si ha una macchina adatta e poi passare ai 4k quando sarà :)
Però poi io personalmente possiedo un rig mini-itx dove non posso tanto esagerare, insomma...una bella gatta da pelare :D
Guarda...io mi accontenterei di avere una scheda che mi faccia giocare bene(alto/ultra...più ultra che alto :D ) per almeno 2 o 3 anni a 1440p anche a configurazione con scheda singola...e dalle voce raccolte fino ad ora la 390x mi da delle grandi speranze :) anche io mi sa che farò il passaggio verso la rossa ;)
Io rimango dell'idea che per il 4k siamo ancora un po' indietro per giocarci come si deve e che bisognerà aspettare almeno un'altra generazione e il passaggio definitivo al prossimo pp. Ovviamente mi riferisco sempre a scheda singola
Quoto,super-quotone mega-quotone,mia stessa linea dipensiero.
Se questa scheda (a meno che non costi 700 euro) riesca a soddisfare quello che pensiamo io e te,anch'io passo alle rosse.:D
magnusll
02-03-2015, 11:09
Considerando che ad Aprile esce il primo monitor LCD decente (forse...) da 15 anni a questa parte e che la risoluzione e' un "banale" 1440, direi che il 4k e' ampiamente prematuro a meno di configurazioni multimonitor.
Considerando che ad Aprile esce il primo monitor LCD decente (forse...) da 15 anni a questa parte e che la risoluzione e' un "banale" 1440, direi che il 4k e' ampiamente prematuro a meno di configurazioni multimonitor.
Quale monitor dici?
Non si sa ancora cosa farà uscire Nvidia, e tutti a passare alle rosse :D
Poi uscirà la 980ti da 6GB, con minor consumi, e maggiori prestazioni della 390x, allo stesso prezzo :D
Io aspetterò prima entrambe le proposte, anche se preferisco il verde ;)
Inviato dal mio iPhone utilizzando Tapatalk
Non ne sarei cosi convinto soprattuttto x il prezzo uguale...
Non si sa ancora cosa farà uscire Nvidia, e tutti a passare alle rosse :D
Poi uscirà la 980ti da 6GB, con minor consumi, e maggiori prestazioni della 390x, allo stesso prezzo :D
Io aspetterò prima entrambe le proposte, anche se preferisco il verde ;)
Inviato dal mio iPhone utilizzando Tapatalk
nvidia a differenza di amd è nota (oltre all abbassamento dei consumi) per l abbassamento dei pantaloni :sofico:
vedi 780ti/980 certi salassi, oltre a soffrire di una certa stitichezza lato memoria
Infatti...vedasi le 980 8gb sparite dal orizzonte mentre le 290x ci sono gia nonostante a breve verranno declassate...
amon.akira
02-03-2015, 12:31
Se le facesse pagare quanto AMD, quest'ultima potrebbe chiudere, almeno in ambito in gaming, contando che le Nvidia consumano meno e vanno di più...
Per la stitichezza Nvidia ha fatto la furbetta (ed ho fatto anche la rima :D), però i benchmark parlano da soli, infatti 970 e 980, confrontate con le relative top di AMD di adesso vanno di più ;)
Ora si vedrà il confronto tra le 390, e le future verdi ;)
E sarà una questione di prezzo come sempre, per chi ha un budget da rispettare ;)
Inviato dal mio iPhone utilizzando Tapatalk
certo vanno un filo di piu con quasi 1anno dopo...ricordiamo che le 290ref uscirono a novembre 2013 :)
certo vanno un filo di piu con quasi 1anno dopo...ricordiamo che le 290ref uscirono a novembre 2013 :)
Appunto :asd:
Titan insegna
Cosa c'entra.
Se le 980 fossero andate anche leggermente meno delle 780ti costando 300 euro in meno ce le saremmo filati eccome.
certo vanno un filo di piu con quasi 1anno dopo...ricordiamo che le 290ref uscirono a novembre 2013 :)
A parte questo, quando trovi roba come 290 toxic a 235 non vedo alcun motivo per comprare una 970 a 300.
65 euro in più per differenze invisibili in qualsiasi condizione reale?
https://www.youtube.com/watch?v=_wEOK6Hf4h8
Sono fermamente convinto che una schema che scaldi e consumi meno valga di più, ma bisogna dare un valore a quel di più.
magnusll
02-03-2015, 13:54
Quale monitor dici?
Acer XB270HU. Il primo IPS a 144hz.
Purtroppo si pagheranno pure i 150 euro per il G-Sync (particolarmente inutile su questo perche' ha anche una tecnologia di low motion blur che e' incompatibile col G-Sync quindi o scegli una o l' altra), ma tanto dubito che l' avrebbero messo a poco comunque.
Qui la recensione di tftcentral:
Link (http://www.tftcentral.co.uk/reviews/acer_xb270hu.htm)
Horizont
02-03-2015, 14:04
Acer XB270HU. Il primo IPS a 144hz.
Purtroppo si pagheranno pure i 150 euro per il G-Sync (particolarmente inutile su questo perche' ha anche una tecnologia di low motion blur che e' incompatibile col G-Sync quindi o scegli una o l' altra), ma tanto dubito che l' avrebbero messo a poco comunque.
Qui la recensione di tftcentral:
Link (http://www.tftcentral.co.uk/reviews/acer_xb270hu.htm)
che bestia cavolo...
nessuno29
02-03-2015, 14:05
Se le facesse pagare quanto AMD, quest'ultima potrebbe chiudere, almeno in ambito in gaming, contando che le Nvidia consumano meno e vanno di più...
Per la stitichezza Nvidia ha fatto la furbetta (ed ho fatto anche la rima :D), però i benchmark parlano da soli, infatti 970 e 980, confrontate con le relative top di AMD di adesso vanno di più ;)
Ora si vedrà il confronto tra le 390, e le future verdi ;)
E sarà una questione di prezzo come sempre, per chi ha un budget da rispettare ;)
Inviato dal mio iPhone utilizzando Tapatalk
Quanti occhiolini,mi fai aRROSSire :D:D
mircocatta
02-03-2015, 14:22
Acer XB270HU. Il primo IPS a 144hz.
Purtroppo si pagheranno pure i 150 euro per il G-Sync (particolarmente inutile su questo perche' ha anche una tecnologia di low motion blur che e' incompatibile col G-Sync quindi o scegli una o l' altra), ma tanto dubito che l' avrebbero messo a poco comunque.
Qui la recensione di tftcentral:
Link (http://www.tftcentral.co.uk/reviews/acer_xb270hu.htm)
sicuro?
this is the first IPS-type panel to feature any kind of blur reduction mode at all. This comes in the form of the Ultra Low Motion Blur (ULMB) feature which is linked to the G-sync module.
magnusll
02-03-2015, 14:26
sicuro?
Purtroppo si:
For quick switching on and off it is also available via the quick launch menu option. It is only available when running the screen at 85 and 100Hz modes, not at 120Hz or 144Hz. The lack of support at the high refresh rates is probably related to a couple of factors. Mark Rejhon at Blurbusters.com talks about it a little in his post here as well. Firstly, to have effective "clean" strobing at 120Hz you really need pixel response times to be able to reach ~1ms G2G ideally, something that this IPS-type panel cannot reach. Even the best TN Film panels struggle to reach that kind of response time, so the strobing provided at 120Hz is still not clean. By limiting the ULMB to 100Hz maximum it is more appropriate for the kind of response times made possible from this new panel - which are excellent it should be noted for an IPS variant.
Secondly when you are using the ULMB feature you cannot use G-sync. As a result you are restricted to the Vsync on/off situation which we discussed earlier in the review. Limiting the refresh rate to 100Hz maximum is less of a drain on graphics resources than 120HZ/144Hz. You'd still need a beefy graphics capability to be able to output 100 fps consistently at 2560 x 1440 resolution, so we don't feel that the upper restriction here is really a massive issue. You still get fast pixel response times, 100Hz refresh rate and the benefits of perceived blur reduction discussed below.
Cosa c'entra.
.
Tu hai detto che conta il prezzo e io ti ho dettoche per l enthusiast contano solo le prestazioni altrimenti chi si filava titan a 900€ che andavano un 35% in piu di una 7970 da 400?????
Per tutto il resto vale il discorso prezzo/prestazioni (io ricado in questa fascia).
Il prezzo delle top lo fanno le orestazioni guarda caso o il riposizionamento rispetto ad un concorrente...non si è mai visto una top che va di piu del avversario e costa meno come ipotizzi tu....
Sono d'accordo... chi guarda al top non gliene frega nulla di:
- consumo
- prezzo
... importano solo le prestazioni...
Ok ma essendo gsync è condannato.... La versione freesync l hanno fatta tn :muro:
Assolutamente, infatti l'unico problema di Nvidia è il prezzo, ma riesce comunque a fare passi da gigante nell'ottimizzazione delle sue GPU (basti ricordare il forno Fermi :D), quindi direi che si è evoluta...
AMD dovrà farlo con queste 390, perché se facesse dei forni che consumassero come una centrale nucleare, le lascerei lì, anche andassero il doppio...
Detto questo, in quel video, la 970 va anche più della 290x in molti frangenti ;)
Inviato dal mio iPhone utilizzando Tapatalk
Opinabile.... Uscisse una 390x con le prestazioni, o poco meno, e i consumi di uno sli di 970 x stare sui 300w vedrai che si prendono la rossa... O almeno al tempo delle titan il mantra era quello "meglio singola" e venivano da sli, non da cf...
MrBrillio
02-03-2015, 16:24
Ovunque leggo di queste super prestazioni delle vga in arrivo...io sinceramente penso siano un po' ottimistiche. Mi sembra davvero strano che sia nvidia che Ati possano tirar fuori qualcosa che vada quanto 2 970...cioè si bruciano almeno 2 generazioni di schede video così per farci contenti? A me pare che da qualche anno si va avanti a scarti di massimo 20% di prestazioni tra una generazione e l'altra, quindi boh....oh che poi io sono il primo ad aver venduto una delle 2 980 che avevo in attesa di una vga con i controcaxxi eh...ma la vedo male
Se l andazzo delle dx 12 è confermato avremo multigpu con frame buffer che si sommano quindi potrebbe aver senso restare ancora a 4gb x ora....sulle 390 il discorso si complica essendo una nuova tecnologia infatti le 290x 8gb ddr5 ci sono.... Nvidia al solito ti fa pagare anche l aria sulla vram...le dx12 dal punto di vista multigpu aiutaeranno, mentre in singola gpu non esiste ancora una che vada in crisi in 4k x la ram, ma perche manca la birra...
Non sarebbe male se presentassero, oltre alla 390/390x anche la 360/360x (probabilmente rebrand) così da avere una idea del "massimo" e del "minimo" di questa generazione...
Domani finalmente sarà svelata la 390x :
http://hardware.hdblog.it/2015/03/02/AMD-Radeon-R9-390X-in-mostra-al-GDC-2015--Rumor/
.
killeragosta90
02-03-2015, 20:20
http://m.memegen.com/qv3lix.jpg
sgrinfia
02-03-2015, 22:05
scusate ragazzi, ma la nuova radeon r9 390x e una scheda con doppio processore grafico?,perché leggo che a 4096 stream processor, mi sembrano un po' tanti per un singolo processore.
scusate ragazzi, ma la nuova radeon r9 390x e una scheda con doppio processore grafico?,perché leggo che a 4096 stream processor, mi sembrano un po' tanti per un singolo processore.Singolo chip.
siluro85
02-03-2015, 22:08
Rumor dicono sia la single gpu e che anzi ci sia anche una 395x2 con 2 fiji xt
Obrigado
02-03-2015, 22:10
Purtroppo si:
e dove sta il problema?
a 85/100hz va benissimo e si ottiene il giusto livello di luminosita'
sai vero che in ulmb piu si sale di he e piu non si vede una mazza?
sgrinfia
02-03-2015, 22:14
Cavolo ,ma e un salto prestazionale abnorme.........., e giustificato da cosa?.
che MOSTRO .:eek:
Quindi 4096 sp e 4gb hbm certe cosi come il tdp sara uguale a quello di una 290x....speculando e con le debite proporzioni aritmetiche 256 tmu e 92 rops? :sofico:
Free Gordon
02-03-2015, 23:19
Grande curiosità.... :)
Resto ancora molto scettico sui 4096 sp...a meno che non abbiano natura abbastanza diversa da quelli di Hawaii...
Si senza cambiamenti sostanziali si avrebbe una padella piu che un chip :D con le hbm tutto l mc è sostanzialmente da rifare, cosi come il resto che ci sta in mezzo e per arrivare a 4096 sp con un die size alla 780 ti per dare l ultimo top size.....bhe non è semplicemente un gcn revised 2015 edisción....
mikael84
02-03-2015, 23:46
Si senza cambiamenti sostanziali si avrebbe una padella piu che un chip :D con le hbm tutto l mc è sostanzialmente da rifare, cosi come il resto che ci sta in mezzo e per arrivare a 4096 sp con un die size alla 780 ti per dare l ultimo top size.....bhe non è semplicemente un gcn revised 2015 edisción....
Secondo me saranno sempre 4 rasterizzatori da 16CU l'uno(anzichè 11) e 16/24/32 rops per anello
8 raster da 8CU mi sembra improbabile(128rops)
mircocatta
03-03-2015, 07:47
ci manca solo che pcars venga ottimizzato su amd e mi toccherà pensionare già lo sli :muro: :oink: :oink: :oink: :oink: :oink:
È il tuo alimentatore che te lo chiede, torna al lato rosso della forza!!!
:asd:
mircocatta
03-03-2015, 08:06
È il tuo alimentatore che te lo chiede, torna al lato rosso della forza!!!
:asd:
solo ed esculivamente se amd si sveglia con pcars, avrò un po di tempo per decidermi, almeno 3 mesi per vedere come andrà :O
solo ed esculivamente se amd si sveglia con pcars,
... in realtà sarebbero gli sviluppatori del gioco, a doversi "svegliare"... non certo amd (come già succede per TUTTI gli altri giochi "sponsorizzati nvidia"... non è certo "colpa" di amd, eh!) ;)
Gameworks colpisce ancora? :asd:
mircocatta
03-03-2015, 08:36
... in realtà sarebbero gli sviluppatori del gioco, a doversi "svegliare"... non certo amd (come già succede per TUTTI gli altri giochi "sponsorizzati nvidia"... non è certo "colpa" di amd, eh!) ;)
sono dell'idea che basterebbe un driver apposito che ancora non si è visto perchè effettivamente non è un gioco uscito ma solo in beta :)
sarà anche power by nvidia ma almeno non ha il gameworks, per fortuna aggiungerei!
Horizont
03-03-2015, 08:42
Andando lievemente OT ma non troppo...il GDC ha uno stream aperto a tutti o è solo per la press?
magnusll
03-03-2015, 08:43
e dove sta il problema?
a 85/100hz va benissimo e si ottiene il giusto livello di luminosita'
sai vero che in ulmb piu si sale di he e piu non si vede una mazza?
Il problema non e' l' ulmb, il problema e' che se compro quel monitor pago pure per il G-Sync che non uso.
Poi vabbe' se e' veramente bello come dice la recensione uno ci passa su, pero' da' fastidio.
Comunque il grande problema dell' IPS rimane il livello del nero pietoso, voglio prima leggere le impressioni di qualcuno che lo acquista.
Volevi dire del tn forse...
magnusll
03-03-2015, 09:17
Volevi dire del tn forse...
Dei TN fa schifo tutto per la qualita' visiva: livello del nero, contrasto, fedelta' cromatica e angolo di visione.
Gli IPS migliorano le ultime due ma quanto a livelli del nero c'e' ancora poco da scialare.
La verita' e' che i primi monitor veramente migliori dei CRT li vedremo quando si decideranno a produrre gli OLED per il mercato consumer (la Sony gia' li fa ma sono professionali e costano migliaia di euro).
Ho avuto modo di vedere un tv oled al aeroporto di Budapest l anno scorso (un LG) e non mi convinceva nonostante ottimo contrasti....mi sembrava pixelloso....cmq il futuro è quello, innegabile...
maurilio968
03-03-2015, 09:27
sembra che mantle verrà "pensionato" in favore delle directx 12 e delle nuove openGL
venendo relegato a "piattaforma per l'innovazione grafica disponibile a partner selezionati con particolari necessità"
http://community.amd.com/community/amd-blogs/amd-gaming/blog/2015/03/02/on-apis-and-the-future-of-mantle
quoto Raja Koduri(Vice President of Visual and Perceptual Computing at AMD) :
The Mantle SDK also remains available to partners who register in this co-development and evaluation program.
However, if you are a developer interested in Mantle "1.0" functionality, we suggest that you focus your attention on DirectX® 12 or GLnext.
riportato anche qui:
http://www.tomshw.it/cont/news/amd-mantle-directx-12-e-glnext-sono-alle-porte-il-futuro-e-da-riscrivere/62820/1.html
mircocatta
03-03-2015, 09:35
prevedibile che finisse così
per lo meno ha smosso le acque per le directx12..
maurilio968
03-03-2015, 09:42
AMD ed NVIDIA INSIEME danno consigli agli sviluppatori sulle nuove directx12 al GDC 2015 :
http://www.hardware.fr/news/14104/gdc-direct3d12-premiers-conseils-aux-devs.html
sembra che mantle verrà "pensionato" in favore delle directx 12 e delle nuove openGL
Ma nooooooooo!!???!!! :eek:
:sofico:
Adesso non ho voglia di cercarli.... ma all'epoca scrissi giusto un paio di post sul futuro (inesistente) di questa tecnologia "truform"-style... :asd:
francisco9751
03-03-2015, 09:53
beh secondo me amd l ha fatto per svegliare microsoft,sennò eravamo ancora con le dx11..
Inviato dal mio LG-D802 utilizzando Tapatalk
beh secondo me amd l ha fatto per svegliare microsoft,sennò eravamo ancora con le dx11..
Inviato dal mio LG-D802 utilizzando Tapatalk
ah beh... una mossa davvero furba, allora! :asd:
"Dai dai che investiamo milioni in un nuovo linguaggio di programmazione, ne spendiamo altrettanti per promuoverlo con accordi esclusivi e alla fine speriamo che Microsoft ci copi introducendo migliorie simili (per tutti) nelle future dx12!!!"
Non credo proprio che sia così... anzi, secondo me loro speravano proprio di poter sfruttare questo vantaggio "tecnologico" chissà per quanto tempo... :fagiano:
Sarebbe ora che AMD si rendesse conto che non è NVIDIA... non ha la capacità economica né (soprattutto) di "proselitisimo" (marketing) nel creare tecnologie proprietarie, anche se valide... :O
mircocatta
03-03-2015, 11:14
nessuna gnus sulle 390x ??
Caterpillar_WRT
03-03-2015, 11:24
ah beh... una mossa davvero furba, allora! :asd:
"Dai dai che investiamo milioni in un nuovo linguaggio di programmazione, ne spendiamo altrettanti per promuoverlo con accordi esclusivi e alla fine speriamo che Microsoft ci copi introducendo migliorie simili (per tutti) nelle future dx12!!!"
Non credo proprio che sia così... anzi, secondo me loro speravano proprio di poter sfruttare questo vantaggio "tecnologico" chissà per quanto tempo... :fagiano:
Sarebbe ora che AMD si rendesse conto che non è NVIDIA... non ha la capacità economica né (soprattutto) di "proselitisimo" (marketing) nel creare tecnologie proprietarie, anche se valide... :O
Io penso che Microsoft abbia pagato AMD per implementare l'idea di base sulle DX12.
Vendere le proprietà intellettuali è una delle attività di AMD.
jotaro75
03-03-2015, 11:28
Io penso che Microsoft abbia pagato AMD per implementare l'idea di base sulle DX12.
Vendere le proprietà intellettuali è una delle attività di AMD.
non mi sembrerebbe molto furba MS in questo caso...visto che ho appena letto su un altro sito che mantle è stata usata come base per l'implementazione delle GLNext che sono le "dirette" concorrenti delle directx
http://www.tomshw.it/cont/news/vulkan-le-nuove-opengl-pronte-a-sfidare-le-directx-12/62825/1.html
Radeon80
03-03-2015, 11:47
A me è parso di capire che nonostante Mantle si evolverà AMD continuerà a promuoverlo come API nei giochi.
Mantle viene dalle console raven, e non morirà quanto meno a breve...si avra come al tempo delle glide 3dfx, puoi usare quello generico di ms o usare su titoli rossi le api ottimizzate amd con un setting dalle opzioni video...non vedo il problema sinceramente... Non sara nvidia ma sta portando molti cambiamenti in un settore che l ultima innovazione tecnologica di rilievo era stata nel 15 18...
sgrinfia
03-03-2015, 13:16
ECCO come vera oltre-moto usato mantle,
home pageTom's HardwareSchede Video
Vulkan: le nuove OpenGL pronte a sfidare le DirectX 12 di Manolo De Agostini, 03 marzo, 2015 11:11
Il Khronos Group ha annunciato Vulkan, una nuova API di basso livello che raccoglie l'eredità delle OpenGL per proiettarsi nel futuro. 3
Le Next Generation OpenGL (glNext) hanno finalmente un nome, Vulkan. Come Mantle, DirectX 12 e Apple Metal, le nuove librerie - svelate alla GDC 2015 - diventano delle API di basso livello in grado di sfruttare meglio le caratteristiche dell'hardware, in modo da offrire maggiori prestazioni e funzionalità più avanzate.
Vulkan
Vulkan è una API grafica cross-platform aperta e, come tale, punta a offrire in un'unica entità ciò che finora era disponibile in modo separato con le OpenGL da una parte e le OpenGL ES dall'altra.
Vulka
Al momento lo sviluppo dell'API non è ancora terminato (le specifiche arriveranno entro l'anno), ma il Khronos Group che ne presiede lo sviluppo ha già dichiarato che le librerie saranno compatibili con ogni piattaforma che supporta le OpenGL ES 3.1 e successive, quindi con tutti i prodotti grafici moderni.
Vulka
I programmatori avranno a disposizione migliori strumenti di sviluppo, con layer di debug che potranno essere inseriti nella catena di rendering e usati durante lo sviluppo, in modo da effettuare un debugging approfondito.
Vulkan
Gli sviluppatori potranno anche eseguire test di conformità più efficaci. Secondo il Khronos Group l'API dovrebbe comportarsi in modo simile a Mantle e DX12, quindi chi sarà in grado di sfruttare tali librerie non avrà problemi a usare Vulkan.
Vulkan
Vulkan -
Vulkan nasce, se così vogliamo dire, sulla base di AMD Mantle. Non si trattadella stessa API, ma AMD ha contribuito allo sviluppo di Vulkan permettendo di usare Mantle per avviare il processo di sviluppo e velocizzarlo.
Vulkan
Vulkan -
Il Khronos Group ha poi lavorato sull'ottimizzazione, eliminando porzioni di codice inadatte (caratteristiche ne avrebbero limitato la compatibilità) e aggiungendo altre funzionalità ritenute necessarie o migliori.
SPIR-V
Vulkan supporterà più backend per gli shader. GLSL sarà il linguaggio di shading iniziale, ma sul lungo termine il Khronos Group vuole aggiungere altri linguaggi come C++. Il Khronos Group ha anche affermato che gli shader in Vulkan saranno compilati dagli sviluppatori in un bytecode derivato LLVM chiamato SPIR-V. In questo modo gli sviluppatori potranno scrivere in più linguaggi.
SPIR-V
L'annuncio di Vulkan è una buona notizia per tutti, soprattutto per il mondo del gaming Linux che nei prossimi mesi potrebbe crescere grazie al progetto SteamOS. "Eseguire il porting tra Vulkan e DirectX 12 non dovrebbe essere troppo difficile", ha dichiarato Neil Trevett, presidente del Khronos Group (e vicepresidente di Nvidia). "Il porting da DirectX 12 a Vulkan sarà più semplice del porting da DirectX 12 a OpenGL".
Il Khronos Group ha scelto la GDC 2015 per svelare la versione 2.1 delle OpenCL. Due le principali novità: OpenCL (calcolo) e Vulkan (grafica) finiscono sotto lo stesso tetto grazie a SPIR-V.
Asus STRIX GeForce GTX 970
Asus STRIX GeForce GTX 970 € 361,34Acquista+
Sapphire Vapor-X R9 290X 8 GB
Sapphire Vapor-X R9 290X 8 GB € 475,19Acquista+
Gli sviluppatori potranno lavorare su grafica e altro codice con SPIR, creando un comune linguaggio frontend che permetta a Vulkan e OpenCL di accettare molti degli stessi linguaggi di alto livello. OpenCL, inoltre, ottiene il supporto a C++.
OpenCL 2.1
Le nuove OpenCL 2.1 offriranno anche alcune caratteristiche per migliorare la flessibilità dell'API. La presenza di "device timer a bassa latenza" dovrebbe consentire un profiling del codice d'esecuzione più affidabile e accurato. Ci sono anche funzionalità di clonazione del kernel grazie al comando clCloneKernel.
Le OpenCL 2.1 sono disponibili inizialmente come una specifica provvisoria. Non è chiaro quando saranno rilasciate in forma finale, ma probabilmente entro l'anno.
Mantle viene dalle console raven, e non morirà quanto meno a breve...
mah... vedremo... su xboxOne andranno le dx12!?... :stordita:
si avra come al tempo delle glide 3dfx, puoi usare quello generico di ms o usare su titoli rossi le api ottimizzate amd con un setting dalle opzioni video
eeehh... cala cala... all'epoca le Glide hanno aperto un mondo totalmente sconosciuto ed "inesplorato" dalle directX... non appena ha preso piede il Direct3D, grazie allo strapotere microsoft, le glide hanno fatto ciao ciao con la manina (e poco dopo anche 3dfx)... nonostante fossero qualitativamente&prestazionalmente molto superiori! Oggi dubito che possa ripetersi una cosa del genere: mantle ne esce sconfitto già in partenza, contro dx12. Quanti titoli lo usano, ad oggi, mantle, a più di 1 anno e mezzo dall'introduzione??? La capillarità, compatibilità, diffusione delle dx è ormai inarrivabile...
(Ad esempio sono convinto che se un giorno introducessero un modulo "DirectPhysics", anche il buon vecchio Physx saluterebbe senza troppi complimenti... ;) )
...non vedo il problema sinceramente...
Ma nemmeno io... dico solo che era prevedibile fosse un flop... e così è stato....
appleroof
03-03-2015, 13:36
sembra che mantle verrà "pensionato" in favore delle directx 12 e delle nuove openGL
venendo relegato a "piattaforma per l'innovazione grafica disponibile a partner selezionati con particolari necessità"
http://community.amd.com/community/amd-blogs/amd-gaming/blog/2015/03/02/on-apis-and-the-future-of-mantle
quoto Raja Koduri(Vice President of Visual and Perceptual Computing at AMD) :
The Mantle SDK also remains available to partners who register in this co-development and evaluation program.
However, if you are a developer interested in Mantle "1.0" functionality, we suggest that you focus your attention on DirectX® 12 or GLnext.
riportato anche qui:
http://www.tomshw.it/cont/news/amd-mantle-directx-12-e-glnext-sono-alle-porte-il-futuro-e-da-riscrivere/62820/1.html
Questo per i geni che profetizzavano la morte di Mantle (cit.) :fagiano:
credo fosse prevedibile che le api proprietarie cedessero il passo a quelle agnostiche, come successe per le glide già ricordate (anche se erano altri tempi in verità è gli scenari erano ben diversi) , però potrebbe sempre rimanere come feature aggiuntiva per le vga Amd, se darà un boost ancora maggiore che le dx12, e visto che sono proprietarie lo dovrebbe dare, potrebbe rivelarsi ancora un valore aggiunto, resta da vedere quale sarà la sua diffusione una volta uscite e diffuse le dx12
magnusll
03-03-2015, 13:52
Attenzione a dare Microsoft per automaticamente vincente e tutto il resto per automaticamente morto.
I videogiochi su desktop sono probabilmente l' ultimo vero settore dove Windows e' ancora pesantemente in vantaggio ma la pressione competitiva e' in continuo aumento. Il panorama indie, per dire, ha un' idea piuttosto diversa sul fatto se si debba o meno supportare Linux, iOS ecc. rispetto ai soliti publisher di ciofeche tripla A.
Se ci fosse una seria spinta per librerie grafiche per videogiochi su desktop con sistemi operativi non-windows il risultato non sarebbe cosi' scontato.
Snickers
03-03-2015, 14:03
Sarebbe ora che AMD si rendesse conto che non è NVIDIA... non ha la capacità economica né (soprattutto) di "proselitisimo" (marketing) nel creare tecnologie proprietarie, anche se valide... :O
Ma infatti AMD ne era ben conscia sin dall'introduzione di Mantle, l'idea, anche visti gli annunci dei dirigenti, non era fare un qualcosa di closed-source in stile physix e vendere schede per questa feature, ma semmai di più ampia portata, cioé far vedere le potenzialità di quello che avevano sviluppato in maniera tale da sedersi al tavolo degli sviluppatori di Api (Khronos e MS) in maniera da poter indirizzare lo sviluppo delle stesse.
In sostanza Mantle è stato (ed è) il cavallo di troia con cui molto probabilmente nel primo periodo, Vulcan e Dx-12 performeranno meglio su schede AMD rispetto che su schede Nvidia. :read:
E questo sì che avrà impatto sulle vendite di VGA, mica 5-6 titoli con mantle su tutto il panorama mondiale di videogames (per quanto titoli AAA). :read:
Mantle non muore, su mantle amd sta investendo e cosi anche le sw....ms si è mossa DOPO la declinazione di mantle al di fuori del mondo console che vede sony e ms stessa su hw full amd e ora anche nintendo... Dopo un anno e mezzo di mantle non saprei quanti titoli siano usciti (bf4 thief civilization star swarm e non me ne vengono altri), da quello che si legge in giro ne arriveranno .... Se le dx12 lavoreranno bene come si pensa per loro natura non potranno mai girare altrettanto bene come mantle su amd... Ma almeno è un passo avanti x vslorizzare quanto già ci sia...
Ancora nessuna notizia delle 390x ? cosa dice il gattino col cappellino da pirata ? :D .
In sostanza Mantle è stato (ed è) il cavallo di troia con cui molto probabilmente nel primo periodo, Vulcan e Dx-12 performeranno meglio su schede AMD rispetto che su schede Nvidia. :read:
... secondo me sopravvaluti un tantino i dirigenti AMD... :fagiano:
Stiamo parlando di gente che non si è nemmeno accorta dell'"affaire" gtx970... gente che avrebbe dovuto "sezionare" il chip avversario e scansionarlo sotto tutti gli aspetti...
Ricordo il "rasoio di occam": «A parità di fattori la spiegazione più semplice è da preferire»
AMD ha provato a introdurre una nuova tecnologia proprietaria... gli è andata (prevedibilmente) male... fine!....
Io non ci vedo abili manovre, secondi fini, possibilità nascoste... :stordita:
Snickers
03-03-2015, 14:19
... secondo me sopravvaluti un tantino i dirigenti AMD... :fagiano:
Stiamo parlando di gente che non si è nemmeno accorta dell'"affaire" gtx970... gente che avrebbe dovuto "sezionare" il chip avversario e scansionarlo sotto tutti gli aspetti...
Ricordo il "rasoio di occam": «A parità di fattori la spiegazione più semplice è da preferire»
AMD ha provato a introdurre una nuova tecnologia propietaria... gli è andata (prevedibilmente) male... fine!....
Io non ci vedo abili manovre, secondi fini, possibilità nascoste... :stordita:
Anche fosse vero quel che dici, non puoi dire che gli sia "del tutto andata male", dato che si è seduta al tavolo di MS e Khronos come primo interlocutore per lo sviluppo delle loro Api, cosa non successa ad nVidia.
... secondo me sopravvaluti un tantino i dirigenti AMD... :fagiano:
Stiamo parlando di gente che non si è nemmeno accorta dell'"affaire" gtx970... gente che avrebbe dovuto "sezionare" il chip avversario e scansionarlo sotto tutti gli aspetti...
quoto, scandalosa nvidia tanto quanto la "dormiente" amd, se continuano cosi la concorrenza va a farsi benedire (ma forse c è gia andata)
Che o fai un salto al gdc o ti tocca aspettare il primo bambino nutelloso con uno smartphone
As usual vedo....
#amdèmortaaaaaa
:asd:
Tu hai detto che conta il prezzo e io ti ho dettoche per l enthusiast contano solo le prestazioni altrimenti chi si filava titan a 900€ che andavano un 35% in piu di una 7970 da 400?????
Per tutto il resto vale il discorso prezzo/prestazioni (io ricado in questa fascia).
Il prezzo delle top lo fanno le orestazioni guarda caso o il riposizionamento rispetto ad un concorrente...non si è mai visto una top che va di piu del avversario e costa meno come ipotizzi tu....
Si comprassero delle dual gpu allora :dunno:
I soldi AMD ne Nvidia le fanno nel settore enthusiast e questo forum dove sono state comprate 10-15 anche 20 titan non è un campione emblematico dei giocatori pc.
ah beh... una mossa davvero furba, allora! :asd:
"Dai dai che investiamo milioni in un nuovo linguaggio di programmazione, ne spendiamo altrettanti per promuoverlo con accordi esclusivi e alla fine speriamo che Microsoft ci copi introducendo migliorie simili (per tutti) nelle future dx12!!!"
Non credo proprio che sia così... anzi, secondo me loro speravano proprio di poter sfruttare questo vantaggio "tecnologico" chissà per quanto tempo... :fagiano:
Sarebbe ora che AMD si rendesse conto che non è NVIDIA... non ha la capacità economica né (soprattutto) di "proselitisimo" (marketing) nel creare tecnologie proprietarie, anche se valide... :O
Scusa ma Mantle portava a vantaggi notevoli su cpu di fascia medio bassa.
Voglio proprio vedere quanti fps in più porterà dx12 rispetto a 11.
AMD ha provato a introdurre una nuova tecnologia proprietaria... gli è andata (prevedibilmente) male... fine!....
Concordo sul rasoio ma non vedo che avesse di male Mantle.
Il fatto è che la "gente" l'avrebbe accettato come piattaforma solo se fosse stato implementato in tutti i giochi, non solo in alcuni selezionati.
Non compro AMD per Mantle se Mantle funziona solo su 10 giochi di cui magari il 90 % neanche mi interessa.
Horizont
03-03-2015, 17:30
Scusa ma Mantle portava a vantaggi notevoli su cpu di fascia medio bassa.
Voglio proprio vedere quanti fps in più porterà dx12 rispetto a 11.
cut...
.
te lo dico io... 100 fps (http://www.dsogaming.com/news/dx12-versus-dx11-over-100fps-difference-on-unreleased-gpu-in-new-test-way-beyond-console-stuff/) rofl :sofico:
Con le Directx 12 ci basterà un Pentium G2020 Dual Core e un Ati R7 240 per giocare in 4K :read: .
Ale55andr0
03-03-2015, 17:48
Ma nooooooooo!!???!!! :eek:
:sofico:
Adesso non ho voglia di cercarli.... ma all'epoca scrissi giusto un paio di post sul futuro (inesistente) di questa tecnologia "truform"-style... :asd:
inesistente non direi visto che ci sono altri giochi in uscita che lo supporteranno
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.