PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 [133] 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

Gyammy85
20-12-2016, 20:57
Beh se ti aspetti che andrà più della 480 hai ragione :O



Per come la stanno mettendo a stento puoi aspettarti una littorina diesel sulla tratta palermo catania

Non capisco in base a cosa non ci si può aspettare ottime prestazioni

Ale55andr0
20-12-2016, 21:51
Non capisco in base a cosa non ci si può aspettare ottime prestazioni

E chi ha parlato di prestazioni? ho detto che più che generare hype stanno facendo scendere il latte alle ginocchia...

FroZen
20-12-2016, 22:05
E chi ha parlato di prestazioni? ho detto che più che generare hype stanno facendo scendere il latte alle ginocchia...

Ma tu a giugno dove eri quando mandavano la slide con vega 2017?:mbe: il sapevatelo era bello grosso eh

Ale55andr0
21-12-2016, 00:11
Ma tu a giugno dove eri quando mandavano la slide con vega 2017?:mbe: il sapevatelo era bello grosso eh

Ero al q1 2017, ma con la 490 "a listino" a fine 2016 per poi veder spuntare fuori h1 2017

fraussantin
21-12-2016, 07:53
ufficialmente amd non ha mai parlato di Q1, ma sempre di H1



in realtà la 490 è presente nel sito ufficiale amd come schede supportate entro il 31-12-2016... che poi cosa sia non importa se vega o polaris, ma c'è...
Ma allora per 490 che intendono? La scheda che deve uscire o quella professional?

Non ci capisco piú niente.

fraussantin
21-12-2016, 08:26
:rotfl:



ma per amd mettere qualche stronxo a leggersi i forum è troppo difficile? :D
O magari lo leggono e lo fanno per non far comprare la 1080 ad alessandro. XD :asd:


Ps cmq qualcosa deve uscire dai... Non è possibile sta cosa.

Arrow0309
21-12-2016, 08:51
O magari lo leggono e lo fanno per non far comprare la 1080 ad alessandro. XD :asd:


Ps cmq qualcosa deve uscire dai... Non è possibile sta cosa.

Una 490 con due polarette :p

Gyammy85
21-12-2016, 08:56
Una 490 con due polarette :p

No dai, non tiriamo fuori di nuovo la storia della dual :rolleyes:

ibra_89
21-12-2016, 09:02
quando escono ste schede allora?!?!..si sbrigano o no?!.. :asd::asd:

Ale55andr0
21-12-2016, 09:42
La 490 a listino a fine 2016 erano rumors, non la roadmap

Quella roba su carta stampata ci stava davvero, non era una voce.

Ale55andr0
21-12-2016, 09:43
Mi pare ovvio che sia un'errore che è rimasto li da sempre e di cui si son bellamente fregati il cazzo.

A sto punto this

Piedone1113
21-12-2016, 17:04
O magari lo leggono e lo fanno per non far comprare la 1080 ad alessandro. XD :asd:


Ps cmq qualcosa deve uscire dai... Non è possibile sta cosa.

Ti giuro l'ho pensato anch'io.
Il giorno dopo che Ale ci rende partecipe del suo acquisto verde, AMD reclamizza la presentazione e commercializzazione dalla settimana successiva.
L'ho visto anch'io sto film, ma non avevo tempo per scriverlo.

Ale55andr0
21-12-2016, 19:20
E ovviamente andra il doppio costando la metà.
Non rischiate di vedermi in verde fino a quando non tagliano 100 dei 600 euro circa necessari per portarsi una 1080 a casa. Ah e poi deve o stabilizzarsi il prezzo del 7700k e uscire zen per ponderare...insomma, dovrete sopportarmi ancora un pezzo.

Piedone1113
21-12-2016, 23:03
E ovviamente andra il doppio costando la metà.
Non rischiate di vedermi in verde fino a quando non tagliano 100 dei 600 euro circa necessari per portarsi una 1080 a casa. Ah e poi deve o stabilizzarsi il prezzo del 7700k e uscire zen per ponderare...insomma, dovrete sopportarmi ancora un pezzo.

Frega qualche foto e screenshot in giro e dichiara che hai preso una 1080.
Vediamo se AMD ti legge o meno.

Ale55andr0
22-12-2016, 02:39
http://wccftech.com/polaris-12-vega-10-rra-certification-rx-490/

fraussantin
22-12-2016, 07:43
Il commento di lulzsec riassume tutto.

CiccoMan
22-12-2016, 08:12
Il commento di lulzsec riassume tutto.

ZERO :rotfl:

... se non ci sono news sul quale speculare va a finire che vengono riproposte ciclicamente sepre le stesse informazioni... spostano le virgole, cambiano gli accenti e nessuno si accorge che hanno copiato :asd:

Comunque sto notando che si fanno sempre più insistenti le voci sulle dual gpu... VooDoo 5 5500 reborn :read:

Gyammy85
22-12-2016, 08:30
Il commento di lulzsec riassume tutto.

Questa notizia conferma semplicemente che le schede esistono e sono pronte, l'entry level darà la possibilità a nvidia di fare la 1040 e la 1040ti da dare in omaggio scopo physics a chi joina il loro club :O

fraussantin
22-12-2016, 08:47
Questa notizia conferma semplicemente che le schede esistono e sono pronte, l'entry level darà la possibilità a nvidia di fare la 1040 e la 1040ti da dare in omaggio scopo physics a chi joina il loro club :O
Io non sono bravo in inglese, ma a me. Pare che non comfermi niente. Riassume solo i rumor.

Ale55andr0
22-12-2016, 13:30
Non sapevo nulla di questa RRA Certification, quindi ho postato.


Questa notizia conferma semplicemente che le schede esistono e sono pronte

Come no :fagiano:

Rez
22-12-2016, 16:43
eschino? quanto andranno di più rispetto una titan black pascal? :stordita:

FroZen
22-12-2016, 17:03
eschino? quanto andranno di più rispetto una titan black pascal? :stordita:

Mah obiettivamente penso dal 2 al 237% soprattutto se lo snado non lonfa

Raven
22-12-2016, 18:31
Mah obiettivamente penso dal 2 al 237% soprattutto se lo snado non lonfa

... e se tavellasse il barbano? :stordita:

Ale55andr0
22-12-2016, 18:46
eschino? quanto andranno di più rispetto una titan black pascal? :stordita:

Mah obiettivamente penso dal 2 al 237% soprattutto se lo snado non lonfa

... e se tavellasse il barbano? :stordita:



Come mi sono ci siamo ridotti :cry:

Ale55andr0
22-12-2016, 19:00
Come ci hai ridotti :asd:

:asd:


Manco letto, mi è bastato il titolo :mc:

http://wccftech.com/amd-vega-lineup-radeon-hbm2-gddr5x/

Ale55andr0
22-12-2016, 20:35
È inquietante vedere di quante battute hanno bisogno per scrivere un articolo che parla di niente :asd:

Qualcosina in più di niente dai :D...e poi hanno riportato una fuzzillata stavolta. Dunque arrivano "soon", la top con hbm2 e le altre 2 con gddr5x. Qualcosa devono azzeccarla per forza :asd:.
A parte tutto un vega con nuove cu e clock "alla nvidia" incuriosisce molto.

fraussantin
22-12-2016, 20:41
Qualcosina in più di niente dai :D...e poi hanno riportato una fuzzillata stavolta. Dunque arrivano "soon", la top con hbm2 e le altre 2 con gddr5x. Qualcosa devono azzeccarla per forza :asd:.
A parte tutto un vega con nuove cu e clock "alla nvidia" incuriosisce molto.
:asd:

Cmq gddr5 fa sperare almeno in qualcosa di economico.

Ale55andr0
22-12-2016, 20:48
:asd:

Cmq gddr5 fa sperare almeno in qualcosa di economico.

Se faranno una nuova lineup di certo, se invece completeranno la gamma attuale verso l'alto vega verrà utilizzata solo per le top come architettura. A ogni modo sono passati quanto, 6 mesi da polaris? Una nuova serie 500 non pare improbabile visto che passeranno facilmente altri 2-3 mesi, a naso.

Gyammy85
23-12-2016, 08:34
Se gli articoli sono solo fuffa perché li postate? per trollarci sopra ed impedire qualsiasi tipo di discussione? Il 5 gennaio è vicino sapremo sicuramente qualcosa in più

fraussantin
23-12-2016, 09:02
In questo 3d c'è piu acidità che al circolo delle ex mogli.

The_SaN
23-12-2016, 10:05
nessuno ti obbliga a seguirlo.

A proposito di acidità :asd:

sgrinfia
23-12-2016, 13:59
Qualcosina in più di niente dai :D...e poi hanno riportato una fuzzillata stavolta. Dunque arrivano "soon", la top con hbm2 e le altre 2 con gddr5x. Qualcosa devono azzeccarla per forza :asd:.
A parte tutto un vega con nuove cu e clock "alla nvidia" incuriosisce molto.

Comunque ti vedo più rilassato nel tuo dire, sarà il natale imminente .......:D

Ale55andr0
23-12-2016, 14:39
Comunque ti vedo più rilassato nel tuo dire, sarà il natale imminente .......:D

Gia detto, periodo di depressione. È tanto che alterno fasi un pò più "arzille" in questi giorni recenti e posto per vostro "immenso piacere" :stordita:

..La 1070 non la comprerei nemmeno a 100 euro: chip di scarto e memorie ormai da fascia bassa/superate presto rimpiazzate nei refresh delle prossime verdi

fraussantin
23-12-2016, 15:15
io sta storia del chip di scarto scartato a prescindere onestamente non la capisco. Cioè se è una questione tecnica del tipo "voglio più shader" è un conto, se è una questione di principio no, la 1070 è un'ottima scheda e, secondo il panorama odierno di prezzi e disponibilità di alternative, ha anche un "buon" prezzo, è una nvidia e comprarla significa che poi a rivenderla si recupera buona parte dell'investimento.

Sul si recupera buona parte avrei i miei dubbi.

O meglio dipende cosa esce da parte di amd e ache prezzo.

dado1979
23-12-2016, 15:43
si tutt'oggi vendono 750ti (scheda chiodo sopravvalutata) a 80€ e 970 a 200€ mentre 7870/7970 a 90€ e 290x a 160€ si deve quasi pregare per venderle...
Hai perfettamente ragione... retaggi sbagliati e incapacità di vedere come stanno le cose realmente... ma questo è sempre successo nelle vga.

fraussantin
23-12-2016, 15:52
si tutt'oggi vendono 750ti (scheda chiodo sopravvalutata) a 80€ e 970 a 200€ mentre 7870/7970 a 90€ e 290x a 160€ si deve quasi pregare per venderle...
Si che amd svaluti di più è anche vero.

Ma cacchio la 970 in 2 mesi è dimezzata di valore.


A 200 euro serve un gonzo per venderla. Max ci prendi 150.

dado1979
23-12-2016, 16:28
Nvidia ha un brand forte ed i gonzi sono più numerosi. Non è un'accusa è un riconoscimento di una posizione di leader da mercato che può permettersi il lusso di avere prezzi "da gonzi" sia sul nuovo che sull'usato, per questo dicevo (e lo dicevo mesi fa) che chi non voleva aspettare AMD poteva prendere una 1070 che ormai si trova sui 400€ da almeno un paio di mesi circa (mi pare) e venderla ora a 350€ almeno facilmente perdendo solo 50€
Ah se non è un'accusa allora non condivido più... ;)
I prezzi delle Nvidia usate sono non corrispondenti al reale valore e alla reale velocità... sarebbe AMD che dovrebbe svalutarsi più lentamente siccome le sue vga vanno molto bene anche dopo anni (guardare le 290x che sono roba del 2013).

dado1979
23-12-2016, 16:31
Lasciamo perdere che ho visto la "guida" di trollhardware per costruirsi un pc e per il fullhd consigliano la 1050ti e per il 1440p la fury x :muro:
I casi sono due o la 1050ti per il fullhd è troppo poco o la fury x per il 1440p è troppo.

Non si può manco dire che siano di parte perchè hanno consigliato due schede inutili.
Per il fullhd io consiglierei una 470 o una 480 mentre per il 1440p una 1070.
Dici che la Fury X è troppo per il 1440P e poi consigli una vga più veloce (1070), c'è qualcosa che non mi torna?

fraussantin
23-12-2016, 16:50
Ah se non è un'accusa allora non condivido più... ;)
I prezzi delle Nvidia usate sono non corrispondenti al reale valore e alla reale velocità... sarebbe AMD che dovrebbe svalutarsi più lentamente siccome le sue vga vanno molto bene anche dopo anni (guardare le 290x che sono roba del 2013).
Il valore dell'usato non dipende da nvidia.

Anzi per loro se l'usato non esistesse sarebbe meglio.

giovanbattista
24-12-2016, 10:12
;)

N3OM4TR|X
27-12-2016, 14:24
Siccome l'hype non e' mai abbastanza e il treno viaggia lento (ma comunque piu' veloce di AMD)...

Nuovo anno. Nuova architettura. (https://twitter.com/Radeon/status/813561408612945920) :stordita:

m@ximo
27-12-2016, 14:30
Sono dei maledetti :nera:

ibra_89
27-12-2016, 14:31
raga scusate per l'ignoranza ma a Gennaio che modelli dovranno uscire? e a confronto delle soluzioni nvidia come si piazzeranno? grazie a tutti per le eventuali delucidazioni ;)

N3OM4TR|X
27-12-2016, 14:43
raga scusate per l'ignoranza ma a Gennaio che modelli dovranno uscire? e a confronto delle soluzioni nvidia come si piazzeranno? grazie a tutti per le eventuali delucidazioni ;)

Nulla di ufficiale. Non e' neppure detto che esca qualcosa a Gennaio. Si sa solo che Vega usera' memorie HBM2 (e si sapeva da una vita) come confermato qualche tempo fa in un podcast da un ingegnere AMD (il link credo sia in qualche mio post vecchiotto). Tutto il resto delle notizie sono rumor rivisti, riscritti e rimaneggiati a tal punto che se sommati Vega e' qualunque cosa ti venga in mente. Anche un avanzo dei pasti natalizi.

Si spera che al CES di Las Vegas (05/Gen) mostrino qualcosa. Almeno una dettagliata introduzione all'architettura (visto il tweet).

Dai leak esistono almeno due versioni dello stesso chip Vega attualmente in fase di test.

Ale55andr0
27-12-2016, 16:44
raga scusate per l'ignoranza ma a Gennaio che modelli dovranno uscire? e a confronto delle soluzioni nvidia come si piazzeranno? grazie a tutti per le eventuali delucidazioni ;)

Per gennaio sono attese le rx9 attachedtotram ediscion per la fascia media e la fury x files per la alta. Andranno più o meno come le verdi dell'anno scorso di quest'anno

ibra_89
27-12-2016, 16:54
grazie per le risposte io non so che cosa comprare più :(

Ale55andr0
27-12-2016, 16:59
Per il CES a Gennaio è atteso l'annuncio del fallimento di AMD.

E durante il loading del fail renderizzato con vega+ryzen incroceranno le dita sperando non crashi tutto mentre la uoma prende tempo farfugliando roba già detta 5 minuti prima.
In altre parole a gennaio annunciano che a febbraio faranno altri annunci mentre sgrossano dei prototipi che col mercato a gennaio non hanno nulla a che fare.

ibra_89
27-12-2016, 17:01
Basta aspettare che escano :D
speriamo di avere novità allora per giorno 5 :D

Ale55andr0
27-12-2016, 17:11
E poi non capisco che novità vuoi che ci siano per il 5.

Non saprei, uno straccio di specifica o di caratteristica della nuova architettura, o addirittura una data di lancio che non sia compresa fra qui e io speriamo che me la cavo

Gyammy85
27-12-2016, 18:34
Che Vega avesse avuto un'architettura diversa si sapeva e il 6 probabilmente ci sarà anche la 1080ti con prestazioni lievemente inferiori rispetto alla titan e quindi nella stessa rotta di Vega

FroZen
27-12-2016, 21:13
http://www.universityherald.com/amp/articles/56607/20161222/amd-vega-10-outscores-nvidia-geforce-gtx-1080-ti-at-rra-gpu-certification-teases-launch-at-gdc-2017-video.htm

AMD Vega 10 is the star during RRA GPU certification with its solid performance outscoring its expected rival, NVIDIA GeForce GTX 1080 Ti, which underwent the same regulatory evaluation. Reports tell that AMD Vega 10 did very well in all aspect.

RRA is South Korea's National Radio Research Agency, a regulatory board that conducts tests and approves products that are produced by Silicon Valley-based companies before they are sold into the electronic market, Segment Next noted.

No hype please :O

Ale55andr0
27-12-2016, 21:49
:old:

Raven
27-12-2016, 22:00
Si spera che al CES di Las Vegas (05/Gen) mostrino qualcosa.

Coincidenze?..... io non credo! :O

bomkill
28-12-2016, 00:32
Coincidenze?..... io non credo! :O

Parla:D ,tu sai qualcosa :cry:

fraussantin
28-12-2016, 00:39
Coincidenze?..... io non credo! :O
In realtà il 5/1/17 a las Vegas ci sarà :

5/1/17 =(5:1) : 17=0.3...

Vega in preorder in bundle con hl3

Gyammy85
28-12-2016, 08:24
E nvidia presenterà la ti con in bundle the witcher 4 rise of the pascal :O

fraquar
28-12-2016, 09:03
Secondo voi c'è la possibilità che entro fine Febbraio ci sia qualcosa di acquistabile?
Mi trovo in una situazione di stallo.
Vorrei una GPU che sia veramente nuova (quindi no 10x0) ma che sia anche decente come prestazioni (quindi no 480).
Posso aspettare ancora ma se non si muovono mi tocca prendere una 1070 o 1080 da rivendere poi perdendoci inutilmente qualcosa.

kira@zero
28-12-2016, 10:55
Secondo voi c'è la possibilità che entro fine Febbraio ci sia qualcosa di acquistabile?
Mi trovo in una situazione di stallo.
Vorrei una GPU che sia veramente nuova (quindi no 10x0) ma che sia anche decente come prestazioni (quindi no 480).
Posso aspettare ancora ma se non si muovono mi tocca prendere una 1070 o 1080 da rivendere poi perdendoci inutilmente qualcosa.

Hai uno schermo 4k o 1440p 165hz tu? Oppure vuoi che la vga tu duri 6 anni?

majinbu7
28-12-2016, 11:25
Hai uno schermo 4k o 1440p 165hz tu? Oppure vuoi che la vga tu duri 6 anni?

Anche se avesse uno schermo 4K o 1440p 165hz, non riuscirebbe a sfruttarli con nessuna delle attuali GPU in commercio, se non scendendo a compromessi con i settaggi grafici, l'unica che potrebbe avvicinarsi a gestire il 4k è la titan pascal, ma non la calcolo nemmeno, mentre per gestire un 1440p a 165HZ con singola vga ....non se ne parla proprio

kira@zero
28-12-2016, 11:40
Anche se avesse uno schermo 4K o 1440p 165hz, non riuscirebbe a sfruttarli con nessuna delle attuali GPU in commercio, se non scendendo a compromessi con i settaggi grafici, l'unica che potrebbe avvicinarsi a gestire il 4k è la titan pascal, ma non la calcolo nemmeno, mentre per gestire un 1440p a 165HZ con singola vga ....non se ne parla proprio

Quindi per sfruttare i giochi di adesso in full HD a 60hz ci vorrebbe una titan Pascal? Perchè i giochi son ottimizzati con il :ciapet:. Contando che in primis i setting dei giochi tutti a manetta generalmente son inutili e non migliorano la grafica complessiva è come seconda cosa mai e dico mai ogni anno che è uscita una vga top di gamma è riuscita a pertettere di giocare con tutti i filtri a massima definizione/hz possibile di quel tempo ai giochi piú pesanti appena usciti.
Io gioco a 165hz 1440p con 1070 e bene, e con 480 da 4gb a 1080p 144hz bene lo stesso, poi se mi fanno giochi che verranno fruttati da chip video che usciranno tra 5 anni, o non li gioco o scendo a compromessi di sicuro non compro una titan Pascal per giocare a 1080p 120hz :doh:

Ale55andr0
28-12-2016, 11:46
Posso aspettare ancora ma se non si muovono mi tocca prendere una 1070 o 1080 da rivendere poi perdendoci inutilmente qualcosa.

Ti conviene aspettare, magari al ces dicono qualcosa più consistente del fumo su vega e male che vada nel frattempo esce la 1080ti che FORSE farà scalare verso il basso di qualcosina 1070 e 1080.

fraquar
28-12-2016, 13:18
Ti conviene aspettare, magari al ces dicono qualcosa più consistente del fumo su vega e male che vada nel frattempo esce la 1080ti che FORSE farà scalare verso il basso di qualcosina 1070 e 1080.

Grazie ;)

fraquar
28-12-2016, 13:19
Hai uno schermo 4k o 1440p 165hz tu? Oppure vuoi che la vga tu duri 6 anni?

Devo usare DCS con il Vive ma non voglio una scheda "vecchia" concettualmente come la 1080.
Trovo assurdo spendere quella cifra per una scheda dx11.
Speravo in una 490 in modo da avere qualcosa che mi faccia usare il vive ma che sia anche dx12 sul serio.

majinbu7
28-12-2016, 14:04
Quindi per sfruttare i giochi di adesso in full HD a 60hz ci vorrebbe una titan Pascal? Perchè i giochi son ottimizzati con il :ciapet:. Contando che in primis i setting dei giochi tutti a manetta generalmente son inutili e non migliorano la grafica complessiva è come seconda cosa mai e dico mai ogni anno che è uscita una vga top di gamma è riuscita a pertettere di giocare con tutti i filtri a massima definizione/hz possibile di quel tempo ai giochi piú pesanti appena usciti.
Io gioco a 165hz 1440p con 1070 e bene, e con 480 da 4gb a 1080p 144hz bene lo stesso, poi se mi fanno giochi che verranno fruttati da chip video che usciranno tra 5 anni, o non li gioco o scendo a compromessi di sicuro non compro una titan Pascal per giocare a 1080p 120hz :doh:

Ho la 1070 anch'io su un 21:9 fullHD a 144hz che in oc arriva a 200 hz, e tu con la mia stessa vga riesci a sfruttare i 165 Hz a 1440P ??? si ok giocando a pacman forse. Già solo su the division con i settaggi non al massimo in media si sta sugli 85 fps...e ad una risoluzione ben più bassa della tua, e questo lo chiameresti sfruttare un 1440P a 165hz? :doh:

Vul
28-12-2016, 14:42
Secondo voi c'è la possibilità che entro fine Febbraio ci sia qualcosa di acquistabile?
Mi trovo in una situazione di stallo.
Vorrei una GPU che sia veramente nuova (quindi no 10x0) ma che sia anche decente come prestazioni (quindi no 480).
Posso aspettare ancora ma se non si muovono mi tocca prendere una 1070 o 1080 da rivendere poi perdendoci inutilmente qualcosa.

A 1080p la 480 è anche troppo in quasi tutti i giochi comunque.

Poi in caso te la rivendi non ci rimetti molto.

fraquar
28-12-2016, 14:51
A 1080p la 480 è anche troppo in quasi tutti i giochi comunque.

Poi in caso te la rivendi non ci rimetti molto.

Ma anche no, per tenere i 60 nei giochi usciti nel 2016 bisogna scendere a compromessi.
Nel 2017 sarà già bella che morta.
E comunque a me serve per il Vive e la 480 non ci fa girare nulla, considera che in DCS fatica a tenere i 40 in fhd con settaggi high.

kira@zero
28-12-2016, 15:01
Ho la 1070 anch'io su un 21:9 fullHD a 144hz che in oc arriva a 200 hz, e tu con la mia stessa vga riesci a sfruttare i 165 Hz a 1440P ??? si ok giocando a pacman forse. Già solo su the division con i settaggi non al massimo in media si sta sugli 85 fps...e ad una risoluzione ben più bassa della tua, e questo lo chiameresti sfruttare un 1440P a 165hz? :doh:

3 giochi ottimizzati con il culo lo ripeto poi se uno vuole tutti i filtri attivi sì ciao, tre o quattro giochi ripeto generalmente oltretutto porting. Poi io prendo la vga dove sfrutto i giochi bene a quelli che gioco io quindi bf1 160 medi faccio con 6700k con i settaggi adeguati.
È sempre stato cosí, dovevi provare a tirare metro LL quando uscì a 120hz con le 680 ai tempi o 7970 tutto maxato faceva 10fps, la storia è sempre la solita, sennó tutti compreremo titan Pascal per giocare a 120hz 1080p, puah con pannelli schifosi oltretutto TN con colori slavati e patine granulose antiriflesso schifose :doh:
1250 euro per mandare un monitor da 300 euro che ne vale sulla carta forse 50 :mbe:

Poi scusami che CPU hai su 1070?

majinbu7
28-12-2016, 15:09
3 giochi ottimizzati con il culo lo ripeto poi se uno vuole tutti i filtri attivi sì ciao, tre o quattro giochi ripeto generalmente oltretutto porting. Poi io prendo la vga dove sfrutto i giochi bene a quelli che gioco io quindi bf1 160 medi faccio con 6700k con i settaggi adeguati.
È sempre stato cosí, dovevi provare a tirare metro LL quando uscì a 120hz con le 680 ai tempi o 7970 tutto maxato faceva 10fps, la storia è sempre la solita, sennó tutti compreremo titan Pascal per giocare a 120hz 1080p, puah con pannelli schifosi oltretutto TN con colori slavati e patine granulose antiriflesso schifose :doh:
1250 euro per mandare un monitor da 300 euro che ne vale sulla carta forse 50 :mbe:

Poi scusami che CPU hai su 1070?

la tua stessa cpu, ho poi 16 giga di ram e i giochi sono installati su ssd samsung 840
Comunque se sei convinto basti una 1070 a sfruttare il tuo monitor, contento te...a me non basta per sfruttare il mio Acer Predator Z35 .

Vul
28-12-2016, 15:20
Ma anche no, per tenere i 60 nei giochi usciti nel 2016 bisogna scendere a compromessi.
Nel 2017 sarà già bella che morta.
E comunque a me serve per il Vive e la 480 non ci fa girare nulla, considera che in DCS fatica a tenere i 40 in fhd con settaggi high.

Tipo?

Fa quasi 70 fps in BF1 tutto maxato, 110 a Doom, 68 medi a The Witcher 3 High Quality (abbassando quell'obrobrio di setting dei capelli che manco si vede oltre l'8x), 58 a the division in ultra, ecc, ecc.

Direi che se non puoi nemmeno accontentarti di abbassare alcuni settaggi assolutamente invisibili o non puoi rinunciare a qualche tecnica di aliasing assolutamente invisibile (per me fxaa uber alles) si devi spendere di più.

kira@zero
28-12-2016, 15:21
la tua stessa cpu, ho poi 16 giga di ram e i giochi sono installati su ssd samsung 840

Bene comunque torno al discorso che secondo me bisogna scendere a compromessi ma la 1070 specialmente con il tuo sistema è sprecata in full HD 120/144hz
Poi comunque tu ha un 21/9 scambia la storia non è un tipico 1920x1080 ma un 2560x1080 sicuramente quindi è giá una via di mezzo con 2560x1440p

majinbu7
28-12-2016, 15:29
Bene comunque torno al discorso che secondo me bisogna scendere a compromessi ma la 1070 specialmente con il tuo sistema è sprecata in full HD 120/144hz
Poi comunque tu ha un 21/9 scambia la storia non è un tipico 1920x1080 ma un 2560x1080 sicuramente quindi è giá una via di mezzo con 2560x1440p

PEr poter stare ad almeno 100 120 fps nella maggior parte degli ultimi titoli, fatta eccezione per rari casi, altro che 1070, non ce la fa nemmeno la 1080, figurati su di una risoluzione ben più esosa come quella del tuo monitor.

Oirasor_84
28-12-2016, 16:10
PEr poter stare ad almeno 100 120 fps nella maggior parte degli ultimi titoli, fatta eccezione per rari casi, altro che 1070, non ce la fa nemmeno la 1080, figurati su di una risoluzione ben più esosa come quella del tuo monitor.
Per una gtx 1080 la risoluzione 1920x1080 comincia ad essere un collo di bottiglia,se in alcuni giochi dx11 non vai oltre i 140/160 fps in full hd non è perchè la gtx 1080 arranca a tale risoluzione, ma perchè la vga non viene usata al 100% e ci vuole una cpu clocckata alla morte che gli sta dietro, giochi come doom in full hd invece sfruttano meglio la vga merito anche di vulkan ed avrai tanti di quegli fps da poterci giocare anche a 200hz.

xbatta
28-12-2016, 18:22
Pensavo di aver aperto per sbaglio il thread nvidia..

Inviato dal mio LG-D802 utilizzando Tapatalk

il_CBR
28-12-2016, 21:37
AMD Vega 10 (...) outscoring NVIDIA GeForce GTX 1080 Ti, which underwent the same regulatory evaluation.

Outscoring the TI???
..scusate, mi sono perso qualcosa? :eek:

TRUTEN
29-12-2016, 09:54
In realtà il 5/1/17 a las Vegas ci sarà :

5/1/17 =(5:1) : 17=0.3...

Vega in preorder in bundle con hl3

:asd:

Gyammy85
30-12-2016, 08:57
Più siti parlano di rx500

http://www.tweaktown.com/news/55638/amd-teases-next-gen-radeon-rx-series-vega-coming/index.html

majinbu7
30-12-2016, 09:51
Effettivamente se l'architettura è nuova dovrebbe essere una generazione nuova con un nome nuovo.

Trollatina (per scherzare eh)
Quindi questa volta AMD arriverà prima di Nvidia e ci sarà un'orda di gente che si lamenterà sul forum con "Sveglia Nvidia! Non si può arrivare in ritardi di X mesi!" :asd:

L'importante è che abbia ottime prestazioni, almeno un 20% in più dalla 1080 , e con un buon prezzo, almeno da smuovere un pò sto mercato delle GPU che ultimamente fa un pò schifo, aumenti di prestazioni non eclatanti a prezzi da fuori di mela :doh:

Gyammy85
30-12-2016, 10:39
L'importante è che abbia ottime prestazioni, almeno un 20% in più dalla 1080 , e con un buon prezzo, almeno da smuovere un pò sto mercato delle GPU che ultimamente fa un pò schifo, aumenti di prestazioni non eclatanti a prezzi da fuori di mela :doh:

Da quel poco che si è visto si può sperare anche più del 20% ;)

m@ximo
30-12-2016, 11:04
Io mi accontenterei di prestazioni uguali e 20% in meno ma di prezzo

mircocatta
30-12-2016, 12:09
L'importante è che abbia ottime prestazioni, almeno un 20% in più dalla 1080 , e con un buon prezzo, almeno da smuovere un pò sto mercato delle GPU che ultimamente fa un pò schifo, aumenti di prestazioni non eclatanti a prezzi da fuori di mela :doh:

forse ci siamo abituati un po troppo bene

solo io ricordo un mercato fermo e stagnante per mesi con 8800gts 320mb a 400€, 8800gts 640mb a 470€, 8800gtx a 600€ e 8800ultra a 750€?


se si voleva il top, si pagava!

majinbu7
30-12-2016, 13:58
Da quel poco che si è visto si può sperare anche più del 20% ;)

Che mi sono perso :confused: non mi pare si sia visto ancora un bel nulla di Vega.
Se è vera quella presentazione con Zen+vga Vega che faceva andare DOOM4 con Vulkan solo un 10% in più della 1080, che ti ricordo essere delle api in cui le AMD prendono un bel boost mentre nvidia non guadagna nulla, mi sa che ti sei fatto false illusioni, ma a mio parere quella dentro il case non era davvero una vega, o almeno non la top di gamma, perciò rimane aperto ancora un barlume di speranza, e voglio credere in un + 20% sulla 1080, che fidati sarebbe già un bel passo avanti ;)

Gyammy85
30-12-2016, 14:51
Che mi sono perso :confused: non mi pare si sia visto ancora un bel nulla di Vega.
Se è vera quella presentazione con Zen+vga Vega che faceva andare DOOM4 con Vulkan solo un 10% in più della 1080, che ti ricordo essere delle api in cui le AMD prendono un bel boost mentre nvidia non guadagna nulla, mi sa che ti sei fatto false illusioni, ma a mio parere quella dentro il case non era davvero una vega, o almeno non la top di gamma, perciò rimane aperto ancora un barlume di speranza, e voglio credere in un + 20% sulla 1080, che fidati sarebbe già un bel passo avanti ;)

Già ora una furyx da 8 teraflops sta un 10% dietro la 1080 a 4k in doom, non vedo come una scheda da più di 12 e architettura nuova possa andare solo il 20% in più...in quella demo stava sui 70 quasi fissi causa driver non adatti...nella demo di star wars andava oltre i 60 quindi un buon 20% in più come minimo rispetto alla 1080 con driver ottimizzati...sono ottimista

Freisar
31-12-2016, 07:59
:( presumo che a gennaio non se ne parli di una presentazione di Vega ne :confused:

:muro:

m@ximo
31-12-2016, 09:26
Un augurio per un 2017 pieno di Vega

IceoLator
31-12-2016, 10:07
Speriamo che in quel secondo verrà annunciata qualcosa ahaha

TRUTEN
31-12-2016, 10:15
:( presumo che a gennaio non se ne parli di una presentazione di Vega ne :confused:

:muro:

A Gennaio c'è il CES (dal 5 all'8). Quasi certamente dovremmo avere delle informazioni semi-definitive su Ryzen. Su vega non si sa.
Realisticamente Ryzen dovrebbe uscire nei primi mesi del 2017 e personalmente fatico a credere che AMD rilasci Vega a breve distanza da Ryzen nonostante siano prodotti diversi.
Secondo me se ne parlerà più avanti (settembre?):( .

Io ho regalato una RX 480 a mio fratello e sto temporeggiando con la sua vecchia 5850 che ha sostituito la mia 4890 ma ormai sono alla frutta con questa configurazione.

Ale55andr0
31-12-2016, 10:38
Secondo me se ne parlerà più avanti (settembre?):( .


Secondo me stai gia festeggiando capodanno con 12 e passa ore di anticipo :ubriachi:

Ale55andr0
31-12-2016, 14:32
:D ahahhh

Purtroppo non c'è molto da ridere :(

Spero ce la facciano per febbraio almeno, in fin dei conti hanno presentato le schede pro, quindi le gpu sono belle che sgrossate e non presentano bug, nel pro non si può prescindere da affidabilità e stabilità...perciò teoricamente non vedo motivi di attesa tali da far pensare a maggio o giugno. Io vega la prenderei ben volentieri, perché a livello driver mi darebbe garanzie di supporto guardando al passato recente...se poi si considera che è una nuova architettura, praticamente un diesel in rodaggio :sofico: ....se però fra due mesi non cacciano fuori nulla e mi piazzano le 1080 a 500 resistere NON sarà facile, a meno di non accantonare zen, prendere una apu i7 7700k e tirare avanti con l'integrata che mi permetterebbe di ingannare l'attesa con vecchie glorie del passato che gioco ancora oggi

Ale55andr0
31-12-2016, 23:27
Imho quest'anno esce vega. L'anno scorso non lo avrei mai detto :O

fraussantin
31-12-2016, 23:31
:asd: buon anno!

mikael84
31-12-2016, 23:36
Già ora una furyx da 8 teraflops sta un 10% dietro la 1080 a 4k in doom, non vedo come una scheda da più di 12 e architettura nuova possa andare solo il 20% in più...in quella demo stava sui 70 quasi fissi causa driver non adatti...nella demo di star wars andava oltre i 60 quindi un buon 20% in più come minimo rispetto alla 1080 con driver ottimizzati...sono ottimista

Va come la 2080ti di Volta 7nm. Una scheda che va ben oltre il 20% in più passerebbe una Titan x/1080ti senza un processore scalabile. ma davvero vi aspettate prestazioni ben superiori alla 1080ti/titan, su un chip pensato per competere contro 1070/1080?:rolleyes:

Ale55andr0
31-12-2016, 23:49
Ci sta il tuo ragionamento, come ci sta che non ha senso fare aspettare quasi un anno per fare una top che va il 20% in più pur con il 50% di potenza computazionale aggiuntiva. Si vedrà chi ha ragione entro quest'anno, si spera...:fagiano:

mikael84
31-12-2016, 23:58
Ci sta il tuo ragionamento, come ci sta che non ha senso fare aspettare quasi un anno per fare una top che va il 20% in più pur con il 50% di potenza computazionale aggiuntiva. Si vedrà chi ha ragione entro quest'anno, si spera...:fagiano:

La potenza computazione non centra nulla, nvidia ha le unità funzionali, cuda-sfu-LDS-cache. La potenza geometrica rimane questa, non esiste command processor-vedi la fury con 4096st e svariati TF..
https://abload.de/thumb/asej9sxj.png (http://abload.de/image.php?img=asej9sxj.png)

Oirasor_84
01-01-2017, 00:29
Va come la 2080ti di Volta 7nm. Una scheda che va ben oltre il 20% in più passerebbe una Titan x/1080ti senza un processore scalabile. ma davvero vi aspettate prestazioni ben superiori alla 1080ti/titan, su un chip pensato per competere contro 1070/1080?:rolleyes:
Che intendi per senza un processore scalabile?
La potenza computazione non centra nulla, nvidia ha le unità funzionali, cuda-sfu-LDS-cache. La potenza geometrica rimane questa, non esiste command processor-vedi la fury con 4096st e svariati TF..

Come non esiste command processor:confused: se per questo in aggiunta ci sono pure gli ace che svolgono un lavoro simile,a leggere quest'ultimo post come se nvidia sapesse fare una gpu ed invece amd mette cose inutili e riempie di transistor,è ovvio che sono 2 architetture diverse che hanno approcci diversi e molto dipende dai motori grafici e da come sono programmati,vulkan insegna...a no vero vulkan è pro amd non conta che schifo...

Ale55andr0
01-01-2017, 01:20
La potenza computazione non centra nulla, nvidia ha le unità funzionali, cuda-sfu-LDS-cache. La potenza geometrica rimane questa, non esiste command processor-vedi la fury con 4096st e svariati TF..
https://abload.de/thumb/asej9sxj.png (http://abload.de/image.php?img=asej9sxj.png)

Sotto questo aspetto non conosciamo vega, e amd parla di nuova architettura, non di una fury a 14nm...poi se si porteranno appresso le vecchie zavorre peggio per loro. Ormai "manca poco" dai

Gyammy85
01-01-2017, 10:27
Va come la 2080ti di Volta 7nm. Una scheda che va ben oltre il 20% in più passerebbe una Titan x/1080ti senza un processore scalabile. ma davvero vi aspettate prestazioni ben superiori alla 1080ti/titan, su un chip pensato per competere contro 1070/1080?:rolleyes:

Non ho detto che va ben più di titan ho detto che andrà più della 1080 e allineata alla titan/1080ti nei giochi favorevoli...dell'architettura non si sa niente se è nuova avranno eliminato i punti deboli e migliorato i punti di forza...seguo questo forum da 10 anni neanche ai tempi di r600 c'era questo pessimismo

Gyammy85
01-01-2017, 10:34
Sotto questo aspetto non conosciamo vega, e amd parla di nuova architettura, non di una fury a 14nm...poi se si porteranno appresso le vecchie zavorre peggio per loro. Ormai "manca poco" dai

In base a quella tabella basterebbe raddoppiare polaris per raggiungere teoricamente una titan pascal in ambito geometrico punto debole delle radeon...

Gyammy85
01-01-2017, 11:19
Si possono fare tutte le ipotesi possibili, però più che pessimisti si cerca di essere realisti, altrimenti poi si finisce come con la 480 che doveva andare come la 1080...

Sicuramente sarebbe meglio che andasse come la 1080ti, però i dati che si hanno in mano sono quelli che sono...

Si pensava potesse andare quanto la 1070 perché inizialmente si parlava di 2560sp 64 rops e gddr5x, in quel modo l'avrebbe impensierita...guarda quanto va con resident evil 7

https://www.youtube.com/watch?v=L_2pAEsO3dg

TigerTank
01-01-2017, 11:23
Non ho detto che va ben più di titan ho detto che andrà più della 1080 e allineata alla titan/1080ti nei giochi favorevoli...dell'architettura non si sa niente se è nuova avranno eliminato i punti deboli e migliorato i punti di forza...seguo questo forum da 10 anni neanche ai tempi di r600 c'era questo pessimismo

mmh....secondo me sarà già tanto se riuscirà ad equivalere la gtx1080.
Preferisco partire un pò scettico piuttosto che troppo ottimista, nell'attesa di vedere gli esiti concreti perchè queste nuove vega mi incuriosiscono non poco :)

Ale55andr0
01-01-2017, 11:56
Vabò dai, "tanto" se pareggia la 1080 dopo una gestazione da essere umano non è realismo o scetticismo, è esser menagrami :asd:
La demo di doom era favorevole alla rossa, ma ancora lontana da driver maturi per il nuovo chip...

Ale55andr0
01-01-2017, 12:03
In base a quella tabella basterebbe raddoppiare polaris per raggiungere teoricamente una titan pascal in ambito geometrico punto debole delle radeon...


Il fatto è che mikael fa capire con navigata socurezza che il reparto geometrico sarà praticamente pari pari a quello della 480 (4 raster mi pare dica), non so però in base a quale schema di vega e con un teasing che diceva chiaro new year NEW ARCHITECTURE. O ma li fate coglioni proprio a lasciare intatti i punti deboli con una nuova architettura :D direi che i difetti di gcn se li sono trascinati abbastanza, e poi se fosse poco più di un refresh non ci facevano scendere i coglioni con tutto questo tempo di sviluppo regalando due fasce di mercato a nvidia per mesi e mesi...
..certo che se fosse come dice mikael, quando proprio ora credo l'opposto, voglio vedere che dirà chi dice che critico a prescindere amd in quella evenienza :Prrr:

OvErClOck82
01-01-2017, 12:14
Ma infatti non capisco secondo quale logica afferma ciò :stordita: nel senso, tanto di cappello alla sua enorme competenza in materia, ma penso che ad oggi ne sappia tanto quanto noi sul l'architettura di Vega :stordita:


Inviato dal mio iPhone utilizzando Tapatalk

Free Gordon
01-01-2017, 12:38
La potenza computazione non centra nulla, nvidia ha le unità funzionali, cuda-sfu-LDS-cache. La potenza geometrica rimane questa, non esiste command processor-vedi la fury con 4096st e svariati TF..
https://abload.de/thumb/asej9sxj.png (http://abload.de/image.php?img=asej9sxj.png)


Credo anche io che se Vega esce adesso, sarà una FuryX a 14nm..
Stesso CP, stessi raster, solo con in più le migliorie di Polaris e qualcosina d'altro...
Quindi andrà in media tra la 1070 e la 1080...e costerà 499 non di più.
In qualche gioco prob. andrà più della 1080 (tipo Doom Vulkan).

Se invece c'è un cambio architetturale più importante, non sappiamo che cosa potrebbe comportare...questa è l'unica incognita per me..

TRUTEN
01-01-2017, 12:42
Secondo me stai gia festeggiando capodanno con 12 e passa ore di anticipo :ubriachi:

Non ci credo che AMD rilasci sia ryzen che vega in primavera.
Di ryzen han fatto una micropresentazione due mesi fa e forse al ces sapremo di più: di vega han solo detto che esite e va forte.
Cioè magari, ma non ci crede nessuno: manco Lisa. :asd:

Free Gordon
01-01-2017, 12:45
In base a quella tabella basterebbe raddoppiare polaris per raggiungere teoricamente una titan pascal in ambito geometrico punto debole delle radeon...

Questo non è possibile se non modificano quasi completamente il Command Processor..


Non ho detto che va ben più di titan ho detto che andrà più della 1080 e allineata alla titan/1080ti nei giochi favorevoli...dell'architettura non si sa niente se è nuova avranno eliminato i punti deboli e migliorato i punti di forza...seguo questo forum da 10 anni neanche ai tempi di r600 c'era questo pessimismo

Quali? Doom Vulkan...e poi? :D
Cmq sarà molto difficile che prenda la 1080Ti.. anche nei giochi favorevoli, se sarà una FuryX 2.0 (come immagino).

Sennò significa che l'architettura è cambiata sul serio...

Ale55andr0
01-01-2017, 12:54
Credo anche io che se Vega esce adesso, sarà una FuryX a 14nm..
Stesso CP, stessi raster, solo con in più le migliorie di Polaris e qualcosina d'altro...
Quindi andrà in media tra la 1070 e la 1080...e costerà 499 non di più.


Ah buono a sapersi: passare il tempo a guardare nvidia per puro masochismo riproponendo la solita solfa un anno dopo, pigliandoci pure per il culo dicendo che si tratta di una nuova architettura :stordita:
Spero, e in parte credo, che non sia così, sennò vul fa prima ad aprire un sondaggio su quanti vogliono il mio ban e raccogliere firme in merito

Ale55andr0
01-01-2017, 12:56
Non ci credo che AMD rilasci sia ryzen che vega in primavera.
Di ryzen han fatto una micropresentazione due mesi fa e forse al ces sapremo di più: di vega han solo detto che esite e va forte.
Cioè magari, ma non ci crede nessuno: manco Lisa. :asd:


Di vega non ha detto che esiste e noi a crederci sulla fiducia. Ci ha fatto girare due giochi e ha presentato dei prodotti per il mercato pro basati su quella gpu. Arrivare dopo la primavera sarebbe solo stupido. Se così sarà avrà ragione Forrest Gump :O

Free Gordon
01-01-2017, 12:59
Ah buono a sapersi: passare il tempo a guardare nvidia per puro masochismo riproponendo la solita solfa un anno dopo, pigliandoci pure per il culo dicendo che si tratta di una nuova architettura :stordita:
Spero, e in parte credo, che non sia così, sennò vul fa prima ad aprire un sondaggio su quanti vogliono il mio ban e raccogliere firme in merito

Dove ha scritto (AMD) che Vega sarà una nuova architettura e non una semplice evoluzione di GCN? (come lo è stato Polaris)

OvErClOck82
01-01-2017, 13:11
Dove ha scritto (AMD) che Vega sarà una nuova architettura e non una semplice evoluzione di GCN? (come lo è stato Polaris)

ad onor del vero non sappiamo nemmeno se sarà solo un'evoluzione :stordita:
possiamo fare ipotesi solo sul posizionamento, che coprirà inevitabilmente la fascia alta, ma ad oggi è prematuro fare qualsiasi tipo di congettura tecnica, secondo me. (congetture che da profano ritengo interessantissime, non mi fraintendete :D )

Ale55andr0
01-01-2017, 13:11
Dove ha scritto (AMD) che Vega sarà una nuova architettura e non una semplice evoluzione di GCN? (come lo è stato Polaris)


http://videocardz.com/64982/amd-teasing-vega-architecture-for-2017


Da notare che la tizia in foto ha i capelli rossi...ovvio riferimento a ruby. Se quindi dicono new year new architecture sono io a chiedermi perché credere il contrario a limite :D...e chiedermi pure perché far passare un anno per fare una fury a 14nm quando hanno gia fatto gcn con quel pp, sia desktop (460-70-80) che soc per le console ps4 pro/slim e la one s. Insomma a quest'ora avevamo la 490 non dico assieme le 480 ma non certo 9 mesi dopo o più se dovevano solo fare uno shrink! No perché h1 purtroppo può voler dire davvero 30/6/2017

Comunque -4 al ces e speriamo caccino fuori date e dati...se nemmeno allora avremo nulla di meno evanescente allora mi unirò agli scettici e tiferò 1080ti per i miei interessi disinteressati :O

Ale55andr0
01-01-2017, 14:05
Com'è andata la presentazione di ieri di Vega? :O

Cmq leggere che doom è pro AMD quando "semplicemente" usa gli ACE, standard DX/vulkan, processando il tsaa ed altro e sgravando dalla GPU con ovvie conseguenze....mah, Non stiamo parlando di muddlware proprietari tipo physx azzoppato apposta sulla concorrenza, ma di una feature standard che una non ha (se poi su nVidia servono o meno è un altro discorso) e che l'altra ha..

Mi pare di ricordare che abilitando gli ace doom forza "senza permesso" msaa che va meno sulle verdi.

Comunque dai, si sa che vega andrà come titan x pascal a 400 :O

Uno ci scherza ma...all'epoca fu quello che fece la 290 :sofico:
Imho vega full si piazzerà in media fra 1080 e 1080ti a un prezzo non basso ma non mostruoso, ovviamente al netto delle creste nelle prime settimane dal lancio.

Free Gordon
01-01-2017, 14:20
http://videocardz.com/64982/amd-teasing-vega-architecture-for-2017


Da notare che la tizia in foto ha i capelli rossi...ovvio riferimento a ruby. Se quindi dicono new year new architecture sono io a chiedermi perché credere il contrario a limite :D...e chiedermi pure perché far passare un anno per fare una fury a 14nm quando hanno gia fatto gcn con quel pp, sia desktop (460-70-80) che soc per le console ps4 pro/slim e la one s. Insomma a quest'ora avevamo la 490 non dico assieme le 480 ma non certo 9 mesi dopo o più se dovevano solo fare uno shrink! No perché h1 purtroppo può voler dire davvero 30/6/2017

Comunque -4 al ces e speriamo caccino fuori date e dati...se nemmeno allora avremo nulla di meno evanescente allora mi unirò agli scettici e tiferò 1080ti per i miei interessi disinteressati :O


No no... non siamo d'accordo.
New Architecture...è anche Polaris. :)

Condividendo però...il 95% delle cose con Fiji (HWS compresi.. ;) ).

Tu sopra ipotizzavi un salto più grande, invece.

Ad oggi, anche grazie a quel vago tweet, non siamo assolutamente in grado di dire che Vega non sia un Polaris *2 (ipotesi) con qualche tweak in più... ;)

Gyammy85
01-01-2017, 15:45
No no... non siamo d'accordo.
New Architecture...è anche Polaris. :)

Condividendo però...il 95% delle cose con Fiji (HWS compresi.. ;) ).

Tu sopra ipotizzavi un salto più grande, invece.

Ad oggi, anche grazie a quel vago tweet, non siamo assolutamente in grado di dire che Vega non sia un Polaris *2 (ipotesi) con qualche tweak in più... ;)

Il post era new year new architecture quindi polaris non c'entra niente...magari prendono alcune cose di polaris ma sarà una nuova architettura è molto probabile...comunque non bisogna stupirsi se amd vende meno nonostante tutto...uno non esperto si fa un giro sui forum e legge che va quanto la fury, poi quando esce e va forte ormai è troppo tardi tutti hanno già fatto i loro acquisti...e ma loro non fanno la pubblicità prima del tg come fa nvidia :O

Gyammy85
01-01-2017, 15:48
Mi pare di ricordare che abilitando gli ace doom forza "senza permesso" msaa che va meno sulle verdi.

Comunque dai, si sa che vega andrà come titan x pascal a 400 :O

Uno ci scherza ma...all'epoca fu quello che fece la 290 :sofico:
Imho vega full si piazzerà in media fra 1080 e 1080ti a un prezzo non basso ma non mostruoso, ovviamente al netto delle creste nelle prime settimane dal lancio.

Doom ha l'smaa e il tsaa8x che sfrutta di più l'asynch compute (ho fatto le prove e si fanno più fps con quest'ultima modalità)...non si forza niente si può scegliere

Oirasor_84
01-01-2017, 16:28
Che poi storicamente id tech è sempre stato pro nvidia se proprio la vogliamo dire tutta ,si sono scordati tutti della presentazione con doom e gtx 1080 con oc se non ricordo male a 2100mhz con relativi pantaloni bagnati :sofico:
Doom è semplicemente un gioco con un api per cui amd ha studiato la sua architettura anni fà...

Ale55andr0
01-01-2017, 16:39
http://ve.ga/

Hype :O


Tutto sto rumore per una fury a 14nm :D
naaaa, ai uanna biliv :O

Gyammy85
01-01-2017, 16:41
http://ve.ga/

:cool: :cool:

Gyammy85
01-01-2017, 16:50
http://tech.everyeye.it/articoli/speciale-amd-vuole-raggiungere-50-share-nel-mercato-gpu-si-puo-fare-31913.html

Ale55andr0
01-01-2017, 16:59
http://tech.everyeye.it/articoli/speciale-amd-vuole-raggiungere-50-share-nel-mercato-gpu-si-puo-fare-31913.html

"Non appena ci butteremo sulla fetta high-end con l'architettura Vega allora vedrete che diventeremo nuovamente molto competitivi".

Forza uoma, sei tutti noi :O

OvErClOck82
01-01-2017, 17:04
Non credo a Lisa Su, qui su hwupgrade delle menti illuminate hanno affermato che ad amd non interessa la fascia alta, quindi deve essere per forza così.

:O

Ale55andr0
01-01-2017, 17:21
Non credo a Lisa Su, qui su hwupgrade delle menti illuminate hanno affermato cghe ad amd non interessa la fascia alta, quindi deve essere per forza così.

:O


A ogni modo sto trollando un po i verdi nel sito dei troll, just for fun :asd:

http://wccftech.com/nvidia-geforce-gtx-1080-ti-club-geforce-elite-coming-ces-2017/

Nick 458 speciale :D

Ps: poi figurati se ci credo io...non ho dimenticato il world fastest gpu della fury x...anche se non fu lei a dirlo. Semplicemente ora credo, o voglio credere, che faranno un prodotto competitivo a un prezzo equilibrato (non regalato, beninteso...). Cio NON vuol dire battere la 1080ti eh

Ale55andr0
01-01-2017, 17:39
Ocho che fanno di nuovo una figura di cacca se esagerano coi proclami. Dal video amd:

https://i.gyazo.com/b10e352e0c03f70dc868bf2735822622.png


:sofico:

OvErClOck82
01-01-2017, 17:46
indipendentemente da quello che sarà, adoro questo tipo di marketing :asd:

Ale55andr0
01-01-2017, 17:48
AMD all'arrembaggio sulla fascia alta mi sorprende, curioso aspetto :D


Gia me lo vedo Apu che corre sulla passerella all'assalto della nave nvidia, brandendo minacciosamente una vega e, appena mette i piedi sul ponte nemico, inciampa su una cima e fa cadere a terra la scheda :asd:

Edit: in b4 vega è il rivale di volta ed esce nel 2018 XD

Edit2: comunque non era Ruby :asd:

Lunar Wolf
01-01-2017, 18:19
http://ve.ga/
Bene...

Hadar
01-01-2017, 18:29
A 6 secondi del video si vede un poster con scritto "poor volta(ge) coperto da un altro poster "better be Red" :asd:

Freisar
01-01-2017, 18:43
A 6 secondi del video si vede un poster con scritto "poor volta(ge) coperto da un altro poster "better be Red" :asd:

:D speriamo in bene!

fraussantin
01-01-2017, 18:53
Bene...
Sono andati ad aprire un dominio in africa per l'occasione!

:asd:

Ma. È ufficiale o un fake?

Hadar
01-01-2017, 19:09
C'è pure il video su YouTube sul canale ufficiale.

Raven
01-01-2017, 21:22
Mi sembra un po' troppo di qualità per essere un fake, ma mi sembra un po' troppo aggressivo per essere vero.

.... e..... quindi? :stordita:

https://cdn-img-a.facciabuco.com/132/zhrid5i2za-la-gente-non-sa-piu-quando-stiamo-andando-la-gente-non-sa-piu-quando-stiamo-facendo_a.jpg :fagiano:

Ale55andr0
01-01-2017, 22:21
:asd:

https://uploads.disquscdn.com/images/d9248343b0a90ff1739f51615908be649b60c6e433be5dcffd0459a36a3f47c7.jpg

The Pein
01-01-2017, 23:09
il 4 gennaio finirà tutto...:D

Raven
02-01-2017, 06:44
il 4 gennaio finirà tutto...:D

:mbe:


https://i.imgflip.com/1gy9z4.jpg :stordita:

TRUTEN
02-01-2017, 09:09
Sono andati ad aprire un dominio in africa per l'occasione!

:asd:

Ma. È ufficiale o un fake?

Il dominio è del gabon per avere la terminazione ".ga" ma il server è in UK ed intestato ad una società di marketing veramente esistente e, mi pare, grossa.

I want to believe: RX 490 fine mese a 450€ i.i. più prestante di una 1080. :O

m@ximo
02-01-2017, 09:20
https://www.tomshw.it/amd-nuove-informazioni-sulle-gpu-vega-nei-prossimi-giorni-82379

...offrire prodotti potenti ma a costi accessibili...
Staremo a vedere

Free Gordon
02-01-2017, 09:24
Il video è carino, ovviamente NON è un fake. :)

Cmq tra tre gg ci sarà solo l' "architecture preview"...

Spero sia come con Polaris, preview un mese prima della commercializzazione, anche se non ne sono così certo in questo caso... :(

Speriamo bene. :sperem:

Hadar
02-01-2017, 10:06
Ci sarà qualche leak prima dell'evento?🤔
Che nomenclatura vi aspettate?
490, 5xx oppure nome a parte, tipo la Fury della scorsa gen?

Gyammy85
02-01-2017, 10:08
https://www.tomshw.it/amd-nuove-informazioni-sulle-gpu-vega-nei-prossimi-giorni-82379

...offrire prodotti potenti ma a costi accessibili...
Staremo a vedere

I commenti sotto la news sono qualcosa di orrendo, toms col boost 4

Ale55andr0
02-01-2017, 10:27
https://www.tomshw.it/amd-nuove-informazioni-sulle-gpu-vega-nei-prossimi-giorni-82379

...offrire prodotti potenti ma a costi accessibili...
Staremo a vedere


"I clienti che spendono 200 dollari vogliono sentire il loro investimento al sicuro per un paio d'anni", ha spiegato AMD qualche mese fa. Infatti, secondo l'azienda, Nvidia fa pagare troppo le sue schede video e le "abbandona" non appena presenta una nuova architettura."

Bella li' la stoccata...:asd:

Ma potrebbe paradossalmente far bene a 360 facendo adeguare gli avversari a politiche di supporto e prezzi non dissimili, ovviamente a patto di far seguire i fatti alle parole perché per ora concorrenza 0 :sperem:

IceoLator
02-01-2017, 10:28
Ho sempre avuto ati,poi da due generazioni son passato a Nvidia..Se mi cacciano una 490 che va come o più di una 1080 ad un prezzo più basso ci faccio un pensiero

sniperspa
02-01-2017, 10:36
Hype....spero quanto prima di potermi (ri)fare un pc completamente AMD Zen+Vega

Free Gordon
02-01-2017, 12:55
Di sicuro la nomenclatura sarà RX 5x0 o addirittura roba tipo RXV (per seguire la logica dei numeri romani) 5x0.

Non credo useranno più la 4x0..

majinbu7
02-01-2017, 13:46
Un poster di pericolo verde (famosi segnali di pericolo verdi) con un occhio chiuso con scritto "somnium industries".
Certo quello che lascia presagire questo video è che vega sarà meglio di volta, noi stiamo qui a pensare se sarà pari a pascal :asd:

Se non è così è la più grande cagata fuori dal vaso della storia :rotfl:

Ma i tamburi sono un sottinteso "rulla"? :)

Addirittura meglio di un'architettura che ancora deve uscire e di cui si sa poco niente....mi sa un pò esagerato :D
Comunque prima lo speravo solamente invece ora sono sempre più convinto che vega andrà un 20% in + della 1080.

Freisar
02-01-2017, 14:16
Sperare che annuncino una finestra di lancio e una slide sulle prestazioni è troppo?

nico88desmo
02-01-2017, 14:23
Qualche parola chiave di vega...

http://ve.ga/wp-content/uploads/2016/12/Vega_Wordcloud-01-768x432.png

Ren
02-01-2017, 14:30
Qualche parola chiave di vega...

http://ve.ga/wp-content/uploads/2016/12/Vega_Wordcloud-01-768x432.png

Molto interessante. :cool:

Pronti per il Legacy GCN ? :sofico: :sofico: :sofico: :sofico:

http://s2.quickmeme.com/img/c3/c344437514c773c4d4ecde726a2eb8630ebcf17a299122d8b602c0e02dff4680.jpg

Sicuri non sia fake ?

fraussantin
02-01-2017, 14:42
Qualche parola chiave di vega...

http://ve.ga/wp-content/uploads/2016/12/Vega_Wordcloud-01-768x432.png

X4 power eff. È sufficente a far capire che sarà tutta nuova.


Stavolta forse è la volta buona.

mikael84
02-01-2017, 14:44
Molto interessante. :cool:

Pronti per il Legacy GCN ? :sofico: :sofico: :sofico: :sofico:

Sicuri non sia fake ?

8x capacity stack, ammazza che numero.:p

FroZen
02-01-2017, 14:44
Vega EN'CU era meglio :asd:

Ammazza come rosicano certi verdi, manco gli avessero toccato la madre :asd:

Eeeeeeeeeeeeeeeeeh l'hype e il marketing.................... forte sulle menti deboli...................ma grazie al mio nuovo fiammante smartphone 8 core con design accattivante e batteria con tecnologia rivoluzionaria non avrò più alcuna difficoltà nella esasperante vita moderna e potrò finalmente avere tutto ciò che desideravo e soprattutto, dedicarmi a ciò che è importante........ grazie Samsung!!!!!!














http://www.ericrosenbergdesign.com/files/gimgs/5_tschefs-pal-still14.jpg

FroZen
02-01-2017, 14:45
Molto interessante. :cool:

Pronti per il Legacy GCN ? :sofico: :sofico: :sofico: :sofico:


Corro a prendere una 970!!!!!!

Legolas84
02-01-2017, 14:47
Cavolo speriamooo!

Speriamo vada più di una TitanX e consumi meno... speriamo sia una nuova architettura, e che rivoluzioni davvero i prezzi di questo mercato ormai a senso unico!

Speriamo che tutto questo marketing spudorato nasconda veramente un reale prodotto superiore alla concorrenza, venduto a prezzi da "ribellione".... così da tornare ad avere un mercato come si deve!

Ren
02-01-2017, 14:49
http://ve.ga/wp-content/uploads/2016/12/Vega_Wordcloud-01-768x432.png

A parte gli scherzi.:D

Hanno eliminato rasterizer e rop's di terascale memoria. Forse c'è anche un algoritmo di tiling on cache.

I Primitive shader "FORSE" sono nuovi CU. Se è un salto alla vliw so cazzi per GCN. (x questo trollavo :D )

FroZen
02-01-2017, 14:50
8x capacity stack, ammazza che numero.:p

Pensa che sul sito appena apre ci sarà un

COMPRATEFAIGAAAA!!!!11111!!!!! con tanti 1 quanti transistor avrà sto vega :sofico: :sofico: :sofico:

apu ha già fatto la ceretta alle gambe e lisa i baffi.......

conviene mettere tutte le amd attuali a 1€ sul mercatino, c'è il rischio di non prendere manco 10 centesimi quando uscirà sta vga che spostati

Legolas84
02-01-2017, 14:51
Molto interessante. :cool:

Pronti per il Legacy GCN ? :sofico: :sofico: :sofico: :sofico:

Sicuri non sia fake ?

Dai Ren, basta con il legacy :asd:

A parte quei 5 o 6 utenti devastati che bazzicano qua dentro ormai è storia vecchiaaaaaaa, io finalmente sono contento che forse vediamo qualcosa di buono dopo anni in casa AMD e quindi il mercato potrebbe tornare in un regime di concorrenza, piuttosto che di monopolio di mercato e tecnologico come negli ultimi anni....

Certo però se VEGA è davvero una nuova architettura tutta la storia, porting facile delle console va a farsi friggere? Che ne pensi? Dovranno ottimizzare come fa ora NVIDIA?

FroZen
02-01-2017, 14:51
Cavolo speriamooo!

Speriamo vada più di una TitanX e consumi meno... speriamo sia una nuova architettura, e che rivoluzioni davvero i prezzi di questo mercato ormai a senso unico!

Speriamo che tutto questo marketing spudorato nasconda veramente un reale prodotto superiore alla concorrenza, venduto a prezzi da "ribellione".... così da tornare ad avere un mercato come si deve!

Ma soprattutto grazie a gente come te che ci ha creduto da sempre!!!!!! :sofico:

Oirasor_84
02-01-2017, 14:55
Ma soprattutto grazie a gente come te che ci ha creduto da sempre!!!!!! :sofico:

Scusa Legolas84 ma questa mi ha fatto spaccare dalle risate:D :D

Legolas84
02-01-2017, 14:55
Ma soprattutto grazie a gente come te che ci ha creduto da sempre!!!!!! :sofico:

Gente come me? Io non sono mica un fanboy come te :asd:

Ho anche schede AMD in casa, semplicemente però nel mio PC tengo il meglio e ora ho due 1080... solo che non è facile da capire/accettare quando si tifa in modo dichiarato :asd:

PS
Io ci crederò quando escono le rece.... per ora mi limito a sperarci. :D ;)

Hadar
02-01-2017, 14:58
Il treno dell'hype è già partito?

Ren
02-01-2017, 14:58
Dai Ren, basta con il legacy :asd:

A parte quei 5 o 6 utenti devastati che bazzicano qua dentro ormai è storia vecchiaaaaaaa, io finalmente sono contento che forse vediamo qualcosa di buono dopo anni in casa AMD e quindi il mercato potrebbe tornare in un regime di concorrenza, piuttosto che di monopolio di mercato e tecnologico come negli ultimi anni....

Certo però se VEGA è davvero una nuova architettura tutta la storia, porting facile delle console va a farsi friggere? Che ne pensi? Dovranno ottimizzare come fa ora NVIDIA?

Attenti al vino in botti di rovere (può diventare aceto)...:sofico:

Se hanno cambiato i CU devono riottimizzate tutto.

cmq non è detto, ma primitive shader(+nextgencompuerengine) è un bel interrogativo.

Oirasor_84
02-01-2017, 14:59
Il treno dell'hype è già partito?
Si al capolinea ci aspetta la migliore vga amd di sempre;)

mikael84
02-01-2017, 15:00
Pensa che sul sito appena apre ci sarà un

COMPRATEFAIGAAAA!!!!11111!!!!! con tanti 1 quanti transistor avrà sto vega :sofico: :sofico: :sofico:

apu ha già fatto la ceretta alle gambe e lisa i baffi.......

conviene mettere tutte le amd attuali a 1€ sul mercatino, c'è il rischio di non prendere manco 10 centesimi quando uscirà sta vga che spostati

Se il rapporto prezzo prestazioni sarà buono, la compriamo veramente, altro che 11!11:p

Ren
02-01-2017, 15:02
8x capacity stack, ammazza che numero.:p

Penso si riferisca alle HBM (TSV 8die). Tu che pensi ?

mikael84
02-01-2017, 15:05
Penso si riferisca alle HBM (TSV 8die). Tu che pensi ?

Si appunto sono numeri no sense, alla fin fine, numeri da tabella.:p

Attenti al vino in botti di rovere (può diventare aceto)...:sofico:

Se hanno cambiato i CU devono riottimizzate tutto.

cmq non è detto, ma primitive shader è un bel interrogativo.

A me proprio questo interessa, vorrei qualche chiarimento, anche se temo che prima del lancio vedremmo solo numeri e slogan.:)
Mi piacerebbe vedere lo schema finale.

Legolas84
02-01-2017, 15:07
Ovviamente qui è tutto per creare hype e bisogna come sempre aspettare le recensioni... certo sarebbe ridicolo se quanto detto da AMD poi si rivelasse totalmente privo di fondamento soprattutto alla luce di un marketing tanto spregiudicato....

Quindi c'è per lo meno da sperare che sia vero....

fraussantin
02-01-2017, 15:12
Ovviamente qui è tutto per creare hype e bisogna come sempre aspettare le recensioni... certo sarebbe ridicolo se quanto detto da AMD poi si rivelasse totalmente privo di fondamento soprattutto alla luce di un marketing tanto spregiudicato....

Quindi c'è per lo meno da sperare che sia vero....
Però un marketing del genere non l'hanno fatto manco con polaris. Forse veramente è qualcosa di sorprendente.

Legolas84
02-01-2017, 15:14
Però un marketing del genere non l'hanno fatto manco con polaris. Forse veramente è qualcosa di sorprendente.

a sto punto gli conviene :asd:

a dire il vero conviene a tutti.... a loro e a tutta l'utenza del mondo PC....

Ren
02-01-2017, 15:18
Si appunto sono numeri no sense, alla fin fine, numeri da tabella.:p

A me proprio questo interessa, vorrei qualche chiarimento, anche se temo che prima del lancio vedremmo solo numeri e slogan.:)
Mi piacerebbe vedere lo schema finale.

Magari... :fagiano:

Alla fine i CU\GCN non sono nemmeno tutto sto problema.

Sono le fixed function di terascele2 memoria "la piaga".

Hadar
02-01-2017, 15:20
Dai, salgo sul treno pure io allora, metto la cintura sia mai andremo a schiantarci

ste-87
02-01-2017, 15:30
Però un marketing del genere non l'hanno fatto manco con polaris. Forse veramente è qualcosa di sorprendente.

Bisogna vedere sorprendente per chi e con che metro di paragone, se è un +60% o +80% da una rx 480 (unica scelta ad ora disponibile) nel panorama amd sarà sorprendente, se si guarda a quanto offre già il mercato da 6 mesi però vanno solo a ricalcare prestazioni di 1070 e 1080, vediamo!

Purtroppo parto diffidente e prevenuto, slogan e slide senzazionali sono state sempre il suo cavallo di battaglia e poi finisce tutto lì una volta uscite, anche quel "20% in più di una 1080" per ora non lo escluderei a priori, però me l'aspetto solo in titoli e condizioni favorevoli ad amd e non in situazione normali con tutti i giochi...rimane poi anche la questione prezzi, cosa non da poco considerando l'utenza tipica amd attenta sempre al miglior rapporto prezzo/prestazioni, vedi fury x che al di là delle chiacchere non se l'era comprata quasi nessuno sul forum con i prezzi che aveva tenuto

Tante volte partire con aspettative basse non è un male

Ale55andr0
02-01-2017, 15:31
Cavolo speriamooo!

Speriamo vada più di una TitanX e consumi meno... speriamo sia una nuova architettura, e che rivoluzioni davvero i prezzi di questo mercato ormai a senso unico!

Speriamo che tutto questo marketing spudorato nasconda veramente un reale prodotto superiore alla concorrenza, venduto a prezzi da "ribellione".... così da tornare ad avere un mercato come si deve!


/...così poffo comprare un vvvidea a prezzo più baffo :fagiano:

:D

nico88desmo
02-01-2017, 15:33
TechPowerUp da una sua interpretazione alle parole chiave dell'immagine.


Here's what we make of these keywords:

8x Capacity/stack: This probably refers to the fact that HBM2 memory has 8 times the capacity per DRAM stack, as the first-generation HBM. While HBM1 maxed out at 4 GB over a 4096-bit interface (1 GB per stack), on the Radeon R9 Fury series; HBM2 allows you to cram up to 32 GB of memory (or 8 GB per stack), over a 4096-bit interface. This also means that whatever Vega-based AMD is going to launch, will come with HBM2 memory.
2x Bandwidth Per Pin: Refers to the increase in bandwidth per pin of HBM2. With a memory clock of 500 MHz, 4096-bit HBM2 could reach 1 TB/s. This gives AMD the cost-saving flexibility of deploying a 2048-bit memory bus with 8 GB of memory, and yet ending up with 512 GB/s bandwidth (more than that of the TITAN X Pascal).
High Bandwidth Cache: This is a very curious phrase. Perhaps it means that AMD managed to increase the data throughput of the GPU's on-die caches, or, given the way this is worded, it could be a larger cache faster than the video-memory, which the GPU can use as a large scratchpad. The fact that another keyword in this cloud refers to a "high-bandwidth cache controller" adds weight to this theory.
512 TB Virtual Address Space: This adds even more weight to the theory that the HBM2 video memory, and the on-die L2 cache may not be the only physical memory on "Vega" graphics cards. The GPU probably needs a vast address space of up to 512 TB, to juggle data between the VRAM, caches, and the host.
4x Power Efficiency: This is probably just a 4x performance/Watt increase over the "Fiji" silicon, and shouldn't come as a surprise, given the new 14 nm process, and the energy-efficiency improvements AMD already made with "Polaris."
Next Generation Compute[r] Engine: This probably refers to an upgraded compute unit (CU) design, which is at the heart of the 4x performance/Watt increases
Primitive Shaders: If this is what we think it is, it's big. Most modern shader operations can be simplified into smaller, simpler operations.

Fonte: https://www.techpowerup.com/229181/ominous-ve-ga-website-surfaces-with-a-word-cloud



Effettivamente i primi 4 punti non credo siano niente di che, sono tutte cose che già ci sono in GP102.

Più interessanti sono gli ultimi 3 punti, sopratutto l'ultimo punto dei "primitive shaders" (dato che non si sa cosa siano effettivamente :D)

Ale55andr0
02-01-2017, 15:36
http://ve.ga/wp-content/uploads/2016/12/Vega_Wordcloud-01-768x432.png

A parte gli scherzi.:D

Hanno eliminato rasterizer e rop's di terascale memoria. Forse c'è anche un algoritmo di tiling on cache.

I Primitive shader "FORSE" sono nuovi CU. Se è un salto alla vliw so cazzi per GCN. (x questo trollavo :D )


1) mikael, esci da questo corpo :O

2)Vai tranqui, è na polaris a 14nm + hbm2 col motore geometrico delle gcn 1 :eek:

Scherzi a parte, vediamo sti cammelli e poi sapremo, dopo il uorld fastest gippiu non si sa mai...ma a sto giro credo a un prodotto abbastanza performante e ben rapportato al prezzo (dico in relazione ai rivali)

The Silver Surfer
02-01-2017, 15:37
Ma io veramente spero che sia come il reparto marketing sta urlando a più non posso, certo è che se uscisse la bomba o le bombe le cui prestazioni sono superiori alla 1080 si creerebbe l'altro problema del vuoto tra polaris e vega e non credo basterebbe una seconda scheda per colmare l'abisso tra vega piccolo -eventuale- e polaris, sia a livello di costo che di prestazioni.
Se sono davvero così potenti -vabbeh lasciamo perdere il manifesto su volta nel video perché, really, mi pare farla LEGGERMENTE fuori dal vasetto- devono essere tre le varianti derivanti dal chip più potente, secondo me.

Ren
02-01-2017, 15:43
TechPowerUp da una sua interpretazione alle parole chiave dell'immagine.



Effettivamente i primi 4 punti non credo siano niente di che, sono tutte cose che già ci sono in GP102.

Più interessanti sono gli ultimi 3 punti, sopratutto l'ultimo punto dei "primitive shaders" (dato che non si sa cosa siano effettivamente :D)

Aggiungo :

Rapid packed math : Rate FP16 doppio.
Nextgen Pixel Engine : Nuove rop's
Draw Stream Binning Rasterizer : Nuovo Rasterizer con funzioni di Tiling avanzate. Forse qualcosa di simile alle maxwell, quindi maggior compressione=efficienza.

Ale55andr0
02-01-2017, 15:43
Ma io veramente spero che sia come il reparto marketing sta urlando a più non posso, certo è che se uscisse la bomba o le bombe le cui prestazioni sono superiori alla 1080 si creerebbe l'altro problema del vuoto tra polaris e vega e non credo basterebbe una seconda scheda per colmare l'abisso tra vega piccolo -eventuale- e polaris, sia a livello di costo che di prestazioni.
Se sono davvero così potenti -vabbeh lasciamo perdere il manifesto su volta nel video perché, really, mi pare farla LEGGERMENTE fuori dal vasetto- devono essere tre le varianti derivanti dal chip più potente, secondo me.

Non vedo il problema, basta una variante segata che fronteggi la 1070 intorno ai 350 sesterzi :fagiano:

mikael84
02-01-2017, 15:55
1) mikael, esci da questo corpo :O

2)Vai tranqui, è na polaris a 14nm + hbm2 col motore geometrico delle gcn 1 :eek:

Scherzi a parte, vediamo sti cammelli e poi sapremo, dopo il uorld fastest gippiu non si sa mai...ma a sto giro credo a un prodotto abbastanza performante e ben rapportato al prezzo (dico in relazione ai rivali)

Tutti slogan, stai sereno. L'ultimo parametro parla delle FP16 praticamente.
Sempre con i piedi per terra.;)

FroZen
02-01-2017, 15:56
Si ma quanti tflop per millimetro? E quanti db per segno zodiacale? :read:

Legolas84
02-01-2017, 15:58
/...così poffo comprare un vvvidea a prezzo più baffo :fagiano:

:D

Ma di quello che faccio io a te che te frega? :fagiano:

Finalmente tu forse esci dalla stallo esistenziale :D

Ren
02-01-2017, 15:59
1) mikael, esci da questo corpo :O

2)Vai tranqui, è na polaris a 14nm + hbm2 col motore geometrico delle gcn 1 :eek:

Scherzi a parte, vediamo sti cammelli e poi sapremo, dopo il uorld fastest gippiu non si sa mai...ma a sto giro credo a un prodotto abbastanza performante e ben rapportato al prezzo (dico in relazione ai rivali)

E' da una vita che diciamo che le fixed function+bus interno di amd sono troppo vecchie.

Finalmente hanno messo mano alle rops+rasterizer.

La slide non parla del geometry engine. Sembra sempre di tipo centralizzato.

Poi se hanno cambiato i CU, tanto meglio.

Ho venduto la mia 270X (GCN) un anno fa...:p

Legolas84
02-01-2017, 16:00
Non vedo il problema, basta una variante segata che fronteggi la 1070 intorno ai 350 sesterzi :fagiano:

No be.... se fai un video dove tiri in ballo persino VOLTA, devi avere una gpu che va.... non basta fronteggiare una gpu di 9 mesi fa nemmeno top di gamma....

TRUTEN
02-01-2017, 16:03
Si ma quanti tflop per millimetro? E quanti db per segno zodiacale? :read:

1) 17 pertiche torinesi
2) 8 ducati d'oro

Tra l'altro hanno postato tutto due giorni dopo che ipotizzavo un rilascio a settembre. Aspetta che lo ripeto così magari escono questa settimana. :asd:

Ren
02-01-2017, 16:11
Si ma quanti tflop per millimetro? E quanti db per segno zodiacale? :read:

millemila con scappellamento a destra come se fosse antani.:asd:

The Silver Surfer
02-01-2017, 16:15
No be.... se fai un video dove tiri in ballo persino VOLTA, devi avere una gpu che va.... non basta fronteggiare una gpu di 9 mesi fa nemmeno top di gamma....

si ma poi percentuali alla mano pare REALMENTE impossibile come.cosa eh, cioè io per il bene del mercato tutto, lo auspicherei anche, ma pensare che vega possa rivaleggiare addirittura cpn Volta mi pare un TANTINELLO ottimistico, significherebbe che tale gpu dovrebbe rullare tra un 40-50% della 1080 ALMENO.
E francamente non lo ritengo possibile neanche nei sogni più unti di APU o nelle orge a base di allucinogeni di Lisa Su.
Non vorrei che ci rotrovassimo tipo con la world fastest gpu, ma anche no, ever : D
Io non so se ridisegnarw alcuni parti dell'architettura possa sprigionare tutto il suo pptenziale latente finora castrato da inutili complessità e colli di bottiglia, ma Veramente sarebbe gia tanta roba se andasse un 30% in più di una 1080 al lancio, perche poi, se l'architettura fosse realmente abbastanza nuova, conoscendo amd nel corso della sua vita migliorerebbe SENSIBILMENTE..
più realisticamente dico che sara allineata alla 1080ti o appena sotto ma a prezzo umano (relativamente alla fascia ovvio).
Se poi va di più o parecchio di più allora gioitene tutti perché amd con due spicci in croce dimostrerebbe di avere un talento che di la si sognano : D

Ale55andr0
02-01-2017, 16:20
Ma di quello che faccio io a te che te frega? :fagiano:

Finalmente tu forse esci dalla stallo esistenziale :D

La battuta non era rivolta a te :O

..ma era comunque il naturale proseguio del tuo post :asd:

Ale55andr0
02-01-2017, 16:24
No be.... se fai un video dove tiri in ballo persino VOLTA, devi avere una gpu che va.... non basta fronteggiare una gpu di 9 mesi fa nemmeno top di gamma....

A quella trollata non credo ma..anche fosse mi pare naturale che in caso si riferissero a vega top... ovvio che nella lineup devi coprire anche la fascia della 1070 per non creare un black hole dalla fascia media...poor volta o meno...

The Silver Surfer
02-01-2017, 16:31
A quella trollata non credo ma..anche fosse mi pare naturale che in caso si riferissero a vega top... ovvio che nella lineup devi coprire anche la fascia della 1070 per non creare un black hole dalla fascia media...poor volta o meno...

considerazione: ma la tizia che è passata da nvidia sd amd, sicuri non sapesse nulla di volta, manco in termini di previsioni sul potenziale/auspicato/previsto livello prestazionale?
Le architetture non le progettano mica 2 mesi prima eh...
Magari è anche grazie a lei che "ufficiosamente" AMD sappia qualcosa in merito.
Oppure è un'enorme MINKIATA.
Tra le due se dovessi scegliere opterei per la minkiata :asd:

Ale55andr0
02-01-2017, 16:33
, ma pensare che vega possa rivaleggiare addirittura cpn Volta mi pare un TANTINELLO ottimistico, significherebbe che tale gpu dovrebbe rullare tra un 40-50% della 1080 ALMENO.
E francamente non lo ritengo possibile neanche nei sogni più unti di APU o nelle orge a base di allucinogeni di Lisa Su.


Per quanto non ci creda per primo in assoluto non è impossibile: una quadro 3840sp stacca nettamente una 1080. Il punto è che...appunto, se già esiste una scheda che stacca la 1080 di un 40% non puoi competere con volta pareggiando quel valore, a meno che ci riesci con una medioalta da 500 cartoni e hai una super top da 700 come asso nella manica che va un ulteriore 25%+...ma qua altro che sogni unti di apu, siamo nel pieno del delirio e delle farneticazioni :asd:

FroZen
02-01-2017, 16:37
considerazione: ma la tizia che è passata da nvidia sd amd, sicuri non sapesse nulla di volta, manco in termini di previsioni sul potenziale/auspicato/previsto livello prestazionale?
Le architetture non le progettano mica 2 mesi prima eh...
Magari è anche grazie a lei che "ufficiosamente" AMD sappia qualcosa in merito.
Oppure è un'enorme MINKIATA.
Tra le due se dovessi scegliere opterei per la minkiata :asd:

gli NDA fra aziende di quel tipo sono più stretti delle cosce di lisa, chi lavora al marketing conosce giusto quello che gli dicono le vendite fosse una vga ultra tecnologica o una pentola a pressione.....

cmq ha fatto centro amd, tutti parlano di sta cacata di video :rotfl:

Ale55andr0
02-01-2017, 16:37
considerazione: ma la tizia che è passata da nvidia sd amd, sicuri non sapesse nulla di volta, manco in termini di previsioni sul potenziale/auspicato/previsto livello prestazionale?
Le architetture non le progettano mica 2 mesi prima eh...
Magari è anche grazie a lei che "ufficiosamente" AMD sappia qualcosa in merito.
Oppure è un'enorme MINKIATA.
Tra le due se dovessi scegliere opterei per la minkiata :asd:


È la prima volta che sento sta cosa quindi non so, chi sarebbe? Se poi è una del marketing no sicuro, certe conoscenze può averle uno che ci ha lavorato su quel progetto

ste-87
02-01-2017, 16:48
considerazione: ma la tizia che è passata da nvidia sd amd, sicuri non sapesse nulla di volta, manco in termini di previsioni sul potenziale/auspicato/previsto livello prestazionale?
Le architetture non le progettano mica 2 mesi prima eh...
Magari è anche grazie a lei che "ufficiosamente" AMD sappia qualcosa in merito.
Oppure è un'enorme MINKIATA.
Tra le due se dovessi scegliere opterei per la minkiata :asd:

dai diciamoci la verità quante probabilità realistiche ci sono che vada più di Volta, del quale non si sà nulla? è una sparata "markettara", sul momento fa esattamente quello che deve fare, ovvero far crescere l'hype a dismisura su chi le aspettava e far fare ipotesi azzardate a chi guarda/analizza comunque gli sviluppi. Tanto quando escono le recensioni ci sarà un reset di tutto quello che è accaduto prima e nessuno si ricorderà delle esagerazioni apocalittiche usate :rolleyes:

The Silver Surfer
02-01-2017, 16:53
È la prima volta che sento sta cosa quindi non so, chi sarebbe? Se poi è una del marketing no sicuro, certe conoscenze può averle uno che ci ha lavorato su quel progetto
talmente incredibili che hanno creato una tipologia di reato solo per la fuga di informazioni, ma ripeto, intendevo in forma ufficiosa non in merito alle questioni architettoniche ed ingegneristiche ma solo a livello prestazionale -spannometricamente- persino il reparto marketing deve essere informato prima -se poi sei la direttrice interna- fosse anche solo per fare una slide "sensata" o pensare una campagna marketing sul lungo periodo. Se poi si considera che spesso la comunicazione e il marketing hanno più rilevanza di quello che effettivamente spendi e produci...

Cmq spero non lo abbiano messo li ad cazzum perche poi diventi "el cazzaro" e come ne parlano tutti ora ne parleranno tutti dopo per paracularti eh :asd:

The Silver Surfer
02-01-2017, 16:55
Se poi mi tirano fuori la nuova 9700/9800 o la nuova 4870/5870 tanto di cappello, ci mancherebbe, anzi sarei stra-felicissimo : D

fraquar
02-01-2017, 16:58
Mi sembra di leggere i discorsi che facevo da bambino.
Era meglio Goldrake o Jeeg?
Io dicevo che era meglio l'alabarda spaziale pur ignorando che amperaggio avesse mentre il mio amico sosteneva la superiorità del maglio perforante senza conoscerne la propulsione e la velocità di impatto.
Tutti avevamo ragione perché parlavamo ignorando i dati tecnici.
AMD e Nvidia stanno facendo la stessa cosa e qui ci si è già schierati da una parte o l'altra.
Più hype per tutti

The Silver Surfer
02-01-2017, 17:00
gli NDA fra aziende di quel tipo sono più stretti delle cosce di lisa, chi lavora al marketing conosce giusto quello che gli dicono le vendite fosse una vga ultra tecnologica o una pentola a pressione.....

cmq ha fatto centro amd, tutti parlano di sta cacata di video :rotfl:

ma io non me la riderei eh, cannare due volte di fila come probabilmente sarà -sicuramente in merito a Volta- con cazzate del genere poi finisci male a livello di credibilità e il fatto che amd non abbia la schiera di ottenebrati dalla sua parte e le percentuali a favore di market share non aiutano manco per un caxxo.
Io sono per il marketing ben fatto,ma le minkiate non sta scritto da nessuna parte di doverle scrivere eh :asd:
Poi a lungo andare le paghi, vedi ale55andro che ancora non manda giu il uorld faster gippiù evah -e manco io- :rolleyes:

The Silver Surfer
02-01-2017, 17:06
Mi sembra di leggere i discorsi che facevo da bambino.
Era meglio Goldrake o Jeeg?
Io dicevo che era meglio l'alabarda spaziale pur ignorando che amperaggio avesse mentre il mio amico sosteneva la superiorità del maglio perforante senza conoscerne la propulsione e la velocità di impatto.
Tutti avevamo ragione perché parlavamo ignorando i dati tecnici.
AMD e Nvidia stanno facendo la stessa cosa e qui ci si è già schierati da una parte o l'altra.
Più hype per tutti

ma infatti è una balla colossale al 99% ho solo paura che amd ne paghi le conseguenze anche se ora ottiene un po' di visibilità in più, ma francamente tra ryzen e vega, non vedo il motivo di pompare così tanto passando per la strada del cazzaro doc :asd:

Detto questo e a parte le minkiate su volta,a me basta che vada un 15-20% piu della 1080 ad un prezzo RAGIONEVOLE. Qualsiasi cosa in più è grasso che cola : D

P.s.: piu hype per tutti no, ed è proprio grazie a quell'affermazione lì su volta che sono passato nell'arco di minuti da hype della madonna al più disinteressato "meh" della storia. Ho sempre preferito AMD/ATI. Sempre. Ma il motivo per cui questo accade sono anche le politiche ad cazzum e le minkiate di nvidia, se inizia pure amd a farlo ad rotam mi cala tutto l'hype "de sto monno" : D

Ale55andr0
02-01-2017, 17:25
Tanto quando escono le recensioni ci sarà un reset di tutto quello che è accaduto prima e nessuno si ricorderà delle esagerazioni apocalittiche usate :rolleyes:

Ma anche no :O io ho cag@to il razzo anche mesi dopo l'uscita della fury x con la storia del uorld fastest gippiu


Cmq spero non lo abbiano messo li ad cazzum perche poi diventi "el cazzaro" e come ne parlano tutti ora ne parleranno tutti dopo per paracularti eh :asd:

Leggi sopra...

Ren
02-01-2017, 17:32
Ma anche no :O io ho cag@to il razzo anche mesi dopo l'uscita della fury x con la storia del uorld fastest gippiu


Leggi sopra...

Come Teraflops "teorici" era la più veloce...:bimbo:

Ragazzi basta saper interpretare le sparate del marketing.:sofico:

Non capisco di cosa vi lamentate. Tutte le aziende sparano cxzzxte...

cmq quel 4X di sicuro tiene conto delle performance FP16 in relazione alla vecchia fury o peggio(290/390).

Dimenticavo, Vega NCU vi dice qualcosa ? :sofico:

Free Gordon
02-01-2017, 17:37
Molto interessante. :cool:

Pronti per il Legacy GCN ? :sofico: :sofico: :sofico: :sofico:


Finalmente!!! Teo Gratias!!!! :sofico:

The Silver Surfer
02-01-2017, 17:40
strano il mondo, quando AMD spara cagate tutti pronti a dire "ehh che cagate che ha detto, marketing fasullo, scimmie, idioti" -> "epic fail", quando le spara nvidia "errore di comunicazione marketing" -> "best buy" :O

si fa già il processo ad AMD sulle intenzioni...

p.s.

quando GCN finirà in legacy invitatemi al brindisi eh qualcuno qui dentro non vede l'ora.... :rolleyes:

ma no dai, almeno da parte mia, il problema è che io preferisco amd proprio per via delle non cazzate intenzionali -perche' a livello di cazzate ne ha fatte piu o meno di tutti colori, ma erano spesso errori di marketing e/o strategie di mercato- ma se poi pure lei mi inizia a sparare minkiate come fossero fischia-botti la sera di capodanno, mi calano le p@lle :(

Detto questo il buon marketing è possibile anche senza cazzate ad rotam o senza farla IMMENSAMENTE fuori dal vaso eh...anche il video "make some noise" in effetti funziona e funzionerebbe ugualmente anche senza la sparata su Volta.
Più aspettative crei più rischi di schiantarti male se non vengono rispettate, se poi condisci il tutto con sparate no sense secondo me sbagli -nvidia come amd-.

Non c'entra niente l'idea del due pesi due misure e anzi caschi molto male perche, almeno nel mio caso, è una cosa che ho sempre segnalato e tra quelle che mi da più fastidio nel momento in cui si giudicano le Rosse :rolleyes:

Oirasor_84
02-01-2017, 17:41
Magari... :fagiano:

Alla fine i CU\GCN non sono nemmeno tutto sto problema.

Sono le fixed function di terascele2 memoria "la piaga".
Ti quoto perchè vorrei capirci di più, che io sappia le fixed function appunto come dice il termine funzione fisse ,con l'arrivo di gpu con pipeline programmabili lasciano il tempo che trovano... in buona parte dei motori grafici sono tutti shader programmati,le fixed function vengono giusto usate per il blending o per operazioni che per farle su pipeline programmabili richiede più tempo.
Ora mi viene logico pensare che non è che siano così importanti se la direzione che si sta prendendo è quella di abbandonarle o sto sbagliando qualcosa?

The Silver Surfer
02-01-2017, 17:46
Come Teraflops "teorici" era la più veloce...:bimbo:

Ragazzi basta saper interpretare le sparate del marketing.:sofico:

Non capisco di cosa vi lamentate. Tutte le aziende sparano cxzzxte...

cmq quel 4X di sicuro tiene conto delle performance FP16 in relazione alla vecchia fury o peggio(290/390).

Dimenticavo, Vega NCU vi dice qualcosa ? :sofico:

La N sta per "new"(CU)?:stordita:

O "Nfinite Powa (CU)?:sofico:

O No-Sense (CU)? :asd:

Ren
02-01-2017, 17:54
Ti quoto perchè vorrei capirci di più, che io sappia le fixed function appunto come dice il termine funzione fisse ,con l'arrivo di gpu con pipeline programmabili lasciano il tempo che trovano... in buona parte dei motori grafici sono tutti shader programmati,le fixed function vengono giusto usate per il blending o per operazioni che per farle su pipeline programmabili richiede più tempo.
Ora mi viene logico pensare che non è che siano così importanti se la direzione che si sta prendendo è quella di abbandonarle o sto sbagliando qualcosa?

Purtroppo è impossibile abbandonarle, dato che sono molto più efficienti per alcuni compiti specifici .(Rasterization,tessellator,texture,setup,culling,blending,compression,tiling, etc...)

Intel Larrabee (flop) ti dice nulla ? :sofico:

Ren
02-01-2017, 17:56
La N sta per "new"(CU)?:stordita:

O "Nfinite Powa (CU)?:sofico:

O No-Sense (CU)? :asd:

nfinite powa è stupendo...:sofico:

Penso sia un controller della cache/memoria. Questi slogan\sigle sono una rottura.:rolleyes:

cmq forse il chip professionale è il medesimo di quello gaming.

http://www.pcgameshardware.de/screenshots/medium/2016/12/AMD-Radeon-Instinct-MI25-Vega-2--pcgh.jpg

OvErClOck82
02-01-2017, 19:43
ragazzi, si chiama marketing :stordita: ... non è che hanno fatto un comunicato stampa ufficiale con su scritto "oh, vedete che 'ste schede spaccheranno il culo anche a Volta, parola di Apu", hanno messo un'immagine nascosta all'interno di un video che vuol dire tutto e nulla e hanno già raggiunto lo scopo, ovvero che se ne parli. Sparate come la world fastest gpu fanno male all'immagine, non queste, anzi...

ste-87
02-01-2017, 20:13
strano il mondo, quando AMD spara cagate tutti pronti a dire "ehh che cagate che ha detto, marketing fasullo, scimmie, idioti" -> "epic fail", quando le spara nvidia "errore di comunicazione marketing" -> "best buy" :O

si fa già il processo ad AMD sulle intenzioni...



bhe cerca anche di capire...se faceva riferimento o una sparata su Pascal, architettura sul quale dovrebbe rivaleggiare ci poteva anche stare, al di là di quanto possa sembrare spaccona o arrogante nel farlo ancor prima di presentare dati oggettivi che lo dimostrino...ma sparare gratuitamente addirittura su un architettura successiva (Volta), ad oggi che non se ne sa nulla delle potenzialità e se va bene esce tra 1 anno, da molto l'idea che siano dei buffoni...ovviamente imho

Sai che bella figura se dopo questo espluà non primeggiano neanche con le top Pascal, come si è ipotizzato fino ad ora? (1080Ti/Titan X) Per come la vedo sarebbe l'ennesima zappata sui piedi che danno alla loro immagine

Ma anche no :O io ho cag@to il razzo anche mesi dopo l'uscita della fury x con la storia del uorld fastest gippiu


sei una mosca bianca :)

Oirasor_84
02-01-2017, 21:09
Purtroppo è impossibile abbandonarle, dato che sono molto più efficienti per alcuni compiti specifici .(Rasterization,tessellator,texture,setup,culling,blending,compression,tiling, etc...)

Intel Larrabee (flop) ti dice nulla ? :sofico:
Va bè larrabee già nasceva come un prodotto non pensato al gaming,in più mancavano un sacco di cose che mi ricordi raster,pipeline corte,poi volevano implementare tutte le funzionalità delle API come DirectX ecc via software...
Tornando al discorso fixed fuction per la tesselletion per esempio non ci sono i geometry shader che possono anche generare nuovi vertici o shaders che controllano dinamicamente la tessellation?Per esempio nei giochi da smartphone tralasciando la qualità per un attimo,non è abbandonata del tutta la via delle fixed fuction?
Scusa per la curiosità ma voglio capirci meglio,perchè a me sembra che la strada sia proprio quelle di abbandonare questo tipo di programmazione visto anche l'avvento delle nuovi api...

nico88desmo
02-01-2017, 21:22
Freesync 2...sembrano slide ufficiali.

http://videocardz.com/65301/amd-announces-freesync-2

Che il CES sia anche occasione per iniziare a vedere monitor HDR? :)

Hadar
02-01-2017, 21:44
Cosa sarebbe sto freesync 2 quindi?

killeragosta90
02-01-2017, 21:49
il senso di chiamare freesync 2 una cosa che non c'entra con il sync quale sarebbe?

Inviato dal mio Redmi 3S utilizzando Tapatalk

Se così fosse (HDR) sarebbe comunque un "evoluzione", anche se comprendo il tuo discorso...

Oirasor_84
02-01-2017, 21:53
cut..
Dimenticavo, Vega NCU vi dice qualcosa ? :sofico:

La N sta per "new"(CU)?:stordita:

O "Nfinite Powa (CU)?:sofico:

O No-Sense (CU)? :asd:

Potrebbe essere il new CU Scheduler

nico88desmo
02-01-2017, 22:28
il senso di chiamare freesync 2 una cosa che non c'entra con il sync quale sarebbe?

Inviato dal mio Redmi 3S utilizzando Tapatalk

Assolutamente nessun senso; non so se GSync possa funzionare con HDR.
Certo che attualmente (da quanto ne so), non esistono monitor HDR, solamente TV. Però la situazione sembra cambiare, al CES qualcosa di nuovo si dovrebbe vedere.

fraussantin
02-01-2017, 23:12
il senso di chiamare freesync 2 una cosa che non c'entra con il sync quale sarebbe?

Inviato dal mio Redmi 3S utilizzando Tapatalk
Marketing.

Sembra che amd stia recuperando molto in quel settore.

:asd:


Provo a buttarla li :

Il chip freesinc 2.0 oltre a gestire il sync gestirà anche l'hdr, quindi essendo lo stesso chip sempre freesync sarà.( o meglio si chiamerà)

Ren
02-01-2017, 23:19
Va bè larrabee già nasceva come un prodotto non pensato al gaming,in più mancavano un sacco di cose che mi ricordi raster,pipeline corte,poi volevano implementare tutte le funzionalità delle API come DirectX ecc via software...
Tornando al discorso fixed fuction per la tesselletion per esempio non ci sono i geometry shader che possono anche generare nuovi vertici o shaders che controllano dinamicamente la tessellation?Per esempio nei giochi da smartphone tralasciando la qualità per un attimo,non è abbandonata del tutta la via delle fixed fuction?
Scusa per la curiosità ma voglio capirci meglio,perchè a me sembra che la strada sia proprio quelle di abbandonare questo tipo di programmazione visto anche l'avvento delle nuovi api...

Larrabee nasceva anche per il gioco, ma x86 unito alla mancanza di fixed (solo texture unit) ha affossato il progetto.

Nelle nvidia il domain/hull shader è emulato dai Cuda, ma in compenso il vertex fetch ed il viewport trasform sono fixed (oltre il tessellator).

Le gpu mobile hanno tutte le fixed function canoniche con l'aggiunta del sistema di tiling. Le ARM Mali addirittura integrano un sistema scalabile di fixed(tutte) che aumenta con il numero di shader unit.

Ad oggi non è conveniente emulare molte fixed con hardware programmabile. Sprechi un mucchio di potenza computazionale ed il consumo esplode.

Eliminare le fixed grafiche è utile solo se devi riciclare il prodotto per il computing puro.

The Silver Surfer
03-01-2017, 04:56
Potrebbe essere il new CU Scheduler

Certo, anzi è probabile se non certo..

Tuttavia data la SPARATA su volta io ritengo molto più plausibile che NCU stia per un modesto...

NFINITE POWAAA!!! :eek: :eek:


In omaggio con vega ti daranno anche la spada de HE-MAN :eek:
:asd:

MrBrillio
03-01-2017, 06:05
Marketing.

Sembra che amd stia recuperando molto in quel settore.

:asd:


Provo a buttarla li :

Il chip freesinc 2.0 oltre a gestire il sync gestirà anche l'hdr, quindi essendo lo stesso chip sempre freesync sarà.( o meglio si chiamerà)
Siamo a posto se anche per la gestione dell hdr ci troviamo a combattere tra soluzione amd e quella nvidia :(

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

Freisar
03-01-2017, 06:30
Ah bene, letto ora del freesync 2, che presumo dipenda sia dal monitor ma anche dalla GPU no?

fraussantin
03-01-2017, 06:33
Siamo a posto se anche per la gestione dell hdr ci troviamo a combattere tra soluzione amd e quella nvidia :(

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk
Non è detto.

Magari per le tv hdr e i monitor non sync utilizzeranno i chip che già esistono.
Un po come per l'overdrive.

FroZen
03-01-2017, 08:36
non c'è nessun "chip" per gestire il freesync ma basta lo scaler compatibile che hanno tutti i monitor

Saluta il chip

http://a.abcnews.com/images/Entertainment/GTY_chips_1_kab_150323_16x9_992.jpg

fraussantin
03-01-2017, 08:59
Per il sync adattivo ci troviamo a combattere tra la soluzione Nvidia e lo standard VESA :rolleyes:
Giusto per dire le cose come stanno.

Cioè Freesync è come chiama AMD la sua tecnologia che usa il VESA Adaptive Sync, ma è una tecnologia che risiede nella scheda video e nei driver AMD e non centra nulla con i monitor perchè la comunicazione avviene attraverso lo standard VESA che chiunque può utilizzare (Nvidia, Intel, ecc.)

Gsync invece prevede un chip proprietario Nvidia nel monitor e un protocollo di comunicazione proprietario Nvidia.
Interessante.

E perchè allora non tutti i monitor sono freesync? Avranno qualche scheda dentro che li distingue per costare a che quei 50euro in piú.

FroZen
03-01-2017, 09:12
Interessante.

E perchè allora non tutti i monitor sono freesync? Avranno qualche scheda dentro che li distingue per costare a che quei 50euro in piú.

il firmware del monitor deve prevederlo..... cmq ho letto di gente che lo ha abilitato anche su monitor che teoricamente non lo avevano ma lo scaler poteva gestirlo..... così come è possibile usare il FS su HDMI..... così come anche è possibile intervenire sul range di funzionamento del FS stesso con degli accorgimenti

aperto è bello! (come disse cicciolina)

Legolas84
03-01-2017, 09:31
Interessante.

E perchè allora non tutti i monitor sono freesync? Avranno qualche scheda dentro che li distingue per costare a che quei 50euro in piú.



Semplicemente è necessario uno scaler compatibile... solo che lo scaler compatibile nel caso di free sync viene prodotto da varie case, nel caso di NVIDIA solo da NVIDIA...

Inoltre nel caso di g-sync vs freesync il primo offre anche la riduzione del blur garantendo un controllo sulla tensione dei pixel in base al refresh... inoltre è uno standard totalmente sotto il controllo di una casa, viene implementato sempre allo stesso modo cosa che non avviene per freesync.

Ora vediamo comunque se con questo freesync 2 si porteranno in pari o addirittura supereranno NVIDIA...

Di certo se l'andazzo è questo vuoi dire che cercheranno di farci cambiare monitor ogni due anni? :asd:


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
03-01-2017, 09:37
Ah però da quello che dicono nel link sembrerebbe non essere una nuova versione degli scaler freesync ma semplicemente una nuova tecnologia per far switchare il rendering in HDR...

Quello che non so è, tutti i monitor sono compatibili con HDR oppure bisogna avere anche un pannello che lo supporti?


Inviato dal mio iPhone utilizzando Tapatalk Pro

FroZen
03-01-2017, 09:46
Da quello che ho letto velocemente devono essere pannelli a 10bit ma di più nin zo'

Legolas84
03-01-2017, 09:55
Ah be se fosse sufficiente questo sarebbe buono... però quasi tutti i pannelli da gioco sono 8bit.

Il mio ad esempio è 8bit+frc...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
03-01-2017, 10:11
Facciamo un esempio concreto.

Stesso monitor, stesso pannello, sesso venditore (amazon, venduto e spedito da amazon) cambia solo il sync.



AOC G2460FQ (no adpative sync): EUR 264,99

AOC G2460PF (freesync): EUR 273,70

AOC G2460PG (gsync): EUR 423,20









Sei sicuro di quello che scrivi?

Stai un po' mischiando le cose secondo me.

Perchè il così detto controllo della tensione è l'overdrive ed è vero che il modulo gsync si occupa dell'overdrive ma è altrettanto vero che qualsiasi monitor decente ha l'overdrive indipendentemente da freesync o nessun sync.

La riduzione del blur sui monitor gsync si chiama ULMB e non funziona insieme al gsync da quanto ho capito (così ho letto, magari ora sono cambiate le cose) e anche questa è una funzione che hanno molti monitor e non solo quelli gsync.

Beh in effetti anche questo però avviene con un controllo di tensione.

Il punto è che non sono prerogative dei monitor gsync come sembra dal tuo post.



Inoltre personalmente trovo ULMB e simili dannosi perchè sono praticamente una retroilluminazione stoboscopica, cerchiamo i flickerfree e poi mettimao lo strobo?



Stai facendo un casino epico....

ULMB è una tecnologia indipendente dalla tensione dei pixel e i monitor g-sync non hanno la disponibilità di avere anche ULMB.

Ci sono monitor normali che hanno ULMB che è una tecnologia stroboscopica di NVIDIA utile solo a ridurre il blur.

Poi abbiamo overdrive che è una tecnologia che interviene sulla tensione dei pixel in maniera costante overvoltandoli e velocizzandoli. Viene data la possibilità all'utente anche di scegliere il livello a cui attivarlo e di solito se metti il più estremo si formano artefatti come il pixel inversion.

Poi c'è il g-sync... che è l'unico che in base alla frequenza del monitor sceglie la tensione ottimale da dare ai pixel garantendo così un risultato perfettamente tarato.

Se ho il monitor a 65hz o a 90hz overdrive interverrà in maniera uguale, g-sync no, interverrà in maniera ottimale in base al refresh.

Non è cambiato nulla, è sempre stato così solo ti stavi confondendo mescolando varie tecnologie diverse.


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
03-01-2017, 10:13
Tutto questo era già stato affrontato e spiegato molte pagine indietro comunque...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
03-01-2017, 10:25
Esatto, riduce l'effetto scia, a volte chiamato blur. In realtà il blur è l'effetto sfocatura il quale si riduce molto già con pannelli da 100hz...

È un problema sui monitor da 60hz....


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
03-01-2017, 10:31
Sono andato a informarmi su l'overdrive di gsync ed è verissimo che varia con il variare della frequenza.
Per esempio qui ne parlano: http://www.anandtech.com/show/9303/nvidia-launches-mobile-gsync

Però mi viene da pensare che ci sia una taratura simile anche nei monitor con freesync (ma anche su qualsiasi monitor che supporta più frequenze) probabilmente fatta dal produttore, se no i colori sfarfallerebbero e questo non avviene.
Informandomi su sta cosa ho capito perchè quando ho provato a cambire le frequenze del mio monitor (che è freesync) superando una certa frequenza i colori cambiavano.
Ma stando nelle frequenze previste di fabbrica questo non succede, quindi qualcosa che compensa ci deve essere.



Ci può essere qualcosa per non far sfarfallare i colori, ma l'overdrive adattivo (se così vogliamo chiamarlo) è una prerogativa del g-sync.

Il freesync ne è sprovvisto.

Riguardo quanto hai scritto su ULMB diciamo che con i monitor da 100/144hz mitighi parecchio ma non raggiungi la perfezione dei monitor ULMB che però possono affaticare la vista se sei un soggetto sensibile.

Ad esempio a me un monitor con ULMB mi devasterebbe....


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
03-01-2017, 10:34
G-sync funziona sempre... se il tasto di accensione del monitor è rosso g-sync sta lavorando.

Puoi scegliere se farlo andare solo nelle schermate a schermo intero o anche in finestra...

Quello che dicevo prima è che appunto un sistema chiuso garantisce il 100% di compatibilità e l'arrivo di fix rapidi in caso di problemi... certo il contro è che è uno standard chiuso e ad alcuni non piace...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
03-01-2017, 10:45
No be tearing con g-sync mai visto fino da quando avevo il pg278q.... ha sempre funzionato perfettamente.

L'overdrive del freesync non è adattivo... lo avrebbero sbandierato anche loro invece nelle prove fatte si evince come non vi sia un intervento "adattivo" come con il g-sync....


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
03-01-2017, 10:53
Bo non credo è la prima volta che sento un ragionamento simile... overdrive over volta i pixel per fargli cambiare colore più velocemente e renderli più reattivi... non ho mai letto di problemi relativi a colori che sfarfallano e nemmeno ho mai letto di un overdrive che interviene in modo diverso al variare del refresh (prima di g-sync).


Inviato dal mio iPhone utilizzando Tapatalk Pro

Arrow0309
03-01-2017, 10:57
Certo che freesync ne è sprovvisto, freesync con l'overdrive non centra assolutamente nulla.
Ma questo non implica che il modulo dell'overdrive di un monitor che ha anche freesync non cambi il suo comportamento con il variare della frequenza.
Gsync è un modulo che fa due cose, con freesync ci sono due moduli che fanno ognuno il suo lavoro.

Anche a me ulmb farebbe venire il vomito :D



Anche freesync in teoria funziona sempre, se vado nell'osd del monitor vedo che è attivo, se vado nel pannello radeon vedo che è attivo, ma con qualche gioco ho comunque il tearing.
Tra l'altro non vuole necessariamente dire che freesync non sta funzionando, perchè freesync permette (volendo) di supeare le frequenza massima e questo da tearing.
Anche G-sync lo permette ma da quanto ne so di base è disabilitato mentre in freesync questo controllo lo si fa con il vsync, il che è una cavolata secondo me perchè non sai mai se sta funzionando il freesync o il normale vsync.

Scusa ma fino a che freq ti arriva il freesync?
Dico perché se bassa (tipo max 90hz) ci potrebbe essere una possibilità lieve di notarlo ancora il tearing se superi quei 90 fps (vsync off)
In teoria questo vale anche per il gsync ma solo se superati i 144/165 hz e col vsync off.
Ma qui ci sono tre strade da intraprendere (parlo sulle verdi)
- Fregartene alla grande anche col vsync off che superati i 165 fps (quando mai :p ) ne dubito che ci si possa ancora accorgere del tearing
- Impostare da gioco il vsync (che te lo blocca a 144/165 il framerate e direi che basta e avanza)
- Impostare o il nuovo fastsync oppure l'adaptive vsync (che in alcuni casi ma a freq inferiori tipo 75hz o 100 hz e su alcuni titoli pare lavori meglio) se per esempio hai un pc mostruoso e non ti bastano i 165 fps :asd:

Legolas84
03-01-2017, 11:08
Mi rispondo da solo con prove fatte da prad.de.

Anche in un montior freesync la tensione dell'overdrive cambia in base alla frequenza, ma come stavo pensando questo è ovvio altrimenti in game vedremmo i colori cambiare continuamente.

http://www.prad.de/new/monitore/test/2016/test-iiyama-gb2788hs-b1-teil4.html#Reaktionsverhalten

Qui si vede come con lo stesso settaggio di overdrive la tensione è diversa tra 60hz e 144hz.

P.S: resto curioso di sapere se freesync su DP è più "stabile" rispetto al mio su HDMI e con "stabile" intendo se ci sono difficoltà nell'attivarlo o a volte sembra non funzionare.


Abbi pazienza ma è in tedesco quello che hai linkato... io il tedesco non lo so :(

Mi puoi dire precisamente in quella pagina dove dice che varia la tensione dei pixel in base al refresh e dove dice che senza quell'opzione sfarfallerebbero i colori?

Perchè a me li pare ci sia una review di un monitor impostato con diversi livelli di overdrive che si selezionano manualmente dal menu del monitor come si è sempre fatto. grazie.

Legolas84
03-01-2017, 11:10
Il mio monitor è limitato da quel punto di vista, ha un range di 48-72hz.
Poco lo so, ma era in offerta a 160€ ed è un VA :asd:

Non ho dimestichezza con i settaggi di gsync, sapevo che in origine era impossibile disabilitare il "vsync" inteso come comportamento al di fuori del range di gsync, in pratica oltre la frequenza massima.
Ora so che si può disattivare ma non so se da pannello nvidia o dove altro.
Per freesync questa impostazione di fa con l'impostazione di vsync e secondo me è una cosa che crea un sacco di confusione.

Cavolo 48-72 è davvero bastarda come cosa :asd:

Proprio quello che intendo quando una tecnologia è a parte ognuno fa come vuole anche queste cose :D

Comunque hai ragione, non era possibile.... ora invece puoi decidere di accendere il V-Sync quando superi gli hz del monitor... te ne accorgi perchè ad esempio sul mio monitor se lo faccio non supero mai i 100fps... :)

Free Gordon
03-01-2017, 11:26
OT OT OT!!! :sofico: :sofico: :sofico:


Parliamo di VEGA!!!! :oink: :oink: :oink:

Gyammy85
03-01-2017, 11:34
8x capacity stack vorrà dire che le memorie occuperanno poco spazio e consumeranno meno, e unito ai 14nm e alla nuova architettura magari portano a quel 4x di efficienza (rispetto alla fury a questo punto)

fraquar
03-01-2017, 11:35
Vega a freesync 2 a quanto pare, stiamo esplorando l'argomento per capire quali migliorie potrebbe apportare :O

Si ma troviamo stucchevole questo vostro disquisire senza litigare.
Non è appropriato al contesto.

Legolas84
03-01-2017, 11:41
Manco io so il tedesco e sopratutto non ho tempo ora di leggermi tutta la recensione :D
Ma basta guardare i grafici dei test sull'overdrive.
Ne hanno fatti con tre impostazioni di overdrive (-2, 0 e +2) a due freqeunze diverse (60 e 144hz) la risposta in tensione con lo stesso settaggi di overdrive è diversa tra 60hz e 144hz.

Che cambierebbero i colori è una mia deduzione basato su quanto è stato detto fino ad ora, su quanto sostiene Nvidia e su quanto ho provato con il mio monitor.

Hai di nuovo fatto confusione.... Però se anche non capisci il tedesco prima di portare dei link e capirci quello che vuoi prova almeno a tradurre qualche parola....

No perchè l'ho fatto io al tuo posto e non è facile.... sti tedeschi per dire semplicemente Response time at different brightness scrivono una roba del genere: Reaktionszeit bei verschiedenen helligkeitsubergangen :asd:

Comunque.... come ti dicevo non c'è alcun riferimento ai voltaggi dell'overdrive che non può variare al variare del refresh in quanto non è collegato al modulo che gestisce il refresh ma può solo overvoltare i pixel.

In quei grafici viene testata la latenza media in varie modalità.... come GTG, B/W ecc..., poi viene testato il variare della latenza in base alla luminosità e questo per ogni impostazione manuale di overdrive. Infine ci sono i riassunti.

G-Sync è probabilmente l'unico che può fare interventi adattivi in autonomia proprio perchè dispone della parte hardware per farlo e anche dei dati necessari.

Se mai un produttore fabbricherà un modulo per la gestione dell'overdrive in grado di eguagliare il g-sync dovrà renderlo capace di reperire i dati di cui ha bisogno come il refresh del monitor fotogramma per fotogramma.

Riguardo il cambio del colore, va bene che sia una tua deduzione ma veramente, non se nè mai sentito parlare in nessun posto... quindi penso proprio sia una deduzione sbagliata, a meno che non mi porti qualche prova concreta (e pls non come hai fatto con prad che poi mi tocca stare a tradurre ed è uno sbatti ;) )....

Legolas84
03-01-2017, 11:42
Scusa ma anche con il gsync mi pare ci siano monitor con range limitati.
Per esempio acer predator XB271HK 60hz :asd:
L'unico vantaggio di gsync in questo caso è che gsync ha sempre il raddoppio del frame mentre freesync deve essere compatibile con LFC (e il mio non lo è ovviamente).

Si anche io se attivo vsync non supero i 72 fps ma risulta anche difficile capire se sta lavorando freesync o il normale vsync.

Ma dai lol, mi prendi come esempio un monitor 4K che non può andare a più di 60hz per limiti del pannello... :asd: Con g-sync hai sempre tutto il range disponibile....

Eddai su....

Legolas84
03-01-2017, 11:45
Si anche io se attivo vsync non supero i 72 fps ma risulta anche difficile capire se sta lavorando freesync o il normale vsync.


Perchè? in quel caso se vai sotto i 72fps lavora freesync ma appena vai sopra (e il tuo fps counter segna 72) si attiva il V-Sync....

fraussantin
03-01-2017, 11:46
L'overdrive non è del freesync.

Ma se in un normale monitor, senza freesync, in cui si può selezionare la frequenza per esempio 144hz, 90hz, 75hz, ecc. l'overdrive non fosse adattivo non cambierebbero i colori?
Al massimo avresti un effetto scia maggiore.

Legolas84
03-01-2017, 11:49
Al massimo avresti un effetto scia maggiore.

Esatto perchè non sarebbe perfettamente tarato sulla frequenza effettiva.

È sempre stato così con tutti i monitor eh... niente di nuovo sotto il sole, con g-sync è cambiata questa cosa....

Legolas84
03-01-2017, 11:51
Si ma troviamo stucchevole questo vostro disquisire senza litigare.
Non è appropriato al contesto.

Io non litigo mai con nessuno... è che qui c'è gente che spesso se la prende troppo, e manca anche molta umiltà... (io ringrazio sempre che c'è gente come Mikael e Ren.... ad alcuni danno fastidio perchè dicono verità scomode :asd: ).

Con Bivozz ho sempre discusso tranquillamente.... ;)

Oirasor_84
03-01-2017, 11:52
Larrabee nasceva anche per il gioco, ma x86 unito alla mancanza di fixed (solo texture unit) ha affossato il progetto.

Nelle nvidia il domain/hull shader è emulato dai Cuda, ma in compenso il vertex fetch ed il viewport trasform sono fixed (oltre il tessellator).

Le gpu mobile hanno tutte le fixed function canoniche con l'aggiunta del sistema di tiling. Le ARM Mali addirittura integrano un sistema scalabile di fixed(tutte) che aumenta con il numero di shader unit.

Ad oggi non è conveniente emulare molte fixed con hardware programmabile. Sprechi un mucchio di potenza computazionale ed il consumo esplode.

Eliminare le fixed grafiche è utile solo se devi riciclare il prodotto per il computing puro.
Mi ricordavo che larrabe fu presentata inizialmente come scheda per il calcolo parallelo e gpgpu...
Comunque per i giochi da smartphone mi riferivo alla programmazione non alle gpu,su android nelle situazioni in cui le fixed sono condivise da tutte le gpu vengono usate, ma ricordo di aver letto che gia da opengl es 2.0 api che viene usate su android se non erro le chiamate per fixed fuction erano quasi del tutto eliminate,come se la strada da seguire fosse anche nei giochi da smartphone programmare shader abbandonando le fixed,riguardo ai consumi e spreco di potenza computazionale mi trovo un pò impreparato ma a rigor di logica mi viene facile pensare che le fixed per certi compiti sono più efficaci quindi non dico che non servano e che vanno eliminate,ma non vuol dire sempre che programmare lo stesso effetto con gli shader porti a meno efficienza poi diventa a discrezione del programmatore,per esempio già nel frostbite si usa per aumentare le performance nella produzione di triangoli oltre i limiti delle fixed...o sto facendo confusione??:D
Ps:qualche fixed fuction meno "potente" non lo vedo un problemone rispetto alla controparte verde poi certo che se su vega le migliorano che ben venga anzi che ben vega :D

il firmware del monitor deve prevederlo..... cmq ho letto di gente che lo ha abilitato anche su monitor che teoricamente non lo avevano ma lo scaler poteva gestirlo..... così come è possibile usare il FS su HDMI..... così come anche è possibile intervenire sul range di funzionamento del FS stesso con degli accorgimenti

aperto è bello! (come disse cicciolina)
Io per esempio con CRU ho abilitato il freesync nel mio monitor ho anche impostato il range ma purtroppo non sono riuscito a farlo funzionare, lo schermo mi lampeggiava di continuo appena facevo partire un applicazione 3d:muro:

Legolas84
03-01-2017, 11:56
Hai ragione, pensavo che "helligkeitsverlauf" fosse la tensione invece è la luminosità.
Ma scusa se la luminosità cambia in modo diverso non è dovuto a una tensione diversa in ingresso?
Se no da cosa è dovuto?



Certo ma per capire se sta lavorando freesyn è più facile disabilitare vsync e vedere se si ha tearing a 70 fps piuttosto che cercare di capirlo con il vsync acceso :)



Pensa te cosa scrivono per dire luminosità :asd:

Comunque no la luminosità varia al variare della retroilluminazione, non riguarda la tensione dei pixel.... è un test che va fatto perchè al variare della luminosità varia anche l'effetto scia...

Per quanto riguarda il freesync, se entri nel menù del monitor con il freesync attiva non ti dice freesync mode o qualcosa del genere?

Nel mio se entro nel menu c'è scritto G-Sync Mode DisplayPort 3440x1440@100hz....

Legolas84
03-01-2017, 12:00
Si ma vuol solo dire che è attivo il freesync non che lo stia effettivamente usando in quel momento o almeno mi pare sia così.
Scusa se tu disabiliti il vsync quando superi la freqeunza massima del monitor e hai tearing l'osd ti avvisa che gsync non sta funzionando?
Questa sera faccio un po' di prove :D

No perchè sono comunque in g-sync mode....

Comunque fidati che se non funzionasse il freesync appena scendi sotto i 72fps sentiresti lo stuttering del V-Sync....

Legolas84
03-01-2017, 12:06
Ragazzi, avete sbagliato thread per parlare di monitor ;)

No ma è partito tutto da freesync2... comunque abbiamo finito.... scusate! :D ;)

fraussantin
03-01-2017, 12:26
È Nvidia che sostiene che se non si regola diversamente la tensione al variare della frequenza i colori cambiano, non io.

tu non devi mai credere a quello che dice nvidia XD per vendere i suoi prodotti


dai seriamente , cambieranno per quei millisecondi di sbalzo che c'è come quando forzi troppo o poco l'overdrive

Polpi_91
03-01-2017, 12:54
Ma le nuove GPU che verranno presentate andranno a coprire solo la fascia sopra la RX480 o ci sarà anche una sostituta di questa?

Polpi_91
03-01-2017, 12:56
ecco bene come pensavo :D :D