PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 [170] 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Spytek
04-09-2018, 11:41
La serie 8 fu una rivoluzione (gli shaders unificati fra le tante cose) ma di certo non si sarebbero permessi di vendere la 8800GTX a 1300 euro, sai perche'? C'era ancora una cosa chiamata concorrenza. Quindi tecnologia nuova e rivoluzionaria o no possono fare il bello ed il cattivo tempo e sparare prezzi in alto senza temere nulla. Il fatto che abbiano anche rilasciato la Ti contemporaneamente alla serie "liscia" fa molto riflettere, ancora una volta se lo possono permettere perche' non c'e' un mercato sano, un mercato che non va alimentato... Io dubito fortemente che la prossima serie sara' piu' economica di questa, soprattutto senza AMD (che poi le loro schede pur non dando le prestazioni assolute piu' alte, funzionano alla grande).
Da stampare e incorniciare sulle mura questo post ;)

edit_user_name_here
04-09-2018, 11:43
Ok Annihilator, la tua posizione (strampalata) l'abbiamo capita tutti. A me sembra anche esagerato comprare ad occhi chiusi una scheda chiaramente sovrapprezzata, senza tirare in ballo il capitalismo, i barboni che visitano il thread che non se la possono permettere e compagnia bella, senza saperne praticamente nulla.
Il problema principale e ovvio si chiama monopolio.
La serie 8 fu una rivoluzione (gli shaders unificati fra le tante cose) ma di certo non si sarebbero permessi di vendere la 8800GTX a 1300 euro, sai perche'? C'era ancora una cosa chiamata concorrenza. Quindi tecnologia nuova e rivoluzionaria o no possono fare il bello ed il cattivo tempo e sparare prezzi in alto senza temere nulla. Il fatto che abbiano anche rilasciato la Ti contemporaneamente alla serie "liscia" fa molto riflettere, ancora una volta se lo possono permettere perche' non c'e' un mercato sano, un mercato che non va alimentato... Io dubito fortemente che la prossima serie sara' piu' economica di questa, soprattutto senza AMD (che poi le loro schede pur non dando le prestazioni assolute piu' alte, funzionano alla grande).

Ad ogni modo non e' possibile che ogni tre pagine si sfoci di nuovo in queste polemichette da bar sport, uno viene qui e si aspetta informazioni interessanti sulla tecnologia in arrivo e pronostici sensati, non il fanatismo da stadio.

Ma io non ho detto di comprarla ad occhi chiusi ho detto di aspettare i test ed infatti neanche io l'ho comperata e ne tanto meno dico di preordinare.Non capisco sinceramente dove ho detto sta cosa.

Io dico solamente che tutti vogliono guadagnarci, compresi noi, tutto qua.E mi pare anche normale :)

Per me una azienda che deve aspettare per forza la concorrente per non avere il monopolio è una cosa assurda.Per te per forza uno non deve arrivare prima dell'altro.Non mi pare una cosa normale.Ci sarà sempre primo e secondo.Come google per esempio.

La concorrenza non sempre ci può essere lo so che per noi è meglio ma può capitare che in qualche anno non ci sia.Non si può aspettare sempre la perfezione.



Comunque se a te non ti piace leggermi, con altri tipi di persone mi trovo d'accordo, puoi sempre non rispondermi o mettermi in ignore.Non capisco il motivo sinceramente perchè io devo stare zitto e tutti quelli che vanno contro si.Mi pare una cosa assurda sinceramente.



Cioè quale sarebbe il tuo consiglio?Non scrivere o scrivere contro?Boh.



Edit: Inoltre non mi dispiace chi l'ha preordinata perchè può sempre annullarlo o fare il recesso per chi proprio vuole oltre tutto :)

bizzy89
04-09-2018, 11:48
edit :)


in questa discussione ci si sta invischiando in discorsi assurdi :)

è la mia prima volta in thread "Aspettando" di gpu, ma è stato così ad ogni nuova serie ?

Non è il thread,son solo utenti maleducati.

sertopica
04-09-2018, 12:05
Ma io non ho detto di comprarla ad occhi chiusi ho detto di aspettare i test ed infatti neanche io l'ho comperata e ne tanto meno dico di preordinare.Non capisco sinceramente dove ho detto sta cosa.

Io dico solamente che tutti vogliono guadagnarci, compresi noi, tutto qua.E mi pare anche normale :)

Per me una azienda che deve aspettare per forza la concorrente per non avere il monopolio è una cosa assurda.Per te per forza uno non deve arrivare prima dell'altro.Non mi pare una cosa normale.Ci sarà sempre primo e secondo.Come google per esempio.

La concorrenza non sempre ci può essere lo so che per noi è meglio ma può capitare che in qualche anno non ci sia.Non si può aspettare sempre la perfezione.
cut
Se mastichi l'inglese ti consiglio di guardarti questo documentario, e' molto illuminante: https://www.youtube.com/watch?v=DnPmg0R1M04 ;)

E chiudo qua, non voglio alimentare ulteriormente pagine di aria fritta.

Nhirlathothep
04-09-2018, 12:07
Qualcuno era interessato al lato mobile:

https://www.techspot.com/amp/article/1690-geforce-rtx-laptop-predictions/

tnx,il sito dice che dovremmo avere le performance di una 1080ti in un laptop, cosa ora impossibile. ovviamente dice poco per ora :)

edit_user_name_here
04-09-2018, 12:11
Se mastichi l'inglese ti consiglio di guardarti questo documentario, e' molto illuminante: https://www.youtube.com/watch?v=DnPmg0R1M04 ;)

E chiudo qua, non voglio alimentare ulteriormente pagine di aria fritta.

Purtroppo a voce l'inglese non lo capisco, meglio nello scritto, ma cmq se intendi video al riguardo dei test preliminari non sono ancora ottimizzati.

Si sapevano già ste cose aspettiamo i test definitivi anche di persone reali(se è quello che intendevi).

Telstar
04-09-2018, 12:36
Nel secondo caso invece vuol dire che non si ritiene che l'oggetto valga effettivamente quanto richiesto dal venditore, ma lo si vuole lo stesso. Ecco secondo me questo è un atteggiamento poco sano perchè porta a frustrazione.

Ma quale frustrazione, è la verità.

Telstar
04-09-2018, 12:38
Purtroppo a voce l'inglese non lo capisco, meglio nello scritto, ma cmq se intendi video al riguardo dei test preliminari non sono ancora ottimizzati.


Usa il close caption di youtube. Con l'inglese funziona piuttosto bene, slang e acronimi a parte.

walter.caorle
04-09-2018, 12:47
edit :)


in questa discussione ci si sta invischiando in discorsi assurdi :)

è la mia prima volta in thread "Aspettando" di gpu, ma è stato così ad ogni nuova serie ?

ogni volta :asd:

È il tuo primo thread "aspettando" :friend: :D

edit_user_name_here
04-09-2018, 12:50
Usa il close caption di youtube. Con l'inglese funziona piuttosto bene, slang e acronimi a parte.

Vabbe non è importante per ora cmq grazie ugualmente :)

kiwivda
04-09-2018, 12:53
Si si siamo alla Royal Rumble!!! Poi al 21 solo foto di scatole su sedili e sui divani da tutti quelli che si lamentavano..:asd:

edit_user_name_here
04-09-2018, 13:05
Si si siamo alla Royal Rumble!!! Poi al 21 solo foto di scatole su sedili e sui divani da tutti quelli che si lamentavano..:asd:

Infatti anche io la penso cosi :D


Sicuro come l'oro :rotfl:

:Prrr:

kiwivda
04-09-2018, 13:17
:D comunque resta il fatto che questi periodi sono in assoluto i piu spassosi del thread!

edit_user_name_here
04-09-2018, 13:21
:D comunque resta il fatto che questi periodi sono in assoluto i piu spassosi del thread!

Per chi la prende con un sorriso si :) anche se il mio non era voluto fare tutto sto casino sinceramente.

amon.akira
04-09-2018, 13:47
A me fanno cappottare di più quelli che lo scrivono in firma "vgaxx waiting" :D

https://www.105.net/resizer/-1/-1/true/1422351948340.jpg--.jpg

Iceman69
04-09-2018, 14:07
"ho venduto preventivamente la 1080ti e posso giocare solo a campo minato con l'integrata" è troppo triste :D

Però a pensarci bene mi sono reso conto di una cosa.
Chi vuole stare sempre sul pezzo con la scheda top di gamma conta anche sul rivendere la scheda precedente per acquistare la nuova.
Quindi se prendo la 980ti a 700€ al D1 poi quando esce la 1080ti la rivendo a 500-600€ ne aggiungo 100-200 e ho ancora la top di gamma.
Trovarsi ora la 2080ti a 1200€ è una mazzata perchè si trovano a scegliere tra rivendere la 1080ti a 500-600€ e aggiungerne ben 600-700€ e quindi a raddoppiare quanto hanno messo sul piatto o a mollare il colpo, ma cosi facendo perdono il giro e se mai vorranno fare un upgrade non potranno più rivendere la 1080ti ad un prezzo interessante e dovranno praticamente pagare per intero la prossima gpu.

Vero quello che dici, ma è anomalo riusire a vendere la 1080ti a 600 euro, giustificato solo dal fatto che i prezzi a questo giro sono rimasti alti, oltretutto io per la serie precedente ho fatto il doppio passattio 980ti->1080 liscia e poi 1080ti (la liscia è rimasta a mia figlia). Facendo ora il passaggio diretto 1080ti->2080ti, alla fine spenderei come al solito (con un passaggio in meno), quindi per me la spesa potrebbe anche starci. Però tra 980ti e 1080ti c'era il 70/80% di incremento prestazionale, ora il 30/40%, questo è quello che mi fa desistere dall'acquisto.
Per quanto rigaurda i fantastici effetti che le nuove schede hanno in più se non sono fruibili (almeno 60 Fps, meglio se a 100 Fps) alla risoluzione nativa del mio monitor (3440x1440) ovviamente non mi interessano, per quanto innovativi e strabilianti possano essere.

Poi se le recensioni diranno che gli incrementi prestazionali sono superiori a quello fin ora visto ci posso sempre ripensare, ma per come stanno le cose direi che non valga la pena cambiare scheda a questo giro.

AceGranger
04-09-2018, 14:21
Poi se le recensioni diranno che gli incrementi prestazionali sono superiori a quello fin ora visto ci posso sempre ripensare, ma per come stanno le cose direi che non valga la pena cambiare scheda a questo giro.

Durante le review non credo vedrai nulla di diverso da ora come prestazioni RTX, visto che nessuno sviluppatore ha a disposizione un gioco gia ottimizzato.

Dall'intervista di DICE, attualmente, a 1440p stanno fra i 40 e i 50 fps, ma hanno gia detto che ci sono ampi margini di miglioramento.

Nhirlathothep
04-09-2018, 14:25
l' idea verrà presa male da molti, ma secondo me state dando poca importanza al DLSS (Deep Learning Super Sampling)
se grazie al nuovo tipo di AA si avessero immagini 1080p quasi uguali al 4k, si potrebbe semplicemente far girare i giochi a 1080p con un aumento > 100% rispetto alla scorsa generazione




prendete ad esempio lo schermo 14 di un notebook 4k. già ora la differenza con il 1080p è poca.
potrebbe divenire inutile far girare il gioco in 4k e si avrebbe un incremento di almeno

gtx 1080 vs gtx 2080 (su notebook)
+ 150%

bizzy89
04-09-2018, 14:29
l' idea verrà presa male da molti, ma secondo me state dando poca importanza al DLSS (Deep Learning Super Sampling)



se grazie al nuovo tipo di AA si avessero immagini 1080p quasi uguali al 4k, si potrebbe semplicemente far girare i giochi a 1080p con un aumento > 100% rispetto alla scorsa generazione


prendete ad esempio lo schermo 14 di un notebook a 4k e 1080p.
già ora la differenza è poca. potrebbe divenire inutile far girare il gioco in 4k e si avrebbe un incremento di almeno

gtx 1080 vs gtx 2080 (su notebook)
+ 150%
Si ma onestamente una GPU del genere su un portatile è sprecata.
Discorso differente se si considera un fattore longevita e lo si connette ad un monitor almeno 1440p per giocare a casa

devil_mcry
04-09-2018, 14:31
Secondo me al momento, anche in ottica delle performance leakate ste schede hanno davvero solo senso se si è interessati al RT. Il DLSS è figo ma a 4k serve davvero tanto un AA o una tecnica di miglioramento? E in 1080p una gtx 1080 applica tutto a bomba...

edit_user_name_here
04-09-2018, 14:32
basterebbe semplicemente che gli utenti non se la prendessero sul personale, ma un po' più sul ridere se qualcuno non la pensa come loro o fa qualche battuta, che avete 30 o 40 anni mica 18 :asd:

Si ma se quando qualcuno te lo ripete tante volte la stessa cosa, o ti riprende come per dire che hai sbagliato, altro che ridere :D la battute pultroppo le ho finite :P poi sono una persona che sebbene scherza a volte anche ma le battute su queste cose ormai mi hanno scocciato :) e sono più verso una persona seria più che scherzosa.Purtroppo :asd:


Edit: Comunque non è una cosa personale ma io lo dico a tutti.Come mi sono scocciato che su steam, intendo il forum inglese non qui, tutti a dire che sono avidi le aziende software house solo perchè mettono le microtransazioni.Ma in realtà non sono obbligati perchè sono solo di estetica.Ma la gente si inventa che c'è dietro la psicologia bla bla sono solo dei hater :) per quello mi sono seccato.Dopo un po scoccia.

amon.akira
04-09-2018, 14:36
Puntualizziamo un po' di cose.

1- DLSS non è un AA, è un upscaler.
2- che i giochi girano in 1080p e siano come il 4k è una supposizione per due motivi: il primo che potrebbe girare a 1440p e sembrare come il 4k, il secondo è che "sembrare" bisogna vedere quanto lo sembra.
3- la ps4 pro fa attualmente una cosa molto simile chiamata checkerboard rendering che tra l'altro non è manco una novità, si dovrà vedere se effettivamente il DLSS fa qualcosa di meglio sia visivamente che prestazionalmente.
O per restare in ambito PC bisogna vedere la differenza di usare il DLSS o un gioco con il rendering scalato al 70% o simili.

visivamente direi proprio di si, se sai come funzionano entrambe, prestazionalmente è gratis grazie ai tensor core

se poi citi anche il classico upscaler interpolato non ci hai capito molto.

1440p > 1440p dlss

1440p < 4k dlss (stesse prestazioni)

amon.akira
04-09-2018, 14:38
Non è un AA... se fosse stato un AA lo avrebbero chiamato DLAA non trovi? :sofico:


il supersampling è usato anche per limitare l aliasing

Nhirlathothep
04-09-2018, 14:40
Si ma onestamente una GPU del genere su un portatile è sprecata.
Discorso differente se si considera un fattore longevita e lo si connette ad un monitor almeno 1440p per giocare a casa

Siamo stati in molti a prendere notebook con gtx 980m e gtx 1080 per usarli solo con il loro schermo (perchè appunto non possiamo usare il pc di casa) :(

io ho ancora entrambi i modelli, sia gtx980m che gtx1080 con schermo 15 pollici.

se con il DLSS potessi piazzare la risoluzione 1080p senza notare differenze con il 4k ... avrei il notebook definitivo con un aumento di prestazioni impensabile.
(almeno +150% tra gtx1080 e gtx2080)



suggerisco questo solo per schermi piccoli, perchè veramente la differenza già si vede poco

devil_mcry
04-09-2018, 14:40
Non è un AA... se fosse stato un AA lo avrebbero chiamato DLAA non trovi? :sofico:

Infatti ho scritto "o una tecnica di miglioramento". Il mio discorso sta proprio sul fatto che per le diagonali piccoli il 4k da solo basta ad avere un'immagine pulita

Se non si è interessati al Ray Tracing...

AceGranger
04-09-2018, 14:50
Non è un AA... se fosse stato un AA lo avrebbero chiamato DLAA non trovi? :sofico:


il SuperSampling è una tecnica di AA....

amon.akira
04-09-2018, 14:51
il SuperSampling è una tecnica di AA....

:asd:

Spytek
04-09-2018, 15:44
Si ma se quando qualcuno te lo ripete tante volte la stessa cosa, o ti riprende come per dire che hai sbagliato, altro che ridere :D la battute pultroppo le ho finite :P poi sono una persona che sebbene scherza a volte anche ma le battute su queste cose ormai mi hanno scocciato :) e sono più verso una persona seria più che scherzosa.Purtroppo :asd:
n po scoccia.
Appunto,a volte è meglio tacere con le proprie convinzioni,fai una figura migliore e,aggiungerei,fai un minor dispendio di energie mentali.
Poi se si vuole rispondere per sport è altro discorso...

AceGranger
04-09-2018, 15:48
Il fatto che esista il SSAA non vuol dire che il supersampling sia solo una tecnica di AA.


https://en.wikipedia.org/wiki/Supersampling

il Supersampling è una tecnica di AA punto.


che poi il risultato venga anche upscalato o downscalato dalla risoluzione nativa è un'altro paio di maniche.


il semplice upscaling è differente dal supersampling

Arrow0309
04-09-2018, 15:50
Puntualizziamo un po' di cose.

1- DLSS non è un AA, è un upscaler.
2- che i giochi girano in 1080p e siano come il 4k è una supposizione per due motivi: il primo che potrebbe girare a 1440p e sembrare come il 4k, il secondo è che "sembrare" bisogna vedere quanto lo sembra.
3- la ps4 pro fa attualmente una cosa molto simile chiamata checkerboard rendering che tra l'altro non è manco una novità, si dovrà vedere se effettivamente il DLSS fa qualcosa di meglio sia visivamente che prestazionalmente.
O per restare in ambito PC bisogna vedere la differenza di usare il DLSS o un gioco con il rendering scalato al 70% o simili.

La risoluzione checkerboard della ps4 pro spacciata per un 4K (HDR) non e' affatto male sul mio Qled (come qualità grafica) nei giochi recenti (non parlo di framerate ovv).
Magari la 2080 mi permettesse di giocare sul mio X34P in RT ad una risoluzione inferiore (anche 1720x720) ma "spacciata" per uw 1440p (e neanche chiedo troppo) ;)

edit_user_name_here
04-09-2018, 16:05
Appunto,a volte è meglio tacere con le proprie convinzioni,fai una figura migliore e,aggiungerei,fai un minor dispendio di energie mentali.
Poi se si vuole rispondere per sport è altro discorso...

Lasciamo stare va :D la gente capirà.E poi da che pulpito :asd: nel senso che potrebbe valere anche per te.

Arrow0309
04-09-2018, 16:25
Oddio, se davvero DLSS renderizza a 2k e poi upscala a 4k ci dovresti riuscire tranquillamente... magari!!!
Però vorrebbe anche dire che tutte le vecchie VGA diventano obsolete di brutto.

:asd: :sofico: :asd:
:sborone: :yeah: :sborone:

FreeMan
04-09-2018, 16:30
Ignorate i bambini.


:D :D Arrivare a 30/40/50 anni parlare di prezzi e non aver capito le leggi basilari dell'economia, che i prezzi vengano dettati dal mercato beh come un analfabeta che vuole parlarti di grammatica...

Siamo in democrazia, esprimete pure la vostra opinione ma siate pronti ad essere criticati ove necessario, funziona da entrambi i lati il giochino...

Poi prendetevi meno sul serio, non riuscite a mattere giu' una frase di senso compiuto in 100 messaggi, almeno fatevi una risata ;)

Nessun post preciso non vi allarmate, non li leggo, solo una considerazione dalla quale potreste prendere spunto, se vi sentite chiamati in causa.

Anche io trovo il costo di un Iphone assurdo (e li' almeno le alternative ci sono) ma non perdo le mie giornate sui thread della Apple che manco so dove siano o se esistano, anche perche' ho il leggero sospetto che se li fanno pagare 1000 e piu' euro forse ma forse qualcuno che li compra c'e'.

Torno a "lavorare" buona divertimento ;)

PS Ve la cavate bene anche con le similitudini vedo.

Comunque io non sono un dottore, ma secondo me 10 vaccini sono troppi, cosi' ho chiuso il cerchio :)

Basta flame, sospeso 7gg

per gli altri, datevi una calmata.

>bYeZ<

bizzy89
04-09-2018, 16:39
https://www.tomshardware.com/news/ekwb-rtx-2080-water-blocks,37741.html

amon.akira
04-09-2018, 16:56
Visivamente dici di si sulla fiducia?
Prestazionalmente se renderizza in 1440p e upscala in 4k gratis per i tensor rende tanto quanto il checkerboard.


ps4 > saturn v :sofico:


Poi sono io che non ci ho capito molto?


si se dici che potrebbe essere meglio un 50% scaling vs dlss (si dobbiamo paragonarli alle stesse prestazioni)


Ho citato il classico upscaler interpolato?


si hai citato uno scaling del 70%, secondo te a video chi lo riporta alla res nativa?


Il fatto che esista il SSAA non vuol dire che il supersampling sia solo una tecnica di AA.

ho detto "anche", cmq l importante è aver capito che avevi sbagliato a dire che non fungeva da AA :)

appleroof
04-09-2018, 17:19
ogni volta :asd:

Storia :D

Thunder-74
04-09-2018, 17:28
Metro maxato con RT , HairWorks e Advanced PhysX, 40frames a 1080p
Mente no RT in 4K su 1080ti gira fluido

https://wccftech.com/metro-exodus-nvidia-hairworks-physx/


Inviato dal mio iPhone X utilizzando Tapatalk

amon.akira
04-09-2018, 17:39
Metro maxato con RT , HairWorks e Advanced PhysX, 40frames a 1080p
Mente no RT in 4K su 1080ti gira fluido

https://wccftech.com/metro-exodus-nvidia-hairworks-physx/


Inviato dal mio iPhone X utilizzando Tapatalk

le prestazioni rtx sono sempre il vecchio report dei 4a games

techsaskia
04-09-2018, 19:16
Io devo ancora giocare i primi due :asd:

Ma ho letto il libro al day1 ed è splendido :>

quali sono i libri?
si trovano sul playstore che me li leggo?

Giovamas
04-09-2018, 19:33
quali sono i libri?
si trovano sul playstore che me li leggo?

metro 2033 e 2034. la storia di Artyom.

techsaskia
04-09-2018, 19:34
https://www.tomshardware.com/news/ekwb-rtx-2080-water-blocks,37741.html

io voglio quella di EVGA :cry:

metro 2033 e 2034. la storia di Artyom.

grazie

eXeS
04-09-2018, 19:34
C'è da dire che , devono essere confermati perché ovviamente siamo ancora nella sfera dei leak. Vero poi che i drivers possono ancora non essere ottimizzati, perché potrebbero usare gli ultimi (in nostro possesso) che non sono ancora per Turing. Comunque se il tutto fosse confermato, mi lascia un po' tiepidino... Capisco la sezione RT, ma valutare un +37% di prestazioni generali a fronte di 1300€, lo trovo troppo risicato. Sempre più convito ad aspettare info ufficiali ed aspettare un assestamento prezzi/prestazioni a fronte di una conoscenza migliore di Turing da parte delle SH. Mi fa veramente più gola cambiare CPU con la nuova in uscita di intel.37% da cui andrebbero scorporati il 5% garantiti dall'oc che il caso vuole sia una prerogativa delle nuove founder, chissà se nelle recensioni le founder verranno cloccate alle frequenze delle reference ?

Inviato dal mio BTV-DL09 utilizzando Tapatalk

edit_user_name_here
04-09-2018, 19:43
Ma le founders stanno solo all'inizio o le vendono vendute anche dopo?Giusto per sapere.Oppure faranno sempre un modello di default simile all'estetica, non custom, delle founders?

The Pein
04-09-2018, 19:46
ho preordinato la rtx 2080 msi gaming trio a 975€ su amazon uk, si trova da tutte le parti a 1150/1200€ sempre sui amazon europei, qualcuno la vuole? ;)

ilcose
04-09-2018, 20:12
ho preordinato la rtx 2080 msi gaming trio a 975&euro; su amazon uk, si trova da tutte le parti a 1150/1200&euro; sempre sui amazon europei, qualcuno la vuole? ;)



Scusa eh, ma con 150 euro in più prendi la 2080ti sempre msi o a meno di altra marca. Il prezzo di 1150/1200 è da fuori di testa


Inviato dal mio iPad utilizzando Tapatalk

The Pein
04-09-2018, 20:24
Scusa eh, ma con 150 euro in più prendi la 2080ti sempre msi o a meno di altra marca. Il prezzo di 1150/1200 è da fuori di testa


Inviato dal mio iPad utilizzando Tapatalk
Amazon li prezza così: io ho avuto culo in quel momento ma intendevo dire che da altri shop NON AMAZON hai lo stesso prezzo 950€ ma non lo stesso post vendita e quello si paga ma io non lo pago perchè costa come gli shop normali quindi se qualcuno è interessato...

Ale55andr0
04-09-2018, 20:44
Io devo ancora giocare i primi due :asd:

Ma ho letto il libro al day1 ed è splendido :>

Fallo

sgrinfia
04-09-2018, 20:56
Io devo ancora giocare i primi due :asd:

Ma ho letto il libro al day1 ed è splendido :>

Installa subito i giochi,........forza ........dai..dai......fallo immediatamente :mad:

The_SaN
04-09-2018, 22:38
metro 2033 e 2034. la storia di Artyom.

C'è pure il 2035 :)

Kostanz77
05-09-2018, 04:18
ho preordinato la rtx 2080 msi gaming trio a 975&euro; su amazon uk, si trova da tutte le parti a 1150/1200&euro; sempre sui amazon europei, qualcuno la vuole? ;)In Italia Amazon non le vende ancora direttamente, ma solo un rivenditore terzo con prezzi fuori dal mondo

Inviato dal mio Huawei P8 Lite 2017 utilizzando Tapatalk

Thunder-74
05-09-2018, 05:58
Aio di alphacool per 2080/ti. Sganci rapidi, e dissi vrm/ram semi passivo rimovibile per poter usare in futuro la dissipazione gpu su altre schede
https://www.overclock3d.net/news/cases_cooling/alphacool_reveals_their_eiswolf_240_gpx-pro_liquid_cooler_for_nvidia_s_rtx_2080_and_rtx_2080_ti/1

Inoltre i modelli Hydro della EVGA

https://videocardz.com/77837/evga-unveils-hydro-copper-and-hybrid-geforce-rtx-models


Inviato dal mio iPhone X utilizzando Tapatalk

Arrow0309
05-09-2018, 06:01
Evga Hybrid e Hydro Copper:

https://wccftech.com/evga-geforce-rtx-20-series-ftw3-hybrid-hydro-copper-custom-graphics-cards/amp/

Addirittura 2 Hydro Cooper e 2 Hybrid, una di quale FTW3 (oc beast):

https://videocardz.com/77837/evga-unveils-hydro-copper-and-hybrid-geforce-rtx-models

Thunder-74
05-09-2018, 06:03
Evga Hybrid e Hydro Copper:



https://wccftech.com/evga-geforce-rtx-20-series-ftw3-hybrid-hydro-copper-custom-graphics-cards/amp/



Hahahah non avevo visto il tuo post e ho editato con la stessa news 😊

Interessante notare che il WB del modello FTW3 è più grande di quello della XC....
Edit... certo ha 19 fasi ... :fagiano:

Inviato dal mio iPhone X utilizzando Tapatalk

Arrow0309
05-09-2018, 06:11
E ancora novità sulle Turing mobile:

https://wccftech.com/nvidia-turing-mobility-rtx-2080-mobile-gpu/amp/

Arrow0309
05-09-2018, 06:12
Hahahah non avevo visto il tuo post e ho editato con la stessa news 😊

Interessante notare che il WB del modello FTW3 è più grande di quello della XC.

Inviato dal mio iPhone X utilizzando Tapatalk

Di sicuro mi farò inscimmiare dalla FTW3 (hybrid o Hydro Copper). :D

Giovamas
05-09-2018, 06:30
C'è pure il 2035 :)

vero:)

Thunder-74
05-09-2018, 06:49
Di sicuro mi farò inscimmiare dalla FTW3 (hybrid o Hydro Copper). :D



Se questa 2080ti varrà la pena , potrei fare la mattata di prendere la FTW3 hydro copper... ma devo entusiasmarmi parecchio con le reviews ..


Inviato dal mio iPhone X utilizzando Tapatalk

kiwivda
05-09-2018, 07:23
Se questa 2080ti varrà la pena , potrei fare la mattata di prendere la FTW3 hydro copper... ma devo entusiasmarmi parecchio con le reviews ..


Inviato dal mio iPhone X utilizzando Tapatalk

Si concordo, ma parecchio parecchio.

techsaskia
05-09-2018, 08:25
Beh alla fine ho deciso almeno la cpu.
Ci metto un bel threadripper 2 che sembra essere un eccellente all' rounder e sto tranquillo per qualche anno e se voglio aggiungere GPU o dischi m2 non mi devo preoccupare delle linee PCI Express :D

techsaskia
05-09-2018, 08:29
Considerando che anche Nvidia ha fatto i complimenti ad AMD per Threadripper direi che stai in una botte di ferro :D

Ah si, quando glieli ha fatti?
Link alla news? :)

beatl
05-09-2018, 08:30
Beh alla fine ho deciso almeno la cpu.
Ci metto un bel threadripper 2 che sembra essere un eccellente all' rounder e sto tranquillo per qualche anno e se voglio aggiungere GPU o dischi m2 non mi devo preoccupare delle linee PCI Express :D

OT che mobo ci abbini?.. io sono sempre indeciso fra 9900 e piattaforma HEDT :muro: chiuso OT sorry

techsaskia
05-09-2018, 08:33
OT che mobo ci abbini?.. io sono sempre indeciso fra 9900 e piattaforma HEDT :muro: chiuso OT sorry

Hedt intel o AMD.
Secondo me a sto giro con amd su hedt non c'è storia per Intel.

Sulla mobo sono molto indeciso.
Vedo che le prime e le strix costano quasi la metà della rog Zenith Extreme che però sembra quella che overclocca di più il procio in precision boost.

Mi spaventa molto quella ventolina che ha sul dissi, non vorrei che è o diventi troppo rumorosa

Thunder-74
05-09-2018, 08:49
OT che mobo ci abbini?.. io sono sempre indeciso fra 9900 e piattaforma HEDT :muro: chiuso OT sorry


Io dico solo che i nuovi 9xxx salgono in oc a bestia... 5.5ghz presi su un 9900k a liquido e 5.3ghz su 9700k ad aria... se anche fossero 5.2 su 16 thread (9900k), sarebbe tanta ma tanta roba ...


Inviato dal mio iPhone X utilizzando Tapatalk

techsaskia
05-09-2018, 09:06
Io dico solo che i nuovi 9xxx salgono in oc a bestia... 5.5ghz presi su un 9900k a liquido e 5.3ghz su 9700k ad aria... se anche fossero 5.2 su 16 thread (9900k), sarebbe tanta ma tanta roba ...


Inviato dal mio iPhone X utilizzando Tapatalk

cmq quasi la metà di un threadripper 2 :D
dai su, a 800€ non ha senso quel processore quando c'è threadripper 2.

Thunder-74
05-09-2018, 09:21
cmq quasi la metà di un threadripper 2 :D

dai su, a 800€ non ha senso quel processore quando c'è threadripper 2.



800? Il prezzo reale di lancio è 450 dollari... non guardare chi mette gli annunci prima di avere il prodotto ..

E comunque spero che tu lo utilizzi per fare rendering e non principalmente per il gaming, perché già un 8700k gli sta sopra LINK (https://www.youtube.com/watch?v=AaChjZv4Rjo)
LINK2 (https://www.youtube.com/watch?v=YE_QpMb-KJo)... dai su siamo seri...



Inviato dal mio iPhone X utilizzando Tapatalk

The_SaN
05-09-2018, 09:25
Infatti bisogna guardare il MSRP, non i prezzi di preorder dei negozi.

(ed è proprio basandomi su MSRP che ho fatto quei discorsi legati al prezzo, evoluzione tecnologica ecc.)

scorpion73
05-09-2018, 09:31
Sarebbe da fare 9900k+EVGA Hybrid a sto giro.....
9900k penso sicuro sarà mio, l'altra in base alle review...

Nhirlathothep
05-09-2018, 09:37
Beh alla fine ho deciso almeno la cpu.
Ci metto un bel threadripper 2 che sembra essere un eccellente all' rounder e sto tranquillo per qualche anno e se voglio aggiungere GPU o dischi m2 non mi devo preoccupare delle linee PCI Express :D

Considerando che anche Nvidia ha fatto i complimenti ad AMD per Threadripper direi che stai in una botte di ferro :D

OT che mobo ci abbini?.. io sono sempre indeciso fra 9900 e piattaforma HEDT :muro: chiuso OT sorry

considerate che ha un 5930K,gli x99 vanno alla grande (il suo ha anche 40 linee pciex), fossi in lui non spenderei nemmeno 1euro per cambiare


(infatti io resto con x79 dal 2012)

beatl
05-09-2018, 09:48
Sarebbe da fare 9900k+EVGA Hybrid a sto giro.....
9900k penso sicuro sarà mio, l'altra in base alle review...

Proprio quello che ho in mente io ...

Arrow0309
05-09-2018, 09:58
Sarebbe da fare 9900k+EVGA Hybrid a sto giro.....
9900k penso sicuro sarà mio, l'altra in base alle review...
Anche 8086k + Hybrid almeno io così farò, forse (cpu già presa, vga non ancora). :cool:

FroZen
05-09-2018, 10:15
E ancora novità sulle Turing mobile:

https://wccftech.com/nvidia-turing-mobility-rtx-2080-mobile-gpu/amp/

sui 14'' lo chassis in realtà è il gpu die touring estruso in alluminio :sofico:

Thunder-74
05-09-2018, 10:17
comunque quest'anno la EVGA si è superata in desing:
effetto Acciaio satinato e WB trasparente (finalmente)... bellissima :D

https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Hydro-Copper-FTW3.jpg

edit_user_name_here
05-09-2018, 10:23
comunque quest'anno la EVGA si è superata in desing:
effetto Acciaio satinato e WB trasparente (finalmente)... bellissima :D

https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Hydro-Copper-FTW3.jpg

Dici sul serio? :asd: comunque anche io prenderei evga :) sono indeciso se dual o tre slot.

Sempre se la prenderò ovviamente :D

sertopica
05-09-2018, 10:28
comunque quest'anno la EVGA si è superata in desing:
effetto Acciaio satinato e WB trasparente (finalmente)... bellissima :D

https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Hydro-Copper-FTW3.jpg

Si punta tutto sui riflessi. :O

Thunder-74
05-09-2018, 10:29
Dici sul serio? :asd: comunque anche io prenderei evga :) sono indeciso se dual o tre slot.

Sempre se la prenderò ovviamente :D


Dico di si . Io se fossi ad aria non avrei dubbi : se non devi fare Sli , tutta la vita 3 slot, altrimenti 2 slot


Inviato dal mio iPhone X utilizzando Tapatalk

Arrow0309
05-09-2018, 10:31
Io dico solo che i nuovi 9xxx salgono in oc a bestia... 5.5ghz presi su un 9900k a liquido e 5.3ghz su 9700k ad aria... se anche fossero 5.2 su 16 thread (9900k), sarebbe tanta ma tanta roba ...


Inviato dal mio iPhone X utilizzando Tapatalk

800? Il prezzo reale di lancio è 450 dollari... non guardare chi mette gli annunci prima di avere il prodotto ..

E comunque spero che tu lo utilizzi per fare rendering e non principalmente per il gaming, perché già un 8700k gli sta sopra LINK (https://www.youtube.com/watch?v=AaChjZv4Rjo)
LINK2 (https://www.youtube.com/watch?v=YE_QpMb-KJo)... dai su siamo seri...



Inviato dal mio iPhone X utilizzando Tapatalk

Quoto pienamente, fotosega alla grande ormai sti hedt che consumano solo corrente in full, tutto sprecato se non per lavori di rendering.
E fino alla prova contraria lo Sli è morto.

comunque quest'anno la EVGA si è superata in desing:
effetto Acciaio satinato e WB trasparente (finalmente)... bellissima :D

https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Hydro-Copper-FTW3.jpg

Miiiiinchia quant'è bella. :sbav:
Ed io che volevo tornare ad aria con la gpu. :mc:

Male che vada e se sarò colpito dal gorilla posso sempre aggiungere un secondo 360 slim sul fondo del mio nuovo LianLi PC-O11 Dynamic

parenzo
05-09-2018, 10:41
Beh alla fine ho deciso almeno la cpu.
Ci metto un bel threadripper 2 che sembra essere un eccellente all' rounder e sto tranquillo per qualche anno e se voglio aggiungere GPU o dischi m2 non mi devo preoccupare delle linee PCI Express :D

A me non sembra una brillante idea, ti levi un X99 per spendere un cifra in una CPU che in passmark va' praticamente come un 3770k, per poi metterci GPU di fascia alta? Praticamente spendi un millino per fare un downgrade a livello gaming.

Nhirlathothep
05-09-2018, 10:55
come fate a dire che è bella ?! fa schifo
ammesso che esista un' estetica per le gpu, le versioni custom sono tutte bruttissime (evga compresa).


di solito almeno le versioni "founder" NVIDIA erano decenti, invece questa volta sono brutte anche quelle.

non c'è proprio confronto con il design delle Quadro o della TitanXP
quelle si che sono belle

(oppure le AMD limited edition, bellissime)

https://cdn.wccftech.com/wp-content/uploads/2017/07/AMD-Radeon-RX-Vega-64-Family.png

edit_user_name_here
05-09-2018, 10:59
Dico di si . Io se fossi ad aria non avrei dubbi : se non devi fare Sli , tutta la vita 3 slot, altrimenti 2 slot


Inviato dal mio iPhone X utilizzando Tapatalk

Infatti è per quello.Se prendo 3 slot devo essere sicuro di non fare uno sli(che poi sarebbe nvlink) neanche in futuro.E sono indeciso.Anche se forse sarebbe meglio aspettare le prossime 7nm piuttosto che fare nvlink e prenderne solo una.Che poi devo ancora sapere se funziona il g sync con il nvlink altrimenti se lo scordano che ci penso :)


come fate a dire che è bella ?! fa schifo
ammesso che esista un' estetica per le gpu, le versioni custom sono tutte bruttissime (evga compresa).


di solito almeno le versioni "founder" NVIDIA erano decenti, invece questa volta sono brutte anche quelle.

non c'è proprio confronto con il design delle Quadro o della TitanXP
quelle si che sono belle

(oppure le AMD limited edition, bellissime)

https://cdn.wccftech.com/wp-content/uploads/2017/07/AMD-Radeon-RX-Vega-64-Family.png

A me piacciono le nuove nvidia default confronto a quella monoventola di prima.Ma sinceramente l'estetica per me è secondaria io sono più appassionato per videogiochi.L'importante è il funzionamento :) parlo per me ovviamente.

Thunder-74
05-09-2018, 11:02
come fate a dire che è bella ?! fa schifo
ammesso che esista un' estetica per le gpu, le versioni custom sono tutte bruttissime (evga compresa).


di solito almeno le versioni "founder" NVIDIA erano decenti, invece questa volta sono brutte anche quelle.

non c'è proprio confronto con il design delle Quadro o della TitanXP
quelle si che sono belle

(oppure le AMD limited edition, bellissime)

https://cdn.wccftech.com/wp-content/uploads/2017/07/AMD-Radeon-RX-Vega-64-Family.png


Diciamo che sono gusti personali ... io ad esempio già a vedere le ventole su una vga mi viene l’orticaria ... rumore/senso di vecchio... ripeto, sono gusti personali... ;)


Inviato dal mio iPhone X utilizzando Tapatalk

Nhirlathothep
05-09-2018, 11:03
Infatti è per quello.Se prendo 3 slot devo essere sicuro di non fare uno sli(che poi sarebbe nvlink) neanche in futuro.E sono indeciso.Anche se forse sarebbe meglio aspettare le prossime 7nm piuttosto che fare nvlink e prenderne solo una.Che poi devo ancora sapere se funziona il g sync con il nvlink altrimenti se lo scordano che ci penso :)




A me piacciono le nuove nvidia default confronto a quella monoventola di prima.Ma sinceramente l'estetica per me è secondaria io sono più appassionato per videogiochi.L'importante è il funzionamento :) parlo per me ovviamente.

anche a me non interessa l' estetica delle gpu-mb ... componenti interne.
loro si sono messi a dire che è bella una custom (secondo me orribile).

invece vedere quelle belle workstation con varie Quadro messe vicine fa un bell' effetto

https://mspoweruser.com/wp-content/uploads/2018/08/NVIDIA-Quadroo-RTX.jpg

Nhirlathothep
05-09-2018, 11:05
Diciamo che sono gusti personali ... io ad esempio già a vedere le ventole su una vga mi viene l&rsquo;orticaria ... rumore/senso di vecchio... ripeto, sono gusti personali... 😉


Inviato dal mio iPhone X utilizzando Tapatalk


si, un wb fatto con un pochino di gusto è più bello anche secondo me.
soprattutto con gpu multiple

edit_user_name_here
05-09-2018, 11:47
anche a me non interessa l' estetica delle gpu-mb ... componenti interne.
loro si sono messi a dire che è bella una custom (secondo me orribile).

invece vedere quelle belle workstation con varie Quadro messe vicine fa un bell' effetto

https://mspoweruser.com/wp-content/uploads/2018/08/NVIDIA-Quadroo-RTX.jpg

Se le custom a tre ventole raffreddano meglio le prendo ugualmente :) cmq non mi sono brutte a me certe custom.Magari possono risultare plasticose ma bisogna vedere.Sempre meglio di quella monoventola cmq.


Si chiama sempre SLI, nvlink è il tipo di connessione ma due schede connesse tra loro sono sempre SLI :)

Comunque c'è anche il bridge 3 slot, non ti sta nel case a 3 slot?

Non sapevo che si potesse chiamare ancora "sli" buono a sapersi.Cmq credo che la scheda madre sia troppo vicino dunque non è un problema di bridge ma che "fisicamente" non ci stanno :D


Personalmente questa è la prima volta che nVidia fa una reference che mi piace da sempre.

Infatti male non è :D

Biscottoman
05-09-2018, 11:52
https://www.tomshw.it/alphacool-nuovo-raffreddamento-liquido-rtx-2080-97275

https://www.tomshw.it/data/thumbs/9/1/0/0/04161736743s-7b96a01b9705ad70b0428234411ee61f6.jpg

:sofico:

Domanda al riguardo, ma utilizzando un radiatore da 240mm se lo si posizionasse nella parte frontale del case (quindi con ventole intake) l'aria calda finirebbe sulla gpu determinando un cattivo raffreddamento di quest'ultima? Perchè questa soluzione mi piace abbastanza ma avendo giò un radiatore da 240 per la cpu nella parte superiore del case non saprei dove collocarne un secondo, avrei solo lo spazio per un 140 in rear

Biscottoman
05-09-2018, 12:20
Non ho mai provato ma direi che dipende dal flusso d'aria in espulsione.
Se tiri fuori bene il caldo dall'alto e da dietro il calore del radiatore sul frontale non fa in tempo a ristagnare nel case.

Tieni presente che questa linea di Alphacool è modulare, usando quegli innesti puoi collegarci in serie un wb per la cpu e dissipare tutto con 1 radiatore.
Però non credo che 240 basti per cpu e gpu.

Io ho un case anche abbastanza grosso (un 760t della corsair) solo che la mia paura è che ovviamente la scheda video sia molto più "pesante" da raffreddare e quindi dal radiatore si produca molta aria calda che buttata nel case (per quanto abbia una ventola da 140 rear e sopra le altre due ventole da 120 del radiatore della cpu) possa causare un surriscaldamento generale

Biscottoman
05-09-2018, 12:33
Invertili?

Bisogna vedere se i tubi sono lunghi a sufficienza per raggiungere la parete superiore, spesso non lo sono purtroppo

TigerTank
05-09-2018, 13:03
https://www.tomshw.it/alphacool-nuovo-raffreddamento-liquido-rtx-2080-97275

https://www.tomshw.it/data/thumbs/9/1/0/0/04161736743s-7b96a01b9705ad70b0428234411ee61f6.jpg

:sofico:

Mah....in pratica "liquidi" la gpu ma tutto il resto? Ci devi comunque piazzare sopra delle ventole altrimenti passivo è peggio del dissipatore originale.
Secondo me non ne vale la pena, è una situazione che non vale il "riciclo" della parte gpu...se devo tenere il resto passivo :D
Meglio investire in un fullcover e se proprio un mini impianto custom dove basterebbero radiatore e un piccolo sistema combo pompa+vaschetta(che poi "ricicli" per le future vga).
O vedere se evga produce un hybrid(che almeno ha il blower) con un radiatore un pò più corposo.

EDIT: o prendere direttamente una triple slot e cambiargli la pasta con una buona.

Arrow0309
05-09-2018, 13:04
La dimensione del case non è molto importante, anzi più il case è grande e più e difficile far circolare l'aria correttamente.

Invertire i radiatori è una buona idea, Alphacool vende il kit prolunga per i tubi nel caso servisse.

Diciamo che non è male ma non so se conviene di più una 2080 (ti) + kit Alphacool oppure una Evga Hybrid.
Si, il vrm raffreddato ad aria ma almeno espulsa fuori dal case.
Anche il look non è male.

@Tiger, guarda i due link che ho postato una o 2 pag fa, si, ci sarà anche la Hybrid (anzi due, una FTW3 a 19 fasi). ;)

TigerTank
05-09-2018, 13:11
Diciamo che non è male ma non so se conviene di più una 2080 (ti) + kit Alphacool oppure una Evga Hybrid.
Si, il vrm raffreddato ad aria ma almeno espulsa fuori dal case.
Anche il look non è male.

@Tiger, guarda i due link che ho postato una o 2 pag fa, si, ci sarà anche la Hybrid (anzi due, una FTW3 a 19 fasi). ;)

Grazie, bellissime!
Sì...tanto varrebbe fare 2 conti e prendere eventualmente direttamente quelle :)
Il wubbo nickelato EK credo costerà sui 150€ per cui non resta che valutare soluzioni e costi relativi.

Vedo pure che ci sarà una versione a dissipatore blower classico (https://cdn.wccftech.com/wp-content/uploads/2018/09/Dl9ni8fXgAEgO-e.jpg), dovesse costare un bel pò meno della FE, forse sarebbe la soluzione migliore + wubbo EK o simili.

Lascerei perdere le custom, se già le references hanno tutte quelle fasi e l'oc sarà ancora limitato alla sola frequenza e non al voltaggio, inutile dissanguarsi ulteriormente :D

Jeetkundo
05-09-2018, 13:42
Wccf dice che le Review della 2080 usciranno il 17 mentre quelle dalla 2080ti il 19. Il 14 scade solo l'embargo sulle specifiche dell'architettura Turing.

Sent from my MI 6 using Tapatalk

Thunder-74
05-09-2018, 14:07
Fino a quando non ci sono le recensioni tutti i sistemi di raffreddamento sono da guardare per conoscenza.

Nella review potrebbe saltare fuori che le temperature sono buone già con al FE oppure che scalda quanto il raggio solare del Daitarn 3 :asd:



Il sistema AIO aperto di Alphacool serve a chi vuole fare una cosa buona senza lo sbattimento di fare tutto un impianto.



La cosa più divertente è che parlate di "convenienza" con queste schede, quando per ora la convenienza e lasciarle sullo scaffale :rotfl:



Hahaha concordo, di convenienza meglio parlare quando bisogna prendere 2 o più pacchi pasta in offerta
Discorso temp, per me le FE potranno anche andar bene e queste nuove hanno un dissi tutto da scoprire, ma sinceramente, sopratutto ad aria, cercherei la vga con il miglior dissipatore per veder tagliare le freq. il meno possibile...


Inviato dal mio iPhone X utilizzando Tapatalk

Biscottoman
05-09-2018, 14:15
Mah....in pratica "liquidi" la gpu ma tutto il resto? Ci devi comunque piazzare sopra delle ventole altrimenti passivo è peggio del dissipatore originale.
Secondo me non ne vale la pena, è una situazione che non vale il "riciclo" della parte gpu...se devo tenere il resto passivo :D
Meglio investire in un fullcover e se proprio un mini impianto custom dove basterebbero radiatore e un piccolo sistema combo pompa+vaschetta(che poi "ricicli" per le future vga).
O vedere se evga produce un hybrid(che almeno ha il blower) con un radiatore un pò più corposo.

EDIT: o prendere direttamente una triple slot e cambiargli la pasta con una buona.

Dovessero uscire i set di ek mlc anche per la serie 2000, forse quella sarebbe il compromesso migliore in quanto basati sull'utlizzo di wb comuni abbinati a un impianto aio

Arrow0309
05-09-2018, 15:17
Grazie, bellissime!
Sì...tanto varrebbe fare 2 conti e prendere eventualmente direttamente quelle :)
Il wubbo nickelato EK credo costerà sui 150€ per cui non resta che valutare soluzioni e costi relativi.

Vedo pure che ci sarà una versione a dissipatore blower classico (https://cdn.wccftech.com/wp-content/uploads/2018/09/Dl9ni8fXgAEgO-e.jpg), dovesse costare un bel pò meno della FE, forse sarebbe la soluzione migliore + wubbo EK o simili.

Lascerei perdere le custom, se già le references hanno tutte quelle fasi e l'oc sarà ancora limitato alla sola frequenza e non al voltaggio, inutile dissanguarsi ulteriormente :D

Esatto. :cool:
Ma secondo voi il dissi custom (nvidia) delle FE è lo stesso per entrambe le versioni (sia 2080 che 2080ti)?
Se si lo dovrebbe essere anche il nuovo wubbo EK Vector eppure ci stanno versioni a prezzo differente per le 2080 (leggermente meno come prezzo) rispetto alle 2080 ti.
A guardarle sembrano uguali e non sono neanche riuscito a trovare alcune foto sul lato a contatto col pcb tranne che sul Dragone che però riporta la stessa foto per le entrambe, 2080 e 2080Ti: :confused:

http://www.drako.it/drako_catalog/imagemagic.php?img=ntHTyNDiYWBjZpGpmZvOZJdfn9TZ&w=900&h=900

illidan2000
05-09-2018, 16:06
Grazie, bellissime!
Sì...tanto varrebbe fare 2 conti e prendere eventualmente direttamente quelle :)
Il wubbo nickelato EK credo costerà sui 150€ per cui non resta che valutare soluzioni e costi relativi.

Vedo pure che ci sarà una versione a dissipatore blower classico (https://cdn.wccftech.com/wp-content/uploads/2018/09/Dl9ni8fXgAEgO-e.jpg), dovesse costare un bel pò meno della FE, forse sarebbe la soluzione migliore + wubbo EK o simili.

Lascerei perdere le custom, se già le references hanno tutte quelle fasi e l'oc sarà ancora limitato alla sola frequenza e non al voltaggio, inutile dissanguarsi ulteriormente :D

io spero che il pcb della 2080ti reference sia compatibile con il mio evga hybrid 1080 (adattato da me a 1080ti...)
Esatto. :cool:
Ma secondo voi il dissi custom (nvidia) delle FE è lo stesso per entrambe le versioni (sia 2080 che 2080ti)?
Se si lo dovrebbe essere anche il nuovo wubbo EK Vector eppure ci stanno versioni a prezzo differente per le 2080 (leggermente meno come prezzo) rispetto alle 2080 ti.
A guardarle sembrano uguali e non sono neanche riuscito a trovare alcune foto sul lato a contatto col pcb tranne che sul Dragone che però riporta la stessa foto per le entrambe, 2080 e 2080Ti: :confused:

http://www.drako.it/drako_catalog/imagemagic.php?img=ntHTyNDiYWBjZpGpmZvOZJdfn9TZ&w=900&h=900
purtroppo se non scade l'NDA, foto ufficiali del pcb non ce ne saranno

Spytek
05-09-2018, 16:19
Quindi non sono usciti nemmeno i listini ufficiali,giusto?
Lato raffreddamento i dissipatori espelleranno parte del calore generato all'interno del case e parte all'esterno?

Arrow0309
05-09-2018, 17:46
Quindi non sono usciti nemmeno i listini ufficiali,giusto?
Lato raffreddamento i dissipatori espelleranno parte del calore generato all'interno del case e parte all'esterno?

Quali dissi?
Quelli FE espelleranno maggiormente all'interno (ventole in pull).

Arrow0309
05-09-2018, 17:52
io spero che il pcb della 2080ti reference sia compatibile con il mio evga hybrid 1080 (adattato da me a 1080ti...)

purtroppo se non scade l'NDA, foto ufficiali del pcb non ce ne saranno

2080ti reference design:

https://s15.postimg.cc/9tg8hlip5/attachment.png

TigerTank
05-09-2018, 18:05
Fino a quando non ci sono le recensioni tutti i sistemi di raffreddamento sono da guardare per conoscenza.
Nella review potrebbe saltare fuori che le temperature sono buone già con al FE oppure che scalda quanto il raggio solare del Daitarn 3 :asd:

Il sistema AIO aperto di Alphacool serve a chi vuole fare una cosa buona senza lo sbattimento di fare tutto un impianto.

La cosa più divertente è che parlate di "convenienza" con queste schede, quando per ora la convenienza e lasciarle sullo scaffale :rotfl:

Beh ovviamente per "convenienza" si intendeva in termini relativi internamente alle varie soluzioni, non in modo assoluto. Chiaro che se la si vede in questo secondo modo, non ce n'è :D
Circa l'AIO sinceramente io liquido dal 2006...e ne ho fatte di vga solo con wubbo gpu ed il resto dissipato a parte(pure con il rame), per cui un pò ne so :D
Ecco perchè dico che sinceramente piuttosto che una soluzione del genere con dissipatore passivo comunque in alluminio(che non è certo come il rame), forse convenga prendere direttamente una triple slot e cambiare la pasta.

parenzo
05-09-2018, 18:06
Forse è il caso che lasci discutere chi sa di cosa parla :>

Tipo te che non sai usare un congiuntivo ? Ma i mod esistono ?

amon.akira
05-09-2018, 18:24
Tipo te che non sai usare un congiuntivo ? Ma i mod esistono ?

:O io l avevo letta così "Forse è il caso che lasci (io) discutere chi sa di cosa parla :>"

:asd:

amon.akira
05-09-2018, 18:27
mi è venuto quasi voglia di giocare a fc2 lol... è incredibile vedere certi scempi e stiamo parlando di un tripla A osannato...

vai il bloom savano ti aspetta, e anche il respawn come giri la visuale :D

Legolas84
05-09-2018, 18:39
Io nel frattempo sono tornato ad AMD... e me ne starò qui per un bel pò mi sa.... :)

FreeMan
05-09-2018, 18:46
Forse è il caso che lasci discutere chi sa di cosa parla :>

Detto da chi non ha capito la regola per la firma e polemizza inutilmente... finiscila qui

Tipo te che non sai usare un congiuntivo ? Ma i mod esistono ?

stop anche per te.

i mod esistono ed intervengono quando possono, questo non è un lavoro.

ribadisco: STOP!

>bYeZ<

techsaskia
05-09-2018, 19:03
Io nel frattempo sono tornato ad AMD... e me ne starò qui per un bel pò mi sa.... :)

che hai preso?
io non prendevo un AMD dai tempi dell'Athlon XP ma il threadripper 2 ci scappa, il 2950X mi tira troppo :D

Legolas84
05-09-2018, 19:06
che hai preso?
io non prendevo un AMD dai tempi dell'Athlon XP ma il threadripper 2 ci scappa, il 2950X mi tira troppo :D


Ho rimesso su l'HD 5750 tanto ora non gioco al PC :asd:

techsaskia
05-09-2018, 19:25
Ho rimesso su l'HD 5750 tanto ora non gioco al PC :asd:

si quando si invecchia succede, io pure, compro le GPU ma poi non ho tempo di giocare :D

TigerTank
05-09-2018, 19:50
Ho rimesso su l'HD 5750 tanto ora non gioco al PC :asd:

Ti invidio, io non riuscirei mai a vendere una vga in anticipo senza sapere quando prenderò la nuova. Anche perchè conoscendomi...una volta venduta e messo un eventuale ripiego, mi verrebbe voglia di giocare :sofico:

Legolas84
05-09-2018, 20:10
Ti invidio, io non riuscirei mai a vendere una vga in anticipo senza sapere quando prenderò la nuova. Anche perchè conoscendomi...una volta venduta e messo un eventuale ripiego, mi verrebbe voglia di giocare :sofico:

Tanto non avrei il tempo per giocare attualmente, quindi va bene così... Quando tornerò a giocare attivamente vedrò come sarà la situazione e comprerò la scheda nuova.... :)

Con la HD 5750 comunque posso giocare diversi grandi classici 2d senza problemi nel poco tempo libero :)

Vendendo ora la 1080Ti ho recuperato un'ottima cifra rispetto a quanto aveva speso più di un anno fa quindi va bene così....

Ale55andr0
05-09-2018, 20:40
che hai preso?
:D

che a ri-pescato dalla soffitta piuttosto :asd:

edit_user_name_here
05-09-2018, 20:50
Io ho ancora le vecchie amd serie 5000 ma non so neanche se funzionano ancora.Però non mi servono perchè ho ancora la serie 700-900 ed ancora le 1080 :)

Legolas84
05-09-2018, 21:06
che a ri-pescato dalla soffitta piuttosto :asd:

Volendo ho anche una fiammante Radeon X300 :cool:

Ho sempre avuto più AMD in casa che NVIDIA.... :asd:

techsaskia
05-09-2018, 21:08
ma in questo thread c'è qualcuno con una CPU AMD o che la comprerà?
solo io passo al threadrippone 2 2950X? :stordita:

Nhirlathothep
05-09-2018, 21:36
ma in questo thread c'è qualcuno con una CPU AMD o che la comprerà?
solo io passo al threadrippone 2 2950X? :stordita:

io feci una discussione pochi giorni fa per prenderne uno, ma poi è uscito fuori che la mb costava troppo rispetto alle mie speranze :)

techsaskia
05-09-2018, 21:38
io feci una discussione pochi giorni fa per prenderne uno, ma poi è uscito fuori che la mb costava troppo rispetto alle mie speranze :)

vorrei saltare sulla discussione me la linki?
costa troppo perchè punti alle mobo inutili se non sui 32core...

una Asus Prime ti costa 330€ che è tutto sommato accettabile per una bestia del genere :)
poi con AMD il socket lo ricambi tra 10 anni e ci aggiorni le varie piattaforme nel frattempo, mica come intel che cambia socket giusto per farti cambiare mobo. :D

edit_user_name_here
05-09-2018, 21:41
ma in questo thread c'è qualcuno con una CPU AMD o che la comprerà?
solo io passo al threadrippone 2 2950X? :stordita:

Serve più per professionisti quella roba li che per giocare.Io ho comunque un six core 6850k anche se un po vecchio ormai :)


vorrei saltare sulla discussione me la linki?
costa troppo perchè punti alle mobo inutili se non sui 32core...

una Asus Prime ti costa 330€ che è tutto sommato accettabile per una bestia del genere :)
poi con AMD il socket lo ricambi tra 10 anni e ci aggiorni le varie piattaforme nel frattempo, mica come intel che cambia socket giusto per farti cambiare mobo. :D

Più che altro bisogna per forza installare windows 10 nelle intel ma io preferisco rimanere basso e rimanere intel per ora :)

Il mio ultimo amd era un athlon da server(opteron) :D conservo ancora il processore nel mobiletto :asd:

Nhirlathothep
05-09-2018, 21:47
vorrei saltare sulla discussione me la linki?
costa troppo perchè punti alle mobo inutili se non sui 32core...

una Asus Prime ti costa 330€ che è tutto sommato accettabile per una bestia del genere :)
poi con AMD il socket lo ricambi tra 10 anni e ci aggiorni le varie piattaforme nel frattempo, mica come intel che cambia socket giusto per farti cambiare mobo. :D

eccola:

https://www.hwupgrade.it/forum/showthread.php?t=2861452


all' inizio volevo a prendere un X1920 a 380e nuovo, ma poi i 350e di mb mi hanno fatto capire che o si prende un 2950x o non conviene

Arrow0309
05-09-2018, 21:51
ma in questo thread c'è qualcuno con una CPU AMD o che la comprerà?
solo io passo al threadrippone 2 2950X? :stordita:

Qui si parla di schede video da gioco, quella cpu non e' da gioco.
Sprecatissima (per poi avere prestazioni inferiori sulla maggior parte dei titoli rispetto ad una cpu che costa un terzo). :O

E se uno invece vuole avere un mostro enthusiast ti prendi un i9 7980XE.
Scommetto che pure il mio 7900X OC (4.8GHz) con meno core ottiene i stessi score sui test cpu e score migliori nel gaming.
Ma lo cambio lo stesso perché sprecato per il solo gaming ed ultimamente non faccio altro nel poco tempo libero.

Arrow0309
05-09-2018, 21:56
Come vi sembrano 1169 euro per una 2080ti reference da liquidare?

https://www.globaldata.pt/componentes/placas-graficas/nvidia/geforce-rtx-2080-ti?utm_source=website&utm_campaign=nvidiartx

techsaskia
05-09-2018, 21:59
Qui si parla di schede video da gioco, quella cpu non e' da gioco.
Sprecatissima (per poi avere prestazioni inferiori sulla maggior parte dei titoli rispetto ad una cpu che costa un terzo). :O

E se uno invece vuole avere un mostro enthusiast ti prendi un i9 7980XE.
Scommetto che pure il mio 7900X OC (4.8GHz) con meno core ottiene i stessi score sui test cpu e score migliori nel gaming.
Ma lo cambio lo stesso perché sprecato per il solo gaming ed ultimamente non faccio altro nel poco tempo libero.

poverammè :doh: :D
il 2950X in alcuni giochi va meglio dell'8700K e cmq è sempre in linea, percentuale più, percentuale meno.
è quando fai il resto che è 3 volte più veloce :)

poi ovvio se uno il PC ci gioca solo no ha senso spendere quei soldi ma cmq oggi 6 core sono troppo pochi per avere un PC che duri qualche anno, anche per giocare.

già alcuni motori come tomb raider scalano su più di 8 core, infatti li il 2950X è più veloce dell'8700K.

il 7900X è la CPU più inutile di sempre lasciamelo dire, sei stato fortunato a raggiungere 4.8GHz (e si deve vedere come) ma per il 95% degli altri che non arriveranno a quelle frequenze su carichi degni di quella CPU è veramente un worst buy, sopratutto in vista dei nuovi Threadripper 2 che sono meglio, sempre, anche in gaming.

TR2 va meglio di Ryzen 2700X in gaming, senza OC.

techsaskia
05-09-2018, 22:01
eccola:

https://www.hwupgrade.it/forum/showthread.php?t=2861452


all' inizio volevo a prendere un X1920 a 380e nuovo, ma poi i 350e di mb mi hanno fatto capire che o si prende un 2950x o non conviene

io non la vedo così, con 600€/700€ tra CPU e mobo ti vai un 12 core adesso,
tra due anni ti prendi un 2950X a 300€ e vivi qualche altro anno.

Arrow0309
05-09-2018, 22:07
poverammè :doh: :D
il 2950X in alcuni giochi va meglio dell'8700K e cmq è sempre in linea, percentuale più, percentuale meno.
è quando fai il resto che è 3 volte più veloce :)

poi ovvio se uno il PC ci gioca solo no ha senso spendere quei soldi ma cmq oggi 6 core sono troppo pochi per avere un PC che duri qualche anno, anche per giocare.

già alcuni motori come tomb raider scalano su più di 8 core, infatti li il 2950X è più veloce dell'8700K.

il 7900X è la CPU più inutile di sempre lasciamelo dire, sei stato fortunato a raggiungere 4.8GHz (e si deve vedere come) ma per il 95% degli altri che non arriveranno a quelle frequenze su carichi degni di quella CPU è veramente un worst buy, sopratutto in vista dei nuovi Threadripper 2 che sono meglio, sempre, anche in gaming.

TR2 va meglio di Ryzen 2700X in gaming, senza OC.


Tutti i benchmark e 3DMark possibili quando vuoi
20t vs 32t

edit_user_name_here
05-09-2018, 22:07
Veramente io sapevo che il quad core ora è più che sufficente per giocare.Io mi ero comprato i six core per durare qualche anno in più ma, sinceramente, quanto potrà mai cambiare un 8 core?Bisogna vedere i test secondo me non tantissimo anche perchè saranno a ghz inferiori.O sbaglio?


Senza contare un 16 core.Magari tra del tempo faranno dei 16(anche se fosse 20, se non ho sbagliato, o 32 cmq) core con più ghz e già diventa vecchio quello li.Secondo me meglio spendere meno e cambiare più spesso semmai cosi si va più sul sicuro :) che poi spesso non dico ogni anno cmq.

Nhirlathothep
05-09-2018, 22:11
io non la vedo così, con 600€/700€ tra CPU e mobo ti vai un 12 core adesso,
tra due anni ti prendi un 2950X a 300€ e vivi qualche altro anno.

che poi X399 magari potrebbe supportare anche qualche altro futuro processore


o cmq un 2990WX (che tra l'altro mi incuriosisce molto, ma è al momento troppo costoso per un pc da prova)

bizzy89
05-09-2018, 22:12
Veramente io sapevo che il quad core ora è più che sufficente per giocare.Io mi ero comprato i six core per durare qualche anno in più ma, sinceramente, quanto potrà mai cambiare un 8 core?Bisogna vedere i test secondo me non tantissimo anche perchè saranno a ghz inferiori.O sbaglio?


Senza contare un 16 core.Magari tra del tempo faranno dei 16(anche se fosse 20, se non ho sbagliato, o 32 cmq) core con più ghz e già diventa vecchio quello li.Secondo me meglio spendere meno e cambiare più spesso semmai cosi si va più sul sicuro :) che poi spesso non dico ogni anno cmq.

il frostbite su battlefield 1 col 6700k mi sta facendo penare.

Nhirlathothep
05-09-2018, 22:15
il frostbite su battlefield 1 col 6700k mi sta facendo penare.

veramente?

io lo provai al day1 (o in beta, non ricordo) e andava bene sia con 4700mq(@default 3.4ghz) che con 6820hk(@4ghz)

erano notebook

techsaskia
05-09-2018, 22:15
che poi X399 magari potrebbe supportare anche qualche altro futuro processore

o cmq un 2990WX (che tra l'altro mi incuriosisce molto, ma è al momento troppo costoso per un pc da prova)

per me infatti è un best buy l'idea che hai avuto con un path di upgrade sicuro e consistente.

il frostbite su battlefield 1 col 6700k mi sta facendo penare.

si ormai i 4 core sono troppo pochi per i nuovi giochi.
origins e tomb raider sono stati un esempio infatti sono i titoli dove più core, più performance.

che poi diciamocelo, adesso va di moda a testare i giochi a 1080P con le 1080Ti, ovviamente è l'unico modo per vedere delle differenze sensibili sulle CPU ma che senso ha?
chi gioca a 1080P su una 1080Ti? ovvio qualcuno ci sarà ma quanti? :D

poi ormai sembra confermato che RTX vuole i thread, ed era ora per fortuna.

techsaskia
05-09-2018, 22:25
C'è anche da dire che in 4k la cpu diventa quasi irrilevante.

Sarei curioso di vedere un povero Bulldozer come se la cava in 4k con la 2080ti nei giochi che sfruttano il multicore...

Inviato dal mio SM-G960F utilizzando Tapatalk

si infatti quindi dire una CPU da gioco ormai pure ha poco senso.
ormai si dice che una CPU è da gioco da invece di 160FPS a 1080P a settaggi medi fa 190FPS.

per me una CPU da gioco è una CPU che non cappa i giochi sotto al framerate desiderato.

certo è per esempio che un 4 core, oggi cappa i giochi sia a risoluzioni alte che basse.

techsaskia
05-09-2018, 22:30
A meno che uno non vuole giocare sopra i 100fps e quindi parliamo di massimo 1440p e manco a tutti i giochi sopra una certa soglia una cpu vale l'altra perchè tanto è la vga a fare da tappo.
4 core oggi sono ormai diventati fascia media, senza stare a contare in quanti giochi ne vengono sfruttati di più io stare almeno sui 6.
Considerando che un 2600X 6c/12t costa 200€ tutto il resto è e-penis.

Questo succede con la 1080ti in 1440p: https://www.techpowerup.com/reviews/AMD/Ryzen_5_2600X/14.html

Non credo che in molti la vogliano comprare per giocare in fhd.

EDIT:

Ah questo è ancora meglio: https://www.techpowerup.com/reviews/AMD/Ryzen_Threadripper_2950X/14.html
Praticamente tutte le piattaforme HEDT in gaming rpendono palate dai vari 2600X, 8600K e compagnia.

Io oggi comprerei un 2700X per stare largo ma già un 2600X basterebbe, se vi piace di più Intel un 8600K o un 8700K per stare larghi ma a me piace di più ryzen che non ha la pasta del capitano e non cambia socket come mutande.

EDIT2:

Sopratutto ogni euro che si spende per la CPU oltre i 200€ di un 2600X sarebbero molto meglio investiti sulla GPU

che poi sti grafici sono pure ridicoli, fare le classifiche sull'orlo dell'FPS su 120FPS... :D
per giocare una CPU vale l'altra, purchè non troppo vecchia.

la bellezza degli HEDT è che quando smetti di giocare e fai qualcosa di un pò più esigente in termini di CPU diventano n volte più veloci dei rispettivi mainstream... tralasciando la libertà data dlle maggiori linee pci express.

Nhirlathothep
05-09-2018, 22:52
che poi sti grafici sono pure ridicoli, fare le classifiche sull'orlo dell'FPS su 120FPS... :D
per giocare una CPU vale l'altra, purchè non troppo vecchia.

la bellezza degli HEDT è che quando smetti di giocare e fai qualcosa di un pò più esigente in termini di CPU diventano n volte più veloci dei rispettivi mainstream... tralasciando la libertà data dlle maggiori linee pci express.

A meno che uno non vuole giocare sopra i 100fps e quindi parliamo di massimo 1440p e manco a tutti i giochi sopra una certa soglia una cpu vale l'altra perchè tanto è la vga a fare da tappo.
4 core oggi sono ormai diventati fascia media, senza stare a contare in quanti giochi ne vengono sfruttati di più io stare almeno sui 6.
Considerando che un 2600X 6c/12t costa 200€ tutto il resto è e-penis.

Questo succede con la 1080ti in 1440p: https://www.techpowerup.com/reviews/AMD/Ryzen_5_2600X/14.html

Non credo che in molti la vogliano comprare per giocare in fhd.

EDIT:

Ah questo è ancora meglio: https://www.techpowerup.com/reviews/AMD/Ryzen_Threadripper_2950X/14.html
Praticamente tutte le piattaforme HEDT in gaming rpendono palate dai vari 2600X, 8600K e compagnia.

Io oggi comprerei un 2700X per stare largo ma già un 2600X basterebbe, se vi piace di più Intel un 8600K o un 8700K per stare larghi ma a me piace di più ryzen che non ha la pasta del capitano e non cambia socket come mutande.

EDIT2:

Sopratutto ogni euro che si spende per la CPU oltre i 200€ di un 2600X sarebbero molto meglio investiti sulla GPU

Hai vinto tutto, compreso post dell'anno, discussione inutile del trimestre e premio Ovvio alla carriera da forumista :asd:

è uscito proprio ora

Linus Tech Tips
https://www.youtube.com/watch?v=iyaqSAotL3w


io ho una cpu del 2012, mi considero al di fuori della battaglia Intel-AMD

bizzy89
05-09-2018, 22:52
veramente?

io lo provai al day1 (o in beta, non ricordo) e andava bene sia con 4700mq(@default 3.4ghz) che con 6820hk(@4ghz)

erano notebook

sputtanarono qualcosa con una patch qualche decade fa, il gioco andava perfettamente prima di quel dannato upgrade. Cpu che spara alcuni core al 100% senza alcuna logica.

Iceman69
05-09-2018, 22:55
si infatti quindi dire una CPU da gioco ormai pure ha poco senso.
ormai si dice che una CPU è da gioco da invece di 160FPS a 1080P a settaggi medi fa 190FPS.

per me una CPU da gioco è una CPU che non cappa i giochi sotto al framerate desiderato.

certo è per esempio che un 4 core, oggi cappa i giochi sia a risoluzioni alte che basse.

Le CPU non sono mai state particolarmente importanti per gli FPS medi nei giochi.
Purtroppo però devi guardare quelli minimi, infatti può anche essere che un gioco in media resti sopra i 100 Fps, ma sei nei minimi anche solo per 5 secondi ogni 10 minuti scende sotto i 30 diventa veramente poco godibile e questo spesso capita anche a risoluzioni molto alte.

Io nel passare dal 4770k al 8700k ho trovato un grosso giovamento anche nei giochi, in quei punti in cui con il 4770k avevo cali vistosi nel framerate.

techsaskia
05-09-2018, 23:07
Le CPU non sono mai state particolarmente importanti per gli FPS medi nei giochi.
Purtroppo però devi guardare quelli minimi, infatti può anche essere che un gioco in media resti sopra i 100 Fps, ma sei nei minimi anche solo per 5 secondi ogni 10 minuti scende sotto i 30 diventa veramente poco godibile e questo spesso capita anche a risoluzioni molto alte.

Io nel passare dal 4770k al 8700k ho trovato un grosso giovamento anche nei giochi, in quei punti in cui con il 4770k avevo cali vistosi nel framerate.

Grazie ormai quattro core sono pochi quasi ovunque.
Successe anche a me con the Witcher in 4k con il 6 core quando tutti avevano i quattro core con gli sli di ti e gli stutterava

techsaskia
05-09-2018, 23:09
è uscito proprio ora

Linus Tech Tips
https://www.youtube.com/watch?v=iyaqSAotL3w


io ho una cpu del 2012, mi considero al di fuori della battaglia Intel-AMD

Di solito sono sempre d'accordo con quella redazione ma stavolta hanno proprio messo la bandierina Intel. :D

edit_user_name_here
06-09-2018, 08:21
il frostbite su battlefield 1 col 6700k mi sta facendo penare.

Io sapevo soltanto che tempo fa si diceva che i six core non servivano nei giochi dunque in un anno e mezzo le cose sono cambiate?Vabbe che io non gioco agli ultimi giochi usciti.Gioco solo a quelli che mi interessano ed ora non ce ne sono.Quando uscirà gta 6 magari sarà un altro paio di maniche :D


A meno che uno non vuole giocare sopra i 100fps e quindi parliamo di massimo 1440p e manco a tutti i giochi sopra una certa soglia una cpu vale l'altra perchè tanto è la vga a fare da tappo.
4 core oggi sono ormai diventati fascia media, senza stare a contare in quanti giochi ne vengono sfruttati di più io stare almeno sui 6.
Considerando che un 2600X 6c/12t costa 200€ tutto il resto è e-penis.

Questo succede con la 1080ti in 1440p: https://www.techpowerup.com/reviews/AMD/Ryzen_5_2600X/14.html

Non credo che in molti la vogliano comprare per giocare in fhd.

EDIT:

Ah questo è ancora meglio: https://www.techpowerup.com/reviews/AMD/Ryzen_Threadripper_2950X/14.html
Praticamente tutte le piattaforme HEDT in gaming rpendono palate dai vari 2600X, 8600K e compagnia.

Io oggi comprerei un 2700X per stare largo ma già un 2600X basterebbe, se vi piace di più Intel un 8600K o un 8700K per stare larghi ma a me piace di più ryzen che non ha la pasta del capitano e non cambia socket come mutande.

EDIT2:

Sopratutto ogni euro che si spende per la CPU oltre i 200€ di un 2600X sarebbero molto meglio investiti sulla GPU

Dunque gli amd dopo 3 - 5 anni non cambiano più socket?Buono a sapersi non ero informato su questa faccenda :D io di solito ogni 3 anni o 5 cambio cpu(e sono passati quasi 2 anni ormai).

techsaskia
06-09-2018, 08:24
Io sapevo soltanto che tempo fa si diceva che i six core non servivano nei giochi dunque in un anno e mezzo le cose sono cambiate?Vabbe che io non gioco agli ultimi giochi usciti.Gioco solo a quelli che mi interessano ed ora non ce ne sono.Quando uscirà gta 6 magari sarà un altro paio di maniche :D




Dunque gli amd dopo 3 - 5 anni non cambiano più socket?Buono a sapersi non ero informato su questa faccenda :D io di solito ogni 3 anni o 5 cambio cpu(e sono passati quasi 2 anni ormai).

Amd fa così da sempre. Prima di cambiare il socket e farti cambiare mobo passano anni e soprattutto deve esserci un reale motivo

Spytek
06-09-2018, 08:47
Fatemi capire per favore.
Ora Cpu a 4 core stanno strette con gli ultimi titoli e che un esacore da un boost maggiore?
O sono pochissimi giochi a sfruttare 6 cpu?

edit_user_name_here
06-09-2018, 08:49
Amd fa così da sempre. Prima di cambiare il socket e farti cambiare mobo passano anni e soprattutto deve esserci un reale motivo

Vabbe ma io preferivo gli intel anche come riscaldamento tempo fa(non so ora).Ma non credo di ritornare ad amd sinceramente.Tanto io la cambio dopo anni il pc e poi, magari, bisogna cambiare anche la scheda madre per qualche novità tipo il pci 4.0 per esempio e ne faranno sempre nuovi.Dunque comprare un amd per me non ne vale la pena :)


Se qualcun altro si trova bene con amd continuasse io preferisco cosi per ora.Tanto la scheda madre io la cambio lo stesso anche perchè si può anche rompere dopo un po di tempo.Come è successo a me, una volta, non so come mai ma non partiva più.

Thunder-74
06-09-2018, 09:03
Fatemi capire per favore.
Ora Cpu a 4 core stanno strette con gli ultimi titoli e che un esacore da un boost maggiore?
O sono pochissimi giochi a sfruttare 6 cpu?

ad esempio DICE ha dichiarato che BFV è ottimizzato per i 6 core /12 thread, non di più.. LINK (https://www.techpowerup.com/247365/dice-to-dial-back-ray-tracing-eye-candy-in-battlefield-v-to-favor-performance)


Ovvio che si stanno sempre più spingendo verso l'utilizzo di più cores, ora che diventano più accessibili per tutti, ma sopratutto che le console incominciano ad averne

devil_mcry
06-09-2018, 09:09
Si ma gli 8 core delle console sono patetici come potenza ... rapportati al mondo desktop.

Spytek
06-09-2018, 09:10
Dannate specifiche bluray 4k e Powerdvd che mi hanno fatto vendere un ottimo 3930K che tenevo in daily a 4,5 ghz :rolleyes:
Vabbè,se l’anno prossimo i titoli che utilizzeranno 6 core aumenteranno cambio piattaforma...

Thunder-74
06-09-2018, 09:16
Si ma gli 8 core delle console sono patetici come potenza ... rapportati al mondo desktop.

si, ma il punto è la programmazione che tiene conto dell'ultilizzo di più cores/threads per la ripartizione delle operazioni da svolgere.

Comunque da quello che sembra, 4 cores con BFV sono veramente stretti in FHD e sembra beneficiare anche degli 8 cores/16 threads:

https://i.imgur.com/aDPRf6B.jpg


ovvio che se si sale di res, il tutto diventa più gestibile per un quad cores..

Spytek
06-09-2018, 09:29
ovvio che se si sale di res, il tutto diventa più gestibile per un quad cores..
Quindi se si gioca in 4K un 7700K non dovrebbe fare da collo di bottiglia nemmeno con i prossimi giochi che useranno 6 core,giusto?
Il problema si ripresenterebbe con risoluzioni più basse?

edit_user_name_here
06-09-2018, 09:34
Si ma solo se si vuole avera tantissimi fps.In poche parole non arriverai sotto i 60 fps per colpa della cpu da quanto ho capito :) parlo a basse risoluzione in full hd.

Thunder-74
06-09-2018, 09:34
Quindi se si gioca in 4K un 7700K non dovrebbe fare da collo di bottiglia nemmeno con i prossimi giochi che useranno 6 core,giusto?
Il problema si ripresenterebbe con risoluzioni più basse?

si, ha un impatto nettamente minore, perché sarà la GPU il collo di bottiglia.
Poi si possono fare discorsi sui frames minimi, dove sono stati ravveduti miglioramenti con cpu che hanno 6/8 cores.

Iceman69
06-09-2018, 09:46
Quindi se si gioca in 4K un 7700K non dovrebbe fare da collo di bottiglia nemmeno con i prossimi giochi che useranno 6 core,giusto?
Il problema si ripresenterebbe con risoluzioni più basse?

No, ci sono punti nei giochi in cui anche a 4k il collo di bottiglia è la CPU, sono quelli per esempio in cui la AI è molto complessa perchè ci sono molti avversari contemporaneamente gestiti dalla CPU, oppure nei giochi con una fisica comlessa demandata alla CPU (tanti oggetti che si rompono ecc).

Poi chiaro che se il limite della CPU è 30 FPS e quello della GPU 20 FPS il limite è la GPU, ma con le 1080ti e a maggior ragione con le 2080ti anche in 4k i 60 FPS si prendono, quindi la CPU fa da tappo anche a 4k. Era quello che capitava a me con il 4770k, io setto sempre i dettagli grafici in modo da garntirmi i 100 FPS, ma nei punti in cui il collo di bottiglia era la CPU abbassare i dettagli non serviva a nulla.

sertopica
06-09-2018, 09:51
Vero, basta vedersi il video di linustechtips postato recentemente. A 4k si hanno prestazioni notevolmente superiori all'aumento di cores o fra architettura amd ed intel, tipo GTAV. E' stato inoltre detto che per usare al meglio rtx sarebbe preferibile avere una cpu 6 cores. Volenti o nolenti prima o poi staranno strette le cpu 4 core/8 threads.

edit_user_name_here
06-09-2018, 09:56
No, ci sono punti nei giochi in cui anche a 4k il collo di bottiglia è la CPU, sono quelli per esempio in cui la AI è molto complessa perchè ci sono molti avversari contemporaneamente gestiti dalla CPU, oppure nei giochi con una fisica comlessa demandata alla CPU (tanti oggetti che si rompono ecc).

Poi chiaro che se il limite della CPU è 30 FPS e quello della GPU 20 FPS il limite è la GPU, ma con le 1080ti e a maggior ragione con le 2080ti anche in 4k i 60 FPS si prendono, quindi la CPU fa da tappo anche a 4k. Era quello che capitava a me con il 4770k, io setto sempre i dettagli grafici in modo da garntirmi i 100 FPS, ma nei punti in cui il collo di bottiglia era la CPU abbassare i dettagli non serviva a nulla.

Beh si mi ricordo un gioco chiamato mount e blade che, secondo me, è più richiesta la cpu che gpu infatti quando ci sono tanti soldati rallenta parecchio(non ho provato con il six core però).

edit_user_name_here
06-09-2018, 09:56
Scusate post doppio :) mai successo :asd:

Nhirlathothep
06-09-2018, 10:13
era ora che il mio 6core del 2012 servisse a qualcosa! :) (3970x)
per tanti anni non ha mai superato il 20% di utilizzo

Thunder-74
06-09-2018, 10:22
E' innegabile però, che all'aumentare della risoluzione, diminuisce l'impatto della CPU rispetto alla GPU in modo più che proporzionale.
Poi ci sono motori grafici particolarmente CPU dipendenti tipo GTA, ma in linea di massima è così

Vul
06-09-2018, 10:25
E' ovvio che gestire 200 draw calls al secondo è diverso da gestirne 60.

Se state a 4k 60 fps la cpu avrà poco impatto ancora per un po..Immensamente meno della gpu a prescindere.

fabietto27
06-09-2018, 10:26
Che è?Off Topic Day?🤔

Inviato dal vivavoce della mia Daf Variomatic

Vul
06-09-2018, 10:28
Si ma gli 8 core delle console sono patetici come potenza ... rapportati al mondo desktop.

Non è importante. Il punto è quanto riesci a rendere parallelo o asincrono.

Le console devono sfornare 30/60 fps al secondo, la cpu non è molto rilevante sulle prestazioni a questi fps, soprattutto nelle console dove l'architettura è diversa e c'è poco cpu overhead con api di livello più basso di quelle pc.

Spytek
06-09-2018, 10:39
Grazie ragazzi per le risposte. :)

techsaskia
06-09-2018, 10:48
Vabbe ma io preferivo gli intel anche come riscaldamento tempo fa(non so ora).Ma non credo di ritornare ad amd sinceramente.Tanto io la cambio dopo anni il pc e poi, magari, bisogna cambiare anche la scheda madre per qualche novità tipo il pci 4.0 per esempio e ne faranno sempre nuovi.Dunque comprare un amd per me non ne vale la pena :)


Se qualcun altro si trova bene con amd continuasse io preferisco cosi per ora.Tanto la scheda madre io la cambio lo stesso anche perchè si può anche rompere dopo un po di tempo.Come è successo a me, una volta, non so come mai ma non partiva più.

ora gli intel sono tutti con la pasta del dentifricio mentre gli AMD sono tutti saldati.

edit_user_name_here
06-09-2018, 11:11
ora gli intel sono tutti con la pasta del dentifricio mentre gli AMD sono tutti saldati.

Di questione cosi tecniche non me ne intendo purtroppo :D sono più per i videogiochi che appassionato di hardware :)

ilcose
06-09-2018, 11:18
ora gli intel sono tutti con la pasta del dentifricio mentre gli AMD sono tutti saldati.La serie 9xxx dovrebbe grazie a dio tornare ad essere saldata.

Inviato dal mio ZTE A2017G utilizzando Tapatalk

Arrow0309
06-09-2018, 11:22
ora gli intel sono tutti con la pasta del dentifricio mentre gli AMD sono tutti saldati.

Scoperchiarli con i kit appositamente che si trovano ormai vari modelli e dappertutto è diventato un gioco da ragazzi. Se non ci arrivi manco così ti dovrai fa assemblare il pc da un'altro.
Ed anche così puoi fartelo deliddare online da (sempre più) shop specializzati per poche decine di Euro.
Ed hai le prestazioni migliori sempre (ovv costano più dei AMD).
Ma ste scuze che ti inventi te non si possono più sentire.

La serie 9xxx dovrebbe grazie a dio tornare ad essere saldata.

Inviato dal mio ZTE A2017G utilizzando Tapatalk

Oppure si, ci si aspetta la prossima gen
Io parlavo anche dei hedt

Vul
06-09-2018, 11:31
I 99xx dovrebbero essere tutti saldati comunque, non servirà deliddarli.

Arrow0309
06-09-2018, 11:34
I 99xx dovrebbero essere tutti saldati comunque, non servirà deliddarli.
Questo lo sappiamo da mesi ormai, grazie. ;)

techsaskia
06-09-2018, 11:34
Scoperchiarli con i kit appositamente che si trovano ormai vari modelli e dappertutto è diventato un gioco da ragazzi. Se non ci arrivi manco così ti dovrai fa assemblare il pc da un'altro.
Ed anche così puoi fartelo deliddare online da (sempre più) shop specializzati per poche decine di Euro.
Ed hai le prestazioni migliori sempre (ovv costano più dei AMD).
Ma ste scuze che ti inventi te non si possono più sentire.
Oppure si, ci si aspetta la prossima gen
Io parlavo anche dei hedt

beh si scoperchiare un processore è proprio una cosa bella da fare, sopratutto perchè si perde la garanzia subito subito :D

Arrow0309
06-09-2018, 11:43
beh si scoperchiare un processore è proprio una cosa bella da fare, sopratutto perchè si perde la garanzia subito subito :D
Visto che fai il sapientone sappi che scoperchiai la mia prima 3770K a morsa e martello, veramente.
Poi dopo qualche mese, seppur 100% funzionante pure in oc @4.8ghz AD ARIA, solo perché mi sono girati glico;
L'ho mandato in rma ad Intel (anche previa chat con loro) ed ho avuto uno novo in 3 giorni che poi ho scoperchiato a lametta e tessera stavolta (tanto per cambiare). ;)

OT out (e scuse a tutti quanti per la polemica)

scorpion73
06-09-2018, 11:52
Visto che fai il sapientone sappi che scoperchiai la mia prima 3770K a morsa e martello, veramente.
Poi dopo qualche mese, seppur 100% funzionante pure in oc @4.8ghz AD ARIA, solo perché mi sono girati glico;
L'ho mandato in rma ad Intel (anche previa chat con loro) ed ho avuto uno novo in 3 giorni che poi ho scoperchiato a lametta e tessera stavolta (tanto per cambiare). ;)

OT out (e scuse a tutti quanti per la polemica)

E ti ha detto fortuna perché legalmente se tu manometti il procio la garanzia decade per cui qualora se ne accorgano, o qualora lo sappiano e gli giri storto ti attacchi e ti compri una nuova CPU.
La tua esperienza è stata questione singola ma non vale come regola ufficiale, per cui se deliddi in garanzia lo fai a tuo rischio e pericolo.
A meno che lo shop che ti delidda ti offra lui stesso la garanzia ma se lo fai da solo è così.
Per cui la saldatura è una buona scusa per poter dire che è meglio aspettare la serie 9 (che poi è quel che sto facendo io per aggiornare il mio 6700k).

tuketo
06-09-2018, 11:53
Se si entra nel campo di fare altro oltre al gioco il discorso cambia radicalmente.



AMD ha detto chiaramente che cambieranno socket solo quando passeranno alle DDR5.



Sono pochi i giochi che sfruttano oggi un 6 core e i 4 core vanno ancora strabene.
Ma se devi comprare oggi una CPU nuova tanto vale comprare almeno un 6 core visto che partono da 150€ (ryzen 5 2600 liscio)

Anche perché PURTROPPO i motori grafici attuali devono essere compatibili ANCORA con i dual core.
Già passare a 4 core minimi sarebbe tanta roba.

tuketo
06-09-2018, 11:59
Intanto Dice ci dice che: https://www.techpowerup.com/247365/dice-to-dial-back-ray-tracing-eye-candy-in-battlefield-v-to-favor-performance

Praticamente hanno fatto il demo tutto bello sbrilluccicoso con riflessi ultrariflettenti ma adesso fanno riflettere meno le cose che riflettono troppo per non farle pesare troppo. :asd:

Prossimamente se AMD lo vuole potranno integrare effetti in DXT anche con hw AMD (che hw mi dico io?).

Niente supporto SLI :asd:
Supporto per CPU fino a 6 core / 12 thread.

Perché prima c'era? :D :D :D :D :D

edit_user_name_here
06-09-2018, 12:00
Se si entra nel campo di fare altro oltre al gioco il discorso cambia radicalmente.



AMD ha detto chiaramente che cambieranno socket solo quando passeranno alle DDR5.



Sono pochi i giochi che sfruttano oggi un 6 core e i 4 core vanno ancora strabene.
Ma se devi comprare oggi una CPU nuova tanto vale comprare almeno un 6 core visto che partono da 150€ (ryzen 5 2600 liscio)

Ah grazie per la notizia :) anche se non so quando arrivano i ddr 5.So soltanto che arriveranno i 4.0 pcie tra non molto.

Per la cpu per ora sarei apposto allora :)

DJurassic
06-09-2018, 12:06
Intanto Dice ci dice che: https://www.techpowerup.com/247365/dice-to-dial-back-ray-tracing-eye-candy-in-battlefield-v-to-favor-performance

Praticamente hanno fatto il demo tutto bello sbrilluccicoso con riflessi ultrariflettenti ma adesso fanno riflettere meno le cose che riflettono troppo per non farle pesare troppo. :asd:

Prossimamente se AMD lo vuole potranno integrare effetti in DXT anche con hw AMD (che hw mi dico io?).

Niente supporto SLI :asd:
Supporto per CPU fino a 6 core / 12 thread.

Possono mettere tutti i riflessi che vogliono. Provata la beta ci si rende conto in che condizioni penose è tutto il resto.

Thunder-74
06-09-2018, 12:35
Intanto Dice ci dice che: https://www.techpowerup.com/247365/dice-to-dial-back-ray-tracing-eye-candy-in-battlefield-v-to-favor-performance

Praticamente hanno fatto il demo tutto bello sbrilluccicoso con riflessi ultrariflettenti ma adesso fanno riflettere meno le cose che riflettono troppo per non farle pesare troppo. :asd:

Prossimamente se AMD lo vuole potranno integrare effetti in DXT anche con hw AMD (che hw mi dico io?).

Niente supporto SLI :asd:
Supporto per CPU fino a 6 core / 12 thread.



Lo Sli non è supportato sulla demo, sul gioco finito credo di sì. Fu così anche con BF1


Inviato dal mio iPhone X utilizzando Tapatalk

amon.akira
06-09-2018, 12:47
Prossimamente se AMD lo vuole potranno integrare effetti in DXT anche con hw AMD (che hw mi dico io?).


ottimizzano per nvidia perchè al momento è l unica con hardware dedicato, e senza sarebbe impossibile, ma ovviamente dicono che qualora amd decida di implementare anche lei hardware dedicato gli daranno il supporto al momento, perchè per loro è impossibile ottimizzarlo a priori.

Bestio
06-09-2018, 12:53
Se ci fossero monitor oled costerebbero un botto :D e probabile non li comprerei per quel motivo.Ovvero costano troppo :asd: ovviamente intendo con incluso 4k,120 hz e g sync :)

Ma perchè bisogna insistere con sti stramaledetti "monitor" che costano come il sangue, quando ci sono TV che possono svolgere le stesse funzioni (sopratutto per chi lo utilizza principalmente per gaming e multimedia) e anche molto meglio, grazie a pannello dalle caratteristiche decisamente superiori, (come OLED e Local Dimming avanzati), e alti polliciaggi che dal mio punto di vista aumentano notevolmente il coinvolgimento rispetto ad un "minuscolo" 27''?

Io sinceramente da quando ho visto un LG B6V in azione, non riesco più a giocare sul mio "misero" 32'' 1440p 144hz Freesync, senza provare ribrezzo, sto cercando di tenere duro fino all'uscita di TV OLED con HDMI 2.1 che supportino i 2160è@120hz con Variable Refresh Rate, ma se sono obbligato a scegliere sono anche disposto a rinunciare ai 120hz ed al VRR piuttosto che a giocare su un OLED.

Percui se nVidia proprio non ne vorrà sapere di implementare il VRR per vendere i suoi stramaledetti monitor a prezzi stratosferici, nel mio futuro vedo solo AMD, anche a costo di giocare alla metà degli FPS, ma su un OLED 65''!

techsaskia
06-09-2018, 13:11
Sì però, GTAV... faceva cagare era tecnicamente discutibile anche appena uscito, ormai è vecchio di mille anni ma ancora qualcuno lo usa per "dimostrare" cose che con quasi tutti gli altri giochi non sono vere... cioè, siamo ai limiti della pseudoinformazione.

concordo

edit_user_name_here
06-09-2018, 13:20
Ma perchè bisogna insistere con sti stramaledetti "monitor" che costano come il sangue, quando ci sono TV che possono svolgere le stesse funzioni (sopratutto per chi lo utilizza principalmente per gaming e multimedia) e anche molto meglio, grazie a pannello dalle caratteristiche decisamente superiori, (come OLED e Local Dimming avanzati), e alti polliciaggi che dal mio punto di vista aumentano notevolmente il coinvolgimento rispetto ad un "minuscolo" 27''?

Io sinceramente da quando ho visto un LG B6V in azione, non riesco più a giocare sul mio "misero" 32'' 1440p 144hz Freesync, senza provare ribrezzo, sto cercando di tenere duro fino all'uscita di TV OLED con HDMI 2.1 che supportino i 2160è@120hz con Variable Refresh Rate, ma se sono obbligato a scegliere sono anche disposto a rinunciare ai 120hz ed al VRR piuttosto che a giocare su un OLED.

Percui se nVidia proprio non ne vorrà sapere di implementare il VRR per vendere i suoi stramaledetti monitor a prezzi stratosferici, nel mio futuro vedo solo AMD, anche a costo di giocare alla metà degli FPS, ma su un OLED 65''!

Il tv hanno molto più input lag sui giochi frenetici te ne accorgi con monitor vicini o dopo tanti test.Anche un mio amico aveva un tv ed è andato sul monitor.

Cmq io non ho un 27 pollici ma un 34 ma passerò al 65 pollici come monitor l'anno prossimo :) local dimming ora non mi interessa costano troppo.E non ci sono come monitor.


Se tu vuoi restare al tv resta pure io vincerò meglio sul monitor e vedo prima sparare :D

parenzo
06-09-2018, 13:26
Il tv hanno molto più input lag sui giochi frenetici te ne accorgi con monitor vicini o dopo tanti test.Anche un mio amico aveva un tv ed è andato sul monitor.

Cmq io non ho un 27 pollici ma un 34 ma passerò al 65 pollici come monitor l'anno prossimo :) local dimming ora non mi interessa costano troppo.E non ci sono come monitor.


Se tu vuoi restare al tv resta pure io vincerò meglio sul monitor e vedo prima sparare :D

Questo forum dovrebbe chiamarsi Hwdowngrade: Tv per giocare al pc, AMD (con ipc e frequenze di 5 anni fa) meglio di Intel perche' costa meno e quindi i benchmark sono contraffatti, Nvidia cattiva perche' cerca di innovare qcosa dopo 10 anni, la VR che schifo meglio il 2D :sofico:

techsaskia
06-09-2018, 13:28
Il tv hanno molto più input lag sui giochi frenetici te ne accorgi con monitor vicini o dopo tanti test.Anche un mio amico aveva un tv ed è andato sul monitor.

Cmq io non ho un 27 pollici ma un 34 ma passerò al 65 pollici come monitor l'anno prossimo :) local dimming ora non mi interessa costano troppo.E non ci sono come monitor.


Se tu vuoi restare al tv resta pure io vincerò meglio sul monitor e vedo prima sparare :D

i 65 non sono monitor, sono TV, roba inusabile per un uso PC.

Alastre
06-09-2018, 13:34
i 65 non sono monitor, sono TV, roba inusabile per un uso PC.

Beh, sul mio 55" in salotto ci gioco a di tutto (ci navigo, ci lavoro etc)...non tornerei mai su un monitor manco mi pagassero...sono un fortunato possessore di un LG B6V e godermi titoli in 4k con HDR (F1 2018, Far Cry 5, AC Origins etc) non ha prezzo..roba di un altro livello. Input lag vicino al nulla assoluto, poi io ci gioco pochissimo online agli fps, anzi tolto Halo sulla One quasi a nulla...poi ci mancherebbe, sono gusti, a ognuno il suo! :)

Vul
06-09-2018, 13:38
Questo forum dovrebbe chiamarsi Hwdowngrade: Tv per giocare al pc, AMD (con ipc e frequenze di 5 anni fa) meglio di Intel perche' costa meno e quindi i benchmark sono contraffatti, Nvidia cattiva perche' cerca di innovare qcosa dopo 10 anni, la VR che schifo meglio il 2D :sofico:

Hai perso un occasione per contare a dieci.

Impressionante la quantità di assurdità che hai detto in due righe.

techsaskia
06-09-2018, 13:39
Il tv hanno molto più input lag sui giochi frenetici te ne accorgi con monitor vicini o dopo tanti test.Anche un mio amico aveva un tv ed è andato sul monitor.

Cmq io non ho un 27 pollici ma un 34 ma passerò al 65 pollici come monitor l'anno prossimo :) local dimming ora non mi interessa costano troppo.E non ci sono come monitor.


Se tu vuoi restare al tv resta pure io vincerò meglio sul monitor e vedo prima sparare :D

i 65 non sono monitor, sono TV, roba inusabile per un uso PC.
poi il monitor è una cosa dove si può leggere perchè

melo86
06-09-2018, 13:41
Anche perché PURTROPPO i motori grafici attuali devono essere compatibili ANCORA con i dual core.
Già passare a 4 core minimi sarebbe tanta roba.

beh, possono sempre fare dei motori che girano su quattro thread, poi sta al processore distribuirli sui core disponibili... Io ho il problema inverso, ho un i7 5820k ma in pratica sfrutta sempre e solo un core :mad:

Vul
06-09-2018, 13:45
i 65 non sono monitor, sono TV, roba inusabile per un uso PC.
poi il monitor è una cosa dove si può leggere perchè

*

Io questa rincorsa ai pollici la vedo assolutamente assurda.

Fatevi degli htpc e attaccateli al tv in salotto, io faccio fatica a tenere un monitor da 27" sulla mia scrivania che mi pare enorme e l'ho dovuto spostare ad oltre 70 centimetri...

Sono dieci anni che la procedura è: compra monitor più grande, mettilo più lontano, ciecati sempre di più col testo, spostalo avanti e indietro con l'utilizzo.

Riprendi monitor più grande, mettilo più lontano, fatica sempre di più col testo.

Riprendi monitor più grande, prendi scrivania più grande, mettilo più lontano, fatica sempre di più col testo...

techsaskia
06-09-2018, 13:48
beh, possono sempre fare dei motori che girano su quattro thread, poi sta al processore distribuirli sui core disponibili... Io ho il problema inverso, ho un i7 5820k ma in pratica sfrutta sempre e solo un core :mad:

ma non è che funziona così per niente, non ci riesce un software a distribuire i calcoli figuriamoci un processore che è molto molto molto "più stupido".
ci sono dei calcoli che sono parallelizzabili in hardware, altri no.

questo discorso è molto più semplice sulle GPU, sulle CPU non ci pensare proprio.

techsaskia
06-09-2018, 13:53
Questo forum dovrebbe chiamarsi Hwdowngrade: Tv per giocare al pc, AMD (con ipc e frequenze di 5 anni fa) meglio di Intel perche' costa meno e quindi i benchmark sono contraffatti, Nvidia cattiva perche' cerca di innovare qcosa dopo 10 anni, la VR che schifo meglio il 2D :sofico:

sul discorso TV lo capisco, sul discorso AMD no.
sinceramente i nuovi threadripper hanno un IPC migliore del mio 5930K di 4 anni fa pur andando almeno 3 volte in + sul multithreading (senza scomodare i threadripper workstation, parlo dei threadripper enthusiast/gaming).

è intel che vende un 5% in più sull'IPC ogni 2 anni con le stesse performance in multithreading di sempre.

per te il forum si dovrebbe chiamare 1080Pgamingupgrade...
tanto ormai intel va meglio solo sui giochi a 1080P :sofico:

edit_user_name_here
06-09-2018, 14:01
Vorrei spezzare una lancia a favore delle tv anche se non giocherò mai su una tv e provo ribrezzo solo a pensarci.
Con HDMI 2.1 si è fatto un enorme passo avanti perchè sono state introdotte molte novità appositamente per il gaming.
Le due principali sono il VRR che può essere usato come veicolo per freesync (teoricamente anche per gsync ma figurati se Nvidia lo fa) e QFR che riduce l'input lag.

Io continuo a preferire il monitor per l'input lag :) chiedo scusa gli altri se non rispondo ma devo dire la verità.Non vi sto capendo na mazza di quello che volete dire :D

Nhirlathothep
06-09-2018, 14:07
gente dai, si sa che dipende dal gioco, se siete progamer di csgo (o anche overwatch ) la tv nemmeno in regalo la vorreste, se giocate a tw3 meglio una bella tv oled 65

techsaskia
06-09-2018, 14:17
gente dai, si sa che dipende dal gioco, se siete progamer di csgo (o anche overwatch ) la tv nemmeno in regalo la vorreste, se giocate a tw3 meglio una bella tv oled 65

per me quando uno arriva a giocare sul PC su una TV tanto vale farsi una console.
il PC sulla TV è inusabile, non si può leggere, scrivere, studiare, fare niente su una TV se non appunto consumare contenuti multimediali.

TigerTank
06-09-2018, 14:37
Ti sei dimenticato il monitor Full HD al posto di quello 4K per poter usare le nuove tecnologie

Però questa è veritiera se consideriamo il discorso RT di prima generazione :sofico:

Arrow0309
06-09-2018, 14:55
Mah, sarò strano io, ma ad Assetto Corsa gioco sul TV, si ok ho una signor TV (lg55b7v) e arrivavo comunque da un IPS...

Un signor TV veramente, lo stavo quasi per prendere anch'io ma poi per motivi di larghezza (diagonale) e prezzo (trovato buono) ho ripiegato su un Samsung da 49" Q7F (2017).
Cmq si vede da Dio su queste TV Oled (anche Qled) non solo per l'ottima resa dei colori, neri perfetti e zero clouding al buio in HDR ma anche per i loro tempi di risposta quasi a zero:

https://www.rtings.com/tv/tests/motion/motion-blur-and-response-time

L'unica limitazione lato pc Gaming è forse l'assenza del gsync (mentre molti modelli top di gamma 2018 hanno già il Freesync). :cool:

per me quando uno arriva a giocare sul PC su una TV tanto vale farsi una console.
il PC sulla TV è inusabile, non si può leggere, scrivere, studiare, fare niente su una TV se non appunto consumare contenuti multimediali.

Mi sa che sei rimasto indietro una cifra pure con le TV. :doh:

Arrow0309
06-09-2018, 15:23
Infatti ho premesso che io continuerò ad usare il monitor :D

Volevo solo far notare che anche nel mondo tv si comincia a muovere qualcosa per il gaming, sappiatelo per informazione generale.
E poi è presto per valutare la cosa visto che tv con hdmi 2.1 ce ne sono pochissime e vga per usarlo ce ne sono zero.

Oh e visto che Nvidia sta presentando i monitor gsync big polliciaggio a millemila euro, sappiate che quando ci saranno schede hdmi 2.1 con VRR basterà una tv.

Presto senza reni o altri organi principali diventeremo mezzi cyborg, "enhanced" come nel qualche film o serie fantascientifica. :D

edit_user_name_here
06-09-2018, 15:32
Io preferisco il monitor per via del g sync anche.Se no oltre all'input lag ci sta anche il v sync a laggare :asd:


Edit: Fixato errori.

Bestio
06-09-2018, 16:07
Il tv hanno molto più input lag sui giochi frenetici te ne accorgi con monitor vicini o dopo tanti test.Anche un mio amico aveva un tv ed è andato sul monitor.

Cmq io non ho un 27 pollici ma un 34 ma passerò al 65 pollici come monitor l'anno prossimo :) local dimming ora non mi interessa costano troppo.E non ci sono come monitor.


Se tu vuoi restare al tv resta pure io vincerò meglio sul monitor e vedo prima sparare :D

Io voglio semplicemente giocare e divertirmi, con la maggior qualità audio-visiva possibile.

Il competitivo non mi interessa assolutamente, dato che non ho alcun desiderio di sopraffazione, che ritengo sia uno dei mali dell'umanità. :p

Poi anche io ho provato un monitor G-Sync (PG279q), e ne ho visto i benefici certo, ma nemmeno lontanamente compensavano l'enorme senso di fastidio che mi dava quello schifo di pannello con nero imbarazzante e pieno di BLB, percui l'ho rispedito al mittente.

gente dai, si sa che dipende dal gioco, se siete progamer di csgo (o anche overwatch ) la tv nemmeno in regalo la vorreste, se giocate a tw3 meglio una bella tv oled 65

Esatto, e quei giochi non li giocherei nemmeno sotto tortura.
Io stavo giocando a AC-Origins sul mio AG322QCX quando l'ho provato a casa dell'amico con il B6V in 4k/HDR...
Beh da quel momento non sono proprioo più riuscito a giocarlo sul monitor, non ho potuto fare altro che metterlo in pausa in attesa di comprarmi il mio OLED!

Io preferisco il monitor per via del g sync anche.Se no oltre all'input lag ci sta anche il v sync a laggare :asd:


Edit: Fixato errori.

Se giochi realmente competitivo non usi nemmeno il G-Sync, dato che anche quello introduce input lag, seppur meno del V-Sync.

http://pclab.pl/zdjecia/artykuly/chaostheory/2014/08/nv_gsync/charts/gsync_lag_130fps.png

Thunder-74
06-09-2018, 16:30
Come diceva il buon Fabietto questa mattina, oggi sembra il OT Day..
Posto articoletto sul sistema ventole della Gigabyte adottato sulla RTX

https://www.overclock3d.net/news/gpu_displays/gigabyte_showcases_alternate_spinning_fan_tech_for_their_rtx_20_series_gpus/1


Inviato dal mio iPhone X utilizzando Tapatalk

melo86
06-09-2018, 16:42
ma non è che funziona così per niente, non ci riesce un software a distribuire i calcoli figuriamoci un processore che è molto molto molto "più stupido".
ci sono dei calcoli che sono parallelizzabili in hardware, altri no.

questo discorso è molto più semplice sulle GPU, sulle CPU non ci pensare proprio.

Mi riferivo al commento riguardo il bisogno di mantenere compatibilità con i dual core, non è vero quattro thread non possono girare su due core, funzionerebbe comunque.
Non hai capito cosa intendevo comunque... se sviluppi un motore che gira su quattro thread diversi, non è il processore a distribuire i calcoli. Il processore è stupido, esegue i threads e basta. Però se ha 4 unità disponibili e 4 thread da eseguire, almeno li divide bene, non è così tanto stupido

Bestio
06-09-2018, 16:58
Ma infatti il mio problema non è che monitor/TV abbinare alla RTX, ma che scheda video abbinare ad una (futura) TV OLED UHD@120Hz con VRR.

Ma il problema è la GPU che mi serve non esiste, dato che nVidia non supporterà mai (anche se mai dire mai...) il VVR dello standard VESA HDMI 2.1, e AMD non produrrà mai più (ripeto ma mai dire mai...) una GPU in grado di rivaleggiare con le top di gamma nVidia, e sopratutto gestire un 4k@120hz.

E credetemi sta cosa mi fa davvero inc. abbestia!! :muro: :nera: :ncomment: :incazzed:

techsaskia
06-09-2018, 16:58
Mi riferivo al commento riguardo il bisogno di mantenere compatibilità con i dual core, non è vero quattro thread non possono girare su due core, funzionerebbe comunque.
Non hai capito cosa intendevo comunque... se sviluppi un motore che gira su quattro thread diversi, non è il processore a distribuire i calcoli. Il processore è stupido, esegue i threads e basta. Però se ha 4 unità disponibili e 4 thread da eseguire, almeno li divide bene, non è così tanto stupido

invece è ancora più stupido, se ha 4 thread e 8 da eseguire, quella gestione viene fatta dal sistema operativo.
un processore ha sempre più thread da eseguire di quelli di cui dispone.
prova a guardare sul task manager di windows, ci sono decine e decine di thread, tutti leggeri ma cmq non è il processore che si smazza i thread ma il SO.

edit_user_name_here
06-09-2018, 17:04
Io voglio semplicemente giocare e divertirmi, con la maggior qualità audio-visiva possibile.

Il competitivo non mi interessa assolutamente, dato che non ho alcun desiderio di sopraffazione, che ritengo sia uno dei mali dell'umanità. :p

Poi anche io ho provato un monitor G-Sync (PG279q), e ne ho visto i benefici certo, ma nemmeno lontanamente compensavano l'enorme senso di fastidio che mi dava quello schifo di pannello con nero imbarazzante e pieno di BLB, percui l'ho rispedito al mittente.



Esatto, e quei giochi non li giocherei nemmeno sotto tortura.
Io stavo giocando a AC-Origins sul mio AG322QCX quando l'ho provato a casa dell'amico con il B6V in 4k/HDR...
Beh da quel momento non sono proprioo più riuscito a giocarlo sul monitor, non ho potuto fare altro che metterlo in pausa in attesa di comprarmi il mio OLED!



Se giochi realmente competitivo non usi nemmeno il G-Sync, dato che anche quello introduce input lag, seppur meno del V-Sync.

http://pclab.pl/zdjecia/artykuly/chaostheory/2014/08/nv_gsync/charts/gsync_lag_130fps.png

Io voglio divertirmi ed è proprio per questo che non voglio nessun lag.Con il lag ho già provato mi sembra di essere ubriaco con quel ritardo XD poi al livello competitivo è ancora peggio ma non vuol dire che solo va bene al livello competitivo.Era solo un esempio.

Cmq forse avrai visto pannelli brutti i pannelli nuovi g sync, quelli costosi, sono nettamenta migliori dei ips economici e vanno più che bene.

Al riguardo competitivo io non sono un pro player ma cmq gioco a giochi frenetici ma il g sync lo preferisco.C'è gente che non lo preferisce ma io lo preferisco proprio perchè cerco una via di mezzo tra competitivo ed accettabile :)


A me sinceramente piace anche giocare bene e non venire arato senza pietá altrimenti proprio non mi diverto. Poi una sana competizione non ha mai ucciso nessuno :D

Appunto :asd: conosco gente che diceva che con i tv non vedevano neanche sparare il nemico ed era già morto e passando al monitor normale era tutto un altro mondo.Prima era uno che giocava a gta con il tv per rilassarti poi, passando al competitivo, su rainbowsix siege ha cambiato al monitor :)

Con questo voglio dire che consigliare un tv senza sapere che target è la persona e dire che il tv è nettamente meglio non è corretto secondo me ;) e cmq i tv buoni costano lo stesso tanto.Non te la cavi con 500 euro.



Edit: Comunque confronto ai economici ips quello che ho avuto io un rog da oltre 1000 euro era buono confronto al mio vecchio samsung che aveva i neri proprio da obrobrio(che tempo fa costava 1000 anche lui).Per questo lo dico io gli ips economici che ho avuto anche quelli.Per non parlare dell'input lag da aggiungere al v sync poi :D

traider
06-09-2018, 17:11
GDDR6 samsung solo per le quadro , per le RTX micron :

https://www.tomshw.it/nvidia-scelto-gddr6-micron-le-geforce-rtx-97307

.

melo86
06-09-2018, 17:15
invece è ancora più stupido, se ha 4 thread e 8 da eseguire, quella gestione viene fatta dal sistema operativo.
un processore ha sempre più thread da eseguire di quelli di cui dispone.
prova a guardare sul task manager di windows, ci sono decine e decine di thread, tutti leggeri ma cmq non è il processore che si smazza i thread ma il SO.

più o meno, c'è anche l'hyperthreading che è a livello hardware, e riesce a smazzare differenti threads autonomamente.. ma questo è ancora più offtopic (e lo siamo già di molto). Comunque, il succo è che puoi avere più threads che core e tutto continua a funzionare, quindi la parallelizzazione dei motori di gioco non è bloccata dai dual core in circolo

TigerTank
06-09-2018, 17:22
Come diceva il buon Fabietto questa mattina, oggi sembra il OT Day..
Posto articoletto sul sistema ventole della Gigabyte adottato sulla RTX

https://www.overclock3d.net/news/gpu_displays/gigabyte_showcases_alternate_spinning_fan_tech_for_their_rtx_20_series_gpus/1


Inviato dal mio iPhone X utilizzando Tapatalk

Mmm mah....secondo me invece in qualità di tri-slot dovrebbero ideare un dissipatore dove le 2-3 ventole siano leggermente inclinate, in modo da forzare l'aria verso l'esterno del case(come fa il blower), ovviamente con sotto un dissipatore con alette per la lunga che incanalino tale flusso leggermente "trasversale".
Non so se rendo l'idea :D

Bestio
06-09-2018, 17:25
Sarà che io non gioco competitivo e non ho certo più i riflessi di un quindicenne, ma davvero non riesco a percepire la differenza di input lag tra il mio monitor da 5.61 ms, la TV da 21.4 ms, e il proiettore, che non ho idea di quanto input lag abbia, ma avendo 10 anni non sarà certo dei migliori.

Mentre la differenza tra un pannello OLED ed un qualsiasi VA/IPS/TN la vedo eccome, ed il confronto è impietoso, tanto che non riesco più a guardare un TFT senza provare una sensazione di fastidio! :cry:

Poi ovviamente ognuno è libero di giocare come meglio crede, c'è chi ancora oggi gioca su monitor CRT in 800x600 a dettagli minimi per avere il minor input lag possibile.

Ma anche io vorrei aver la possibilità di giocare al meglio su un pannello come si deve con variable refresh rate, ma purtroppo ad oggi non è possibile. (e nemmeno nell'imediato domani)

Poi sono anche io curioso di vedere come sarà e quanto costerà il 65'' Gsync, ma se costerà il doppio di una TV OLED con uno scrauso pannello VA, sarà veramente l'ennesima presa per il :ciapet:

Thunder-74
06-09-2018, 17:35
Per quelli che dicono che lo Sli è morto, usando il profilo di BF1, BFV gira benissimo...
Mio screen....

https://uploads.tapatalk-cdn.com/20180906/196d5e0e548f8614e88a8b765c66ec9a.jpg


Inviato dal mio iPhone X utilizzando Tapatalk

edit_user_name_here
06-09-2018, 17:38
Sarà che io non gioco competitivo e non ho certo più i riflessi di un quindicenne, ma davvero non riesco a percepire la differenza di input lag tra il mio monitor da 5.61 ms, la TV da 21.4 ms, e il proiettore, che non ho idea di quanto input lag abbia, ma avendo 10 anni non sarà certo dei migliori.

Mentre la differenza tra un pannello OLED ed un qualsiasi VA/IPS/TN la vedo eccome, ed il confronto è impietoso, tanto che non riesco più a guardare un TFT senza provare una sensazione di fastidio! :cry:

Poi ovviamente ognuno è libero di giocare come meglio crede, c'è chi ancora oggi gioca su monitor CRT in 800x600 a dettagli minimi per avere il minor input lag possibile.

Ma anche io vorrei aver la possibilità di giocare al meglio su un pannello come si deve con variable refresh rate, ma purtroppo ad oggi non è possibile. (e nemmeno nell'imediato domani)

Poi sono anche io curioso di vedere come sarà e quanto costerà il 65'' Gsync, ma se costerà il doppio di una TV OLED con uno scrauso pannello VA, sarà veramente l'ennesima presa per il :ciapet:

Ma anche io non ho più i riflessi di una volta ma se hai dei input lag, ed altri lag, è ancora peggio :asd:

Comunque gli ho visti gli oled al negozio non credo che per ora valgono la pena.Inoltre hanno anche più problemi se stanno troppo tempo accesi ho sentito un po come i plasma.

Insomma io per ora mi tengo i normali monitor :) il colore è decente quello che ho nel rog confronto ai economici monitor molto meglio di già :)

Costa sui 4000-5000 euro quei 65 ma non sono solo 4k e g sync ma hanno anche altre caratteristiche tipo 1000 nits, hdr e 120hz e poi sono di marca predator(acer), repubblic of gamers (asus) e omen (hp).Dunque marche che fanno pannelli decenti non economici :) per mia esperienza.



Edit: Anche se gli oled costeranno 2 o 3000 euro sta tranquillo che non li prenderò mai.

Bestio
06-09-2018, 17:39
Per quelli che dicono che lo Sli è morto, usando il profilo di BF1, BFV gira benissimo...
Mio screen....

https://uploads.tapatalk-cdn.com/20180906/196d5e0e548f8614e88a8b765c66ec9a.jpg


Inviato dal mio iPhone X utilizzando Tapatalk

Non dire così che poi mio torna l'idea di prendermi una seconda 1080ti ora che si cominceranno a trovare usate (dato che 1200€ per la RTX non ce li spendo)...
Per poi pentirmene amaramente quando il primo gioco che davvero mi interesserà non lo supporterà... :stordita:

Thunder-74
06-09-2018, 17:49
Mmm mah....secondo me invece in qualità di tri-slot dovrebbero ideare un dissipatore dove le 2-3 ventole siano leggermente inclinate, in modo da forzare l'aria verso l'esterno del case(come fa il blower), ovviamente con sotto un dissipatore con alette per la lunga che incanalino tale flusso leggermente "trasversale".
Non so se rendo l'idea :D

mi pare che qualcuno aveva fatto una cosa del genere...
Altra cosa strana è la MSI Gaming X Trio con 2 connettori da 8 pin e uno da 6 pin... se mai dovessero fare la Lightning, quanti ne avrà? :fagiano:

@Bestio, gira proprio bene.. schede sfruttate a palla e gioco fluido fluido.....

FroZen
06-09-2018, 18:01
mi pare che qualcuno aveva fatto una cosa del genere...
Altra cosa strana è la MSI Gaming X Trio con 2 connettori da 8 pin e uno da 6 pin... se mai dovessero fare la Lightning, quanti ne avrà? :fagiano:

@Bestio, gira proprio bene.. schede sfruttate a palla e gioco fluido fluido.....

scaling?

la singola quanto fa?

Thunder-74
06-09-2018, 18:05
scaling?



la singola quanto fa?



Ad occhi stiamo alti almeno 80%. Devo però fare dei test


Inviato dal mio iPhone X utilizzando Tapatalk

fabietto27
06-09-2018, 18:07
Come diceva il buon Fabietto questa mattina, oggi sembra il OT Day..

Inviato dal mio iPhone X utilizzando Tapatalk

https://thumbs2.imgbox.com/fd/a5/N13QW2Il_t.jpg (http://imgbox.com/N13QW2Il)

Arrow0309
06-09-2018, 18:09
GDDR6 samsung solo per le quadro , per le RTX micron :

https://www.tomshw.it/nvidia-scelto-gddr6-micron-le-geforce-rtx-97307

.

Aspettiamo Michael per un po di chiarezza sulle gddr6 delle due case principali.

mi pare che qualcuno aveva fatto una cosa del genere...
Altra cosa strana è la MSI Gaming X Trio con 2 connettori da 8 pin e uno da 6 pin... se mai dovessero fare la Lightning, quanti ne avrà? :fagiano:

Beh, pare evidente, 3x 8pin (Lightning, HOF e Kingpin) :asd:

@Bestio, gira proprio bene.. schede sfruttate a palla e gioco fluido fluido.....

Ma come'e'? Graficamente dicono che fa schifo.
Il netcode?

Spytek
06-09-2018, 18:17
Vorrei avere la vista di tutte le persone capaci di rilevare l’input lag sugli Oled.
Purtroppo,mio limite,io non ci riesco nemmeno se spalanco al max gli occhi.
Forse è un bene...

amon.akira
06-09-2018, 18:23
E poi è presto per valutare la cosa visto che tv con hdmi 2.1 ce ne sono pochissime e vga per usarlo ce ne sono zero.


le tv hdmi 2.1 o meglio dispositivi hdmi 2.1 sono 0 :D

Vorrei avere la vista di tutte le persone capaci di rilevare l’input lag sugli Oled.
Purtroppo,mio limite,io non ci riesco nemmeno se spalanco al max gli occhi.
Forse è un bene...

molti confondono input lag e response time ;)

Arrow0309
06-09-2018, 18:27
le tv hdmi 2.1 o meglio dispositivi hdmi 2.1 sono 0 :D



molti confondono input lag e response time ;)

Ovv lato input lag non sono ottimi (sopratutto i Sony A) ma neanche troppo schifosi, insieme al tempo di risposta dei pixel zero danno un'esperienza non male.

amon.akira
06-09-2018, 18:33
Ovv lato input lag non sono ottimi (sopratutto i Sony A) ma neanche troppo schifosi, insieme al tempo di risposta dei pixel zero danno un'esperienza non male.

ah con me sfondi una porta aperta guarda, concordo 100%, speriamo nel VRR by nvidia ma per ora è fantascienza XD

Spytek
06-09-2018, 19:05
le tv hdmi 2.1 o meglio dispositivi hdmi 2.1 sono 0 :D
molti confondono input lag e response time ;)
Certo e visto che si parla di input lag io non riesco a notare ritardo quando digito un tasto della tastiera o dal gamepad a quello che effettivamente corrisponde l'azione sullo schermo :)
Response time non viene menzionato nelle recensioni,vedi Rtings, ma solo input lag che sembra l'unico parametro per i tv per poter giocare.

edit_user_name_here
06-09-2018, 19:54
Certo e visto che si parla di input lag io non riesco a notare ritardo quando digito un tasto della tastiera o dal gamepad a quello che effettivamente corrisponde l'azione sullo schermo :)
Response time non viene menzionato nelle recensioni,vedi Rtings, ma solo input lag che sembra l'unico parametro per i tv per poter giocare.

Te ne accorgi di più ad alti livelli quando vedi un nemico sparare prima di te.Si tratta di millisecondi che però sono preziosi in quelle azioni.


Edit: Peggio ancora se hai il v sync abilitato.Comunque stai tranquillo che c'è anche il mio amico non se ne accorgeva fino a quando non l'ho fatto notare :asd: comunque non è che se è oled non ha l'input lag come tv :)

Spytek
06-09-2018, 20:03
Te ne accorgi di più ad alti livelli quando vedi un nemico sparare prima di te.Si tratta di millisecondi che però sono preziosi in quelle azioni.

Sarà lag dovuta alla linea :asd:

edit_user_name_here
06-09-2018, 20:05
Sarà lag dovuta alla linea :asd:

Magari ::Prrr: comunque il mio amico(che poi era più uno che ho trovato a giocare a gta che ora non vedo più) con la stessa linea ha risolto cambiano da tv a monitor :D perchè il ping era uguale.

techsaskia
06-09-2018, 20:11
Per quelli che dicono che lo Sli è morto, usando il profilo di BF1, BFV gira benissimo...
Mio screen....

https://uploads.tapatalk-cdn.com/20180906/196d5e0e548f8614e88a8b765c66ec9a.jpg


Inviato dal mio iPhone X utilizzando Tapatalk

lo dicono solo i poveracci invidiosi. :D
massimo rispetto per chi non può/vuole e non è invidioso, in quel caso è solo ignorante. :D

edit_user_name_here
06-09-2018, 20:14
Queste sono cose che succedono passando da una tv con latenza imbarazzanti a un buon monitor, ma che non mi vengano a dire che sparano prima perchè uno a vsync off e uno gsync con 4ms di latenza in più :asd:

Non aveva un tv economico che io sappia ed il monitor era uno da 500 euro senza g sync ma con freesync tuttavia lui non aveva scheda grafica freesync e disabilitava il v sync proprio però.

Stai tranquillo che cmq l'input lag si nota ugualmente :)


Comunque 4ms invece che oltre 10 ms c'è una differenza non da poco per il sync senza contare poi l'input lag del tv da aggiungere.Oltre 10 ms si nota l'input lag.Niente non mi credete eh :asd: non comprerò mai un oled e ne tanto è bene consigliare un tv per giocare da come la vedo io e dipende dal gioco che uno gioca.



Edit: Ed aveva anche messo la modalità gioco mi ero dimenticato alla tv.Ma tanto solo l'idea di abilitare il v sync, che piuttosto lo tengo disattivato per l'input lag che noto io stesso e voi lo negate anche sul monitor, preferisco non prenderlo proprio il tv.

Edit 2: Mi verebbe voglia di comprare una tv oled e confrontarla al monitor per farvi capire che vi sbagliate e poi recedere perchè non volevo comprarlo.Mannaggia a voi che non credete :D per fortuna sono pigro lol :asd: se no lo farei.

techsaskia
06-09-2018, 20:23
https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Hydro-Copper-FTW3-1000x596.jpg

https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Hybrid-FTW3-1000x470.jpg

https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Hybrid-XC.jpg

https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Hydro-Copper-XC.jpg

https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Ti-Blower.jpg

queste sono già state postate?
che differenza ci sarà tra la hydro XC e la FTW3?

ovviamente la FTW è il modello più "carrozzato" ma in cosa esattamente?

edit_user_name_here
06-09-2018, 20:24
https://cdn.videocardz.com/1/2018/09/EVGA-RTX-2080-Hydro-Copper-FTW3-1000x596.jpg

queste sono già state postate?
che differenza ci sarà tra la hydro XC e la FTW3?

ovviamente la FTW è il modello più "carrozzato" ma in cosa esattamente?

Non vedo nessuna immagine io per ora.

techsaskia
06-09-2018, 20:24
Non vedo nessuna immagine io per ora.

prova adesso :sofico:

edit_user_name_here
06-09-2018, 20:25
prova adesso :sofico:

Non mi segna proprio il link :) pensavo fosse un immagine che si apriva da sola cmq.

techsaskia
06-09-2018, 20:25
bah non si sa perchè blocca le immagini, il link all'articolo è questo
https://videocardz.com/77837/evga-unveils-hydro-copper-and-hybrid-geforce-rtx-models

techsaskia
06-09-2018, 20:27
mamma bellissime le hydro copper. veramente bellissime

saccia92
06-09-2018, 20:29
lo dicono solo i poveracci invidiosi. :D
massimo rispetto per chi non può/vuole e non è invidioso, in quel caso è solo ignorante. :D

Secondo me anche Nvidia sta remando contro lo SLI. Prima con le Pascal limitate a 2 schede, ora con le RTX 2070 senza connettore. Con le RTX, per fare lo SLI più economico ti ci vogliono comunque 1700-1800 euro. Agli sviluppatori di giochi non interessa spendere soldi per accontentare 3 gatti con lo SLI. Sono profondamente dispiaciuto, perchè d'altronde è una tecnologia che nella maggior parte dei casi funziona bene e poi per il 4k 144hz è assolutamente necessaria. Sono un grande sostenitore dello SLI perchè mi ha dato molte gioie, però anche avendo la possibilità economica, non ce li spendo tutti questi soldi per delle schede video che dopo poco tempo avranno il valore di un fermacarte. Prima delle presentazione, avevo programmato di comprare due schede x70 per una spesa di circa 1000 euro ma poi ho scoperto che non era possibile, quindi ripiegherò su una rtx 2080.

techsaskia
06-09-2018, 20:41
Solo per chiarire che il supporto SLI lo da nVidia (e Crossfire invece AMD), nei driver, non gli sviluppatori.

Alcuni sviluppatori (pochi) invece usano il mGPU di DX12 o Vulkan, che non dipende invece da un profilo nei driver. Questa è una strada interessante invece, perché è interesse degli sviluppatori riuscire ad usare le risorse computazionali a disposizione per offrire un prodotto migliore. Ed è agnostico riguardo il tipo di risorsa, quindi molto più flessibile e potente.

non è così semplice, anche il motore deve essere progettato per scalare su due schede, fosse così semplice avremmo fatto bingo.
ci sono stati molti motori in passato che per un periodo non hanno supportato due+ GPU vedi anche l'unreal engine

TigerTank
06-09-2018, 20:46
mamma bellissime le hydro copper. veramente bellissime

Vero, mi sa però che saranno belle salate. Io dico pure 1400-1450€ considerato che fanno quelle ad aria ad oltre 1300€...
A sapere che la versione per "poveracci" con il blower costasse tipo 1100, si farebbe prima a prendere quella(per chi vuole proprio comprare queste vga a questi prezzi) e a piazzarci un fullcover tipo EK :D

P.S. La Classified mi sa che non esiste più :asd:

Solo per chiarire che il supporto SLI lo da nVidia (e Crossfire invece AMD), nei driver, non gli sviluppatori.

Alcuni sviluppatori (pochi) invece usano il mGPU di DX12 o Vulkan, che non dipende invece da un profilo nei driver. Questa è una strada interessante invece, perché è interesse degli sviluppatori riuscire ad usare le risorse computazionali a disposizione per offrire un prodotto migliore. Ed è agnostico riguardo il tipo di risorsa, quindi molto più flessibile e potente.

No...Nvidia mette il supporto nei drivers ed eventualmente lo migliora, ma il motore del gioco di base deve supportare il multigpu altrimenti nisba.
Se fosse solo come dici tu, tutti i giochi(magari!) andrebbero in SLi con un aggiustatina via drivers :D
E invece per vari Nvidia ha dovuto fare addirittura il contrario, levare il supporto Sli dal profilo dei drivers perchè il gioco lo digeriva male con relativi esiti pessimi.

Spytek
06-09-2018, 20:51
Oltre 10 ms si nota l'input lag
Solo se vedi il video alla moviola ma anche li è dura :p

edit_user_name_here
06-09-2018, 20:58
Solo se vedi il video alla moviola ma anche li è dura :p

Volevo correggere 10 ms oltre a quello del gsync.Non in totale.Dunque più input lag e lag della connessione va a finire a tanti ms.Molto notabili.


Comunque se comprerò un tv per il salotto, quando si romperà o sarà necessario, allora lo proverò prima sul mio pc cosi vi faccio contenti :D però mi sa che ci vorranno anni :asd:



Edit: Vabbe ritorniamo a parlare di schede va :)

Arrow0309
06-09-2018, 21:05
[ ... cut ... ]

queste sono già state postate?
che differenza ci sarà tra la hydro XC e la FTW3?

ovviamente la FTW è il modello più "carrozzato" ma in cosa esattamente?

Postate
FTW3 e' un pcb più grande in altezza e forse anche in lunghezza ed ha 19 fasi anziché 16.
A quanto pare sara' proposto in 3 versioni, ad aria (3 fan, 3 slot), Hybrid e Hydro Copper. Non si sa quanti connettori d'alimentazione ma vista la MSI Trio non penso meno di 3.

Imho belle anche le Hybrid.

Chissà come saranno le Kingpin :eekk:

edit_user_name_here
06-09-2018, 21:08
Postate
FTW3 e' un pcb più grande in altezza e forse anche in lunghezza ed ha 19 fasi anziché 16.
A quanto pare sara' proposto in 3 versioni, ad aria (3 fan, 3 slot), Hybrid e Hydro Copper. Non si sa quanti connettori d'alimentazione ma vista la MSI Trio non penso meno di 3.

Imho belle anche le Hybrid.

Chissà come saranno le Kingpin :eekk:

Allora dovrò prendere le misure del mio vecchio cooler master cm 690 III se non ricordo male dovrebbe chiamarsi cosi.Spero ci entrerà :) perchè mi interessa la evga triple slot ma ad aria va bene.

Thunder-74
06-09-2018, 21:18
https://thumbs2.imgbox.com/fd/a5/N13QW2Il_t.jpg (http://imgbox.com/N13QW2Il)

Sei il mio mito del forum... ti stimo fratello :D

Aspettiamo Michael per un po di chiarezza sulle gddr6 delle due case principali.



Beh, pare evidente, 3x 8pin (Lightning, HOF e Kingpin) :asd:



Ma come'e'? Graficamente dicono che fa schifo.
Il netcode?

Giusto 3 da 8pin :sofico:
Discorso grafica di BFV... sinceramente mi sembra più curato BF1...
Netcode non so dirti...l'ho provato pochissimo perchè sono andato ad allenarmi e sono rientrato ora

Tu continui ad avere due 980ti giusto?
Sempre di maxwell parliamo, come gira con due pascal? :)

Vero, però non mi sembra che gli utenti del forum che hanno uno sli di Pascal, si lamentino ...

mamma bellissime le hydro copper. veramente bellissime

allora non siamo sono io e Arrow a trovare la Hydro copper bellissima :D

Vero, mi sa però che saranno belle salate. Io dico pure 1400-1450€ considerato che fanno quelle ad aria ad oltre 1300€...
A sapere che la versione per "poveracci" con il blower costasse tipo 1100, si farebbe prima a prendere quella(per chi vuole proprio comprare queste vga a questi prezzi) e a piazzarci un fullcover tipo EK :D

P.S. La Classified mi sa che non esiste più :asd:...cut

magari venisse 1400/1450... al meno al lancio non credo...

techsaskia
06-09-2018, 21:34
una domanda che sembra OT ma che non lo è alla fine...
sto per cambiare bandiera, passo da quella blu alla rossa, da un hedt ad un HEDT , da un 5930K a un AMD Threadripper 2 2950X.

vorrei tenere la piattaforma per qualche anno, almeno 3-4 in vista anche del fatto che AMD non intende fare un nuovo socket per i prossimi Threadripper.

detto questo, com'è la vostra sensibilità riguardo al PCI Express 4?

queste schede sono lontane dal limite del PCIe gen 3 a 16 linee, ma le prossime schede potrebbero essere limitate?
in due o 3 anni, riusciremo a saturare questa banda?

techsaskia
06-09-2018, 21:49
Secondo me non saresti limitato nemmeno con 16 linee 2.0

eppure, le mie vetuste 980Ti su PCIe 3 8x e PCIe 16x facevano un 400 punti di differenza al 3dmark.
non che significhi molto ma se le 980Ti facevano 400 punti di differenza, quanti ne farebbero le nuove schede e ancora peggio le schede tra 2 anni?

edit_user_name_here
06-09-2018, 21:52
Secondo me ti diventa vecchio prima il processore e dovrai cambiarlo di nuovo :D anche io pensavo di rimanere apposto ed ora ci sto giusto giusto ma non tanto per i core ma per la velocità probabilmente ed architettura(ma sono ancora a intel).


Edit: Ovvio che non cambiano socket per invitare la gente a comprare.Ma io preferisco intel per mie esperienze passate :)

techsaskia
06-09-2018, 21:55
Secondo me ti diventa vecchio prima il processore e dovrai cambiarlo di nuovo :D anche io pensavo di rimanere apposto ed ora ci sto giusto giusto ma non tanto per i core ma per la velocità probabilmente ed architettura.

bah questo non penso dai, alla fine il mio 5930K ha tenuto botta tranquillamente tutto questo tempo. poi i giochi si stanno muovendo verso il multithreading, non sarà uno switch così veloce ma già si iniziano a vedere le differenze.

prima il 4790K era più veloce di un 5930/5960X, adesso è l'opposto.

Nhirlathothep
06-09-2018, 22:12
già la 1060 notebook è perfetta per il 1080p (migliore della 980m).

probabilmente basterà una gtx 2050 notebook per gestire alla perfezione il 1080p!

praticamente gaming maxed out su notebook superslim (o fascia bassa)

DJurassic
06-09-2018, 23:26
Ovv lato input lag non sono ottimi (sopratutto i Sony A) ma neanche troppo schifosi, insieme al tempo di risposta dei pixel zero danno un'esperienza non male.

ah con me sfondi una porta aperta guarda, concordo 100%, speriamo nel VRR by nvidia ma per ora è fantascienza XD

E con me la spalancate. Felicissimo possessore di un Sony 65A1 Oled. Semplicemente fantastico. Poi ovviamente lo scopo principale per cui l'ho preso non è certo il gaming ma svolge benissimo anche questo ruolo.

Bestio
06-09-2018, 23:45
Non aveva un tv economico che io sappia ed il monitor era uno da 500 euro senza g sync ma con freesync tuttavia lui non aveva scheda grafica freesync e disabilitava il v sync proprio però.

Stai tranquillo che cmq l'input lag si nota ugualmente :)


Comunque 4ms invece che oltre 10 ms c'è una differenza non da poco per il sync senza contare poi l'input lag del tv da aggiungere.Oltre 10 ms si nota l'input lag.Niente non mi credete eh :asd: non comprerò mai un oled e ne tanto è bene consigliare un tv per giocare da come la vedo io e dipende dal gioco che uno gioca.



Edit: Ed aveva anche messo la modalità gioco mi ero dimenticato alla tv.Ma tanto solo l'idea di abilitare il v sync, che piuttosto lo tengo disattivato per l'input lag che noto io stesso e voi lo negate anche sul monitor, preferisco non prenderlo proprio il tv.

Edit 2: Mi verebbe voglia di comprare una tv oled e confrontarla al monitor per farvi capire che vi sbagliate e poi recedere perchè non volevo comprarlo.Mannaggia a voi che non credete :D per fortuna sono pigro lol :asd: se no lo farei.

Non si può fare di tutta l'erba un fascio, ci sono monitor e monitor, TV e TV, ci sono monitor professionali con un input lag di oltre 64ms (http://www.tftcentral.co.uk/reviews/dell_2408wfp.htm), e TV che stanno anche sotto i 10ms (https://www.rtings.com/tv/reviews/samsung/nu8000).

E non dipende certo dalla "fascia" della TV, anzi TV di fascia alta (così come i monitor professionali indirizzati ai grafici) hanno processori avanzati dedicati al miglioramento della qualità d'immagine, ma che di contro aumentano anche considerevolmente l'input lag. Si sono viste anche TV con valori superiori ai 150ms, e con quelli si che la vedo molto dura giocare.

E poi a 60hz i frames si alternano ogni 16,6ms, quindi tra 1ms o 16 di input lag il ritardo sarà sempre di 1 frame, percui la vedo dura notare molta differenza.
A 144hz già alternano ogni 6,94ms e li capisco magari chi gioca competitivo ad alti livelli la differenza la può anche vedere, ma io (che gli FPS PvP li schifo a prescindere) nonostante molti test e monitor provati, proprio non sono riuscito a vederla. (ed anche in questo momento monitor da 5ms e TV da 20 li ho proprio qui davanti uno di fianco all'altro in dual display esteso)
Ed ho anche amici che giocano competitivo su TV senza problema alcuno.

Diverso invece il discorso del refresh rate variabile, li si che la differenza è tangibile, dato che se il pannello genera la stessa frequenza degli FPS generati dalla GPU, si evitano tutti quei fastidiosi effetti di microstuttering/judding, tearing ecc.

Ma come ripetuto 1000 volte, non tutti abbiamo la stessa percezione e le stesse esigenze (basta pensare ai consolari che giocano a 30fps... :asd:)

Per te magari l'input lag il più basso possibile è una caratteristica imprescindibile e per questo sei disposto a tollerare BLB, piscio di gatto e nero grigetto dei vari IPS/VA, o addirittura i colori slavati di un TN, ma è una tua scelta e la rispetto.

Per me no, la qualità dell'immagine arriva prima di tutto, profondità del nero e assenza di BLB idem, mentre quando sto sotto i 15ms di input lag ne ho già d'avanzo.
Certo il Vsync/freesync vorrei tanto averlo, il microstuttering/judding è una cosa che mi da piuttosto fastidio, ma comunque molto meno di tutti del BLB di tutti gli IPS provati fin'ora (e vendendoli ne ho provati parecchi...)

Thunder-74
07-09-2018, 08:57
Alcuni si.
E comunque sarei curioso di sapere la differenza in quanto scala, tutto qua.

questa sera ho un po' di tempo e faccio dei test. Comunque già il fatto che sto sopra ai 100 frames a 3440x1440, quando una 1080ti sta sotto a questo valore a 2560x1440, non è male.
Per omogenizzare i valori, farò dei testi a 2560...

edit_user_name_here
07-09-2018, 09:03
bah questo non penso dai, alla fine il mio 5930K ha tenuto botta tranquillamente tutto questo tempo. poi i giochi si stanno muovendo verso il multithreading, non sarà uno switch così veloce ma già si iniziano a vedere le differenze.

prima il 4790K era più veloce di un 5930/5960X, adesso è l'opposto.

Anche se richiederanno più ghz su singolo core?Non so sinceramente come si evolverà.Vedremo :)


Non si può fare di tutta l'erba un fascio, ci sono monitor e monitor, TV e TV, ci sono monitor professionali con un input lag di oltre 64ms (http://www.tftcentral.co.uk/reviews/dell_2408wfp.htm), e TV che stanno anche sotto i 10ms (https://www.rtings.com/tv/reviews/samsung/nu8000).

E non dipende certo dalla "fascia" della TV, anzi TV di fascia alta (così come i monitor professionali indirizzati ai grafici) hanno processori avanzati dedicati al miglioramento della qualità d'immagine, ma che di contro aumentano anche considerevolmente l'input lag. Si sono viste anche TV con valori superiori ai 150ms, e con quelli si che la vedo molto dura giocare.

E poi a 60hz i frames si alternano ogni 16,6ms, quindi tra 1ms o 16 di input lag il ritardo sarà sempre di 1 frame, percui la vedo dura notare molta differenza.
A 144hz già alternano ogni 6,94ms e li capisco magari chi gioca competitivo ad alti livelli la differenza la può anche vedere, ma io (che gli FPS PvP li schifo a prescindere) nonostante molti test e monitor provati, proprio non sono riuscito a vederla. (ed anche in questo momento monitor da 5ms e TV da 20 li ho proprio qui davanti uno di fianco all'altro in dual display esteso)
Ed ho anche amici che giocano competitivo su TV senza problema alcuno.

Diverso invece il discorso del refresh rate variabile, li si che la differenza è tangibile, dato che se il pannello genera la stessa frequenza degli FPS generati dalla GPU, si evitano tutti quei fastidiosi effetti di microstuttering/judding, tearing ecc.

Ma come ripetuto 1000 volte, non tutti abbiamo la stessa percezione e le stesse esigenze (basta pensare ai consolari che giocano a 30fps... :asd:)

Per te magari l'input lag il più basso possibile è una caratteristica imprescindibile e per questo sei disposto a tollerare BLB, piscio di gatto e nero grigetto dei vari IPS/VA, o addirittura i colori slavati di un TN, ma è una tua scelta e la rispetto.

Per me no, la qualità dell'immagine arriva prima di tutto, profondità del nero e assenza di BLB idem, mentre quando sto sotto i 15ms di input lag ne ho già d'avanzo.
Certo il Vsync/freesync vorrei tanto averlo, il microstuttering/judding è una cosa che mi da piuttosto fastidio, ma comunque molto meno di tutti del BLB di tutti gli IPS provati fin'ora (e vendendoli ne ho provati parecchi...)

Io intendevo tv di alta fascia confronto a monitor di alta fascia ovviamente non tv di bassa fascia :asd: la so la differenza ma, nonosntate questo, i tv non sono fatti per giocare e dunque hanno input lag.Oltre al v sync che solo li c'è un ritardo che lo noto persino nel mio monitor figurati su una tv.Non c'è nulla da fare al riguardo.Ma nonostante la mia prova sul monitor non vi fidate a sto punto qualsiasi cosa dico non vi fidate anche se comprerei un tv oled per testarlo.

Non si vede la differenza uno vicino all'altro ma giocando proprio nei giochi di competizione dove alcuni vedono che perdono e capiscono dove è il ritardo in millisecondi(altri non se ne accorgono e pensano di essere scarsi).

Chi gioca ai competitivi in tv evidentemente non se ne accorge che se muore sempre è proprio colpa del tv.Come se ne accorto, tardi, quello che conoscevo io.

Invece no per me l'input lag oltre ad essere basso deve anche avere i colori belli ed il mio monitor è sufficente.Evidentemente hai avuto non monitor buoni e li hai confrontati all'oled(anchio io ho avuto monitor, vecchi ma non economici, che un verde sembrava blu ma un altro monitor, invece, i colori erano buoni o perfetti e non è un oled).Chi dice che voglio sacrificare i colori non mi conosce affatto :D sono tutto il contrario.

Ma non essendo esperto in campo monitor sugli oled, ma ho un po di esperienza in altri, non posso dire altro al riguardo :)



Edit: Comunque senti se vuoi ci parliamo in privato qui è offtopic e la gente non li interessano ste cose :) oltre tutto rimango del parere che, apparte il prezzo degli oled, rimanga un consiglio non universale gli oled e dunque bisogna sapere a cosa uno gioca e preferisce.Per me rimane sbagliato insomma.


Edit 2: Mi sono dimenticato di dire che parlo di monitor da gaming ovviamente non professionali che non hanno niente a che fare :)

fuzede
07-09-2018, 11:14
Anche se richiederanno più ghz su singolo core?Non so sinceramente come si evolverà.Vedremo :)




Io intendevo tv di alta fascia confronto a monitor di alta fascia ovviamente non tv di bassa fascia :asd: la so la differenza ma, nonosntate questo, i tv non sono fatti per giocare e dunque hanno input lag.Oltre al v sync che solo li c'è un ritardo che lo noto persino nel mio monitor figurati su una tv.Non c'è nulla da fare al riguardo.Ma nonostante la mia prova sul monitor non vi fidate a sto punto qualsiasi cosa dico non vi fidate anche se comprerei un tv oled per testarlo.

Non si vede la differenza uno vicino all'altro ma giocando proprio nei giochi di competizione dove alcuni vedono che perdono e capiscono dove è il ritardo in millisecondi(altri non se ne accorgono e pensano di essere scarsi).

Chi gioca ai competitivi in tv evidentemente non se ne accorge che se muore sempre è proprio colpa del tv.Come se ne accorto, tardi, quello che conoscevo io.

Invece no per me l'input lag oltre ad essere basso deve anche avere i colori belli ed il mio monitor è sufficente.Evidentemente hai avuto non monitor buoni e li hai confrontati all'oled(anchio io ho avuto monitor, vecchi ma non economici, che un verde sembrava blu ma un altro monitor, invece, i colori erano buoni o perfetti e non è un oled).Chi dice che voglio sacrificare i colori non mi conosce affatto :D sono tutto il contrario.

Ma non essendo esperto in campo monitor sugli oled, ma ho un po di esperienza in altri, non posso dire altro al riguardo :)



Edit: Comunque senti se vuoi ci parliamo in privato qui è offtopic e la gente non li interessano ste cose :) oltre tutto rimango del parere che, apparte il prezzo degli oled, rimanga un consiglio non universale gli oled e dunque bisogna sapere a cosa uno gioca e preferisce.Per me rimane sbagliato insomma.


Edit 2: Mi sono dimenticato di dire che parlo di monitor da gaming ovviamente non professionali che non hanno niente a che fare :)

Monitor OLED di fascia alta non hanno senso.
Se sono di fascia alta sono rivolti a professionisti e questi un OLED non potranno mai utilizzarlo a meno che non si risolva il problema dei colori completamente fallati.
Io ho un LG OLED e si vede da Dio per film e flussi reali 4k però i colori vanno bene appunto per i film.
Un fotografo, videomaker, pubblicitario o comunque il professionista che ha bisogno di fedeltà cromatica non potrà mai usarne uno.

edit_user_name_here
07-09-2018, 11:24
Monitor OLED di fascia alta non hanno senso.
Se sono di fascia alta sono rivolti a professionisti e questi un OLED non potranno mai utilizzarlo a meno che non si risolva il problema dei colori completamente fallati.
Io ho un LG OLED e si vede da Dio per film e flussi reali 4k però i colori vanno bene appunto per i film.
Un fotografo, videomaker, pubblicitario o comunque il professionista che ha bisogno di fedeltà cromatica non potrà mai usarne uno.

Infatti dicevo fascia alta da gaming non professionisti.Meno male che l'ho pure scritto :asd: comunque io la fedeltà cromatica sto bene con il mio rog asus che è già migliore di un monitor ips normale e mi sta bene :) evidentemente voi venite da monitor vecchi o economici.Capisco.

Cmq ripeto io l'input lag non lo posso vedere mi spiace per voi che non ve ne accorgete e pensate che sia ridotto al minimo con i tv :D oppure non giocate di giochi frenetici(se poi vedi i film non c'è bisogno da farlo da monitor da come la vedo io) ma per il resto questo thread è delle schede grafiche per il resto mandatemi i messaggi privati.


Grazie.



Edit: Comunque una cosa sono i film ed un altra sono i giochi.I tv sono ottimi per i film come fa anche mio fratello che usa il tv per i film ma i giochi i monitor.Dico mio fratello perchè a me i film non mi attirano più ma questa è un altra storia :)

Annamaria
07-09-2018, 11:29
Monitor OLED di fascia alta non hanno senso.
Se sono di fascia alta sono rivolti a professionisti e questi un OLED non potranno mai utilizzarlo a meno che non si risolva il problema dei colori completamente fallati.
Io ho un LG OLED e si vede da Dio per film e flussi reali 4k però i colori vanno bene appunto per i film.
Un fotografo, videomaker, pubblicitario o comunque il professionista che ha bisogno di fedeltà cromatica non potrà mai usarne uno.

Vero e se Eizo non ha un oled in catalogo ci sarà un motivo!

edit_user_name_here
07-09-2018, 11:31
Vero e se Eizo non ha un oled in catalogo ci sarà un motivo!

Ma infatti io non parlavo di professionisti.L'ho pure detto :D c'è stata un po di confusione :asd:

fuzede
07-09-2018, 11:31
Infatti dicevo fascia alta da gaming non professionisti.Meno male che l'ho pure scritto :asd: comunque io la fedeltà cromatica sto bene con il mio rog asus che è già migliore di un monitor ips normale e mi sta bene :) evidentemente voi venite da monitor vecchi o economici.Capisco.

Cmq ripeto io l'input lag non lo posso vedere mi spiace per voi che non ve ne accorgete e pensate che sia ridotto al minimo con i tv :D oppure non giocate di giochi frenetici(se poi vedi i film non c'è bisogno da farlo da monitor da come la vedo io) ma per il resto questo thread è delle schede grafiche per il resto mandatemi i messaggi privati.


Grazie.

Edit: Comunque una cosa sono i film ed un altra sono i giochi.I tv sono ottimi per i film come fa anche mio fratello che usa il tv per i film ma i giochi i monitor.Dico mio fratello perchè a me i film non mi attirano più ma questa è un altra storia :)

Asus Rog anche io e lo trovo perfetto. :cool:
Gli OLED stanno bene davanti il divano.

edit_user_name_here
07-09-2018, 11:35
Asus Rog anche io e lo trovo perfetto. :cool:
Gli OLED stanno bene davanti il divano.

Infatti :asd: solo che ora ho un monitor temporaneo perchè non arrivava a 100 hz ed è in rma.Me ne sono accorto un po tardi ma cmq sufficente per vedere che i vecchi ips, o i samsung, hanno colori totalmente differenti confronto a questo rog asus.Persino gli asus ips normali sono completamente differenti.

Provato di mia mano non parlo di recensioni dunque so cosa dico :D eheh.

techsaskia
07-09-2018, 11:40
Ah ma dici in multischeda. Allora boh. Magari il solito guru3d farà i soliti test ma non credo diverrà limitante tanto presto

Beh due schede a 16x o una scheda a 16x non cambia molto no, se c'era un vantaggio con due schede ci sarebbe stato anche con una se pur inferiore.

Spytek
07-09-2018, 13:06
Monitor OLED di fascia alta non hanno senso.
Se sono di fascia alta sono rivolti a professionisti e questi un OLED non potranno mai utilizzarlo a meno che non si risolva il problema dei colori completamente fallati.
Io ho un LG OLED e si vede da Dio per film e flussi reali 4k però i colori vanno bene appunto per i film.

Infatti esiste la calibrazione con sonda e vedi che i colori ritorneranno corretti ;)

ilcose
07-09-2018, 13:20
Infatti esiste la calibrazione con sonda e vedi che i colori ritorneranno corretti ;)Ma infatti io ste cose non le capisco minimamente. Quindi tutte le review su calibrazione colori ecc che senso avrebbero?
Ma qua siamo profondamente OT quindi passo oltre ignorando certe assurdità...

Bah....

Mi rendo conto che non possono al momento esistere monitor professionali OLED (che poi in realtà ci sono e costano una follia) per via del burn in, dopo pochi mesi ti ritroveresti l'ombra delle interfacce dei programmi usandoli 8 ore al giorno...

Inviato dal mio ZTE A2017G utilizzando Tapatalk

Bestio
07-09-2018, 13:21
Come continuo a ripetere ma continuate a non capire. semplicemente le mie esigenze e aspettative sono diverse dalle vostre, voi continuate ad ammazzarvi a vicenda sui vostri monitor, che io continuo a vivere le mie avventure in single player (o multi coop) sul VPR, e spero presto sulla TV OLED 65''. :cool:

Anche io le ho provate tutte e so cosa dico, ho avuto il rog ed è stato il peggior acquisto della mia vita (https://www.hwupgrade.it/forum/showpost.php?p=43104753&postcount=522), ora ho un AG322QCX che grazie al pannello VA 32'' QHD 144hz è decisamente "meno peggio", e quando scenderà un po di prezzo prenderò l'LG 2GK850G per tornare ad avere il Gsync, ma per la maggior parte dei giochi continuerò ad utilizzare la TV
Ed il monitor solo per navigare/lavorare e quando la TV/VPR è impegnata per altre cose, (o per giochini indie/retrò/gestionali dove è eccessivo usare la TV) come sto facendo da 10 anni a questa parte.


E possiamo chiuderla qui con l'OT. ;)

Vero e se Eizo non ha un oled in catalogo ci sarà un motivo!

Il monitor professionale OLED esiste, lo fa la Sony si chiama BVM-X300/2, costa 50000€ ed è il top assoluto per quanto riguarda il video editing ultraprofessionale.
Il motivo principale per cui non fanno monitor PC OLED per uso professionale, è il fatto che soffrono ancora di Burn IN, e per chi usa lo stesso programma per tantissime ore rischia di trovarsi la GUI impressa.
Ma per chi principalmente gioca e guarda film, questo non è un grosso problema.

DJurassic
07-09-2018, 13:23
Monitor OLED di fascia alta non hanno senso.
Se sono di fascia alta sono rivolti a professionisti e questi un OLED non potranno mai utilizzarlo a meno che non si risolva il problema dei colori completamente fallati.
Io ho un LG OLED e si vede da Dio per film e flussi reali 4k però i colori vanno bene appunto per i film.
Un fotografo, videomaker, pubblicitario o comunque il professionista che ha bisogno di fedeltà cromatica non potrà mai usarne uno.

Senza offesa ma saranno fallati sul tuo LG.

I Sony A1 e AF8 tramite impostazione Expert hanno la resa cromatica che più si avvicina ai valori reference tra tutti i TV ad oggi in commercio e basta fare qualche ricerca per saperlo. Poi come ha appena detto Spytek esiste la sonda di calibrazione se si vuole la perfezione. I monitor vanno benissimo per gli fps e per i tempi di risposta, oltre ad avere tecnologie come il Gsync che sappiamo tutti quali vantaggi porta in settore gaming. Ma per resa dei colori, profondità, black level, contrasto e difetti congeniti stendiamo un velo pietoso che è meglio.

Ma infatti io ste cose non le capisco minimamente. Quindi tutte le review su calibrazione colori ecc che senso avrebbero?
Ma qua siamo profondamente OT quindi passo oltre ignorando certe assurdità...

Bah....

Mi rendo conto che non possono al momento esistere monitor professionali OLED (che poi in realtà ci sono e costano una follia) per via del burn in, dopo pochi mesi ti ritroveresti l'ombra delle interfacce dei programmi usandoli 8 ore al giorno...

Inviato dal mio ZTE A2017G utilizzando Tapatalk

Infatti non potranno mai essere usati come monitor a 360°. Il top è avere entrambe e godersi la migliore esperienza possibile a secondo di cosa si intenda fare.