View Full Version : AMD Radeon RX 5700XT e Radeon RX 5700: le prime due schede con GPU Navi
Redazione di Hardware Upg
11-06-2019, 00:20
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5459/amd-radeon-rx-5700xt-e-radeon-rx-5700-le-prime-due-schede-con-gpu-navi_index.html
AMD annuncia all'E3 caratteristiche tecniche, versioni e prezzi delle prime schede video basate su GPU Navi. Il posizionamento di mercato è di fascia media, a diretto confronto con GeForce RTX 2070 e GeForce RTX 2060 di NVIDIA, per un mercato che cambia diventando sempre più competitivo e interessante per gli appassionati di videogiochi
Click sul link per visualizzare l'articolo.
Marckus87
11-06-2019, 00:27
sembrerebbe un gran bel lavoro da parte di AMD anche se mancano le gpu top ancora, non ci resta da vedere se le prestazioni dichiarate sono effettivamente veritiere, anche se non ho molti dubbi a riguardo.
carlottoIIx6
11-06-2019, 02:39
sembrerebbe un gran bel lavoro da parte di AMD anche se mancano le gpu top ancora, non ci resta da vedere se le prestazioni dichiarate sono effettivamente veritiere, anche se non ho molti dubbi a riguardo.
La nomenclatura lascia pensare che ci saranno la 5800 e 5800xt:D
Ancora fermi a HDMI 2.0?? :muro:
Quanto dovremo ancora aspettare per vedere GPU con HDMI 2.1 e relativo supporto 2160p@120hz con VRR? :confused:
Bradiper
11-06-2019, 06:07
Speravo meglio per il prezzo, ma ok. Hanno fatto un gran lavoro e sono sulla strada giusta.
puppatroccolo
11-06-2019, 06:46
Ovviamente i prezzi sono alti e in linea con nvidia, altrimenti li avrebbero annunciati subito.
cronos1990
11-06-2019, 07:00
Ancora fermi a HDMI 2.0?? :muro:
Quanto dovremo ancora aspettare per vedere GPU con HDMI 2.1 e relativo supporto 2160p@120hz con VRR? :confused:Che io sappia le 2.1 sono per l'8k... ma mi sono informato poco, al momento mi interessa zero questa specifica.
In ogni caso, prendendo per buona la tua affermazione... le HDMI 2.1 su queste schede lo vedo comunque poco sensato, quelle richieste che citi sono più in ambito di fascia alta, quindi ha più senso introdurre le 2.1 con le NAVI che vedremo in seguito (2020?).
Detto questo... non mi piace la cosa, prezzo troppo alto.
sgrinfia
11-06-2019, 07:07
Bene, si comincia con il piede giusto,tutto fa pensare che ci saranno la 5800 e 5800xt ...e perchè no una 5900 energy;)
Bradiper
11-06-2019, 07:07
Penso che presto si smuovera il mercato dalle ultime notizie le nvidia super avranno prestazioni superiori alle attuali e il prezzo tagliato di 100 dollari quindi anche amd sarà costretta.
Comunque il prezzo alla fine non è sbagliato, non mi sembra che al lancio la 2070 costasse 449 dollari.
nickname88
11-06-2019, 07:20
225W per una fascia media per competere con la 2070 che è a 12nm e TDP inferiore ? :rolleyes:
Immagino già come sarà la fascia alta, praticamente un altra Vega.
fraussantin
11-06-2019, 07:46
225W per una fascia media per competere con la 2070 che è a 12nm ? :rolleyes:
Immagino già come sarà la fascia alta, praticamente un altro Vega.
Devi considerare che è un chip piccolissimo tipo polaris spinto al massimo per arrivare alla 2070. Per quello consuma tanto.
Il vero problema è il prezzo da "ladri"
ok ma quando sforneranno una super power che va un 30-40% in piu di una 2080ti ? :fagiano:
La nomenclatura lascia pensare che ci saranno la 5800 e 5800xt:DInfatti... Anche se la scelta del nome a me lascia un po' perplesso... Che dite, provo a rivendere la mia gloriosa HD 5770?
"Vendo scheda video AMD Radeon serie 5700 causa inutilizzo, tenuta benissimo". :sofico:
cronos1990
11-06-2019, 08:03
Penso che presto si smuovera il mercato dalle ultime notizie le nvidia super avranno prestazioni superiori alle attuali e il prezzo tagliato di 100 dollari quindi anche amd sarà costretta.
Comunque il prezzo alla fine non è sbagliato, non mi sembra che al lancio la 2070 costasse 449 dollari.Il prezzo è sbagliatissimo.
Nell'ultimo anno e mezzo/due anni Nvidia ha alzato all'inverosimile tutte le fasce di prezzo, praticamente raddoppiandole. Si sperava che con NAVI e una nuova concorrenza "efficace" i prezzi calassero. Per la XT speravo sui 350 euro, ma anche 400 euro li avrei accettati (molto al limite).
Invece siamo a soli 50 euro in meno delle rivale 2070 (che tra l'altro ha anche il RT, che di sicuro non sta li gratis, mentre AMD lo introdurrà solo nel 2020).
Ora aspetto Nvidia: se farà calare i prezzi delle sue schede in maniera significativa per contrastare AMD bene, altrimenti dovrei dare sempre più ragione a chi parla di cartello tra le due.
OrazioOC
11-06-2019, 08:20
Sono care c'è poco da dire, ci sono almeno 50/70 dollari in più nel prezzo di listino, così sono solo delle schede ok.
Io non so come amd possa sperare di recuperare un po' di market share con gpu del genere.
bagnino89
11-06-2019, 08:24
Molto bene, adesso vediamo se Nvidia calerà un po' i prezzi.
225W per una fascia media per competere con la 2070 che è a 12nm ? :rolleyes:
Immagino già come sarà la fascia alta, praticamente un altro Vega.
Effettivamente...
Roland74Fun
11-06-2019, 08:30
Mi piace molto il design "ammaccato" della 5700XT.
Per il resto meglio soprassedere al prossimo giro, sperando sia più fortunato.
Bradiper
11-06-2019, 08:45
I prezzi ormai sono questi,grazie ai minatori del cxxxx! Ti offrono una scheda che va sulla carta più della 2070 e costa 50 dollari in meno non vedo dove sia l'errore, a parte gli sforzi fatti da amd il prezzo lo fa il mercato.
Poi stiamo parlando di prezzo di lancio ovvero destinato a diminuire nel tempo e amd i prezzi li taglia diversamente da nvidia.
Poi da una parte la contromosse di nvidia e dall altra I brand che produrranno navi che spesso limano il prezzo sono fiducioso che prima di natale sarà sceso sotto i 400
se la rx5700 liscia:
- avrà un dissipatore decente
(leggi non fa casino come una centrifuga)
- consumerà /scalderà decentemente (spero decisamente meno dei 180w nominali, diciamo un 120/140w ingame, non come quel fornetto della rx480 che avevo prima)
- si attesterà sui 300 euro
potrebbe essere la mia prossima scheda
nickname88
11-06-2019, 08:58
Molto bene, adesso vediamo se Nvidia calerà un po' i prezzi.
https://www.guru3d.com/news-story/rumor-nvidia-super-is-a-refreshed-geforce-rtx-2060-(249)2070-(399)2080-(599).html
Devi considerare che è un chip piccolissimo tipo polaris spinto al massimo per arrivare alla 2070. Per quello consuma tanto.
Il vero problema è il prezzo da "ladri"Quindi ?
7nm piccolissimo che consuma più per competere con una 12nm ( che verrà refreshata sembrerebbe ) ?
Se è stato spinto al massimo è perchè altrimenti non raggiungeva le prestazioni prefissate.
Anche il modello 5700 liscio ha un TDP superiore alla 2070.
Vedremo a che livello di TDP arriverà il Big Navi per l'High End.
OvErClOck82
11-06-2019, 09:03
il TDP non è il consumo...
OrazioOC
11-06-2019, 09:06
il TDP non è il consumo...
Ma ci si va' molto vicino, 225w per quelle performance a 7nm sono tanti.
Bradiper
11-06-2019, 09:08
E da quanto so ridurre non vuol dire sempre scaldare meno, si pone sempre più il problema di come smaltire e trasportare il calore all esterno.
Sulle 5700 non viene dichiarato il TDP ma il board power, che è un altra cosa.
Saranno le recensioni ad indicare i consumi effettivi ed il prestazioni/consumi.
nickname88
11-06-2019, 09:13
Sulle 5700 non viene dichiarato il TDP ma il board power, che è un altra cosa.
Ancora peggio.
Ancora peggio.
Aspetto i test per dirlo.
fraussantin
11-06-2019, 09:33
https://www.guru3d.com/news-story/rumor-nvidia-super-is-a-refreshed-geforce-rtx-2060-(249)2070-(399)2080-(599).html
Quindi ?
7nm piccolissimo che consuma più per competere con una 12nm ( che verrà refreshata sembrerebbe ) ?
Se è stato spinto al massimo è perchè altrimenti non raggiungeva le prestazioni prefissate.
Anche il modello 5700 liscio ha un TDP superiore alla 2070.
Vedremo a che livello di TDP arriverà il Big Navi per l'High End.
Perchè doveva essere una scheda che doveva andare come una 2060.
E cmq si consumava sempre di più quello è chiaro quando nvidia arriverà sui 7 nm ci sarà da ridere
L'hanno forzata e per venderla a caro prezzo.
Amd ha deciso di spennare i suoi fanboy e spedire su stadia e console gli altri.
Marko#88
11-06-2019, 09:50
Ancora fermi a HDMI 2.0?? :muro:
Quanto dovremo ancora aspettare per vedere GPU con HDMI 2.1 e relativo supporto 2160p@120hz con VRR? :confused:
Nessuna scheda in commercio muove il 4K a 120 fps, mi sembra anche più o meno comprensibile che non abbiano quel tipo di interfaccia no? :stordita:
"si passa a 251mm quadrati contro i 495mm quadrati di Vega 64, GPU costruita con tecnologia produttiva a 14 nanometri"
Significa che probabilmente hanno diminuito costi e aumentato margini.
Caleranno di prezzo non appena sarà svuotato l'inventario delle "vecchie" Polaris e Vega che in realtà continuano ad essere delle ottime soluzioni per quei giocatori a cui non interessa per il momento RTX e in assenza di questo al prezzo suggerito un upgrade non ha proprio senso.
Roland74Fun
11-06-2019, 09:55
se la rx5700 liscia:
- avrà un dissipatore decente
(leggi non fa casino come una centrifuga)
- consumerà /scalderà decentemente (spero decisamente meno dei 180w nominali, diciamo un 120/140w ingame, non come quel fornetto della rx480 che avevo prima)
- si attesterà sui 300 euro
potrebbe essere la mia prossima scheda
Non so che versione di rx 480 avessi tu, ma la mia nitro+ OC veramente di rado supera i 120W sul core non fa casino e non ha mai la febbre. :D :D
Per dirti anche la GT 1030 passiva che ho sul muletto arriva ad 85 gradi in AC odyssey se non gli piazzi una ventolina sopra.
nickname88
11-06-2019, 10:04
Per dirti anche la GT 1030 passiva che ho sul muletto arriva ad 85 gradi in AC odyssey se non gli piazzi una ventolina sopra.
AC Odissey con la 1030 :asd:
sniperspa
11-06-2019, 10:12
Non so che versione di rx 480 avessi tu, ma la mia nitro+ OC veramente di rado supera i 120W sul core non fa casino e non ha mai la febbre. :D :D
Per dirti anche la GT 1030 passiva che ho sul muletto arriva ad 85 gradi in AC odyssey se non gli piazzi una ventolina sopra.
Pure la mia 580 ma con downvolt estivo di 0,12v :asd:
Quanto potrebbe andare la RX 5700 in più rispetto ad una RX 580?
Speriamo almeno stiano buttando giù una buona base per le future evoluzioni...sicuramente arrivare prima di Nvidia ai 7nm è già un buon vantaggio
AceGranger
11-06-2019, 10:30
il TDP non è il consumo...
si ma il 6 pin aggiuntivo non credo proprio che lo abbiano messo li per sport.
cronos1990
11-06-2019, 10:33
Questa me l'ero persa:
AMD Link è una funzionalità che è stata introdotta ufficialmente lo scorso mese di dicembre: con il nuovo aggiornamento driver implementa la possibilità di mandare in streaming dal PC alla TV (Apple TV o Android TV). Nella nuova versione dei driver è stata inoltre implementata la modalità automatic low latency, grazie alla quale viene abilitata la modalità gaming nella TV in automatico; implementate anche nuove funzionalità di monitoraggio in Radeon WattMan con un nuovo power meter e un pannello di riassunto delle modifiche implementate con la modalità di auto overclock.
In altre parole, posso fare lo streaming dei giochi dal PC ad un dispositivo Android TV, corretto?
Va bo che dovrebbe funzionarmi anche con il solo Steam, però sarebbe una cosa in più piuttosto utile per quanto mi riguarda.
Ancora fermi a HDMI 2.0?? :muro:
Quanto dovremo ancora aspettare per vedere GPU con HDMI 2.1 e relativo supporto 2160p@120hz con VRR? :confused:
VRR già funziona sulle schede in commercio.
sintopatataelettronica
11-06-2019, 11:58
https://www.guru3d.com/news-story/rumor-nvidia-super-is-a-refreshed-geforce-rtx-2060-(249)2070-(399)2080-(599).html
Io lo spero proprio che i prezzi si abbassino.. ma non puoi linkare un articolo del genere, son rumors 100% presi da siti francesi e cinesi..
Stai facendo un po' come Gyammy85 quando dai rumors profetizzava NAVI a 250€ :D
kliffoth
11-06-2019, 12:26
...io sono interessato alla scheda più silenziosa ad un certo livello di prestazioni, indipendentemente dal prezzo e dalle piccole differenze in framerate (diciamo entro i 100€ e con differenze 7-8 fps in più o in meno), e qualcosa mi dice che queste schede saranno ancora calde e rumorose, il mio sospetto, ma spero di sbagliarmi, viene da quel dichiarare una frequenza anche per il Game Mode e dal fatto che il dissipatore è molto ben studiato.
Comunque assemblo nel 2020, quindi faccio in tempo ad aspettare i nuovi Ryzen, i nuovi intel e le nuove GPU sia AMD sia nVidia... e magari esce pure un chipset pcie 4 senza ventolina
Il sistema blower va bene per alcune tipologie di case , ma nel 90 % dei casi sono rumorose e inefficienti rispetto ad altri sistemi di dissipazione
sidewinder
11-06-2019, 13:27
non mi e' chiaro come si collocano rispetto alla Radeon VII
:cool: Che io sappia le 2.1 sono per l'8k... ma mi sono informato poco, al momento mi interessa zero questa specifica.
In ogni caso, prendendo per buona la tua affermazione... le HDMI 2.1 su queste schede lo vedo comunque poco sensato, quelle richieste che citi sono più in ambito di fascia alta, quindi ha più senso introdurre le 2.1 con le NAVI che vedremo in seguito (2020?).
Detto questo... non mi piace la cosa, prezzo troppo alto.
Serve anche appunto anche per i 4k a 120hz, con la 2.0b si arriva a 120hz al massimo a 1440p, ed in UHD si è limitati a 60hz.
Per chi si accontenta dei "monitorini" PC non è un problema, grazie alla Displayport, ma per me che dopo aver provato 37 monitor che (oltre ad essere "piccoli") qualitativamente mi fanno uno più vomitare dell'altro :Puke: , voglio assolutamente giocare su TV OLED, ma senza rinunciare ai 120hz in 2160p con VRR, cosa purtroppo possibile solo con HDMI 2.1. :(
Nessuna scheda in commercio muove il 4K a 120 fps, mi sembra anche più o meno comprensibile che non abbiano quel tipo di interfaccia no? :stordita:
Per quello che interessa a me, sopratutto i giochi di guida, già la mia 1080ti muove benissimo i 2160p a 100fps+ in giochi come Forza Horizon/Motorsport e Pcars2, e anche oltre 150fps in Assetto Corsa o RFactor.
E sono anche quelli a cui tengo di più salire oltre i 60fps, che invece per giocare ad altri tipi di giochi mi possono bastare, ma se invece di 60 fossero anche solo 80 (e col VRR è possibile), tanto meglio! :cool:
nickname88
11-06-2019, 13:38
non mi e' chiaro come si collocano rispetto alla Radeon VIIdietro
Ennesimo flop di AMD.
449$, 7nm, per andare quanto la fascia media di Nvidia venduta a 500 (la 1080) da quasi 3 anni fabbricata a 16 nm.
In pratica "prendi questa gpu che va poco meglio della 1080 costando poco meno della 1080 e consumando uguale". A 7 nm? Quasi nel 2020?
Scusate ma lo vedo proprio come un flop. Specie considerando la 2060 è una gpu da oltre 400 mm^2.
Ma che cosa ha combinato di nuovo AMD?
Se la 5700 fosse costata una 50ina di $ in meno almeno avrei giudicato il tutto in maniera più positiva, ma vedo l'ennesimo fail di AMD con quell'inguardabile blower sulle reference che scalderà e farà rumore come al solito...
Mamma mia ma come si fa a difendere queste schede? Se fossimo nel 2017 vi direi "wow", ma non siamo nel 2017.
:cool:
Serve anche appunto anche per i 4k a 120hz, con la 2.0b si arriva a 120hz al massimo a 1440p, ed in UHD si è limitati a 60hz.
Per chi si accontenta dei "monitorini" PC non è un problema, grazie alla Displayport, ma per me che dopo aver provato 37 monitor che (oltre ad essere "piccoli") qualitativamente mi fanno uno più vomitare dell'altro :Puke: , voglio assolutamente giocare su TV OLED, ma senza rinunciare ai 120hz in 2160p con VRR, cosa purtroppo possibile solo con HDMI 2.1. :(
Per quello che interessa a me, sopratutto i giochi di guida, già la mia 1080ti muove benissimo i 2160p a 100fps+ in giochi come Forza Horizon/Motorsport e Pcars2, e anche oltre 150fps in Assetto Corsa o RFactor.
E sono anche quelli a cui tengo di più salire oltre i 60fps, che invece per giocare ad altri tipi di giochi mi possono bastare, ma se invece di 60 fossero anche solo 80 (e col VRR è possibile), tanto meglio! :cool:
Vai sulla nuova serie LG
Z9, W9, E9 e C9 su questi modelli è supportato hdmi 2.1
sulla serie sony 2019 e panasonic non si sa ancora bene, non lo hanno reso noto.
io ho un lg oled e7n, esperienza lo stesso molto appagante a 60fps. il prossimo che faro' sara' sicuramente un hdmi 2.1
In attesa di recensioni di terze parti, benchmark e consumi. Ma come prezzi siamo alti, praticamente pari alle 2070 ( si trovano già a 450/470€ ). Come detto da altri, se manca ancora hdmi è un altro problema ( anche se dubito sia in grado di superare i 60fps a 4K in molti giochi )
kliffoth
11-06-2019, 15:17
Ennesimo flop di AMD.
.... omissis
Scusate ma lo vedo proprio come un flop. Specie considerando la 2060 è una gpu da oltre 400 mm^2.
...omissis
Infatti è anche per quello, come ho detto poco prima, che temo che sia una scheda rumorosa: è molto più semplice dissipare un chip "grosso".
Tuttavia con il nm 7+ dovrebbe migliorare.
Per il resto non vedo alcuno scandalo e neanche un flop, almeno fino alle recensioni e basandosi su quello che è stato presentato: una scheda onesta ad un prezzo normale, e che arrivi 5 anni dopo o 10 o addirittura anticipi il futuro è irrilevante: noi acquistiamo quello che esiste sul mercato nel momento in cui decidiamo di spendere, non è che ci interessa la data di immissione.
Voglio dire: che AMD ipoteticamente pareggi oggi rispetto ad un prodotto vecchio della rivale, non ha alcuna importanza per il consumatore che cerca quanto di meglio i suoi soldi possano comprare.
Le mie riserve sono solo sul fronte acustico perchè io sono maniaco del silenzio, ma questo, di solito, mi costa non poco.
A me, fin dalla sua uscita continua a sembrare interessante Vega 56...vedremo i dati reali.
Io comunque sono nella "privilegiata" condizione di voler attendere il 2020 con tutti gli affinamenti e novità del caso
PS per chiarire: che AMD sia indietro a livello di architetture in ambito GPU non è un mio problema, se quello che trovo sul mercato sotto l'aspetto prezzo/prestazioni mi soddisfa, non è che non compro un loro prodotto X perchè sono arrivati dopo o perchè il rivale ha il prodotto Y in una fascia superiore per cui magari non voglio spendere.
Questo è un problema dell'azienda in ottica futura perchè potrebbe non riuscire a mantenere il passo con la concorrenza, ma a me interessa poco o nulla oggi, nel momento in cui acquisto, e queste schede possono essere inferiori o superiori ma non sembrano di certo un flop
Il punto è che quelle prestazioni a quel prezzo già c'erano da tantissimo tempo.
Se avevi bisogno di quelle prestazioni ti potevi prendere una 1080 anni fa e spendevi poco di più ma te la godevi per anni.
Per me uscire 3 anni dopo e offrire poco di più a poco di meno è un flop, la differenza di tempo costa eccome.
nickname88
11-06-2019, 15:24
Per il resto non vedo alcuno scandalo e neanche un flop, almeno fino alle recensioni e basandosi su quello che è stato presentato: una scheda onesta ad un prezzo normale, e che arrivi 5 anni dopo o 10 o addirittura anticipi il futuro è irrilevanteE' rilevante in relazione alla concorrenza. Perchè a 7nm ci passerà anche il competitore l'anno prossimo.
Il punto è che quelle prestazioni a quel prezzo già c'erano da tantissimo tempo.
Se avevi bisogno di quelle prestazioni ti potevi prendere una 1080 anni fa e spendevi poco di più ma te la godevi per anni.
Per me uscire 3 anni dopo e offrire poco di più a poco di meno è un flop, la differenza di tempo costa eccome.
ma via, è una vita che siamo sui forum e stiamo a paragonare un fascia alta di vecchia generazione con una nuova di fascia media? mah
kliffoth
11-06-2019, 15:54
Il punto è che quelle prestazioni a quel prezzo già c'erano da tantissimo tempo.
Se avevi bisogno di quelle prestazioni ti potevi prendere una 1080 anni fa e spendevi poco di più ma te la godevi per anni.
Per me uscire 3 anni dopo e offrire poco di più a poco di meno è un flop, la differenza di tempo costa eccome.
Ma magari 3 anni fa non avevo i soldi per una 1080 o non avevo necessità di aggiornare.
Il consumatore fa i conti con il suo portafoglio aggiornato ad OGGI e con quello che c`è OGGI sul mercato.
Quello che tu vuoi dire, e che in parte condivido, non influenza la mia scelta di consumatore OGGI, ma è un problema aziendale rivolto al futuro
E' rilevante in relazione alla concorrenza. Perchè a 7nm ci passerà anche il competitore l'anno prossimo.
Ed è esattamente quello che ho detto, ma lato consumatore il tutto va contestualizzato al momento dell'acquisto: cosa c'è, con quali prestazioni e a che prezzo.
...insomma nessuno fa mistero che AMD lato GPU sia indietro e che lo rimarrà per parecchio ancora, ma se io nel 2020, quando assemblerò, e quando come al solito mi rivolgerò alla fascia medio-alta, troverò questo prodotto AMD performante, SILENZIOSO ed al prezzo per me giusto, lo prenderò.
Poco mi interesserà che l'azienda sia indietro o che sia arrivata dopo...questi sono (grossi) problemi di AMD, non miei.
L'acquirente medio non è una persona che non ha 500 euro per 3 anni e all'improvviso li ha e si prende una scheda che va poco piu della 1080 costando poco di meno.
L'acquirente medio se necessitava di quelle prestazioni se le prendeva già da secoli.
Ormai il mercato è saturo in quella fascia di prestazioni e prezzo.
Ergo: devi vendere gpu a chi ha già una gpu significativamente più lenta (1060/480 o meno).
Peccato che quel tipo di acquirente abbia già upgradato spendendo di più o non ha intenzione di farlo.
Ergo, queste gpu amd rimarranno sullo scaffale, così come fanno le rtx.
Non rappresentano salti prestazionali di prezzo e tecnologie tale da farti spendere soldi.
Se la 5700x fosse costata 350$ e la 5700 280$...Potevo pure parlare di schede altamente concorrenziali e piazzate bene.
Ma così? Sono un flop.
Io che cerco un upgrade ala mia 580 da anni ancora non lo trovo.
ma via, è una vita che siamo sui forum e stiamo a paragonare un fascia alta di vecchia generazione con una nuova di fascia media? mah
Una volta la fascia media era quella che usciva 9 mesi dopo andando più veloce della vecchia fascia alta e costando molto meno.
Ora la fascia media va poco di più della fascia media di prima costando poco meno, ma 3 anni dopo.
Ma cosa diciamo su..La 1080 è stata lanciata a 499$, questa 5700x viene lanciata a 449$ e va poco di più costando poco di meno.
Non c'è nessun fascia alta vecchia vs fascia media nuova, ed è questa la cosa preoccupante. E nemmeno ve ne rendete conto.
kliffoth
11-06-2019, 16:18
L'acquirente medio non è una persona che non ha 500 euro per 3 anni e all'improvviso li ha e si prende una scheda che va poco piu della 1080 costando poco di meno.
... omissis
Peccato che quel tipo di acquirente abbia già upgradato spendendo di più o non ha intenzione di farlo.
...omissis
Io che cerco un upgrade ala mia 580 da anni ancora non lo trovo.
L'acquirente medio di solito pianifica le sue spese, e magari sa che può spendere 500€ ogni 5 anni, mette i suoi soldi da parte, o magari ha un nuovo lavoro con maggiori introiti o si vuol togliere uno sfizio.
E perchè avrebbe sicuramente già upgradato? Non può avere una GTX 770 tirata fino allo stremo e poi decidersi a cambiare arrendendosi al fatto che la scheda sia ormai obsoleta?
... e riguardo a te infatti, in quella fascia non hai motivo di aggiornare, e neanche vale la pena spendere per 10 -15 frames in più
Ale55andr0
11-06-2019, 16:40
ok ma quando sforneranno una super power che va un 30-40% in piu di una 2080ti ? :fagiano:
quando ci sarà la 3080ti...forse :asd:
Ale55andr0
11-06-2019, 16:44
Ennesimo flop di AMD.
449$, 7nm, per andare quanto la fascia media di Nvidia venduta a 500 (la 1080) da quasi 3 anni fabbricata a 16 nm.
In pratica "prendi questa gpu che va poco meglio della 1080 costando poco meno della 1080 e consumando uguale". A 7 nm? Quasi nel 2020?
Scusate ma lo vedo proprio come un flop. Specie considerando la 2060 è una gpu da oltre 400 mm^2.
Ma che cosa ha combinato di nuovo AMD?
Se la 5700 fosse costata una 50ina di $ in meno almeno avrei giudicato il tutto in maniera più positiva, ma vedo l'ennesimo fail di AMD con quell'inguardabile blower sulle reference che scalderà e farà rumore come al solito...
Mamma mia ma come si fa a difendere queste schede? Se fossimo nel 2017 vi direi "wow", ma non siamo nel 2017.
sssshhh, che poi danno dei fanboy verdi :D
Prestazioni da 2016 pur essendo a 7nm e consumando decentemente, difficile essere entusiasti...
A questo punto aspetto Ampère (prossima estate o giù di lì?), tanto i prezzi sono quelli e almeno ci dovrebbero essere prestazioni serie e ray tracing sicuramente migliorato e più supportato
carlottoIIx6
11-06-2019, 18:19
per i fun nvidia che si preoccupano fintamente del consumo :)
amdd parla di TBP e non TDP, per la cronaca ha lo stesso TBP della 2070 e di conseguenza lo stesso TDP.
:)
inoltre potenzialmente la 5700XT ha TF leggermente inforiori alla 2800 e leggo in giro che la 50th arriverà agli stessi TF della 2080 :)
AceGranger
11-06-2019, 18:41
per i fun nvidia che si preoccupano fintamente del consumo :)
amdd parla di TBP e non TDP, per la cronaca ha lo stesso TBP della 2070 e di conseguenza lo stesso TDP.
:)
inoltre potenzialmente la 5700XT ha TF leggermente inforiori alla 2800 e leggo in giro che la 50th arriverà agli stessi TF della 2080 :)
i TF di AMD sono come i "dollari" di Trinidad e Tobago :sofico:
Marckus87
11-06-2019, 19:38
L'acquirente medio non è una persona che non ha 500 euro per 3 anni e all'improvviso li ha e si prende una scheda che va poco piu della 1080 costando poco di meno.
L'acquirente medio se necessitava di quelle prestazioni se le prendeva già da secoli.
Ormai il mercato è saturo in quella fascia di prestazioni e prezzo.
Ergo: devi vendere gpu a chi ha già una gpu significativamente più lenta (1060/480 o meno).
Peccato che quel tipo di acquirente abbia già upgradato spendendo di più o non ha intenzione di farlo.
Ergo, queste gpu amd rimarranno sullo scaffale, così come fanno le rtx.
Non rappresentano salti prestazionali di prezzo e tecnologie tale da farti spendere soldi.
Se la 5700x fosse costata 350$ e la 5700 280$...Potevo pure parlare di schede altamente concorrenziali e piazzate bene.
Ma così? Sono un flop.
Io che cerco un upgrade ala mia 580 da anni ancora non lo trovo.
eh? non capisco il ragionamento
in pratica sostituiscono vega 56 e vega 64 più che polaris, mantenendosi nelle fasce di prezzo che occupavano quelle al lancio(forse il prezzo è inferiore di quelle, non ricordo esattamente).
a questo punto potrebbero presentare schede minori di queste, che vadano effettivamente a rimpiazzare 570/580 in quella fascia di prezzo, e di cui semplicemente non sono trapelati leaks, ipotesi gettonate?
sniperspa
11-06-2019, 20:29
eh? non capisco il ragionamento
Il ragionamento credo sia che sono schede di fascia più media che alta con prezzi da fascia più alta che media
Gyammy85
11-06-2019, 22:22
225W per una fascia media per competere con la 2070 che è a 12nm e TDP inferiore ? :rolleyes:
Immagino già come sarà la fascia alta, praticamente un altra Vega.
Non vi stancate mai di ripetere sempre le stesse cose, capisco il rosik che nvidia ha dovuto fare il padellone a 12 nm 2 gen dietro come efficienza su pascal però non me la prenderei più di tanto :asd:
Devi considerare che è un chip piccolissimo tipo polaris spinto al massimo per arrivare alla 2070. Per quello consuma tanto.
Il vero problema è il prezzo da "ladri"
Non mi sembra spinto al massimo, 4 cu in più clock in più e tmu in più rispetto alla 5700, che con sole 36 cu passa in scioltezza la 2060, scala linearmente
se la rx5700 liscia:
- avrà un dissipatore decente
(leggi non fa casino come una centrifuga)
- consumerà /scalderà decentemente (spero decisamente meno dei 180w nominali, diciamo un 120/140w ingame, non come quel fornetto della rx480 che avevo prima)
- si attesterà sui 300 euro
potrebbe essere la mia prossima scheda
Con un board power 180 watt si presume un tdp di 150 watt, la mia nitro con tdp 185 watt in game sulla gpu sta a 150 in media, quindi...
https://www.guru3d.com/news-story/rumor-nvidia-super-is-a-refreshed-geforce-rtx-2060-(249)2070-(399)2080-(599).html
Quindi ?
7nm piccolissimo che consuma più per competere con una 12nm ( che verrà refreshata sembrerebbe ) ?
Se è stato spinto al massimo è perchè altrimenti non raggiungeva le prestazioni prefissate.
Anche il modello 5700 liscio ha un TDP superiore alla 2070.
Vedremo a che livello di TDP arriverà il Big Navi per l'High End.
Quando la refreshano domani? ma se per la super nvidia se ne parla minimo settembre :doh: per andare uno sputino in più
Perchè doveva essere una scheda che doveva andare come una 2060.
E cmq si consumava sempre di più quello è chiaro quando nvidia arriverà sui 7 nm ci sarà da ridere
L'hanno forzata e per venderla a caro prezzo.
Amd ha deciso di spennare i suoi fanboy e spedire su stadia e console gli altri.
Amd starà già coi 7 nm+ su rdna 2 e ray tracing for free, così come ora ti sta dando il dlss (buono) for free
si ma il 6 pin aggiuntivo non credo proprio che lo abbiano messo li per sport.
Per l'oc
Io lo spero proprio che i prezzi si abbassino.. ma non puoi linkare un articolo del genere, son rumors 100% presi da siti francesi e cinesi..
Stai facendo un po' come Gyammy85 quando dai rumors profetizzava NAVI a 250€ :D
Sta a vedere che l'ho fatta io quella tabella, dai su, che quello ci aveva azzeccato al 90% più di sei mesi fa
non mi e' chiaro come si collocano rispetto alla Radeon VII
Un po' dietro ma neanche tanto
Ennesimo flop di AMD.
449$, 7nm, per andare quanto la fascia media di Nvidia venduta a 500 (la 1080) da quasi 3 anni fabbricata a 16 nm.
In pratica "prendi questa gpu che va poco meglio della 1080 costando poco meno della 1080 e consumando uguale". A 7 nm? Quasi nel 2020?
Scusate ma lo vedo proprio come un flop. Specie considerando la 2060 è una gpu da oltre 400 mm^2.
Ma che cosa ha combinato di nuovo AMD?
Se la 5700 fosse costata una 50ina di $ in meno almeno avrei giudicato il tutto in maniera più positiva, ma vedo l'ennesimo fail di AMD con quell'inguardabile blower sulle reference che scalderà e farà rumore come al solito...
Mamma mia ma come si fa a difendere queste schede? Se fossimo nel 2017 vi direi "wow", ma non siamo nel 2017.
Si vabbè, proprio flop :rolleyes: :rolleyes:
Non so se hai letto le specifiche, e le modifiche all'architettura…
i TF di AMD sono come i "dollari" di Trinidad e Tobago :sofico:
Si si, certo.
nickname88
11-06-2019, 22:32
Non vi stancate mai di ripetere sempre le stesse cose, capisco il rosik che nvidia ha dovuto fare il padellone a 12 nm 2 gen dietro come efficienza su pascal però non me la prenderei più di tanto :asd:
Certo che ne spari di boiate :rolleyes:
https://tpucdn.com/reviews/AMD/Radeon_VII/images/performance-per-watt_2560-1440.png
Continua a vivere nel tuo mondo fatato.
Intanto il performance / watt sia della 2080 che della 2080Ti son superiori entrambi alla 1080 liscia e anche della 1050Ti e rappresentano ancora oggi i due migliori riferimenti della categoria.
Non so se hai letto le specifiche, e le modifiche all'architettura…
225W di power board su 7nm, per andare appena meglio di una scheda da 12nm che invece ha un TDP da 175W.
Il resto è una magra consolazione.
Poi invece c'è chi come invece si è solo fermato al conto dei TFlops ( come tuo solito ) ed al marchio.
btw a me sembrano buoni prodotti per la fascia in cui sono posizionati, la xt va come una 2070 e dovrebbe avere un costo più basso di 50€ , la liscia è una 2060 allo stesso costo (a street price anche 20$ in più, ma spero vivamente che amd possa fare lo sforzo e metterla allo stesso prezzo, il problema è che per loro è una perdita, al contrario di nvidia che offre 2gb di memoria in meno ed un chip cut, qui ci sta solo il chip cut e quei 20$ giustificano i 2gb di memoria in più).
demonsmaycry84
11-06-2019, 23:49
un bel compitino anche se...mi aspettavo un poco di più (nelle performance) o meno (nel prezzo)
sicuramente tra un anno a questo punto il processo sarà molto maturo e il supporto software sarà al top anche per le nuove console consentendole di partire in quarta...molto bene iniziare la distribuzione già ora....
è chiaro che sony e microsoft hanno considerato il ray tracing ancora immaturo poco performante e sopratutto dallo scarso valore aggiunto così come è realizzato oggi da poter venir integrato nelle prossime console...
a questo punto senza il supporto delle console ho paura proprio che sparirà il ray tracing...la storia del cloud è un pò una supercazzola...
comunque con i 7nm e senza il ray tracing mi sarei aspettato un prezzo ancora più basso oppure una coppia per andare contro 2070/2080 e non 2060/2070...comunque sembrano schede progettate con idee chiare che si appoggiano molto bene a come vengono sviluppati i giochi ora e nei prossimi anni..non rivoluzionano ma sono un netto passo avanti...
tutto considerato il lavoro anche con le cpu cè poco da dire se non AMD IS BACK! again :D
btw a me sembrano buoni prodotti per la fascia in cui sono posizionati, la xt va come una 2070 e dovrebbe avere un costo più basso di 50€ , la liscia è una 2060 allo stesso costo (a street price anche 20$ in più, ma spero vivamente che amd possa fare lo sforzo e metterla allo stesso prezzo, il problema è che per loro è una perdita, al contrario di nvidia che offre 2gb di memoria in meno ed un chip cut, qui ci sta solo il chip cut e quei 20$ giustificano i 2gb di memoria in più).
tra una 2060 e una 2070 non c'e' molta differenza,e le 5700 si son messe in mezzo in una posizione che ti lascia con dilemmi amletici
la 5700 cuttata va di piu' della 2060,cioe' gia' va come una 2070 costando nettamente meno,
la 5700xt supera la 2070 insidiando pure vega7 e la 2080 costando nettamente meno
ma dipende sempre dal punto di vista,ognuno ha il suo bicchiere mezzo pieno mezzo vuoto,ma sicuro che molti non spendono quasi il doppio per gpu che offrono solo il 10~20% extra,la 5700xt punta anche a soffiare clienti alla fascia superiore;)
500 euro di scheda video , 400 euro di scheda madre(perchè le x570 costeranno un botto) e 500 euro di processore 3900X.In pratica quasi 3 milioni dle vecchio conio e mancano ancora tutti gli altri pezzi.
Grazie Prodi, grazie Napolitano, grazie Mario Draghi!!!!
Bradiper
12-06-2019, 06:04
Secondo me è inutile inventare nuove tecnologie che appesantiscono sempre più il carico di lavoro della gpu fin quando i giochi non sfrutteranno il multicore.
Siamo arrivati a 16 core nel consumer e di programmi che li sfruttano sono veramente pochi.
Preferirei averne 12 e una gpu integrata che aiuti la gpu delle scheda video alleggerendone il carico. Potremmo giocare in 4k e ray tracing anche con la fascia media.
ghiltanas
12-06-2019, 06:38
Mi aspettavo qualcosa di meglio, in particolare il TDP visti i 7nm e magari una reference con un buon sistema di dissipazione.
L' NDA per le recensioni quando dovrebbe scadere si sa?
nickname88
12-06-2019, 07:19
un bel compitino anche se...mi aspettavo un poco di più (nelle performance) o meno (nel prezzo)
sicuramente tra un anno a questo punto il processo sarà molto maturo e il supporto software sarà al top anche per le nuove console consentendole di partire in quarta...molto bene iniziare la distribuzione già ora....
è chiaro che sony e microsoft hanno considerato il ray tracing ancora immaturo poco performante e sopratutto dallo scarso valore aggiunto così come è realizzato oggi da poter venir integrato nelle prossime console...
a questo punto senza il supporto delle console ho paura proprio che sparirà il ray tracing...la storia del cloud è un pò una supercazzola...
comunque con i 7nm e senza il ray tracing mi sarei aspettato un prezzo ancora più basso oppure una coppia per andare contro 2070/2080 e non 2060/2070...comunque sembrano schede progettate con idee chiare che si appoggiano molto bene a come vengono sviluppati i giochi ora e nei prossimi anni..non rivoluzionano ma sono un netto passo avanti...
tutto considerato il lavoro anche con le cpu cè poco da dire se non AMD IS BACK! again :DSu entrambe le console prossime è stato confermato il ray tracing.
Così come anche l'architettura per High End di AMD.
nickname88
12-06-2019, 07:23
Siamo arrivati a 16 core nel consumer e di programmi che li sfruttano sono veramente pochi.
Non sono pochi, sono semmai gli stessi di sempre.
Conversione ed editing audio/video e virtualizzazione il più delle volte.
cronos1990
12-06-2019, 07:41
:cool:
Serve anche appunto anche per i 4k a 120hz, con la 2.0b si arriva a 120hz al massimo a 1440p, ed in UHD si è limitati a 60hz.
Per chi si accontenta dei "monitorini" PC non è un problema, grazie alla Displayport, ma per me che dopo aver provato 37 monitor che (oltre ad essere "piccoli") qualitativamente mi fanno uno più vomitare dell'altro :Puke: , voglio assolutamente giocare su TV OLED, ma senza rinunciare ai 120hz in 2160p con VRR, cosa purtroppo possibile solo con HDMI 2.1. :(Il problema di fondo è che gli OLED sono indirizzati principalmente per il mercato della "visione dei film", non per i videogiochi (anche perchè chi si compra un televisore che costa dai 2000 euro in su lo fa proprio perchè vuole vedere i film in una certa maniera).
Tant'è che, se non erro, il nuovo modello Panasonic (che è quello che acquisterò) ha ancora porte 2.0, e non vorrei dire una cazzata ma anche Sony... ma dovrei controllare.
Interessa più il segnale a 12-bit che i 120hz, perchè questi ultimi hanno senso solo nei videogiochi al momento.
cronos1990
12-06-2019, 07:49
Una volta la fascia media era quella che usciva 9 mesi dopo andando più veloce della vecchia fascia alta e costando molto meno.
Ora la fascia media va poco di più della fascia media di prima costando poco meno, ma 3 anni dopo.
Ma cosa diciamo su..La 1080 è stata lanciata a 499$, questa 5700x viene lanciata a 449$ e va poco di più costando poco di meno.
Non c'è nessun fascia alta vecchia vs fascia media nuova, ed è questa la cosa preoccupante. E nemmeno ve ne rendete conto.Solo che la 1080 non è mai stata fascia media (chiaro, al debutto), e non mi pare che sia stata lanciata a 500$.
Le x70 sono la fascia medio-alta di Nvidia e le x80 fascia alta (o altissima). O mi sono perso qualcosa nel frattempo?
Poi va bo... fascia media che dopo 9 mesi va molto più veloce della fascia alta... qualche shottino di troppo a colazione? :asd:
Il ragionamento credo sia che sono schede di fascia più media che alta con prezzi da fascia più alta che mediaRicordando che ho più volte detto che questi prezzi sono troppo alti dal mio punto di vista... da mesi si dice che le NAVI proposte adesso sarebbero state fascia media, tant'è che quando è iniziato a trapelare che andassero un 10-15% più veloce della 2070Ti ho iniziato a fare salti di gioia.
Poi, appunto, è arrivato il prezzo ufficiale...
500 euro di scheda video , 400 euro di scheda madre(perchè le x570 costeranno un botto) e 500 euro di processore 3900X.In pratica quasi 3 milioni dle vecchio conio e mancano ancora tutti gli altri pezzi.
Grazie Prodi, grazie Napolitano, grazie Mario Draghi!!!!Ti prego, dimmi il tuo spacciatore :asd:
Darkless
12-06-2019, 09:07
500 euro di scheda video , 400 euro di scheda madre(perchè le x570 costeranno un botto) e 500 euro di processore 3900X.In pratica quasi 3 milioni dle vecchio conio e mancano ancora tutti gli altri pezzi.
Grazie Prodi, grazie Napolitano, grazie Mario Draghi!!!!
Se prendi le tecnologie appena uscite spendi molto di più. E' sempre stato così, anche ai tempi delle lire, non è mai cambiato nulla.
Per contro se guardi il rapporto prezzo prestazioni all'uscita dei nuovi componenti puoi fare affari d'oro sulla gen precedente che va ancora benissimo ed offre prestazioni di tutto rispetto ( va ancora benone al 99% dell'utenza).
Tornando alle GPU in questione finché non escono benchmark reali si possono solo fare supposizioni che lasciano il tempo che trovano.
Per quanto riguarda il prezzo è un filo più alto di quel che personalmente mi aspettavo (ma davvero qualcuno credeva alla favoletta dei 300 euro ?) ma non bisogna scordarsi che si sta confrontando il prezzo di lancio di Navi con quello di schede Nvidia già sul mercato da un po'. Vedremo gli street price fra qualche mese come saranno. Le Vega relativamente a breve spariranno dal mercato e anche quello influirà sul prezzo delle Navi. Mi aspetto un calo di 30-40$ da qui ad inizio 2020 il che le renderà alquanto appetibili se Nvidia non taglierà i prezzi.
Certo se non mi fosse venuta la malsana idea di optare per un 27" 2K quando m'è morto il vecchio monitor questo inverno adesso dovessi solo pensare al FullHD la GPU avrebbe cessato di essere un problema da mesi.
Roland74Fun
12-06-2019, 09:34
5700 ----------> 349$ = 334,36€ + 22% = 407,92€ (Competitor primo prezzo 315,94€*)
5700XT -------> 449$ = 395,92€ + 22% = 483,02€ (Competitor primo prezzo 469,72€*)
*potrebbe trattarsi di shop infami
Meglio la RVII con 16 GB altrimenti meglio puntare verso qualcosa di simile delle altre marche.
lagoduria
12-06-2019, 11:40
500 euro di scheda video , 400 euro di scheda madre(perchè le x570 costeranno un botto) e 500 euro di processore 3900X.In pratica quasi 3 milioni dle vecchio conio e mancano ancora tutti gli altri pezzi.
Grazie Prodi, grazie Napolitano, grazie Mario Draghi!!!!
Per anni Intel e Nvidia non hanno avuto una vera concorrenza e ne hanno approfittato per aumentare i prezzi. E adesso che Amd è tornata sul mercato lo ha fatto adeguandosi (in parte) ai prezzi della concorrenza. Questo a livello mondiale. E secondo te è colpa di Prodi? No, qui la colpa è solo di coloro che hanno pensato di dare a quelli come te il diritto di voto.
[K]iT[o]
12-06-2019, 12:40
Lato processori AMD quest'anno potrebbe davvero sopravanzare parecchio, i nuovi ryzen sembrano avere molti meno punti deboli dei concorrenti attuali intel. Sulle GPU invece non sembrano essere riusciti a tirar fuori niente di davvero innovativo, l'unica cosa che suona interessante (ma inutile ai più) è la riduzione di delay, ma bisognerà vedere se nei test pratici l'effetto è davvero così buono come nella presentazione, o se come al solito a seconda dei giochi andrà un po' sì e un po' no.
Se i prezzi sono davvero così allineati come sembra, le nvidia sono ancora preferibili.
Bradiper
12-06-2019, 14:16
Non capisco come si fa a dire con obiettività che a livello gpu non abbiano tirato fuori niente di innovativo.
Una nuova architettura,che è un punto base,un punto di partenza che con le varie rifiniture e aggiustamenti potrebbe essere la strada giusta.
Un nuovo processo produttivo, che altri faticano ad arrivarci.
E non è così semplice come si pensi, basta farlo più piccolo per farlo più potente meno avido e meno caldo,oggi più diventa piccolo e più grossi sono i problemi da affrontare.
Non ha il ray tracing? E veramente presto perché questa tecnologia sia indispensabile e alla portata di tutti i titoli e di tutte le macchine, quando succederà saremo già passati oltre questa famiglia di schede.
È chiaro che nvidia sia più avanti, lo è da anni ma non è certo pensabile che amd faccia una magia e la sorpassi da un giorno all altro, già fare concorrenza allo stesso livello è un innovazione.
Anche intel sembrava irraggiungibile ma poi è inciampata nei bug e nel processo produttivo.
Visti i prezzi indicati da AMD (449 dollari per la scheda Radeon RX 5700XT e di 379 dollari per quella Radeon RX 5700) tutto sommato non molto distanti dalle controparti nvidia 2060 e 2070, non resta che vedere i test su strada per capire quanto convenienti possano essere.
Bradiper
12-06-2019, 14:47
Anche la contromossa di nvidia obiettivamente mi lascia perplesso, fare una 2070 super che costa meno della 2070 attuale e che va come la 2080? Vuol dire non vendere più nessuna delle 2 attuali che già faticano a vendere? Non era meglio dare una bella sforbiciata al prezzo e pensare alla prossima famiglia di schede? Tutto per star davanti in potenza alle schede di amd? Io sinceramente tra un 10 % in più o meno e 150 euro in più o meno.. Be non c'è ne che bisogno...
Anche la contromossa di nvidia obiettivamente mi lascia perplesso, fare una 2070 super che costa meno della 2070 attuale e che va come la 2080? Vuol dire non vendere più nessuna delle 2 attuali che già faticano a vendere? Non era meglio dare una bella sforbiciata al prezzo e pensare alla prossima famiglia di schede? Tutto per star davanti in potenza alle schede di amd? Io sinceramente tra un 10 % in più o meno e 150 euro in più o meno.. Be non c'è ne che bisogno...
Saranno vere queste voci sulle super?
Benjamin Reilly
12-06-2019, 15:10
Oramai AMD rappresenta l'eccellenza nel settore Hardware informatico. Ero piuttosto scettico rispetto alle sue capacità di competere con Intel ed Nvidia.
OvErClOck82
12-06-2019, 15:16
Figuriamoci se non finiva in vacca anche questo thread! :asd:
Per quel che può valere, Seiunfesso (chiunque sia realmente) ha tutta la mia comprensione e trovo eccessivo il modo in cui gli si è dato contro. Sarà che anche io sto sviluppando una certa mal sopportazione per certi personaggi che ritengo una piaga per questo forum, non è più possibile leggere una notizia interessante senza dover schivare le loro frustrazioni deliranti che puntualmente finiscono in flame. E la cosa peggiore è che ogni tanto non resisto e faccio l'errore di rispondere. :p
se uno che si iscrive con un altro account per dare della persona di merda ad un altro utente (in discussioni su pezzi di silicio e plastica) ha tutta la tua comprensione, forse hai bisogno di farti curare come lui... cosí a occhio, eh
fraussantin
12-06-2019, 15:30
Saranno vere queste voci sulle super?
Secondo me le super andranno un po di più delle 5700 e costeranno 50 euro in più.
Le vecchie 2060 2070 andranno out of stock e amd sarà competitiva senza abbassare i prezzi.
I "cartelli" funzionano così.
Secondo me le super andranno un po di più delle 5700 e costeranno 50 euro in più.
Le vecchie 2060 2070 andranno out of stock e amd sarà competitiva senza abbassare i prezzi.
I "cartelli" funzionano così.
da quanto letto in giro, pur sempre rumors, le super dovrebbero prendere la fascia di prezzo delle 20xx attuali, e le "vecchie" 20xx dovrebbero scalare di prezzo
certo finché non vedo Nvidia abbassare il prezzo con i miei occhi, non ci credo :asd:
Roland74Fun
12-06-2019, 15:54
Saranno vere queste voci sulle super?
Guarda, anche la benzina "super" doveva essere chissà che... " con più ottani!"... "metti un tigre nel motore!" e poi alla fine non cambiava nulla o quasi, tutto abbandonato in favore della benzina "verde"....
majinbu7
12-06-2019, 16:51
Bah...aspetto di vedere i test su strada e gli street price di qualche custom un pò come si deve, perchè il dissipatore a bara, sappiamo già tutti benissimo come si comporta in fatto di Temperature/Decibel ...... per poi tirare le somme, ma sinceramente mi aspettavo dei prezzi leggermente inferiori, avevo previsto un 399 per la xt ...è andata male :D
Ps:cmq la XT se stando a quello che ha fatto vedere AMD è parecchio vicino alla Radeon VII che possiedo.
Guarda, anche la benzina "super" doveva essere chissà che... " con più ottani!"... "metti un tigre nel motore!" e poi alla fine non cambiava nulla o quasi, tutto abbandonato in favore della benzina "verde"....
Queste sono super ma anche verdi in quanto Nvidia che ormai è una garanzia, quindi sono più fiducioso rispetto alla benzina. :)
fraussantin
12-06-2019, 17:02
Guarda, anche la benzina "super" doveva essere chissà che... " con più ottani!"... "metti un tigre nel motore!" e poi alla fine non cambiava nulla o quasi, tutto abbandonato in favore della benzina "verde"....
Al di la della battuta , la benzina super è migliore della verde economica e sicuramente migliore della gialla degli anni 80. Le nuove super sono quelle benzine vendute a caro prezzo tipo vpower e affini
Darkless
12-06-2019, 17:41
da quanto letto in giro, pur sempre rumors, le super dovrebbero prendere la fascia di prezzo delle 20xx attuali, e le "vecchie" 20xx dovrebbero scalare di prezzo
certo finché non vedo Nvidia abbassare il prezzo con i miei occhi, non ci credo :asd:
Idem. cmq a me va bene tutto: AMD, Nvidia o quel che gli pare. Basta che calino i prezzi e le prestazioni siano buone.
tuttodigitale
12-06-2019, 18:22
Ennesimo flop di AMD.
449$, 7nm, per andare quanto la fascia media di Nvidia venduta a 500 (la 1080) da quasi 3 anni fabbricata a 16 nm.
In pratica "prendi questa gpu che va poco meglio della 1080 costando poco meno della 1080 e consumando uguale". A 7 nm? Quasi nel 2020?
Scusate ma lo vedo proprio come un flop. Specie considerando la 2060 è una gpu da oltre 400 mm^2.
Ma che cosa ha combinato di nuovo AMD?
Se la 5700 fosse costata una 50ina di $ in meno almeno avrei giudicato il tutto in maniera più positiva, ma vedo l'ennesimo fail di AMD con quell'inguardabile blower sulle reference che scalderà e farà rumore come al solito...
Mamma mia ma come si fa a difendere queste schede? Se fossimo nel 2017 vi direi "wow", ma non siamo nel 2017.
aspetta tu vedi un flop, una gpu di dimensioni medio-piccole (medie è VEGA 20) che compete con chip il doppio più grandi?
con un die shrink da 14 ai 7nm i consumi si dimezzano a parità di condizioni, ma a parità di complessità del chip e TDP le prestazioni sono superiori solo del 10-15%.
Il vero passo in avanti nelle prestazioni si avrà quando aumenterà a dismisura il numero di transistor che compongono la GPU...
PS i prezzi sono destinati a scendere con la maturazione del processo produttivo....se TSMC non è in grado di produrre molte gpu non ha senso proporle ad un prezzo inferiore.
Comunque, per gli utilizzatori finali, la bontà di un prodotto è dato dal rapporto prezzo / prestazioni.
Io aspetto Luglio per giudicare, ovviamente ho giudicato molto negativamente il comportamento di Nvidia che ha posizionato le nuove GPU in base alle prestazioni ed ai prezzi della precedente generazione. Se AMD non si scosterà da questa politica, il giudizio non potrà che essere identico.
Se poi il prezzo sarà leggermente inferiore e le prestazioni leggermente superiori, fermo restando il giudizio negativo si tratterà comunque di schede preferibili e quindi non inutili.
aspetta tu vedi un flop, una gpu di dimensioni medio-piccole (medie è VEGA 20) che compete con chip il doppio più grandi?
Beh, come già facevo notare prima, il fatto di essere piccolo è essenzialmente dovuto al processo produttivo.
Il fatto che competa con chip molto più grandi sarebbe un vantaggio a parità di processo produttivo, non in questo caso.
Ad ogni modo mi pare che per quel che offre in mercato ora la scheda in se non sia male, a parte il fatto che i prezzi sono elevati in assoluto.
se uno che si iscrive con un altro account per dare della persona di merda ad un altro utente (in discussioni su pezzi di silicio e plastica) ha tutta la tua comprensione, forse hai bisogno di farti curare come lui... cosí a occhio, eh
Perdonami, ma se ti ritieni in dovere di dire agli altri di farsi curare per aver espresso un'opinione, probabilmente qualche domanda dovresti fartela anche tu.
Ad ogni modo mi riferivo a tutto il resto, non certo all'insulto che naturalmente poteva risparmiarsi (neanche ci avevo fatto caso all'insulto). E il fatto che abbia utilizzato un altro account per me è irrilevante, voleva solo evitare di veder sospeso il suo account principale, non mi sembra una colpa da fustigazione pubblica.
Ad ogni modo ognuno la pensi come preferisce, magari senza che gli sia consigliato un ricovero (che mi sembra un altrettanto pessimo insulto).
Perdonami, ma se ti ritieni in dovere di dire agli altri di farsi curare per aver espresso un'opinione, probabilmente qualche domanda dovresti fartela anche tu.
Ad ogni modo mi riferivo a tutto il resto, non certo all'insulto che naturalmente poteva risparmiarsi (neanche ci avevo fatto caso all'insulto). E il fatto che abbia utilizzato un altro account per me è irrilevante, voleva solo evitare di veder sospeso il suo account principale, non mi sembra una colpa da fustigazione pubblica.
Ad ogni modo ognuno la pensi come preferisce, magari senza che gli sia consigliato un ricovero (che mi sembra un altrettanto pessimo insulto).
vuoi la piazza del quartiere pulita?
per prima cosa sforzati di non sporcarla e poi fai capire agli altri che anche loro la devono tenere pulita.
finchè sul forum si permettono questo tipo di atteggiamenti il risultato finale sarà sempre lo stesso: chiude, da solo, dopo lunga agonia.
non è utile nemmeno cancellare i messaggi, come hanno fatto, perchè non insegnano agli utenti le conseguenze di un'azione, la responsabilità di quello che si scrive.
comunque sbottare così in luogo pubblico denota qualche problema di fondo della personalità; se vedo che uno manifesta un disturbo, non mi giro dall'altra parte e faccio finta di nulla... e la conferma è stata che il tipo ha anche cercato di attaccar briga in via privata, azione stroncata sul nascere.
tu ci tieni al forum di hwupgrade?
basta che ti comporti a modo, se è il caso eviti di fare battibecco, soprattutto con chi non ritieni meritevole, e stronchi atteggiamenti e comportamenti che possono dare fastidio (a tutti).... non ci vuole molto e non è nemmeno necessaria una moderazione attiva dall'alto.
come hai potuto notare non ho scritto due parole sulla news anche se non concordo affatto con alcuni commenti... semplicemente non mi va di creare "le solite faide su argomenti futili come una GPU da gaming".
Vai sulla nuova serie LG
Z9, W9, E9 e C9 su questi modelli è supportato hdmi 2.1
sulla serie sony 2019 e panasonic non si sa ancora bene, non lo hanno reso noto.
io ho un lg oled e7n, esperienza lo stesso molto appagante a 60fps. il prossimo che faro' sara' sicuramente un hdmi 2.1
Infatti è quello il mio prossimo obiettivo non appena i prezzi si saranno stabilizzati. :cool:
Ma mi scazza che non esistano ancora GPU in grado di sfruttarlo a dovere. :cry:
Proprio il supporto VRR HDMI 2.1 sarebbe l'unica cosa che mi farebbe cambiare GPU, dato che per il resto la mia 1080ti fa ancora benissimo il suo dovere. (del 4k nativo mi frega poco, ma di un framerate variabile superiore a 60fps mi frega tantissimo!)
Proprio il supporto VRR HDMI 2.1 ...
Fai bene attenzione però: il supporto ad HDMI 2.1 non significa affatto il supporto a tutte le sue caratteristiche (in realtà significa il supporto di almeno una delle sue caratteristiche), e da quel che ho letto in questa discussione mi pare che in molti non l'abbiano capito.
Quindi è bene far notare che, se si cerca una specifica funzionalità, la cosa migliore è indagare per bene e non fermarsi al numeretto della versione di HDMI supportata.
Lo stesso vale anche con versioni precedenti dello standard.
@Locusta
Discordo in buona parte non tanto con ciò che hai scritto ma nel modo in cui l'hai indirizzato. Ad ogni modo se hanno cancellato dei messaggi direi che non è il caso di continuare qui, magari si avrà piacere di discuterne in seguito.
Se prendi le tecnologie appena uscite spendi molto di più. E' sempre stato così, anche ai tempi delle lire, non è mai cambiato nulla
la memoria......
https://www.01net.it/il-pc-ideale-per-i-videogiochi-settembre-2003/
Per anni Intel e Nvidia non hanno avuto una vera concorrenza e ne hanno approfittato per aumentare i prezzi. E adesso che Amd è tornata sul mercato lo ha fatto adeguandosi (in parte) ai prezzi della concorrenza. Questo a livello mondiale. E secondo te è colpa di Prodi? No, qui la colpa è solo di coloro che hanno pensato di dare a quelli come te il diritto di voto.
vergognati tu e quel criminale di Prodi.Io a votare non ci vado, mica mi faccio prendere in giro come te.Vai a controllare quanto costava un pc top di gamma nel 2001 e poi torna a chiedere scusa.
Darkless
13-06-2019, 08:33
la memoria......
https://www.01net.it/il-pc-ideale-per-i-videogiochi-settembre-2003/
C'è anche una cosa chiamata inflazione eh
C'è anche una cosa chiamata inflazione eh
Dal 2003 ad oggi +26% quindi quel pc del 2003 da 1240€ oggi costerebbe 1568€
Fonte istat
nickname88
13-06-2019, 09:24
la memoria......
https://www.01net.it/il-pc-ideale-per-i-videogiochi-settembre-2003/
Perchè tu veramente pensi che le cifre siano così tanto inferiori rispetto ad oggi ? E' l'esatto contrario
La configurazione che hai postato ha anche una cifra molto alta, spenderesti meno oggi, molto meno.
Se escludiamo alimentatore, case, SSD, scheda audio, RAM senza specifiche elevate, dissipatore after market ...
Ryzen 2600X
Asus B450 Plus
Corsair 2*8GB 3000CL5
Vega 56 ( che è l'equivalente )
Western Digital Blue 500GB ( che è l'equivalente )
Masterizzatore DVD Asus
Logitech Z506
834€ da Amazon ( quindi altrove costa meno ).
Ne avanzerebbero oltre 400 per aggiungere un SSD e cambiare la VGA con una RTX2070 e continuerebbero ad avanzare.
Bradiper
13-06-2019, 13:39
Scusate dove costa meno di Amazon? Non è sarcasmo mi interessa davvero saperlo.
cronos1990
13-06-2019, 13:45
Giusto per...
Allo stato attuale conto di farmi questo PC:
Ryzen 7 3700X (330 €)
MB X470 o X570 (150 €)
RAM: g.skill F4-3600C16D-16GVK (8GBx2) (200 €)
GPU: 3700 (380 €)
ALI: Corsair TX750M (90 €)
HD: Samsung EVO 860 1TB SATA III (140 €)
Sono 1290 €, e non è certo un PC di fascia bassa (prezzi presi paro paro da Amazon). Manca case, lettore DVD, mouse e tastiera... ma si rientra tranquillamente nei 1568 € succitati (cioè i 1240 più l'inflazione). E alcuni di quei prezzi conto di vederli scendere, o trovarne di più bassi altrove.
Cioè...
Bradiper
13-06-2019, 14:07
Infatti è un pc di fascia medio alta.
Io dovrò assemblare 2 PC da gioco e avevo preventivato 1300/1500 già prima che uscissero i 3000.
Comunque puoi risparmiare ancora qualcosa su ali e ram secondo me.
Ma infatti se uno non è intrippato con l'inutile 4k, con 1000/1500 ti fai un PC da gioco già più che dignitoso in FHD o QHD.
Ho fatto da poco un mini-htpc/console con i7-8700, rtx2070, 16gb, ssd NVME 1tb per poco meno di 1500€.
Certo non è un "TOP" di gamma ma un medio-alta che va già benissimo per giocare (ma andrebbe bene anche uno molto più economico.)
Dopotutto anche il PC del 2002 postato panaboy era un fascia media:
CPU: Athlon XP 2600+ (C'erano i più costosi 2700+ e 2800+, per non parlare degli Intel che però all'epoca erano inferiori)
RAM: 512 MB DDR 400 (c'era già chi montava 1 o 2gb)
Hard disk: Seagate ST3120024A 120 GB ATA 7.200 rpm (c'erano tagli più grandi, ma molti "Pro" usavano i costosissimi SCSI)
Sezione video: Sapphire Radeon 9700 Pro 128 MB (c'erano le più costose e performanti 9800pro e GF 5900 ultra)
Sezione audio: integrata Dolby Digital 5.1 (all'epoca una Soundblaster era d'obbligo, le integrate erano pessime!)
Quindi per i PC top di gamma si spendeva parecchio anche allora, e come oggi non ne valeva la pena dato che si spendeva molto di più per avere poco di più.
Ma è indubbio che sopratutto le GPU top oggi abbiano raggiunto prezzi fuori dal mondo. (e infatti sono ancora "fermo" alla 1080ti). :muro:
Ma infatti se uno non è intrippato con l'inutile 4k, con 1000/1500 ti fai un PC da gioco già più che dignitoso in FHD o QHD.
Ho fatto da poco un mini-htpc/console con i7-8700, rtx2070, 16gb, ssd NVME 1tb per poco meno di 1500€.
Certo non è un "TOP" di gamma ma un medio-alta che va già benissimo per giocare (ma andrebbe bene anche uno molto più economico.)
Dopotutto anche il PC del 2002 postato panaboy era un fascia media:
CPU: Athlon XP 2600+ (C'erano i più costosi 2700+ e 2800+, per non parlare degli Intel che però all'epoca erano inferiori)
RAM: 512 MB DDR 400 (c'era già chi montava 1 o 2gb)
Hard disk: Seagate ST3120024A 120 GB ATA 7.200 rpm (c'erano tagli più grandi, ma molti "Pro" usavano i costosissimi SCSI)
Sezione video: Sapphire Radeon 9700 Pro 128 MB (c'erano le più costose e performanti 9800pro e GF 5900 ultra)
Sezione audio: integrata Dolby Digital 5.1 (all'epoca una Soundblaster era d'obbligo, le integrate erano pessime!)
Quindi per i PC top di gamma si spendeva parecchio anche allora, e come oggi non ne valeva la pena dato che si spendeva molto di più per avere poco di più.
Ma è indubbio che sopratutto le GPU top oggi abbiano raggiunto prezzi fuori dal mondo. (e infatti sono ancora "fermo" alla 1080ti). :muro:
QUOTO
oggi per giocare in FHD con dettagli su ultra basta un PC di fascia media e puoi tranquillamente farlo anche con pezzi usati e vecchi di qualche anno.
Il discorso cambia se voglio giocare risoluzioni altissime su monitor grandi in 4k, fps medi superiori a 60 e tutti gli "accrocchi" possibili attivi a livello grafico, a questo punto sei consapevole che le nozze con i fichi secchi non le puoi fare.
Oggi con 1000 euro ti crei un PC che ti permettedi giocare a tutto FHD e anche in QHD, magari per quest'ultimo con qualche compromesso.
nickname88
13-06-2019, 16:23
Ma infatti se uno non è intrippato con l'inutile 4k
Stai esagerando.
Da 1440p a 2160p la differenza si vede eccome, tutt'altro che inutile.
Giusto per...
Allo stato attuale conto di farmi questo PC:
Ryzen 7 3700X (330 €)
MB X470 o X570 (150 €)
RAM: g.skill F4-3600C16D-16GVK (8GBx2) (200 €)
GPU: 3700 (380 €)
ALI: Corsair TX750M (90 €)
HD: Samsung EVO 860 1TB SATA III (140 €)
Sono 1290 €, e non è certo un PC di fascia bassa (prezzi presi paro paro da Amazon). Manca case, lettore DVD, mouse e tastiera... ma si rientra tranquillamente nei 1568 € succitati (cioè i 1240 più l'inflazione). E alcuni di quei prezzi conto di vederli scendere, o trovarne di più bassi altrove.
Cioè...
Puoi rosicchiare qualche euro sulle ram secondo me (prenderei le 3200), il best/buy come cpu vedo il 3600X piu' che ottimo per giocare al momento, come mobo invece prenderei direttamente le X570, la GPU 3700 ??? Forse volevi dire 5700 ma potresti anche valutare all'uscita della 5700 una VEGA64 che come prezzi si sta abbassando notevolmente.
Stai esagerando.
Da 1440p a 2160p la differenza si vede eccome, tutt'altro che inutile.
Certo che si vede, ma avendo provato più volte un 65'' OLED, anche in 1440p o 1800p upscalato 2160p lo trovo INFINITAMENTE più spettacolare da vedere e coinvolgente rispetto al mio VA 32'' 1440p 144hz nativo.
Poi per me la fluidità è molto più importante della definizione, percui preferirei decisamente giocare anche solo in 1080p@100+fps, piuttosto che in 2160p@60fps scarsi.
Non dico che non vedo la differenza (ma se lo scaler è buono bisogna proprio impegnarsi per vederla in game...) e mi piacerebbe poter giocare a 2160p@120fps, ma è una cosa di cui posso anche fare a meno, mentre patisco parecchio a fare a meno ai 60+FPS con refresh rate variabile.
Ma chiaramente non tutti abbiamo le stesse priorita, dopotutto tanta gente riesce a giocare a 30fps sulle console e si diverte lo stesso, probabilmente per loro sono "inutili" i 60+fps come per me è "inutile" il 4k. (o meglio direi "utile ma non indispensabile")
Chi si accontenta gode... così così, ma chi non si accontenta non gode mai.
Darkless
13-06-2019, 18:03
Stai esagerando.
Da 1440p a 2160p la differenza si vede eccome, tutt'altro che inutile.
bhè innanzitutto dipende dalle dimensioni del pannello.
Ma infatti se uno non è intrippato con l'inutile 4k, con 1000/1500 ti fai un PC da gioco già più che dignitoso in FHD o QHD.
In FullHD oramai guardando il prezzo/prestazioni oramai vai anche sul lusso oggi. Il 2K è più rognoso a causa delle GPU che per quella fascia sono ancora sovrapprezzate.
Slater91
13-06-2019, 18:49
vergognati tu e quel criminale di Prodi.Io a votare non ci vado, mica mi faccio prendere in giro come te.Vai a controllare quanto costava un pc top di gamma nel 2001 e poi torna a chiedere scusa.
Intanto ci pensi su cinque giorni, dal momento che dare del criminale a qualcuno non è un'opinione ma è diffamazione (che ricordo essere reato). Oltretutto questo è un forum di discussione su temi tecnologici, non di discussione politica.
Per chiudere il discorso in via definitiva: consiglio la lettura della pagina di Wikipedia alla voce "inflazione".
Bradiper
13-06-2019, 19:34
Prima lo votano e e poi lo insultano vabbè, non votare è come votare per chi vince. Vabbè.
Detto questo a me basta giocare in fhd su un monitor 28/32 pollici non ho grandi pretese infatti stavo guardando la rx580 e ryzen 7 1700 prima che lisa mi stregasse con le nuove diavolerie.
Per giocare a giochi un po' datati (gw2) non gli ultimi titoli naturalmente.
Darkless
13-06-2019, 21:06
Prima lo votano e e poi lo insultano vabbè, non votare è come votare per chi vince. Vabbè.
Detto questo a me basta giocare in fhd su un monitor 28/32 pollici non ho grandi pretese infatti stavo guardando la rx580 e ryzen 7 1700 prima che lisa mi stregasse con le nuove diavolerie.
Per giocare a giochi un po' datati (gw2) non gli ultimi titoli naturalmente.
Mah valuta anche la distanza a cui ti posizioni dal monitor.
Secondo me il FHD va benissimo fino ai 24". Se vai sui 26-28 per me è meglio il 2K (e il 4K dai 32" in su).
nickname88
13-06-2019, 23:09
bhè innanzitutto dipende dalle dimensioni del pannello.
La storia della dimensione del pannello vale solo in presenza di pannelli molto piccoli e pure fino ad un certo punto. Su un pannello da 27" ( ma anche meno ) la differenza fra un 1440p e un 4K si vede.
Questo è un dato di fatto.
Certo che si vede, ma avendo provato più volte un 65'' OLED, anche in 1440p o 1800p upscalato 2160p lo trovo INFINITAMENTE più spettacolare da vedere e coinvolgente rispetto al mio VA 32'' 1440p 144hz nativo.
Poi per me la fluidità è molto più importante della definizione, percui preferirei decisamente giocare anche solo in 1080p@100+fps, piuttosto che in 2160p@60fps scarsi.
Non dico che non vedo la differenza (ma se lo scaler è buono bisogna proprio impegnarsi per vederla in game...) e mi piacerebbe poter giocare a 2160p@120fps, ma è una cosa di cui posso anche fare a meno, mentre patisco parecchio a fare a meno ai 60+FPS con refresh rate variabile.
Ma chiaramente non tutti abbiamo le stesse priorita, dopotutto tanta gente riesce a giocare a 30fps sulle console e si diverte lo stesso, probabilmente per loro sono "inutili" i 60+fps come per me è "inutile" il 4k. (o meglio direi "utile ma non indispensabile")
Chi si accontenta gode... così così, ma chi non si accontenta non gode mai.E' inutile per te, buono che ti accontenti, ma io ho un 2K e sinceramente lo trovo insufficiente e il risultato con i filtri non sempre sono soddisfacenti.
Per il discorso fluidità basta adeguare la VGA al proprio fabbisogno, oggi non esiste nulla di sufficiente ovviamente, ma si spera che la prossima top di gamma Nvidia a 7nm lo sia. Io quando son passato al 2K l'ho fatto con una scheda che mi ha permesso di avere anche più fps a quella risoluzione che alla precedente, e intendo fare lo stesso prossimamente.
Bradiper
14-06-2019, 06:03
Credo che il monitor stia circa a 60 cm.
Si anche 2k dovrebbe dovrebbe reggere bene, dipende da che scheda video riesco ad accaparrarmi e dal budget (un monitor 4k meno di 280 euro non si trova)e preferisco giocare in 2k con una scheda migliore che in 4k con una scheda che fatica.sono indirizzato verso un monitor 21:9.
fraussantin
14-06-2019, 07:00
La storia della dimensione del pannello vale solo in presenza di pannelli molto piccoli e pure fino ad un certo punto. Su un pannello da 27" ( ma anche meno ) la differenza fra un 1440p e un 4K si vede.
Questo è un dato di fatto.
.
Se per quello si vede anche su monitor molto più piccoli. Diciamo che alle distanze tipiche da monitor almeno fino a 200 dpi vedi i pixel , quindi alzando di ris migliori di nitidezza e aliasing
Ma diciamo che il gioco non vale la candela.
Anche perchè windows è tarato per stare sui 100 dpi , se ti sposti troppo in un verso o nell'altro devi caricare troppo di zoom con tutti i problemi che ne consegue.
In ogni caso il 4k non è gestibile con le gpu moderne
Su un pc top( 2080ti) io metterei un wqhd ad alto refrash sono veramente fighi.
sgrinfia
14-06-2019, 07:23
Opinione personale su i monitor per quanto riguarda la grandezza, secondo me un 24 4K è disastroso e inutile . un 1080 lo vedo buono su max 27' pollici è invece il 1440p è nato per quella grandezza a salire . infine il 4K una risoluzione inutile e ancora prematura per hardware attuale (schede video).
Marko#88
14-06-2019, 07:38
Se per quello si vede anche su monitor molto più piccoli. Diciamo che alle distanze tipiche da monitor almeno fino a 200 dpi vedi i pixel , quindi alzando di ris migliori di nitidezza e aliasing
Ma diciamo che il gioco non vale la candela.
Anche perchè windows è tarato per stare sui 100 dpi , se ti sposti troppo in un verso o nell'altro devi caricare troppo di zoom con tutti i problemi che ne consegue.
In ogni caso il 4k non è gestibile con le gpu moderne
Su un pc top( 2080ti) io metterei un wqhd ad alto refrash sono veramente fighi.
È già da un po' che W10 non ha particolari problemi con l'aumento dell'interfaccia. Io sono su 4K da quasi 3 anni, è davvero da un tot che non trovo schermate sfuocate o cose del genere... al massimo con certe applicazioni di terze parti ma li Windows non c'entra molto.
Per quanto riguarda "In ogni caso il 4k non è gestibile con le gpu moderne" ni, se ci si accontenta di giocare attorno ai 50/60 fps non ci sono grossi problemi. Il 4K ad alto refresh crea invece qualche problema, quello si.
Poi dipende molto dai giochi... inutile fare affermazioni così fini a sè stesse.
fraussantin
14-06-2019, 07:57
È già da un po' che W10 non ha particolari problemi con l'aumento dell'interfaccia. Io sono su 4K da quasi 3 anni, è davvero da un tot che non trovo schermate sfuocate o cose del genere... al massimo con certe applicazioni di terze parti ma li Windows non c'entra molto.
Per quanto riguarda "In ogni caso il 4k non è gestibile con le gpu moderne" ni, se ci si accontenta di giocare attorno ai 50/60 fps non ci sono grossi problemi. Il 4K ad alto refresh crea invece qualche problema, quello si.
Poi dipende molto dai giochi... inutile fare affermazioni così fini a sè stesse.
È già da un po' che W10 non ha particolari problemi con l'aumento dell'interfaccia. Io sono su 4K da quasi 3 anni, è davvero da un tot che non trovo schermate sfuocate o cose del genere... al massimo con certe applicazioni di terze parti ma li Windows non c'entra molto.
Per quanto riguarda "In ogni caso il 4k non è gestibile con le gpu moderne" ni, se ci si accontenta di giocare attorno ai 50/60 fps non ci sono grossi problemi. Il 4K ad alto refresh crea invece qualche problema, quello si.
Poi dipende molto dai giochi... inutile fare affermazioni così fini a sè stesse.
Ci sono una marea di applicativi che non vanno d'accordo( con lo zoom di windows( perlopiù win32 vecchi o pannelli di mod ). Con un 4k da 27 pollici ti trovi alcune app con i caratteri illeggibili. O caratteri che escono fuori dalle schermate o altre blurrose.
Finchè aggiusti di un 25%+o- grossi problemi non ci sono .
Per lo spendere 1500 euro di gpu per giocare a 50 fps lo lascio a voi.
Io non vorrei mai stare sotto i 75-90 anche a costo di sacrificare dettagli.
Prima lo votano e e poi lo insultano vabbè, non votare è come votare per chi vince. Vabbè.
Detto questo a me basta giocare in fhd su un monitor 28/32 pollici non ho grandi pretese infatti stavo guardando la rx580 e ryzen 7 1700 prima che lisa mi stregasse con le nuove diavolerie.
Per giocare a giochi un po' datati (gw2) non gli ultimi titoli naturalmente.
Con la Rx580 e Ryzen 1700 giochi tranquillamente anche a tutti gli ultimi titoli in FHD senza problemi di nessun genere.
Marko#88
14-06-2019, 08:19
Ci sono una marea di applicativi che non vanno d'accordo( con lo zoom di windows( perlopiù win32 vecchi o pannelli di mod ). Con un 4k da 27 pollici ti trovi alcune app con i caratteri illeggibili. O caratteri che escono fuori dalle schermate o altre blurrose.
Finchè aggiusti di un 25%+o- grossi problemi non ci sono .
Si, roba vecchia e soprattutto NON di sistema. Quindi non è che Windows è tarato per i 100 dpi, sono gli sviluppatori di quelle applicazioni che non sistemano le cose.
Per lo spendere 1500 euro di gpu per giocare a 50 fps lo lascio a voi.
Io non vorrei mai stare sotto i 75-90 anche a costo di sacrificare dettagli.
Io non dico sia giusto o sbagliato, dico solo che non si può dire una certa cosa senza aggiungere altro. Io posso dire che secondo me sotto i 250 cavalli le macchine non hanno senso. È sensata come frase? No, ovviamente.
E comunque per il 4K/60 non servono 1500 euro. Nel 99% dei giochi riduci di niente certi effetti e guadagni fps come non ci fosse un domani. Non è che senza 2080Ti non gira nulla a 60.
Stai esagerando.
Da 1440p a 2160p la differenza si vede eccome, tutt'altro che inutile.
Mah, dipende dalla distanza dallo schermo e dalle dimensioni dello schermo.
Su un 27" da mezzo metro la differenza non è certamente così visibile i pixel sono troppo ammassati perchè si notino differenze tra le due res.
tuttodigitale
14-06-2019, 11:12
Beh, come già facevo notare prima, il fatto di essere piccolo è essenzialmente dovuto al processo produttivo.
Il fatto che competa con chip molto più grandi sarebbe un vantaggio a parità di processo produttivo, non in questo caso.
quello che volevo sottolineare che i benefici da un processo ad un altro si hanno sopratutto nella riduzione dei consumi a parità di specifiche.....questo permette di aumentare le prestazioni/efficienza anche del 100%...
ma se spingi le frequenze a clock superiori del 10-15% rispetto a quanto facevi con il processo precedente i consumi resteranno i medesimi, e ci sarà solo un aumento dell'efficienza del 10-15%....
le ridotte dimensioni di Navi10 (e anche di VEGA20 se consideriamo che è un chip con piena potenza FP64) ci ricordano che questo è solo un assaggio di quello che potrà offrire in futuro i 7nm...
parliamo di un chip di fascia medio-bassa, alla Polaris10 o alla Pit-cairn
ninja750
14-06-2019, 11:22
Scusate dove costa meno di Amazon? Non è sarcasmo mi interessa davvero saperlo.
ovunque?
Bradiper
14-06-2019, 11:59
Ovunque dove? Qualche sito affidabile? Dove comprate di solito l hardware?
amazon.
te lo cambia nei 2 anni a costo zero.
(e, su certi acquisti, capita che te lo cambiano anche dopo i 2 anni... è successo ad una mia amica con un giocattolo del figlio che si era rotto un anno prima e non rientrava più nei 2 anni di garanzia.... lei lo ha accennato mentre parlava di un'altro problema di spedizione e... glie lo hanno mandato un'altro).
pagare quel 10% in più certe volte vale la pena, e non per fare pubblicità ad amazon, ma perchè a me è capitato più di una volta il contrario, ossia essere gabbato in pieno periodo di garanzia (per non parlare dei vat player che chi li sfrutta dovrebbe essere conscio che acquista con solo una parvenza di garanzia).
ninja750
14-06-2019, 14:03
amazon.
sempre se arriva nuovo/non aperto ecc
nickname88
14-06-2019, 14:13
Mah, dipende dalla distanza dallo schermo e dalle dimensioni dello schermo.
Su un 27" da mezzo metro la differenza non è certamente così visibile i pixel sono troppo ammassati perchè si notino differenze tra le due res.Lo pensi tu, anche da un TV 37" da oltre 2m che un gioco gira a 1080p si vede eccome, specie poi se i filtri sono scarsi, le seghettature si vedono in tutto il loro splendore. Il giochino dell'allontani seguendo la tua logica non restituirà di certo "definizione" ma l'esatto contrario, a quel punto tanto vale esagerare con l'AA e blurrare il tutto.
Senza contare che con risoluzioni minori gli oggetti in lontananza sono composti da meno pixels, ed anche a ciò sono sicuro che qualcuno può rispondere di non guardare in lontananza ...
C'è poco da girarci attorno, quando i pixels si vedono, si vedono. Va bene accontentarsi ma negare l'evidenza è la volpe che non arriva all'uva.
Anche su un 24/25" a 1m di distanza la differenza fra un 4K e un 1440p si vede, basta aprire paint e disegnare una linea obliqua e vedrai che le scalettature le vedrai su entrambi in primis, ma quantomeno molto meno nel primo, quindi inutile urlare alle pippe mentali.
fraussantin
14-06-2019, 14:17
Mah, dipende dalla distanza dallo schermo e dalle dimensioni dello schermo.
Su un 27" da mezzo metro la differenza non è certamente così visibile i pixel sono troppo ammassati perchè si notino differenze tra le due res.
Son discorsi fatti e rifatti più volte
Nel momento in cui tu vedi l'aliasing e quindi senti il bisogno di usare tecniche di antialiasing è segno che i pixel li vedi.
Poi il fatto che ormai le tecniche di antialiasing si siano evolute e si tollera meglio un dpi basso ok
Bradiper
14-06-2019, 14:23
Nessuno mi ha risposto che ne pensate dei monitor 21:9 per giocare? Io comunque mi accontento dei 2k ho sempre giocato a 1600x e ultimamente in full HD su un 24 e non sono mai morto,è sempre un progresso... Ma
fraussantin
14-06-2019, 14:34
Nessuno mi ha risposto che ne pensate dei monitor 21:9 per giocare? Io comunque mi accontento dei 2k ho sempre giocato a 1600x e ultimamente in full HD su un 24 e non sono mai morto,è sempre un progresso... Ma
Nessuno mi ha risposto che ne pensate dei monitor 21:9 per giocare? Io comunque mi accontento dei 2k ho sempre giocato a 1600x e ultimamente in full HD su un 24 e non sono mai morto,è sempre un progresso... Ma
Sono belli , ma per averne uno buono ci vogliono un sacco di soldi.
Ps considera che su tanti giochi cmq dovresti swappare in 16\9 con le bande nere.
Ma per i giochi di guida e gli adventure \fps è stupendo.
( Non meno di un 34" @1440p cmq che sarebbe un 27" allungato)
Mi sarebbe piaciuto in sacco un ips a quel modo gsync , ma i reni mi servono quindi ho optato per un 27 classico. Chissà un domani
Nessuno mi ha risposto che ne pensate dei monitor 21:9 per giocare? Io comunque mi accontento dei 2k ho sempre giocato a 1600x e ultimamente in full HD su un 24 e non sono mai morto,è sempre un progresso... Ma
per giocare probabilmente sono buoni.
per il resto... mhè
te lo dico perchè ne ho uno davanti agli occhi.
il mio è 1080P da 29", preso per eliminare 2 dei 3 monitor che uso di solito, ma... dopo una settimana è tornato anche il terzo.
avrei dovuto prendere il 34 da 1440p...
su alcuni ambiti mi trovo bene, su altri è limitante.
sui giochi, per ora, non ho avuto tanti problemi
(ma ho giocato si e no a 4 giochi da quando lo ho... un paio di anni).
se lo devi usare solo per giocare, forse;
se lo vuoi usare anche per lavorare, fai un 34" 1440P o 1650P;
se devi usare il monitor un pò per tutto forse è meglio che punti ai 49" 32:9, almeno hai la possibilità di giostrarti su un monitor che funziona meglio di due 16:9...
con le pay TV è uno scandalo, comunque...
ancora non capiscono che non devono aggiungere nessuna banda sul video per farlo rientrare in 16:9, ma che devono dare la possibilità di giostrare direttamente con l'app... spesso vedo film che mi tocca vedere con tutto attorno bande nere, sia orizzontali che verticali (uno dei motivi per cui ho rimesso il terzo monitor).
Bradiper
15-06-2019, 08:18
Si in effetti lo userei solo per giocare e l uso normale del PC (windows internet ecc ecc) zero lavoro, max un 32 ora però non so mi viene il dubbio se fermarmi a un buon 2k o arrivare a un discreto 4k (non posso prendere un 4k degno di nota) costa troppo ma penso di arrivare a 350/400 euro per il monitor) dipende dal resto dell hardware che sceglierò.
fraussantin
15-06-2019, 08:38
Si in effetti lo userei solo per giocare e l uso normale del PC (windows internet ecc ecc) zero lavoro, max un 32 ora però non so mi viene il dubbio se fermarmi a un buon 2k o arrivare a un discreto 4k (non posso prendere un 4k degno di nota) costa troppo ma penso di arrivare a 350/400 euro per il monitor) dipende dal resto dell hardware che sceglierò.
Se giri per qualche mw o unieuro attrezzato li trovi .
Per un uso solo pc io prenderei un 21\9 .
Se però ci devi mettere anche una console allora lascia stare perchè non è compatibile. E lo useresti in 1080p
cronos1990
15-06-2019, 09:07
Infatti è un pc di fascia medio alta.
Io dovrò assemblare 2 PC da gioco e avevo preventivato 1300/1500 già prima che uscissero i 3000.
Comunque puoi risparmiare ancora qualcosa su ali e ram secondo me.Puoi rosicchiare qualche euro sulle ram secondo me (prenderei le 3200), il best/buy come cpu vedo il 3600X piu' che ottimo per giocare al momento, come mobo invece prenderei direttamente le X570, la GPU 3700 ??? Forse volevi dire 5700 ma potresti anche valutare all'uscita della 5700 una VEGA64 che come prezzi si sta abbassando notevolmente.Si, intendevo la 5700 :D
Si, chiaramente posso rosicchiare su alimentatore e RAM. Ma a dire il vero spero ancora in un abbassamento dei prezzi poco dopo il lancio e arrivare alla 5700XT.
Quelli poi sono tutti prezzi "pieni" guardati solo su Amazon, quando andrò a spulciare i prezzi migliori recupero qualcosa.
In ogni caso, per quella cifra ti ci fai un ottimo PC, con la prospettiva di rinnovare eventualmente solo la GPU dopo qualche tempo, in base a diversi tipi di esigenze.
La storia della dimensione del pannello vale solo in presenza di pannelli molto piccoli e pure fino ad un certo punto. Su un pannello da 27" ( ma anche meno ) la differenza fra un 1440p e un 4K si vede.
Questo è un dato di fatto.Dato di fatto... oddio... :asd:
E comunque dipende anche dalla distanza cui lo vedi, non solo la dimensione. Anche su un cellulare da 6 pollici vedo la differenza tra 2k e 4k se porto gli occhi a 1 cm dallo schermo.
Tralasciamo poi il discorso della sensibilità del nostro occhio, che è del tutto soggettiva. Così come la capacità di farci influenzare, anch'essa soggettiva.
C'è poco da girarci attorno, quando i pixels si vedono, si vedono. Va bene accontentarsi ma negare l'evidenza è la volpe che non arriva all'uva.Ovvio, come è ovvio che se l'acqua è bagnata, è bagnata.
Ma tralasciando queste perle di saggezza, il punto è quando si vedono e come si vedono... e sto sintetizzando parecchio il discorso.
Perchè se si vogliono fare discorsi da bar (tra 2k e 4k la differenza si vede, e punto) ok; ma se si vuole fare un discorso costruttivo e utile, liquidare così un argomento che di suo è piuttosto articolato, non serve a nulla.
In ogni caso chiudo qui questa parentesi... anche perchè OT.
Bradiper
15-06-2019, 11:38
Amd credo abbia fatto un ottimo lavoro e a quanto sembra le nvidia super avranno lo stesso prezzo delle vecchie circa 800 euro per la 2080 super quindi niente tagli e le attuali spariranno. Bo valli a capire. Saranno veramente super perché dicono che non è un semplice refresh o OC però.... Nessuno vuole toccare i prezzi accidenti.
La storia della dimensione del pannello vale solo in presenza di pannelli molto piccoli e pure fino ad un certo punto. Su un pannello da 27" ( ma anche meno ) la differenza fra un 1440p e un 4K si vede.
Questo è un dato di fatto.
E' inutile per te, buono che ti accontenti, ma io ho un 2K e sinceramente lo trovo insufficiente e il risultato con i filtri non sempre sono soddisfacenti.
Per il discorso fluidità basta adeguare la VGA al proprio fabbisogno, oggi non esiste nulla di sufficiente ovviamente, ma si spera che la prossima top di gamma Nvidia a 7nm lo sia. Io quando son passato al 2K l'ho fatto con una scheda che mi ha permesso di avere anche più fps a quella risoluzione che alla precedente, e intendo fare lo stesso prossimamente.
Anche io ho un QHD (e smettetela di chiamarlo 2K per favore, 2K=2048x1080 (https://it.wikipedia.org/wiki/2K)!! :muro: ) su 32'', e già con alcuni giochi (tipo Civilization) devo giocarli in 1080p perchè in 1440p non riesco a leggere nulla), figuriamoci fosse un UHD.
Ma come ho scritto prima non tutti abbiamo le stesse esigenze e priorità, io ritengo soddisfacente la risoluzione QHD su un 32'' (mentre ovviamente non lo sarebbe su un 55'' dove l'UHD sarebbe d'obbligo, ma potrei "accontentarmi" di un 1440p o 1800p upscalato finchè non ci saranno GPU all'altezza), mentre non ritengo per nulla soddisfacente il BLB/GLOW di un IPS o il banding sulle tinte scure e le leggere scie dei VA, motivo per cui vorrei un OLED.
Così come non ritengo per nulla soddisfacento i 30fps delle console o i 60fps scarsi (sopratutto se senza VRR) che si otterrebbero un UHD con le GPU attuali.
Si in effetti lo userei solo per giocare e l uso normale del PC (windows internet ecc ecc) zero lavoro, max un 32 ora però non so mi viene il dubbio se fermarmi a un buon 2k o arrivare a un discreto 4k (non posso prendere un 4k degno di nota) costa troppo ma penso di arrivare a 350/400 euro per il monitor) dipende dal resto dell hardware che sceglierò.
a quella cifra trovi i 2560x1080p da 34" (o 200 euro per un 29").
te li sconsiglio.
in molti usi normali i 1080p sono realmente limitanti.
un 3440x1440 viene retto tranquillamente anche da schede come la 5700/2060 e la 5700XT/2070.
AMD ha rilasciato quei benchmark con AA a 4x e spesso sei oltre i 100fps.
questi monitor ti tagliano il 25% delle prestazioni, quindi rientri nei 75fps.
a mio avviso è meglio un monitor che si vede bene, HDR e con VRR che andare a cercare il 25% in più di fps se superi largamente i 60..
nessuno ti obbliga a maxare fino a 8 o 16x, con quella risoluzione.
io consiglio sempre d'investire bene su monitor, tastiera, mouse, case ed alimentatore.
sono cose che puoi riciclare diverse volte senza nessun problema, e fatto buono una volta te lo godi per anni.
Devo farmi una nuova configurazione da 0, ho già chiesto nella sezione apposita ma per il momento appunto aspetto, sono fan del prezzo/prestazioni e mi pare che siano prezzate alte considerando anche che sono le versioni reference.
Vedremo le review e le custom quanto andranno e costeranno, di certo ormai aspetto dopo l'estate.
Devo farmi una nuova configurazione da 0, ho già chiesto nella sezione apposita ma per il momento appunto aspetto, sono fan del prezzo/prestazioni e mi pare che siano prezzate alte considerando anche che sono le versioni reference.
Vedremo le review e le custom quanto andranno e costeranno, di certo ormai aspetto dopo l'estate.
È sicuramente l'idea migliore, dopo l'estate vedremo i prezzi reali e sopratutto cosa farà nvidia con le super.
Poi si sceglie.
Anche io vorrei sostituire la 1060 e aspetto.
nickname88
17-06-2019, 09:58
a
un 3440x1440 viene retto tranquillamente anche da schede come la 5700/2060 e la 5700XT/2070.
Si certo come no.
Tranquillamente lo dici tu, dall'alto della tua NON esperienza :rolleyes:
Perchè non ci fai girare titoli come Total War Warhammer 2, Anno 1800, WD2, Wildlands o AC Odyssey a 1440p .... e poi rifallo su una risoluzione maggiore come la 3440x1440 che per giunta ha anche più oggetti a schermo.
AMD ha rilasciato quei benchmark con AA a 4x e spesso sei oltre i 100fps.Quelle sono percentuali non frames :rolleyes:
Lo pensi tu, anche da un TV 37" da oltre 2m che un gioco gira a 1080p si vede eccomeSì, decisamente.
Nel senso, se gira a 1080p o a 720p la vedi eccome la differenza. :asd:
Se invece con un 37" da oltre due metri tu riesci a vedere le scalettature a 1080p e quindi hai bisogno del 1440 (o del 4K) allora vuol dire che hai una visione ben superiore alla media.
Perché, bene o male, i valori di riferimento per l'occhio medio (più o meno) sono questi:
https://i.rtings.com/images/optimal-viewing-distance-television-graph-size.png
E come vedi, 37" e oltre 2 metri sta in pieno nella fascia 1080p, addirittura più vicino a 720p che a 1440p.
PS: qui la pagina da cui ho preso il grafico: https://www.rtings.com/tv/reviews/by-size/size-to-distance-relationship
Ah, in tutto questo, ovvio che se in paint tiri una riga completamente nera, diagonale, su sfondo totalmente bianco, questa abbia molte più probabilità di risultare "scalettata" rispetto ai contorni di un calciatore vestito di azzurro sullo sfondo verde del campo di quando (con lo stesso schermo e alla stessa distanza/risoluzione) tu giochi a PES.
Poi, io sono esattamente a cavallo tra FullHD e 4K (49", poco più di due metri di distanza) e posso confermarti che giocando a 1080p a volte vedo i pixel se sto lì a guardarci. Ovviamente in una situazione del genere, giocare a 720p (la maggior parte dei giochi PS3, un paio di giochi su PC per cui la mia R9 270X non ce la fa a tenere il FullHD e PES 2015 per Xbox One, mortacci lora) è una tortura... Ma la differenza tra 1080p e 4K nei video la si nota a stento.
Nei giochi non ho provato perché, appunto, a volte già per far tenere i 1080p alla mia R9 270X ci devo litigare, quindi di 4K proprio non se ne parla.
fraussantin
17-06-2019, 10:08
Si certo come no.
Tranquillamente lo dici tu, dall'alto della tua NON esperienza :rolleyes:
Perchè non ci fai girare Total War Warhammer 2, Anno 1800 o AC Odyssey a 1440p, poi rifallo su una risoluzione maggiore come la 3440x1440 che per giunta ha anche più oggetti a schermo.
Quelle sono percentuali non frames :rolleyes:
Con una 2070 odyssey aveva ancora spazio in qhd 16\9
Immagino che su un 21\9 serva una 2080 .
Cmq basta togliere 2 cavolate e vai tranquillo anche con la 2070
Diversamente lo possiamo dire la to cpu . Togli quello che ti pare anche un breil ( cit) sempre drop ci sono .
Roland74Fun
17-06-2019, 10:09
È sicuramente l'idea migliore, dopo l'estate vedremo i prezzi reali e sopratutto cosa farà nvidia con le super.
Poi si sceglie.
Anche io vorrei sostituire la 1060 e aspetto.
Sinceramente con una 1060 a meno che tu non salga di risoluzione con un monito nuovo non vedo motivo ad oggi di prendere schede video nuove.
Io con una 480 nitro (che arriva agli stessi clock di una 580 nitro) non ho motivo ad oggi con un monitor FHD e Freesync di cercare altro.
E neppure per te visto che ormai il freesync va pure sulle pascal.
Per noi che non siamo ancora a terra meglio sarebbe far passare ancora qualche refresh si di navi sia di turing o magari uscirà qualcosa di nuovo da intel... chissà.
Gyammy85
17-06-2019, 10:13
È sicuramente l'idea migliore, dopo l'estate vedremo i prezzi reali e sopratutto cosa farà nvidia con le super.
Poi si sceglie.
Anche io vorrei sostituire la 1060 e aspetto.
La 5700 è comunque un bel salto, tieni presente che sarà paragonabile alla 2060 super costando meno
Si certo come no.
Tranquillamente lo dici tu :rolleyes:
Perchè non ci fai girare Total War Warhammer 2, Anno 1800 o AC Odyssey a quella risoluzione.
Quelle sono percentuali non frames :rolleyes:
LOL :asd:
Fai conto che vanno uguali o sopra le rispettive 2060 e 2070 in quei giochi, ormai il giochetto dei dx11 single threaded non regge più, se ci giochi "alla grande" su nvidia lo fai anche con queste.
A costo di sembrare ripetitivo, c'è vita oltre ac eh...
AceGranger
17-06-2019, 10:14
Sì, decisamente.
Nel senso, se gira a 1080p o a 720p la vedi eccome la differenza. :asd:
Se invece con un 37" da oltre due metri tu riesci a vedere le scalettature a 1080p e quindi hai bisogno del 1440 (o del 4K) allora vuol dire che hai una visione ben superiore alla media.
Perché, bene o male, i valori di riferimento per l'occhio medio (più o meno) sono questi:
https://i.rtings.com/images/optimal-viewing-distance-television-graph-size.png
E come vedi, 37" e oltre 2 metri sta in pieno nella fascia 1080p, addirittura più vicino a 720p che a 1440p.
PS: qui la pagina da cui ho preso il grafico: https://www.rtings.com/tv/reviews/by-size/size-to-distance-relationship
Ah, in tutto questo, ovvio che se in paint tiri una riga completamente nera, diagonale, su sfondo totalmente bianco, questa abbia molte più probabilità di risultare "scalettata" rispetto ai contorni di un calciatore vestito di azzurro sullo sfondo verde del campo di quando (con lo stesso schermo e alla stessa distanza/risoluzione) tu giochi a PES.
un 37 a 2 metri non sta in pieno 1080p, sta sul bordo fra il 720 e il 1080, il che vuol dire che difficilmente si vedranno differenze tangibili fra le 2 risoluzioni.
2 metri è la distanza ottimale di un 50".
nickname88
17-06-2019, 10:20
Con una 2070 odyssey aveva ancora spazio in qhd 16\9
Immagino che su un 21\9 serva una 2080 .
Cmq basta togliere 2 cavolate e vai tranquillo anche con la 2070
Diversamente lo possiamo dire la to cpu . Togli quello che ti pare anche un breil ( cit) sempre drop ci sono .
A 1440p a Very High ( quindi 2 preset sotto ) non girava "tranquillamente" con la mia 1080Ti cloccata.
Specie in alcune locations.
Fai conto che vanno uguali o sopra le rispettive 2060 e 2070 in quei giochi, ormai il giochetto dei dx11 single threaded non regge più, se ci giochi "alla grande" su nvidia lo fai anche con queste.
Chi ha detto che ci giochi alla grande con Nvidia ?
I 1440p "tranquillamente" non li reggi, figurati a 3440x1440.
fraussantin
17-06-2019, 10:23
A 1440p a Very High ( quindi 2 preset sotto ) non girava "tranquillamente" con la mia 1080Ti cloccata.
Specie in alcune locations.
Chi ha detto che ci giochi alla grande con Nvidia ?
I 1440p "tranquillamente" non li reggi, figurati a 3440x1440.
Abbassa le nuvole e riprova
un 37 a 2 metri non sta in pieno 1080p, sta sul bordo fra il 720 e il 1080Che è quello che ho scritto prima di postare il grafico, forse esagerando un po'.
Comunque, d'accordo con te sulla "posizione" ma secondo me un po' di differenza si vede tra 1080p e 720p. Sicuramente non tra 1080p e 1440p o addirittura 4K.
2 metri è la distanza ottimale di un 50".49" a poco più di 2 metri here. Come detto, devo impegnarmi per vedere i pixel a 1080p (unica eccezione, sembrerà strano, le ombre dei calciatori in PES 2017: quelle le vedo ben scalettate ma credo sia una scelta stilistica, visto che le ombre pixellate contribuiscono a rendere più "profonda" l'erba).
nickname88
17-06-2019, 10:24
Sì, decisamente.
Nel senso, se gira a 1080p o a 720p la vedi eccome la differenza. :asd:
Se invece con un 37" da oltre due metri tu riesci a vedere le scalettature a 1080p e quindi hai bisogno del 1440 (o del 4K) allora vuol dire che hai una visione ben superiore alla media.
Perché, bene o male, i valori di riferimento per l'occhio medio (più o meno) sono questi:
https://i.rtings.com/images/optimal-viewing-distance-television-graph-size.png
E come vedi, 37" e oltre 2 metri sta in pieno nella fascia 1080p, addirittura più vicino a 720p che a 1440p.
PS: qui la pagina da cui ho preso il grafico: https://www.rtings.com/tv/reviews/by-size/size-to-distance-relationship
Ah, in tutto questo, ovvio che se in paint tiri una riga completamente nera, diagonale, su sfondo totalmente bianco, questa abbia molte più probabilità di risultare "scalettata" rispetto ai contorni di un calciatore vestito di azzurro sullo sfondo verde del campo di quando (con lo stesso schermo e alla stessa distanza/risoluzione) tu giochi a PES.
Poi, io sono esattamente a cavallo tra FullHD e 4K (49", poco più di due metri di distanza) e posso confermarti che giocando a 1080p a volte vedo i pixel se sto lì a guardarci. Ovviamente in una situazione del genere, giocare a 720p (la maggior parte dei giochi PS3, un paio di giochi su PC per cui la mia R9 270X non ce la fa a tenere il FullHD e PES 2015 per Xbox One, mortacci lora) è una tortura... Ma la differenza tra 1080p e 4K nei video la si nota a stento.
Nei giochi non ho provato perché, appunto, a volte già per far tenere i 1080p alla mia R9 270X ci devo litigare, quindi di 4K proprio non se ne parla.Caspita che fessi che siamo, tutti dietro alle risoluzioni quando invece basterebbe un 720p da 3m .... :rolleyes:
Sai quanto si risparmierebbe con le VGA ?
nickname88
17-06-2019, 10:25
Abbassa le nuvole e riprova
Le nuvole stavano su basso ed anche l'AA.
Le opzioni frames killer le ho abbassate tutte.
Quando sei fuori città il frame è alto o comunque sempre sopra i 60, quando entri in alcune città specie quelle su alcune isole ( molto belle per giunta ) in aggiunta ad Atene e il porto di Pireo.
In ogni caso abbassare la qualità non vuol dire reggere "tranquillamente".
Anche Anno 1800 senza scalare è un mattone e pure l'ultimo Total War non si può tenere al massimo dettaglio con la mia 1080Ti a quella risoluzione.
Caspita che fessi che siamo, tutti dietro alle risoluzioni quando invece basterebbe un 720p da 3m .... :rolleyes:
Sai quanto si risparmierebbe con le VGA ?Beh allora allontaniamoci ancora un po' e accontentiamoci del 480p.
Io ho contestato le misure che tu hai fornito: 37", due metri. Non misure a caso.
E sì, se sostieni di aver necessità di usare il 4K per giocare su un 37" a 2 metri... Fesso no ma quantomeno sborone lo sei.
Oppure hai una vista sopraffina, ma capisci che in questo caso fai parte di una minoranza.
Poi oh, scemo io che quando ho comprato la TV sono andato a cercarmi informazioni sulla risoluzione, sul rapporto DPI/distanza, sull'angolo di visione consigliato (guardando tanti film, abbiamo puntato a un angolo di visione più ampio che non mi sarebbe servito se avessi usato quella TV solo per giocare) e via dicendo, quando mi bastava dar retta alla prima discussione trovata su un forum in cui si consiglia il 4K per guardare uno schermo da 37" da due metri.
Sinceramente con una 1060 a meno che tu non salga di risoluzione con un monito nuovo non vedo motivo ad oggi di prendere schede video nuove.
Io con una 480 nitro (che arriva agli stessi clock di una 580 nitro) non ho motivo ad oggi con un monitor FHD e Freesync di cercare altro.
E neppure per te visto che ormai il freesunc ca pure sulle pascal.
Per noi che non siamo ancora a terra meglio sarebbe far passare ancora qualche refresh si di navi sia di turing o magari uscirà qualcosa di nuovo da intel... chissà.
È che ho la possibilità di passare ad uno schermo 2k spendendo poco, ma con una 1060 non è che andrei molto bene.
La 5700 è comunque un bel salto, tieni presente che sarà paragonabile alla 2060 super costando meno
Vedremo, per ora si sa poco delle super e poi bisogna vedere quanto meno, se è poco meno preferirei comunque stare su una nvidia.
nickname88
17-06-2019, 10:31
Beh allora allontaniamoci ancora un po' e accontentiamoci del 480p.
Io ho contestato le misure che tu hai fornito: 37", due metri. Non misure a caso.
E sì, se sostieni di aver necessità di usare il 4K per giocare su un 37" a 2 metri... Fesso no ma quantomeno sborone lo sei.
Oppure hai una vista sopraffina, ma capisci che in questo caso fai parte di una minoranza.
Tu hai fornito sulla base di una tabella di numeri che si possa risolvere il problema della definizione con la distanza.
Se è così ho paura che tu ti debba ripassare il significato di "definizione" in questo contesto.
Io avevo prima un 23" 1080p, quindi se avessi tenuto ad oltre 1m sarebbe stato visivamente bellissimo e privo di imperfezioni .... va bene, convinto tu.
Io ho contestato le misure che tu hai fornito: 37", due metri. Non misure a caso.Confermo, 2m di distanza un 37" a 1080p le imperfezioni le noto ma non ho fatto riferimento a nessun 4K.
Se così non fosse allora tutti fessi ( dal primo all'ultimo ) anche quelli che comprano i TV 4K.
fraussantin
17-06-2019, 10:36
Le nuvole stavano su basso ed anche l'AA.
Le opzioni frames killer le ho abbassate tutte.
Quando sei fuori città il frame è alto o comunque sempre sopra i 60, quando entri in alcune città specie quelle su alcune isole ( molto belle per giunta ) in aggiunta ad Atene e il porto di Pireo.
In ogni caso abbassare la qualità non vuol dire reggere "tranquillamente".
Anche Anno 1800 senza scalare è un mattone e pure l'ultimo Total War non si può tenere al massimo dettaglio con la mia 1080Ti a quella risoluzione.
Dipende tanto anche dalla cpu.
Non so che cpu hai ma serve almeno una serie 8000 intel ( le amd non garantiscono il funzionamento)
Per il resto devono dare il contentino a chi compra le gpu di fascia alta quindi ovvio che con una fascia media non puoi stare su alto \ultra
AceGranger
17-06-2019, 10:38
Caspita che fessi che siamo, tutti dietro alle risoluzioni quando invece basterebbe un 720p da 3m .... :rolleyes:
Sai quanto si risparmierebbe con le VGA ?
a livello di dettaglio si; nel caso di immagini renderizzate e non di film, la risoluzione superiore adiacente a quella di riferimento ti migliora l'anti-aliasing, ma di certo a 3m di un 4K non te ne fai nulla in ogni circostanza.
a meno che tu non voglia riscrivere le formule oftalmiche ovviamente.
Se così non fosse allora tutti fessi ( dal primo all'ultimo ) anche quelli che comprano i TV 4K.
dipende a che distanza la mettono :p
se intendi il superman medio che piazza il 50" a 3 metri di distanza si, non è una cima se il suo intento è "vedere un 4K".
Tu hai fornito sulla base di una tabella di numeri che si possa risolvere il problema della definizione con la distanza.
Se è così ho paura che tu ti debba ripassare il significato di "definizione" in questo contesto.OK, dimmi che intendi tu come definizione e poi vediamo. Perché a questo punto è ovvio che intendiamo due cose diverse.
Confermo, 2m di distanza un 37" a 1080p le imperfezioni le notoSe noti le scalettature ingame su un 37" in FullHD distante due metri, chapeau. Hai una vista quasi bionica.
Se così non fosse allora tutti fessi ( dal primo all'ultimo ) anche quelli che comprano i TV 4K.Fessi quelli che li comprano dove non servono.
E mi ci metto anche io eh, dato che per il setup che abbiamo adesso noi sarebbe stato più che sufficiente un 43" FullHD (che sarebbe stato comunque in grado di occupare la visuale per oltre 50°) e il 49" 4K è stato solo un capriccio della padrona di cas...ehm, moglie, perché "se poi dobbiamo guardarci film in 21:9 almeno hanno un'altezza un po' più umana che non sul 43".
nickname88
17-06-2019, 10:51
OK, dimmi che intendi tu come definizione e poi vediamo. Perché a questo punto è ovvio che intendiamo due cose diverse.Cominciamo con il livello di dettaglio e nitidezza di oggetti e bordi ?
Quello che tu proclami è portare il tutto ad uno "sfocamento", tutto l'opposto.
Senza contare che gli oggetti in lontananza nell'immagine con minor numero di pixels risulteranno stilizzati o appena visibili ( un altro problema che risolveresti con la tua filosofia, visto che allontanando il display smetti proprio di vederli :rolleyes: )
Come detto poco prima, a questo punto tanto vale un monitor 1080p e piazzare filtri pesanti e blurrare il tutto, ma in quel caso farebbe schifo lo stesso, siamo punto e accapo.
nickname88
17-06-2019, 11:04
dipende a che distanza la mettono :p
Va bene che l'edilizia e l'economia mondiale col tempo sono cambiate, ma la distanza del display sulla scrivania e la dimensione dei salotti sono sempre le stesse chi più, chi meno.
Ma chissà come mai questi requisiti cambiano ogni volta.
Sta storiella della dimensione la sentivo dal 1999 in riferimento ai vecchi 19" 1600x1200 CRT.
AceGranger
17-06-2019, 11:09
Va bene che l'edilizia e l'economia mondiale col tempo sono cambiate, ma la distanza del display sulla scrivania e la dimensione dei salotti sono sempre le stesse chi più, chi meno.
Ma chissà come mai questi requisiti cambiano ogni volta.
Sta storiella della dimensione la sentivo dal 1999 in riferimento ai vecchi 19" 1600x1200 CRT.
bè le formule sull'acutezza visiva sono abbastanza vecchiotte ma credo che l'occhio umano abbia subito ancora meno modifiche dell'edilizia.
non per altro, il 4K delle console è percepito come bello....
Cominciamo con il livello di dettaglio e nitidezza di oggetti e bordi?Per me "definizione" è il livello di dettaglio percepito*: se io la percepisco come definita (quindi niente scalettature né bordi sfocati) allora per me è definita, indipendentemente dalla risoluzione dello schermo e dalla distanza.
È il motivo per cui hanno aggiunto i LOD nei videogiochi, e le differenti risoluzioni nei pannelli dell TV/schermi. Perché renderizzare a una risoluzione troppo grande in proporzione alla distanza e alla dimensione del pannello sarebbe controproducente, e renderizzare oggetti lontali (che quindi per loro stessa conformazione occupano meno pixel) con tutti i dettagli che avrebbero quando sono in primo piano ammazzerebbe le prestazioni senza alcun vantaggio per chi guarda.
Quello che tu proclami è portare il tutto ad uno "sfocamento", tutto l'opposto.Ovvio che introduci uno sfocamento: se prendi 4 pixel e da questi 4 ne devi tirare fuori uno solo (che è quello che faresti proiettando una sorgente 4K nativa su uno schermo 1080p) perdi delle informazioni e non le recuperi più.
Ma se sei a una distanza tale per cui lo sfocamento e la perdita di informazioni non li noti (a patto di non avere una visione ben superiore alla media), allora è possibile farlo tranquillamente senza che chi guarda se ne accorga.
Cioè, si tratta di formule matematiche eh... Non si tratta di invenzioni.
All'aumentare della distanza, può aumentare la dimensione dei pixel (quindi diminuire la rioluzione): facendo ciò si perde definizione (intesa come la intendi tu), ovviamente, ma l'occhio di chi sta guardando non se ne può accorgere perché tanto i dettagli che si vanno a perdere sono talmente piccoli che l'occhio non li avrebbe registrati nemmeno a una risoluzione superiore (e quindi, secondo quanto intendo io, l'immagine è ancora perfettamente definita).
*e qui ammetto candidamente che forse questa non è la definizione più corretta di definizione.
nickname88
17-06-2019, 11:59
E' una tua visione soggettiva questa.
Per me quello che tu indica non è un immagine completamente a fuoco e la cosa mi crea fastidio, oltre che notarlo.
Fatto sta che un gioco a 1080p, ( magari anche senza filtri ) non l'ho mai trovato nessuna condizione in cui fosse gradevole da vedere, dimensione o distanza che sia.
E' una tua visione soggettiva questa.D'accordo, su questo siamo d'accordo.
Quello che è soggettivamente accettabile per me può non esserlo per te, e viceversa.
Fatto sta che un gioco a 1080p, ( magari anche senza filtri ) non l'ho mai trovato nessuna condizione in cui fosse gradevole da vedere, dimensione o distanza che sia.È su questo invece che non siamo d'accordo... Perché scientificamente c'è una distanza (ovviamente rapportata alla dimensione dello schermo) in cui l'occhio umano non può più riconoscere, per sue ovvie limitazioni, un'immagine in FullHD da un'immagine in 4K. Per te questa distanza potrebbe essere maggiore perché hai una vista molto acuta, per me potrebbe essere inferoire (anche se i miei bei 10/10 ce li ho pure io, almeno stando all'ultima visita fatta), ma c'è ed è fisiologico che ci sia. Più di X pixel per grado, l'occhio umano non sa riconoscere.
Quindi, se tu usi una risoluzione che supera quei pixel per grado, stai in qualche modo "sprecando risorse".
Altrimenti, se questa cosa della distanza non fosse vera, non si spiegherebbe il motivo per cui, al cinema, per diversi anni ha avuto successo il formato "digitale 2K" (che era un 2560x1080 se non ricordo male) pure su "grandi schermi" da centinaia e centinaia di pollici di diagonale.
È sicuramente l'idea migliore, dopo l'estate vedremo i prezzi reali e sopratutto cosa farà nvidia con le super.
Poi si sceglie.
Anche io vorrei sostituire la 1060 e aspetto.
si ho letto delle super, dovrebbero uscire un po' in contemporanea, non mi sono mai affidato ad un brand nello specifico ma guardo in primis il rapporto prestazioni/costo, e sembra un periodo analogo a quello del mining, ma senza la bolla... purtroppo, pare ci sia cartello.
nickname88
17-06-2019, 14:20
Altrimenti, se questa cosa della distanza non fosse vera, non si spiegherebbe il motivo per cui, al cinema, per diversi anni ha avuto successo il formato "digitale 2K" (che era un 2560x1080 se non ricordo male) pure su "grandi schermi" da centinaia e centinaia di pollici di diagonale.
Un film è già molto differente da un rendering 3D.
È su questo invece che non siamo d'accordo... Perché scientificamente c'è una distanza (ovviamente rapportata alla dimensione dello schermo) in cui l'occhio umano non può più riconoscere, per sue ovvie limitazioni, un'immagine in FullHD da un'immagine in 4K.Non può riconoscere perchè non è ad una distanza ottimale per mettere perfettamente a fuoco l'immagine. Ed un controsenso per molti viste le tante diatribe contro i filtri che blurrano.
Darkless
17-06-2019, 16:24
Ah i bei tempi in cui bastava non avere una moglie per guardare la tv come e dove cazzo ti pareva :asd:
Ah i bei tempi in cui bastava non avere una moglie per guardare la tv come e dove cazzo ti pareva :asd:
Io che non ce l'ho (più) posso anche guardarmi i porno film e serie proiettati sul soffitto sdraiato comodamente a letto. :asd:
Ed anche se è un proiettore Full HD proiettato su 2,5 metri io tutti sti pixelloni non li vedo... sarò cecato dai troppi porno film e videogiochi. :stordita:
Ah i bei tempi in cui bastava non avere una moglie per guardare la tv come e dove cazzo ti pareva :asd:Beh ma anche adesso in realtà. :asd:
Stasera addirittura prevedo serata dual monitor: sulla TV gara 5 della finale di basket (l'evento principale della serata), e sul portatile la nazionale di calcio femminile in streaming (che tanto è già qualificata, quindi posso anche vederla sullo schermo da 15,6"). :D
ninja750
18-06-2019, 11:58
Io che non ce l'ho (più) posso anche guardarmi i porno film e serie proiettati sul soffitto sdraiato comodamente a letto. :asd:
Ed anche se è un proiettore Full HD proiettato su 2,5 metri io tutti sti pixelloni non li vedo... sarò cecato dai troppi porno film e videogiochi. :stordita:
non ti viene il mal di testa a guardare in alto?
col lampadario come fai?
:stordita:
Che brutte schede.
Prestazioni da GTX 1080, consumando molto più di una 1080? 3 anni dopo e a 7nm contro i 16 di pascal?
Perlomeno mi sarei aspettato prezzi molto più contenuti ma è palese che ad AMD del mercato gpu ormai frega poco e niente.
Che brutte schede.
Prestazioni da GTX 1080, consumando molto più di una 1080? 3 anni dopo e a 7nm contro i 16 di pascal?
Perlomeno mi sarei aspettato prezzi molto più contenuti ma è palese che ad AMD del mercato gpu ormai frega poco e niente.
Scusa non ho capito il tuo post, perchè dici prestazioni da 1080 se dichiarano +10% da 2070? a spanne direi che è più vicina ad una 1080ti che una 1080, sempre a spanne direi -10% da 1080ti e +20% da 1080, o al massimo 15 e 15.
E i consumi come fai a dirlo senza analizzare le review?
io ho una rx480, e dovrei cambiare tutto, si i prezzi sono altini.
non ti viene il mal di testa a guardare in alto?
col lampadario come fai?
:stordita:
No anzi, è star seduto sul divano a lungo che mi fa venire mal di schiena.
E poi questa "postazione" mi conciglia anche il sonno, quando ho l'abbiocco spengo tutto e dormo, mentre invece se mi devo alzare, spogliarmi e mettermi a letto mi passa l'abbiocco e non dormo più.
Il lampadario sta oltre lo "schermo" percui non disturba.
https://i.imgur.com/sPFxYSTm.jpg (https://i.imgur.com/sPFxYST.jpg)
In realtà l'ho messo così in un periodo in cui sono dovuto restare bloccato a letto per 15 giorni, ma poi l'ho trovato così comodo che non l'ho più spostato.
Segno tra le cose da fare: guardare disincanto proiettato sul soffitto da sdraiati a letto. :read:
Segno tra le cose da fare: guardare disincanto proiettato sul soffitto da sdraiati a letto. :read:
Ci ho giocato pure tutto RDR2 ed ora ci sto giocando a Days Gone. :asd:
fraussantin
18-06-2019, 16:45
No anzi, è star seduto sul divano a lungo che mi fa venire mal di schiena.
E poi questa "postazione" mi conciglia anche il sonno, quando ho l'abbiocco spengo tutto e dormo, mentre invece se mi devo alzare, spogliarmi e mettermi a letto mi passa l'abbiocco e non dormo più.
Il lampadario sta oltre lo "schermo" percui non disturba.
https://i.imgur.com/sPFxYSTm.jpg (https://i.imgur.com/sPFxYST.jpg)
In realtà l'ho messo così in un periodo in cui sono dovuto restare bloccato a letto per 15 giorni, ma poi l'ho trovato così comodo che non l'ho più spostato.Non me lo dovevi far vedere .. adesso chi la ferma la scimmia ..
In camera non ho spazio per la tv è uso un vecchio portatile all'occorrenza
Questa cosa è da provare...
Ps per curuosit quanto costa una roba del genere con un dispositivo android connesso ( per netflix dlna e affini)?
Non me lo dovevi far vedere .. adesso chi la ferma la scimmia ..
In camera non ho spazio per la tv è uso un vecchio portatile all'occorrenza
Questa cosa è da provare...
Ps per curuosit quanto costa una roba del genere con un dispositivo android connesso ( per netflix dlna e affini)?
Il mio lo avevo pagato 4k 10 anni fa, ma era un top di gamma ed in effetti ancora oggi fa il suo lavoro.
Oggi si trovano ottimi proiettori Full HD intorno ai 700€, e 4k "vobulati" (che non è un vero e proprio 4k nativo ma ci arriva vicino) dai 1300€ ai 2000€.
I 4k nativi purtroppo che io sappia hanno ancora prezzi fuori dal mondo (oltre 5000€).
Io uso la PS4 Pro o il PC come Media Player, ma potresti anche usare un Chromecast o roba simile (ma probabilmente alcuni proiettori nuovi avranno anche Netflix e affini integrati).
fraussantin
18-06-2019, 17:10
Il mio lo avevo pagato 4k 10 anni fa, ma era un top di gamma ed in effetti ancora oggi fa il suo lavoro.
Oggi si trovano ottimi proiettori Full HD intorno ai 700, e 4k "vobulati" (che non è un vero e proprio 4k nativo ma ci arriva vicino) dai 1300 ai 2000.
I 4k nativi purtroppo che io sappia hanno ancora prezzi fuori dal mondo (oltre 5000).Si è già placata la scimmia :asd:
Si è già placata la scimmia :asd:
Beh lo devi paragonare ad un televisore 100+'', quindi come rapporto dimensioni-prezzo sono ottimi.
Comunque ci sono anche proiettori da 300€ se non hai grosse pretese (e pure cinesate da 100€ (https://bestaliproducts.com/top-5-projectors-aliexpress-cheap-good/)), ma non so quanto possano rendere.
Ma il costo maggiore dei proiettori è la lampada da sostituire ogni tot ore, alcune costano poco altre molto di più, alcune durano 2000 ore altre 10000, quindi bisogna valutare anche bene la cosa prima di procedere all'acquisto.
fraussantin
18-06-2019, 17:23
Beh lo devi paragonare ad un televisore 100+'', quindi come rapporto dimensioni-prezzo sono ottimi.
Comunque ci sono anche proiettori da 300€ se non hai grosse pretese (e pure cinesate da 100€ (https://bestaliproducts.com/top-5-projectors-aliexpress-cheap-good/)), ma non so quanto possano rendere.
Ma il costo maggiore dei proiettori è la lampada da sostituire ogni tot ore, alcune costano poco altre molto di più, alcune durano 2000 ore altre 10000, quindi bisogna valutare anche bene la cosa prima di procedere all'acquisto.Si il fatto è che la tv in camera la guardiamo quelle 2 volte a settimana che capita .. però lo tengo presente se calano un po di prezzo suo 200 ce li posso spendere... poi il fatto è che serve anche uno speaker , ma quello lo recupero da qualche parte.
Si il fatto è che la tv in camera la guardiamo quelle 2 volte a settimana che capita .. però lo tengo presente se calano un po di prezzo suo 200 ce li posso spendere... poi il fatto è che serve anche uno speaker , ma quello lo recupero da qualche parte.
Io praticamente ormai film e serie TV le guardo tutte cosí, e ci gioco anche con PS4 e alcuni giochi PC da giocare col pad. (DQ11 me lo son giocato quasi tutto sul soffitto)
E dato che probabilmente a breve mi dovrò trasferire in un monolocale non potró piu avere la saletta HT dedicata, quindi meglio se mi abituo agli spazi angusti... :stordita:
Si è già placata la scimmia :asd:
Siamo in due :cry:
No anzi, è star seduto sul divano a lungo che mi fa venire mal di schiena.
E poi questa "postazione" mi conciglia anche il sonno, quando ho l'abbiocco spengo tutto e dormo, mentre invece se mi devo alzare, spogliarmi e mettermi a letto mi passa l'abbiocco e non dormo più.
Il lampadario sta oltre lo "schermo" percui non disturba.
https://i.imgur.com/sPFxYSTm.jpg (https://i.imgur.com/sPFxYST.jpg)
In realtà l'ho messo così in un periodo in cui sono dovuto restare bloccato a letto per 15 giorni, ma poi l'ho trovato così comodo che non l'ho più spostato.
AZZ figo appena letto il primo post come in tanti mi era salita la scimmia, poi continuando aleggere e' sparita. :D :D
Magari con 4 fischer ci mettiamo una tv normale :O
Magari con 4 fischer ci mettiamo una tv normale :O
Si ma devi spostare letto prendere scala, farci arrivare i cavi che sbattone! :O
E poi metti caso che si smollino i fischer te la ritrovi per cappello! (mi ricordo che c'era un cartone di Rocky e Bullwinkle in cui si verificava una scena simile... :asd:)
Questo in 1 minuto posso toglierlo dalla spalliera del letto e lo rimetterlo in saletta. :cool:
Scusate ma quanto pensavate costasse un proiettore non cinese? :D
Soluzione nota, ma infatti dispendiosa e per facoltosi.
@Bestio ma quindi hai il PC in camera da letto che ci giochi?
fraussantin
19-06-2019, 07:49
Scusate ma quanto pensavate costasse un proiettore non cinese? :D
Soluzione nota, ma infatti dispendiosa e per facoltosi.
@Bestio ma quindi hai il PC in camera da letto che ci giochi?Se ho chiesto è perchè non ne avevo idea.
Ps per giocare basta l'app steamlink
Se ho chiesto è perchè non ne avevo idea.
Ps per giocare basta l'app steamlink
si non l'ho scritto ma ci avevo pensato, a lag come sono messi?
Scusate ma quanto pensavate costasse un proiettore non cinese? :D
Soluzione nota, ma infatti dispendiosa e per facoltosi.
@Bestio ma quindi hai il PC in camera da letto che ci giochi?
Si alla fine ho spostato tutto in camera da letto, più che altro perchè è l'unica stanza che ho climatizzata.
si non l'ho scritto ma ci avevo pensato, a lag come sono messi?
Dipende dai modelli, un po come le TV, alcuni bene altri molto male.
Di solito i DLP (sopratutto i vobulati "finti" 4k) hanno latenze piuttosto alte, mentre gli LCD/DLA più basse.
Si alla fine ho spostato tutto in camera da letto, più che altro perchè è l'unica stanza che ho climatizzata.
Dipende dai modelli, un po come le TV, alcuni bene altri molto male.
Di solito i DLP (sopratutto i vobulati "finti" 4k) hanno latenze piuttosto alte, mentre gli LCD/DLA più basse.
ah ecco, beh si in effetti già da seduto in estate giocare senza clima è più una tortura che un godimento, da sdraiati ancora peggio immagino :D
Ma io intendevo nel caso fosse in streaming con lo steam link come ipotizzata l'utente fraussantin, sul proiettore in se si immagino che di base sia simile alle TV.
ah ecco, beh si in effetti già da seduto in estate giocare senza clima è più una tortura che un godimento, da sdraiati ancora peggio immagino :D
Ma io intendevo nel caso fosse in streaming con lo steam link come ipotizzata l'utente fraussantin, sul proiettore in se si immagino che di base sia simile alle TV.
Io ho provato un po con li Shield Tablet ed in rete locale la latenza è molto bassa, però gli artefatti di compressione video un po si notano (sopratutto nelle scene scure) e mi danno fastidio.
Ma anche li dipenderà dai codec usati, magari si potrà migliorare la situazione ma non mi sono sbattuto più di tanto, faccio prima a collegare l'HDMI di 10mt direttamente al PC. :D
Io ho provato un po con li Shield Tablet ed in rete locale la latenza è molto bassa, però gli artefatti di compressione video un po si notano (sopratutto nelle scene scure) e mi danno fastidio.
Ma anche li dipenderà dai codec usati, magari si potrà migliorare la situazione ma non mi sono sbattuto più di tanto, faccio prima a collegare l'HDMI di 10mt direttamente al PC. :D
Beh si, ci credo, per quello ho chiesto subito se avessi messo il PC in camera :)
NewEconomy
19-06-2019, 15:52
Caspita che fessi che siamo, tutti dietro alle risoluzioni quando invece basterebbe un 720p da 3m .... :rolleyes:
Sai quanto si risparmierebbe con le VGA ?
Noto che spari cialtronate pure qua...
Insomma, sei recidivo!
Roland74Fun
27-06-2019, 09:56
Quando scade l'NDA?
Il mondo, così come lo conosciamo, finirà il 7 luglio.
Il mondo, così come lo conosciamo, finirà il 7 luglio.
Io sono pronto.
Il mondo, così come lo conosciamo, finirà il 7 luglio.
Azz il 6 mi vado a confessare allora.
Azz il 6 mi vado a confessare allora.
Io lascio perdere, non c'è abbastanza tempo. :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.