PDA

View Full Version : GeForce GTX 1080: nuovi dettagli sulle specifiche e sulle Fouders Edition


Redazione di Hardware Upg
09-05-2016, 09:11
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-1080-nuovi-dettagli-sulle-specifiche-e-sulle-fouders-edition_62542.html

Dopo l'annuncio delle due nuove schede GeForce GTX destinate agli appassionati di videogiochi emergono nuovi dettagli, in particolare con riferimento alle versionij Founders Edition che per prime debutteranno sul mercato

Click sul link per visualizzare la notizia.

Max_R
09-05-2016, 09:17
Non converrebbe aggiornare e mettere in rilievo gli articoli precedenti invece di farne decine praticamente tutti identici?

kamon
09-05-2016, 09:29
Beh, il contenuto di questo articolo mi pare ben diverso dai precedenti che trattavano questa scheda.

parcher
09-05-2016, 09:42
HWpgrade e' in possesso della GTX1080...pagina Facebook docet :D a breve arriverà' la recensione ...

Goofy Goober
09-05-2016, 09:51
quindi la founder è edition è la "limited edition" di una scheda video :asd:

o in alternativa la "polli edition" per tutti coloro che non riusciranno ad aspettare di aver delle 1080 normali da comprare.

giusto chi ha un amore spassionato per quel dissipatore può giustificarsi i 100 euro in più per la GPU con pcb base, che solitamente si paga meno di quelle custom :fagiano:

majinbu7
09-05-2016, 09:52
Ma quando cavolo scade l'NDA su queste schede?
Voglio una recensione come si deve :D

Lanzus
09-05-2016, 10:07
quindi la founder è edition è la "limited edition" di una scheda video :asd:

o in alternativa la "polli edition" per tutti coloro che non riusciranno ad aspettare di aver delle 1080 normali da comprare.

giusto chi ha un amore spassionato per quel dissipatore può giustificarsi i 100 euro in più per la GPU con pcb base, che solitamente si paga meno di quelle custom :fagiano:

Della serie ti faccio pagare pure l'aria che respiri. Beh questa volta però (e no per giustificare, è solo un'osservazione) il dissipatore con vapor chamber potrebbe garantire prestazioni decenti anche in OC con in aggiunta la comodità di avere l'aria esausta direttamente fuori dal case, cosa che non guasta mai. Redazione, al lavoroooohhhh !!!!!!! Vogliamo una recensione fatta bene.

Ma quando cavolo scade l'NDA su queste schede?
Voglio una recensione come si deve :D

Il 17 maggio.

TigerTank
09-05-2016, 10:18
Lol $699(da noi ben 750€ iva inclusa in caso di cambio onesto) per una versione "potenziata" del dissipatore reference. Oltre ad avere ormai delle x80 che come prezzi equivalgono a quelli delle gtx980Ti dello scorso anno...pure questa :stordita:
Mi auguro che le normali schede con dissipatori custom(evga acx, palit SJS, ecc...) costino meno, altrimenti scaffale ad oltranza...

Della serie ti faccio pagare pure l'aria che respiri. Beh questa volta però (e no per giustificare, è solo un'osservazione) il dissipatore con vapor chamber potrebbe garantire prestazioni decenti anche in OC con in aggiunta la comodità di avere l'aria esausta direttamente fuori dal case, cosa che non guasta mai. Redazione, al lavoroooohhhh !!!!!!! Vogliamo una recensione fatta bene.

Se vuoi questo, soprattutto con l'arrivo dell'estate, meglio piazzarla direttamente a liquido ;)

Frate
09-05-2016, 10:24
probabilmente sono stupido ma ancora non ho capito questi 100 euro in più; ho sempre comprato una msi/asus per avere temperature e rumori minori rispetto alle reference, ora succede il contrario o cosa?

MiKeLezZ
09-05-2016, 10:36
probabilmente sono stupido ma ancora non ho capito questi 100 euro in più; ho sempre comprato una msi/asus per avere temperature e rumori minori rispetto alle reference, ora succede il contrario o cosa?Banale strategia di marketing per cui il listino produttore risulta più elevato di quello rivenditore così da non concorrere sulla rete di vendita retail.
Temperatura e rumore sono funzione del solo sistema di raffreddamento e ogni produttore al solito si sbizzarrirà per proporre il suo, più o meno efficace del reference nVidia (che usa una ventolina centrifugale, tipicamente più rumorosa).

DakmorNoland
09-05-2016, 10:39
E' tempo di vendere la 970. :asd: Se riesco a piazzarla a un buon prezzo, mi fiondo su questa 1070, mi sembra davvero ottima! :) Così almeno sul mio TV 1080p sto a posto per 5 anni. :sofico:

Lanzus
09-05-2016, 10:40
Se vuoi questo, soprattutto con l'arrivo dell'estate, meglio piazzarla direttamente a liquido ;)

Chi puo sicuro ! Ma a quel punto chi vuole andare di liquido non si comprerebbe una founder in ogni caso: aspetta una custom con PCB reference al prezzo piu' basso possibile ...

Max_R
09-05-2016, 10:42
probabilmente sono stupido ma ancora non ho capito questi 100 euro in più; ho sempre comprato una msi/asus per avere temperature e rumori minori rispetto alle reference, ora succede il contrario o cosa?

Chi le vuole di prima, paga di più.

Frate
09-05-2016, 10:42
Banale strategia di marketing per cui il listino produttore risulta più elevato di quello rivenditore così da non concorrere sulla rete di vendita retail.
Temperatura e rumore sono funzione del solo sistema di raffreddamento e ogni produttore al solito si sbizzarrirà per proporre il suo, più o meno efficace del reference nVidia (che usa una ventolina centrifugale, tipicamente più rumorosa).

appunto, sarà forse in metallo mentre le custom saranno "plasticose" ma hanno sempre garantito risultati molto migliori di quella ventolina decentrata delle reference

ci sarà da attendere parecchi giorni per le msi/asus/gigabyte e soci rispetto alle founder?

MiKeLezZ
09-05-2016, 10:44
Chi puo sicuro ! Ma a quel punto chi vuole andare di liquido non si comprerebbe una founder in ogni caso: aspetta una custom con PCB reference al prezzo piu' basso possibile ...il raffreddamento a liquido è un giochino da ragazzini, viene usata l'acqua cone vettore per smaltire il calore sul radiatore esterno (assimilabile a un grosso dissipatore). inutile.

DakmorNoland
09-05-2016, 10:45
Chi le vuole di prima, paga di più.

Beh è sempre stato così. Se uno prende al lancio paga!! Se si aspettano 2-3 mesi le custom, allora si può risparmiare e il prezzo credo sarà sui 350-400 euro (parlo della 1070).

Speriamo che le custom siano ben fatte, perchè ultimamente mi pare che quelle con il dissipatore reference siano già ottime... Non è più come una volta quando c'erano le mezze stagioni...

A parte che non so bene il senso di queste schede. Ora mi rendo conto che la mia 970 è stata praticamente inutile, salvo titoli come The Witcher 3...

Per tutto il resto va benissimo la 5850 1GB VaporX ancora in mio possesso... Mah! Sono perplesso.

Max_R
09-05-2016, 10:51
Beh è sempre stato così. Se uno prende al lancio paga!! Se si aspettano 2-3 mesi le custom, allora si può risparmiare e il prezzo credo sarà sui 350-400 euro (parlo della 1070).

Speriamo che le custom siano ben fatte, perchè ultimamente mi pare che quelle con il dissipatore reference siano già ottime... Non è più come una volta quando c'erano le mezze stagioni...

A parte che non so bene il senso di queste schede. Ora mi rendo conto che la mia 970 è stata praticamente inutile, salvo titoli come The Witcher 3...

Per tutto il resto va benissimo la 5850 1GB VaporX ancora in mio possesso... Mah! Sono perplesso.

Si con la differenza che stavolta, pare, non verranno commercializzate le reference a prezzo ridotto: costeranno di più per chi le vuole in anticipo rispetto agli altri e si chiameranno founder. Le altre dal prezzo consigliato ridotto, saranno le custom, almeno così s'intuisce dall'articolo. Non fosse che le custom solitamente le si paga di più all'uscita rispetto al modello reference, nel medesimo periodo.

Frate
09-05-2016, 10:53
Beh è sempre stato così. Se uno prende al lancio paga!! Se si aspettano 2-3 mesi le custom, allora si può risparmiare e il prezzo credo sarà sui 350-400 euro (parlo della 1070).

Speriamo che le custom siano ben fatte, perchè ultimamente mi pare che quelle con il dissipatore reference siano già ottime... Non è più come una volta quando c'erano le mezze stagioni...

A parte che non so bene il senso di queste schede. Ora mi rendo conto che la mia 970 è stata praticamente inutile, salvo titoli come The Witcher 3...

Per tutto il resto va benissimo la 5850 1GB VaporX ancora in mio possesso... Mah! Sono perplesso.


2-3 mesi per le custom non sono un po' troppi?

TigerTank
09-05-2016, 10:54
il raffreddamento a liquido è un giochino da ragazzini, viene usata l'acqua cone vettore per smaltire il calore sul radiatore esterno (assimilabile a un grosso dissipatore). inutile.

Ahahahahah questa me la salvo :rotfl:
Beata ignoranza delle cose...

Chi puo sicuro ! Ma a quel punto chi vuole andare di liquido non si comprerebbe una founder in ogni caso: aspetta una custom con PCB reference al prezzo piu' basso possibile ...

Sì quello sì...sperando che appunto l'unica altrernativa non siano le references con il dissipatore plasticoso. :D

DakmorNoland
09-05-2016, 10:55
Si con la differenza che stavolta, pare, non verranno commercializzate le reference a prezzo ridotto: costeranno di più per chi le vuole in anticipo rispetto agli altri e si chiameranno founder. Le altre dal prezzo consigliato ridotto, saranno le custom, almeno così s'intuisce dall'articolo. Non fosse che le custom solitamente le si paga di più.

Sì ma è chiaro che ad Nvidia le troppe vendite hanno dato alla testa! Ormai pensano di poter fare qualsiasi cosa. Secondo me rischiano abbastanza...

Io penso di rivendere la 970 con calma e mi rimetto la 5850 che fa girare tutto tranne quei 2-3 giochi, che non sto giocando. :asd:

Nel frattempo magari aspetto anche l'uscita di AMD, anche perchè sul mio TV i colori di AMD nei giochi sono inarrivabili da Nvidia... Quindi motivo in più per valutare un ritorno ad AMD.

Gli effetti Nvidia Physix e company sono troppo ridicoli alla fine.

Comunque stiamo a vedere cosa succede. :-)


Ahahahahah questa me la salvo :rotfl:
Beata ignoranza delle cose...

Mah li sono punti di vista come sempre. Comunque chi lavora nel settore sa che in effetti il waterblock come tante altre trovate per appassionati, sono costosi orpelli di dubbia utilità. Anche perchè non hai alcun bisogno di liquidare la scheda, salvo che tu la metta in un forno a legna. :asd:

Benna80
09-05-2016, 11:07
E' tempo di vendere la 970. :asd: Se riesco a piazzarla a un buon prezzo, mi fiondo su questa 1070, mi sembra davvero ottima! :) Così almeno sul mio TV 1080p sto a posto per 5 anni. :sofico:

Dico la mia: le schede degli ultimi mesi sono già più che sovradimensinate per contenuti a 1080p, quindi se devi vendere la tua 970 per prenderti questa da usare in abbinata a un dispositivo fulHD per me butti i soldi.
discorso diverso invece se devi far girare contenuti 4K multimonitor, allora ti serve la potenza bruta di questa scheda

DakmorNoland
09-05-2016, 11:12
Dico la mia: le schede degli ultimi mesi sono già più che sovradimensinate per contenuti a 1080p, quindi se devi vendere la tua 970 per prenderti questa da usare in abbinata a un dispositivo fulHD per me butti i soldi.
discorso diverso invece se devi far girare contenuti 4K multimonitor, allora ti serve la potenza bruta di questa scheda

Beh oddio, comunque anche in 1080p i giochi evolvono e gli effetti richiedono potenza. :p

Poi sto anche valutando di tornare ad AMD, che come dicevo come colori è 10 volte superiori.

Valuterò a seconda di come andranno le 1070 e la risposta da parte di AMD.

Comunque queste 1070 mi sembrano gran belle schede! :-) E per settembre-ottobre, anche se io spero prima, si troveranno già delle custom a buon prezzo. :-)

MiKeLezZ
09-05-2016, 11:18
Nel frattempo magari aspetto anche l'uscita di AMD, anche perchè sul mio TV i colori di AMD nei giochi sono inarrivabili da Nvidia... Quindi motivo in più per valutare un ritorno ad AMD. Click destro sul desktop -> pannello di controllo Nvidia

Modifica della risoluzione -> intervallo dinamico dell'output -> MASSIMO

Risolto.

Io penso di rivendere la 970 con calma e mi rimetto la 5850 che fa girare tutto tranne quei 2-3 giochi, che non sto giocando. :asd:Io gioco a 1080p con la 470...

Ahahahahah questa me la salvo :rotfl:
Beata ignoranza delle cose...Mi occupavo di OC e WB quando ancora tu dovevi capire cosa fossero i timings delle RAM quindi calm down.

Sì quello sì...sperando che appunto l'unica altrernativa non siano le references con il dissipatore plasticoso. :DQuello che conta è il dissipatore interno non la scocca esterna, la plastica è un materiale inerte e adempie perfettamente all'unico suo scopo di incanalamento dell'aria.

bagnino89
09-05-2016, 11:19
Ancora con la storia dei colori :doh:

pierpox
09-05-2016, 11:24
A margine della prossima recensione della GTX 1080 si può fare qualche test anche con software GPGPU sia in SP che in DP?Giusto per avere il polso della situazione con l'architettura Pascal inversione GP104 in questo tipo di scenari,grazie.

majinbu7
09-05-2016, 11:52
Sì ma è chiaro che ad Nvidia le troppe vendite hanno dato alla testa! Ormai pensano di poter fare qualsiasi cosa. Secondo me rischiano abbastanza...

Io penso di rivendere la 970 con calma e mi rimetto la 5850 che fa girare tutto tranne quei 2-3 giochi, che non sto giocando. :asd:

Nel frattempo magari aspetto anche l'uscita di AMD, anche perchè sul mio TV i colori di AMD nei giochi sono inarrivabili da Nvidia... Quindi motivo in più per valutare un ritorno ad AMD.

Gli effetti Nvidia Physix e company sono troppo ridicoli alla fine.

Comunque stiamo a vedere cosa succede. :-)




Mah li sono punti di vista come sempre. Comunque chi lavora nel settore sa che in effetti il waterblock come tante altre trovate per appassionati, sono costosi orpelli di dubbia utilità. Anche perchè non hai alcun bisogno di liquidare la scheda, salvo che tu la metta in un forno a legna. :asd:


Spero che nella frase in grassetto tu stia scherzando, perchè che a default quelli amd siano più saturi ormai lo sanno anche i sassi, ma si sa anche che è possibile saturare pure quelli con una scheda nvidia ;)

Goofy Goober
09-05-2016, 12:09
non si è detto prima, ma l'unica altra utilità del dissipatore reference Nvidia di solito era quella di poter lavorare in modalità SLI 2-3-4Way anche con schede appiccicate evitando di far scoppiare le gpu.

a sto giro per chi tiene le schede in multigpu ad aria, se non escono modelli custom a turbina, vuol dire un esborso extra per questi modelli.

Therinai
09-05-2016, 12:37
Click destro sul desktop -> pannello di controllo Nvidia

Modifica della risoluzione -> intervallo dinamico dell'output -> MASSIMO


Denghiù non lo sapevo. Ma serve veramente a qualcosa o è giusto per fare contenti i casualoni dei colori? Della serie compro marchio X perché tutti dicono che ha i colori migliori? :D

MiKeLezZ
09-05-2016, 12:45
Denghiù non lo sapevo. Ma serve veramente a qualcosa o è giusto per fare contenti i casualoni dei colori? Della serie compro marchio X perché tutti dicono che ha i colori migliori? :DI casualoni dei colori si possono sbizzarrire con

Click destro sul desktop -> pannello di controllo Nvidia

Regola impostazioni colore -> brillantezza digitale

Al contrario cambiare l'intervallo da LIMITATO a MASSIMO è invece fondamentale per ottenere una resa dei colori adeguata, il problema di Nvidia è che di default la setta su LIMITATO invece che MASSIMO

DakmorNoland
09-05-2016, 13:16
I casualoni dei colori si possono sbizzarrire con

Click destro sul desktop -> pannello di controllo Nvidia

Regola impostazioni colore -> brillantezza digitale

Al contrario cambiare l'intervallo da LIMITATO a MASSIMO è invece fondamentale per ottenere una resa dei colori adeguata, il problema di Nvidia è che di default la setta su LIMITATO invece che MASSIMO

La brilantezza digitale fa solo danno! E non ti da i colori di una scheda AMD.

Comunque mi pareva di averlo già messo l'intervallo da limitato a massimo e il range RGB su full, visto che il mio TV lo supporta, infatti ora quando accendo il PC mi segnala che il colore è a 12bit.

Comunque sia non si ottiene quel colore perfetto che si ha su AMD, non è questione di regolazioni.

Certo che se state sui dei monitor TN o IPS o quasiasi cosa, non noterete la differenza come la noto io su un TV di fascia alta, che come colori è superiore a qualsiasi monitor in circolazione.

TigerTank
09-05-2016, 13:27
Mi occupavo di OC e WB quando ancora tu dovevi capire cosa fossero i timings delle RAM quindi calm down.


Ahahahah sei uno spasso :D
Io veramente sono calmissimo...non sono io che me ne esco con certe sparate e liquido da più di 10 anni per cui so di cosa parlo ;)
E se lo vuoi sapere le ultime vga, gtx980Ti e titanX più che dai voltaggi hanno avuto i loro migliori benefici proprio abbattendo le temperature...e cioè liquidandole(già per evitare il primo taglio di frequenza sui 60°C). Ed ora vedremo se la storia si ripeterà anche con queste.

non si è detto prima, ma l'unica altra utilità del dissipatore reference Nvidia di solito era quella di poter lavorare in modalità SLI 2-3-4Way anche con schede appiccicate evitando di far scoppiare le gpu.

Ma nemmeno quello Goofy, perchè comunque anche le ventole radiali immettono aria perpendicolarmente, come le ventole normali.
L'unico vantaggio è che espellono l'aria calda dal retro del case.

Therinai
09-05-2016, 13:49
La brilantezza digitale fa solo danno! E non ti da i colori di una scheda AMD.

Comunque mi pareva di averlo già messo l'intervallo da limitato a massimo e il range RGB su full, visto che il mio TV lo supporta, infatti ora quando accendo il PC mi segnala che il colore è a 12bit.

Comunque sia non si ottiene quel colore perfetto che si ha su AMD, non è questione di regolazioni.

Certo che se state sui dei monitor TN o IPS o quasiasi cosa, non noterete la differenza come la noto io su un TV di fascia alta, che come colori è superiore a qualsiasi monitor in circolazione.

A naso direi che sei andato un po' "fuori rotta", ma è giusto che ognuno usufruisca di ciò che più lo aggrada.

MiKeLezZ
09-05-2016, 13:54
La brilantezza digitale fa solo danno! E non ti da i colori di una scheda AMD.I colori nella odierna gestione dell'informazione digitale non hanno alcun connotato diverso da scheda a scheda. Il valore R34 G34 B221 è IDENTICO per NVIDIA/ATI/AMD/INTEL e qualsivoglia altra scheda.

Comunque mi pareva di averlo già messo l'intervallo da limitato a massimo"Pareva" non è sufficiente. Nella gestione dell'informazione digitale, nuovamente, non si può essere in "forse". O l'hai messo o non l'hai messo. O l'hai settato bene o non l'hai settato bene.

e il range RGB su full, visto che il mio TV lo supportaUn conto è che il TV lo supporti, altro è abilitare relativa opzione in ENTRAMBI, PC e TV.

infatti ora quando accendo il PC mi segnala che il colore è a 12bit.Chi? Cosa? Dove? Stiamo parlando del range a 8-bit limitato a 16-255 e mi parli di profondità colore? Il 12 bpc non ha alcuna utilità se non vengono utilizzate sorgenti a 12-bit (la navigazione internet non lo è e neppure i bluray).

Comunque sia non si ottiene quel colore perfettoSe il colore sia perfetto lo può stabilire solo una sonda professionale di regolazione colori, non certo il tuo occhio.

che si ha su AMDAMD,NVIDIA,INTEL, non cambia nulla. La rappresentazione del colore non dipende dalla marca della scheda né dalla tipologia di chip utilizzato. L'informazione è trasmessa in formato digitale senza alcun deterioramento e in maniera assolutamente identica. Questo è l'ABC dell'informatica, non so quale sia il tuo ambito lavorativo, ma lascia parlare chi ovviamente è più ferrato di te sull'argomento.


non è questione di regolazioni.E' questione di sapere o meno usare gli strumenti che si hanno a disposizione. Fra cui, ovviamente, le regolazioni.

Certo che se state sui dei monitor TN o IPS o quasiasi cosa, non noterete la differenza come la noto io su un TV di fascia altaUn buon 50% dei qui presenti sono certo che adotti monitor H-IPS di fascia medio/alta. Questi monitor sono capaci di rendere il 100% del sRGB con dei deltaE inferiori a 3 quindi assolutamente adeguati per qualsiasi verifica di colometria. Personalmente ho un S-PVA di fascia alta in quanto uso una TV.

che come colori è superiore a qualsiasi monitor in circolazione.No. I display migliori al mondo come resa di colore sono, appunto, monitor per PC (vengono usati in postproduzione e produzione). Eizo, NEC, Lacie, Dell... Una volta erano tutti S-PVA, ora sono tutti AH-IPS... con LUT di 16-bit.

DakmorNoland
09-05-2016, 14:12
Non è vero che la maggior parte dei qui presenti utilizza monitor di fascia medio-alta, al massimo hanno monitor da gioco di fascia medio-alta, che non sono esattamente il top come colori. Quanti hanno monitor professionali? Penso pochi.

Ti ricordo che il segnale digitale passa in cavi e i cavi non sono perfetti. Se cambi cavo/uscita, possono cambiare le cose, tipo luminosità, contrasto, ecc. E anche nitidezza. Sperimentato personalmente.

Quello che faccio nella vita? Sono tecnico informatico, quindi le mie competenze sono più che sufficienti. Sì lo so che i 12bit non centrano con il Range RGB, era solo per dire e comunque sì ho provato di tutto! E il mio TV è impostato in modo da sfruttare il range massimo.

Ho fatto 5000 prove e comunque non ottieni i colori di AMD, quelli di Nvidia sono decisamente smorti. E anche la gestione dei film e dei video è decisamente peggiore. Evidentemente AMD offre una gestione migliore dei flussi video. E non c'è regolazione dal pannello di Nvidia che tenga.

MiKeLezZ
09-05-2016, 14:52
Ti ricordo che il segnale digitale passa in cavi e i cavi non sono perfetti. Se cambi cavo/uscita, possono cambiare le cose, tipo luminosità, contrasto, ecc. E anche nitidezza. Sperimentato personalmente.No. L'informazione digitale è in formato binario e ha un controllo di parità quindi viene ricevuta senza errori.
Nello specifico è una TDMS ovvero Transition Minimized Differential Signaling che come si dovrebbe già capire dal nome permette una trasmissione differenziale del segnale appunto per minimizzare le possibili interferenze. Dal lato fisico utilizza inoltre cavi intrecciati fra loro per avere segnali in fase e controfase e annullare disturbi esterni (come l'ethernet). Oltre a questo utilizza un sistema di codifica 8b/10b ovvero utilizza 10bit di informazione per trasmettere 8bit di dati. Lato software invece si utilizza una codifica dell'informazione con ECC BCH in grado di correggere anche errori multibit.
Nel raro caso siano presenti errori incorreggibili nel flusso trasmissivo vuole dire ci troviamo di fronte a un cavo lasco oppure a una connessione di svariati metri di lunghezza veicolata con cavi cinesi non certificati... in questo caso l'immagine non viene trasmessa affatto oppure si vedono una miriade di artefatti.
In ogni caso non è possibile che un cavo DVI o HDMI determini il degradamento dell'immagine originale, ovvero minore luminosità, minore contrasto, etc. Questa è fantascienza visto il segnale non è analogico.
Sì, i cavetti dorati ricoperti di pelliccia di yeti sono quindi una stron**ta.

Quello che faccio nella vita? Sono tecnico informatico, quindi le mie competenze sono più che sufficienti.Dopo la castronata sui cavi spero tu debba ancora diplomarti o mi tocca nuovamente lamentarmi della qualità dell'istruzione italiana.

Ho fatto 5000 prove e comunque non ottieni i colori di AMD, quelli di Nvidia sono decisamente smorti. E anche la gestione dei film e dei video è decisamente peggiore. Evidentemente AMD offre una gestione migliore dei flussi video. E non c'è regolazione dal pannello di Nvidia che tenga.L'unica possibilità è che tu abbia inabilità tecniche talmente gravi (in questo campo, perlomeno) da non permetterti il giusto settaggio del banale sopracitato parametro di range colori. Ti consiglio di pagare un tecnico che ti insegni come si fa.

gd350turbo
09-05-2016, 15:00
Se trasmetto un 101001 dall'altra parte arriva 101001, se mettiamo in discussione questo, siamo sul forum di bimbi felici all'asilo !

gd350turbo
09-05-2016, 15:07
"Founders Edition".
Con questo cosa volevamo dire? Che pagherete cara anche la reference :asd:

Pagherete...
Non è ancora un bene di prima necessità, quindi potreste pagare...

htpci
09-05-2016, 15:12
Beh è sempre stato così. Se uno prende al lancio paga!! Se si aspettano 2-3 mesi le custom, allora si può risparmiare e il prezzo credo sarà sui 350-400 euro (parlo della 1070).

Speriamo che le custom siano ben fatte, perchè ultimamente mi pare che quelle con il dissipatore reference siano già ottime... Non è più come una volta quando c'erano le mezze stagioni...

A parte che non so bene il senso di queste schede. Ora mi rendo conto che la mia 970 è stata praticamente inutile, salvo titoli come The Witcher 3...

Per tutto il resto va benissimo la 5850 1GB VaporX ancora in mio possesso... Mah! Sono perplesso.

ma dai! addirittura la 5850 1gb, pure io ho una gtx 560 1gb e lo sappiamo bene che ormai tutti i giochi vogliono almeno 3gb per stare tranquilli, ho dovuto rinunciare ad alcuni titoli ed e' solo l'inizio.

Goofy Goober
09-05-2016, 15:19
Pagherete...
Non è ancora un bene di prima necessità, quindi potreste pagare...

basta comprare le custom più scamuffe :asd:

per me è un modo simpatico per dire che non esisterà più la scheda reference a prezzo base consigliato da Nvidia, ossia 599

dato che quella reference Nvidia costa 699, ogni produttore come Asus, MSI, Gigabyte etc etc si può sentir giustificato nel prendere i 599 di base e aggiungerci qualunque cifra giustificandola con il solito slogan pro-dissipatore che ci andrà a montare sopra :asd:

insomma, uno smacco totale per il mercato, una presa per i fondelli epocalmente ben riuscita.

LkMsWb
09-05-2016, 15:26
Intervengo brevemente sulla questione colori.
Anni fa quando si facevano ancora le prove di qualità delle schede video e non solo le gare a chi fa più fps a settaggi inverosimili era abbastanza noto che le ATI davano dei colori migliori rispetto alle Nvidia.
Lo dicono prove fatte da siti specializzati, mica io.

Però ad un livello notabile da professionisti e dai colorimetri non così visibili come vengono descritti in questi ultimi post.
Probabilmente qua si tratta del settaggio descritto da MiKeLezZ.

Sì, gli ultimi test che ricordo confrontavano una R9 290X con una 780 Ti, e mi pare che il deltaE medio (a schermo calibrato) della 290 fosse leggermente migliore, dello 0,06 a memoria, ma in generale cambia la curva del delta e quindi si può preferire una o l'altra scheda. Certo che con lo schermo calibrato è più una sensazione che altro. Sulla gestione video invece c'è da fare una parentesi, visto che le impostazioni default dei driver sono differenti fra AMD, Nvidia e Intel.

*aLe
09-05-2016, 15:36
dato che quella reference Nvidia costa 699, ogni produttore come Asus, MSI, Gigabyte etc etc si può sentir giustificato nel prendere i 599 di base e aggiungerci qualunque cifra [...] uno smacco totale per il mercato, una presa per i fondelli epocalmente ben riuscita.Beh, come ha detto bene gd350turbo, fortunatamente non è un bene di prima necessità.

Costa troppo? Il rapporto qualità/prezzo (molto più importante delle performance pure secondo me, uno di solito cerca di darsi un budget e di comprare il meglio che quel budget gli permette) non mi soddisfa? Aspetto e/o mi dirigo su altro.
Fortunatamente ci sono ancora le schede della concorrenza, ci sarà una futura 1060 (immagino) o ci saranno le schede della serie 9xx che (si spera) verranno scontate. Anche quella coi famosi 512 MB utilizzabili solo a velocità "bradipo zoppo in salita". :asd:

MiKeLezZ
09-05-2016, 15:56
Sì, gli ultimi test che ricordo confrontavano una R9 290X con una 780 Ti, e mi pare che il deltaE medio (a schermo calibrato) della 290 fosse leggermente migliore, dello 0,06 a memoria, ma in generale cambia la curva del delta e quindi si può preferire una o l'altra scheda. Certo che con lo schermo calibrato è più una sensazione che altro. Sulla gestione video invece c'è da fare una parentesi, visto che le impostazioni default dei driver sono differenti fra AMD, Nvidia e Intel.

NON vi è alcuna differenza trattandosi di trasmissione digitale:

https://hardforum.com/threads/a-real-test-of-nvidia-vs-amd-2d-image-quality.1694755/

Vi era differenza solo quando si trasmetteva tramite VGA... e si parla dei primi anni 2000. Differenza colmatasi poi con le GeForce 4 e l'utilizzo di RAMDAC a 400 MHz... ma già allora esisteva la DVI e tale problema non sussisteva.

LkMsWb
09-05-2016, 16:02
NON vi è alcuna differenza trattandosi di trasmissione digitale:

https://hardforum.com/threads/a-real-test-of-nvidia-vs-amd-2d-image-quality.1694755/

Vi era differenza solo quando si trasmetteva tramite VGA... e si parla dei primi anni 2000. Differenza colmatasi poi con le GeForce 4 e l'utilizzo di RAMDAC a 400 MHz... ma già allora esisteva la DVI e tale problema non sussisteva.

Vi è differenza di calcolo interno in 3D, ricordi i tempi in cui AMD sbandierava il calcolo interno dei colori a 10 bit per canale? E le connessioni erano già in DVI. La scheda la elabora una immagine, non fa solo da pass-through. Già il desktop di Windows non è 2D, e sì, anche 0,2 di delta di differenza è una differenza. Ed è più ampia dello 0,06 che ho riportato io. Che sia visibile o meno altro discorso.

mirkonorroz
09-05-2016, 16:46
Io non vedo bene i colori, ma vedo bene che nel titolo della news vi e' scritto Fouders :stordita:

gd350turbo
09-05-2016, 17:46
Beh, come ha detto bene gd350turbo, fortunatamente non è un bene di prima necessità.

Costa troppo? Il rapporto qualità/prezzo (molto più importante delle performance pure secondo me, uno di solito cerca di darsi un budget e di comprare il meglio che quel budget gli permette) non mi soddisfa? Aspetto e/o mi dirigo su altro.
Fortunatamente ci sono ancora le schede della concorrenza, ci sarà una futura 1060 (immagino) o ci saranno le schede della serie 9xx che (si spera) verranno scontate. Anche quella coi famosi 512 MB utilizzabili solo a velocità "bradipo zoppo in salita". :asd:
Esattamente...
Ne più e ne meno...
Pompano il prezzo ?
Si lascia sullo scaffale!
Sicuramente quando si trovano i magazzini pieni di schede invendute, il prezzo calerà...
Non mi risulta che il non possesso della scheda video ultimo modello, sia dannoso

Ma se metteranno la founders a 999€ e ci sarà chi la comprerà, be chi è causa del proprio mal pianga se stesso

DakmorNoland
09-05-2016, 20:43
In ogni caso non è possibile che un cavo DVI o HDMI determini il degradamento dell'immagine originale, ovvero minore luminosità, minore contrasto, etc. Questa è fantascienza visto il segnale non è analogico.
Sì, i cavetti dorati ricoperti di pelliccia di yeti sono quindi una stron**ta.


La teoria la so benissimo, ho tagliato le parti offensive e ringrazia che non ti abbia segnalato, perchè veramente ci sei andato giù pesante.

Intanto quello che intendevo è che già solo utilizzando l'uscita DVI piuttosto che l'uscita HDMI sulla stessa scheda video ottieni situazioni diverse. Si vedono tutte e due perfettamente, ma evidentemente le due uscite hanno un comportamento diverso. Oppure saranno i cavi con cui avevo provato? Non lo so, ma è un dato di fatto, perchè avevo dovuto regolare di nuovo lo schermo, visto che contrasto e luminosità erano variati.

I cavi come dici tu possono essere difettosi e quindi confermi quello che dicevo. Anch'io inizialmente ero convinto che fossero tutti identici, tanto il segnale è digitale no?

Invece non è così, se il cavo non è buono o comunque difettoso l'immagine può anche passare perfettamente, ma avere una nitidezza sballata oppure accentuare il motion blur su uno schermo.

A me era successo con la PS3 e un cavo HDMI 1.3b marchiato A*chan (evidentemente difettoso o non buono). L'immagine statica si vedeva benissimo, ma quando giocavo ad un FPS non capivo più niente. Muovendo velocemente la camera i pixel diventavano non più definiti, creando un effetto di disorientamento ed era di fatto inutilizzabile. Parliamo di cavo di 3metri. Inizialmente volevo buttare il TV, poi cambio cavo e puff il problema scompare. Come lo spieghi?

Guarda mi spiace aver buttato quel cavo anni fa, perchè se no te lo farei vedere dal vivo e ti dovresti rimangiare ogni singola parola.

Poi sono d'accordo che non abbia senso spendere milioni per un cavo HDMI, ma meglio evitare cinesate o marche dubbie, perchè i problemi a volte non sono così evidenti, ma ci sono e possono essere fastidiosi.

NON vi è alcuna differenza trattandosi di trasmissione digitale:

https://hardforum.com/threads/a-real-test-of-nvidia-vs-amd-2d-image-quality.1694755/

Vi era differenza solo quando si trasmetteva tramite VGA... e si parla dei primi anni 2000. Differenza colmatasi poi con le GeForce 4 e l'utilizzo di RAMDAC a 400 MHz... ma già allora esisteva la DVI e tale problema non sussisteva.

Non è così!! Allora seguendo il tuo ragionamento anche le uscite ottiche digitali (per l'audio), dovrebbero essere tutte uguali e perfette. Invece è risaputo che ad esempio l'uscita ottica della PS3 faccia schifo e che comunque ci siano uscite più o meno buone. Basta andare sui forum degli appassionati per avere la conferma. Addirittura certi cavi in fibra ottica, possono variare la resa finale.

Comunque le immagini vengono prima elaborate dalla scheda e poi passate all'uscita digitale, quindi c'è un passaggio prima, che è differente tra Nvidia e AMD e nulla ha a che fare con l'uscita o con l'informazione digitale. Semplicemente è diverso!! E non c'è impostazione che regga.

Se poi tu non vedi la differenza è un altro discorso, la percezione dei colori varia da persona a persona, fine della storia.

TwinDeagle
09-05-2016, 22:26
Intanto quello che intendevo è che già solo utilizzando l'uscita DVI piuttosto che l'uscita HDMI sulla stessa scheda video ottieni situazioni diverse. Si vedono tutte e due perfettamente, ma evidentemente le due uscite hanno un comportamento diverso. Oppure saranno i cavi con cui avevo provato? Non lo so, ma è un dato di fatto, perchè avevo dovuto regolare di nuovo lo schermo, visto che contrasto e luminosità erano variati.
Le uscite sono identiche. Se usi una tv, il problema è come la tv interpreta il segnale HDMI. Se questo proviene da un pc, devi impostarlo sul televisore. Sui tv samsung, puoi modificare la sorgente degli ingressi. Se imposti su "pc" la sorgente dell'HDMI non avrai nessuna differenza con il DVI.


I cavi come dici tu possono essere difettosi e quindi confermi quello che dicevo. Anch'io inizialmente ero convinto che fossero tutti identici, tanto il segnale è digitale no?

Invece non è così, se il cavo non è buono o comunque difettoso l'immagine può anche passare perfettamente, ma avere una nitidezza sballata oppure accentuare il motion blur su uno schermo.

A me era successo con la PS3 e un cavo HDMI 1.3b marchiato A*chan (evidentemente difettoso o non buono). L'immagine statica si vedeva benissimo, ma quando giocavo ad un FPS non capivo più niente. Muovendo velocemente la camera i pixel diventavano non più definiti, creando un effetto di disorientamento ed era di fatto inutilizzabile. Parliamo di cavo di 3metri. Inizialmente volevo buttare il TV, poi cambio cavo e puff il problema scompare. Come lo spieghi?

Guarda mi spiace aver buttato quel cavo anni fa, perchè se no te lo farei vedere dal vivo e ti dovresti rimangiare ogni singola parola.

Poi sono d'accordo che non abbia senso spendere milioni per un cavo HDMI, ma meglio evitare cinesate o marche dubbie, perchè i problemi a volte non sono così evidenti, ma ci sono e possono essere fastidiosi.

Il difetto di cui tu parli non centra nulla con la nitidezza, la luminosita e il contrasto. Il difetto che descrivi è, come ti è stato detto, la normale comparsa di artefatti in presenza di cavi di scarsa qualità. Il cosi detto "squadrettamento". Quel fenomeno è dato dalla perdita delle informazioni. Di fatto, se il determinato pixel arriva molto corrotto e non può essere corretto, viene scartato. A quel punto ci sono vari sistemi per ricostruire l'immagine quando mancano le informazioni, ma quello è compito dei televisori/monitor. Più l'immagine è statica, migliore sarà la resa anche in caso di informazioni corrotte. Per immagini molto movimentate, il sistema di ricostruzione è completamente fallimentare, ed ecco comparire una confusione di pixel e quadretti.

[QUOTE=DakmorNoland;43651956]
Non è così!! Allora seguendo il tuo ragionamento anche le uscite ottiche digitali (per l'audio), dovrebbero essere tutte uguali e perfette. Invece è risaputo che ad esempio l'uscita ottica della PS3 faccia schifo e che comunque ci siano uscite più o meno buone. Basta andare sui forum degli appassionati per avere la conferma. Addirittura certi cavi in fibra ottica, possono variare la resa finale.

Qui la faccenda è ben più complessa. L'audio può essere elaborato in maniera più o meno buona. Che ci sia quindi un sistema in grado di elaborare un segnale audio in maniera più o meno buona è verissimo. Poi il segnale elaborato viene trasmesso. Se il segnale audio digitale è scadente, la resa sarà scadente. Ben diverso il caso di audio digitale non elaborato e semplicemente trasmesso sull'uscita ottica. In quel caso, il segnale o arriva o non arriva. La resa audio la farà esclusivamente il ricevitore, a quel punto. Non conosco come lavori l'audio la playstation, se fa una pre-elaborazione o meno dell'audio. Ma di certo rimane il fatto che un segnale digitale, per farla breve, o arriva, o non arriva.

bagnino89
10-05-2016, 07:55
Le uscite sono identiche. Se usi una tv, il problema è come la tv interpreta il segnale HDMI. Se questo proviene da un pc, devi impostarlo sul televisore. Sui tv samsung, puoi modificare la sorgente degli ingressi. Se imposti su "pc" la sorgente dell'HDMI non avrai nessuna differenza con il DVI.

Quoto assolutamente. Quando l'ho detto ad alcune persone, non credevano ai loro occhi...

*aLe
10-05-2016, 08:05
Le uscite sono identiche. Se usi una tv, il problema è come la tv interpreta il segnale HDMI. Se questo proviene da un pc, devi impostarlo sul televisore. Sui tv samsung, puoi modificare la sorgente degli ingressi.Idem sugli LG.
Poi vabbé, io sto usando il PC collegato a un televisore LG (della serie M80) e ho dovuto litigare per mesi con la resa dei colori anche impostando l'ingresso video HDMI su "PC" (mentre come TV andava benissimo già coi settaggi standard), ma questo è un altro paio di maniche.
Un altro televisore LG che ho in casa (testato con lo stesso PC, con lo stesso cavo) per esempio non ha mai avuto questo problema.

gd350turbo
10-05-2016, 08:24
Il cavo hdmi è equiparabile ad un cavo di rete, se non è difettoso e/o farlocco, quello che entra da una parte esce dall'altra tale e quale...

Poi ci può essere l'elettronica che gestisce il segnale ricevuto che lo "interpreta" in maniera diversa, magari a causa di timing o livelli dei segnali leggermente diversi da quelli che si aspetta di ricevere !

EMAXTREME
12-05-2016, 23:21
Non è così!! Allora seguendo il tuo ragionamento anche le uscite ottiche digitali (per l'audio), dovrebbero essere tutte uguali e perfette. Invece è risaputo che ad esempio l'uscita ottica della PS3 faccia schifo e che comunque ci siano uscite più o meno buone. Basta andare sui forum degli appassionati per avere la conferma. Addirittura certi cavi in fibra ottica, possono variare la resa finale.

Ma se parliamo di audio digitale il discorso cambia, nell'uscita ottica SPDF/TOSLINK non è prevista la correzione di errore, il fenomeno del jitter infatti è frequente e dipende moltissimo dalla qualità della sorgente, del ricevitore e del vettore utilizzato per la trasmissione, discorso diverso invece per quanto riguarda il trasferimento audio via usb/asincrono e hdmi, in quei protocolli come ha anche spiegato dettagliatamente mikelezz esiste un sistema di controllo e re-invio.
Questo a prescindere dalla genuinità dell'esperienza che hai avuto riguardo l'hdmi.